JPH11110517A - Information processor and its processing method - Google Patents

Information processor and its processing method

Info

Publication number
JPH11110517A
JPH11110517A JP27127097A JP27127097A JPH11110517A JP H11110517 A JPH11110517 A JP H11110517A JP 27127097 A JP27127097 A JP 27127097A JP 27127097 A JP27127097 A JP 27127097A JP H11110517 A JPH11110517 A JP H11110517A
Authority
JP
Japan
Prior art keywords
image data
image
unit
data
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP27127097A
Other languages
Japanese (ja)
Inventor
Megumi Yoshimura
めぐみ 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP27127097A priority Critical patent/JPH11110517A/en
Publication of JPH11110517A publication Critical patent/JPH11110517A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve operability in the compositing work of an image. SOLUTION: Various data of an original image and a background image 102 are stored in a memory. A display part 111 displays the image based on image data of the original image 101 on a display screen. An extraction part 112 obtains a designated position designated by a mouse cursor and the like on the displayed image from the display part 111 and extracts partial data, corresponding to the designated position from the original image 101 and the background image 102. Partial data are data in an area specified by a brush pattern 113 with the designated position as a center in respective image data. A compositing part 114 executes a compositing processing, based on the brush pattern 113 and writes the result in the corresponding part of the original image 101.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、2次元画像をメモ
リ上に展開してその展開されたデータを書き換えること
により画像を加工する情報処理装置及び情報処理方法に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus and an information processing method for processing an image by expanding a two-dimensional image on a memory and rewriting the expanded data.

【0002】[0002]

【従来の技術】一般に、パーソナルコンピュータ等にお
いて、2次元画像をメモリ上に展開してその展開された
データを書き換えることにより画像を加工することを可
能とするアプリケーションが知られている。また、この
種のアプリケーションを実行するパーソナルコンピュー
タにおいては、キーボードや、マウスやペンなどのよう
なポインティングデバイス等の入力装置を具備する。こ
れらの入力装置によって、表示器などに表示されたアイ
コン、ボタンや文字列などによる情報を指示することが
できる。そして、アプリケーションは、その指示に従っ
て対応する処理を実行する。
2. Description of the Related Art In general, in a personal computer or the like, there is known an application capable of developing a two-dimensional image on a memory and processing the image by rewriting the developed data. A personal computer that executes this type of application includes an input device such as a keyboard and a pointing device such as a mouse and a pen. With these input devices, it is possible to instruct information such as icons, buttons, and character strings displayed on a display or the like. Then, the application executes a corresponding process according to the instruction.

【0003】画像の加工には、ある画像の一部を他の画
像に貼り付けるといった画像の合成が含まれる。一般
に、2枚の画像を合成する場合には、ユーザが貼り付け
る画像の輪郭をポインティングデバイスを用いてなぞっ
て切り出したり、または自動的に輪郭切り取りを行なっ
たり、マスクデータを用いたりするなどの方法が用いら
れていた。
[0003] Image processing includes image compositing, such as pasting a portion of an image to another image. In general, when combining two images, a method such as tracing out the outline of an image to be pasted by a user using a pointing device, or automatically cutting out the outline, or using mask data is used. Was used.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、ユーザ
による輪郭の切り出しは操作が難しく、また自動的に輪
郭を切り取る方法は処理が重く、目的の輪郭が得られな
い場合も多かった。したがって、上記従来のデータ処理
システムにおいて2枚の画像を合成するような場合に、
ユーザが望む結果を満足には得られない場合があった。
However, the operation of cutting out the contour by the user is difficult, and the method of automatically cutting out the contour is heavy in processing, and in many cases, the desired contour cannot be obtained. Therefore, when combining two images in the above-described conventional data processing system,
In some cases, the result desired by the user was not obtained satisfactorily.

【0005】本発明は上記問題点を解決するためになさ
れたもので、画像の合成作業における操作性を向上する
情報処理装置及び方法を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and has as its object to provide an information processing apparatus and a method for improving operability in an image synthesizing operation.

【0006】[0006]

【課題を解決するための手段】上記の目的を達成するた
めの本発明の情報処理装置は以下の構成を備える。すな
わち、第1及び第2の画像データを格納する格納手段
と、前記第1の画像データに基づく画像を画面上に表示
する表示手段と、前記表示手段で表示された画像上にお
いて指定された指定部位に対応する部分を、前記第1及
び第2の画像データのそれぞれより抽出する抽出手段
と、前記抽出手段で抽出されたデータについて合成処理
を行う合成手段とを備える。
An information processing apparatus according to the present invention for achieving the above object has the following arrangement. That is, storage means for storing first and second image data, display means for displaying an image based on the first image data on a screen, and designation designated on the image displayed by the display means The image processing apparatus includes an extracting unit that extracts a portion corresponding to a part from each of the first and second image data, and a combining unit that performs a combining process on the data extracted by the extracting unit.

【0007】また、上記の目的を達成する本発明の情報
処理方法は以下の工程を有する。すなわち、第1及び第
2の画像データを記憶領域に格納する格納工程と、前記
第1の画像データに基づく画像を画面上に表示する表示
工程と、前記表示工程で表示された画像上において指定
された指定部位に対応する部分を、前記第1及び第2の
画像データのそれぞれより抽出する抽出工程と、前記抽
出工程で抽出されたデータについて合成処理を行う合成
工程とを備える。
Further, the information processing method of the present invention for achieving the above object has the following steps. That is, a storage step of storing the first and second image data in a storage area, a display step of displaying an image based on the first image data on a screen, and a designation on the image displayed in the display step An extraction step of extracting a portion corresponding to the designated part from each of the first and second image data, and a combining step of performing a combining process on the data extracted in the extraction step.

【0008】[0008]

【発明の実施の形態】以下、添付の図面を参照して本発
明の実施形態を説明する。
Embodiments of the present invention will be described below with reference to the accompanying drawings.

【0009】図1は、本発明の一実施形態に係るデータ
処理装置の概略構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a data processing apparatus according to one embodiment of the present invention.

【0010】本実施形態に係るデータ処理装置は、CP
U(中央処理装置)1、ROM(リードオンリメモリ)
2、RAM(ランダムアクセスメモリ)3、キーボード
4、マウス5、表示器6、および外部記憶装置7により
構成され、これら各構成要素はバスライン8により互い
に接続されている。なお、システム構成によっては、後
述するシステムプログラムや画像合成処理プログラムな
どは、ROM2のかわりにハードディスクなどのような
外部記憶装置7に格納されていてもよい。この場合、必
要なプログラムが外部記憶装置7よりRAM3にロード
され、CPU1によって実行されることになる。
[0010] The data processing apparatus according to the present embodiment has a CP
U (central processing unit) 1, ROM (read only memory)
2, a RAM (random access memory) 3, a keyboard 4, a mouse 5, a display 6, and an external storage device 7, and these components are connected to each other by a bus line 8. Note that, depending on the system configuration, a system program and an image composition processing program, which will be described later, may be stored in the external storage device 7 such as a hard disk instead of the ROM 2. In this case, a necessary program is loaded from the external storage device 7 to the RAM 3 and executed by the CPU 1.

【0011】CPU1は、例えばマイクロプロセッサで
あり、本装置各部の動作を制御する。ROM2は、シス
テムプログラム2a、画像処理用アプリケーションプロ
グラム(以下、画像アプリプログラム)を格納する。画
像アプリプログラム2bは、画像加工操作等に係る各種
処理を指示したり実行したりする。また、画像アプリプ
ログラム2bは画像合成処理プログラム2b1(後述す
る)を含む。
The CPU 1 is, for example, a microprocessor and controls the operation of each section of the apparatus. The ROM 2 stores a system program 2a and an image processing application program (hereinafter, image application program). The image application program 2b instructs and executes various processes related to an image processing operation and the like. The image application program 2b includes an image composition processing program 2b1 (described later).

【0012】RAM3は、画像を合成する元になる画像
を格納するための画像データ領域3a、画像データに合
成する画像を格納するための背景画像データ領域3b、
合成する場合の最小領域であるブラシパターン(後述す
る)に関する情報が格納されたブラシパターン領域3
c、およびその他の管理・ワーク領域3f等により構成
されている。
The RAM 3 has an image data area 3a for storing an image from which an image is to be synthesized, a background image data area 3b for storing an image to be synthesized with image data,
A brush pattern area 3 in which information on a brush pattern (described later), which is a minimum area for combining, is stored.
c and other management / work areas 3f.

【0013】画像データ領域3aに格納された画像デー
タ(以後、これを元画像データと記述する場合もある)
は、2枚の画像を合成する元になる画像であり、合成後
の画像の縦・横画素数はこの元画像データの縦・横画素
数となる。外部記憶装置7から画像を読み込むと、まず
ここに格納される。何らかの加工処理などを行なったが
加工結果が気にいらなかった場合などに、画像を元の状
態に戻すことを可能とするために、加工前の画像データ
を格納しておく領域をこの画像データ領域3aの他に確
保しておいても良い。あるいは、加工処理された画像デ
ータを別の領域に書き込むようにしてもよい。例えば、
合成する画像データを画像データ領域3aの領域に貼り
付けることをせずに、別の画像領域を準備してそこに合
成結果を書き込むようにしてもよい。また、元画像デー
タは、既に他の何らかの加工を行なった結果の画像であ
っても良いことはいうまでもない。
Image data stored in the image data area 3a (hereinafter sometimes referred to as original image data)
Is an image from which two images are synthesized, and the number of vertical and horizontal pixels of the image after synthesis is the number of vertical and horizontal pixels of the original image data. When an image is read from the external storage device 7, it is stored here first. In order to make it possible to return the image to its original state, for example, when some processing has been performed but the result of the processing is not desired, an area for storing the image data before processing is stored in the image data area 3a. May be reserved in addition to. Alternatively, the processed image data may be written to another area. For example,
Instead of pasting the image data to be combined to the image data area 3a, another image area may be prepared and the synthesis result may be written there. Needless to say, the original image data may be an image obtained as a result of some other processing.

【0014】背景画像データ領域3bに格納された画像
データ(以後、この画像データを背景画像データと記述
する場合もある)は元画像データに合成される画像であ
る。背景画像データは、元画像データの縦・横画素数と
同じになるように変倍されて元画像データに合成され
る。この背景画像データも、元画像データと同じように
外部記憶装置7から読み込まれる。
The image data stored in the background image data area 3b (hereinafter, this image data may be described as background image data) is an image to be synthesized with the original image data. The background image data is scaled so as to have the same number of vertical and horizontal pixels as the original image data and synthesized with the original image data. This background image data is also read from the external storage device 7 in the same manner as the original image data.

【0015】本実施形態では元画像データの任意の領域
をポインティングデバイスなどで指示することによりそ
の指示された領域に背景画像データの対応する領域を貼
り付けるが、その場合の指示領域の最小単位が、ブラシ
パターン領域3cに格納されるブラシパターンによって
定められる。
In this embodiment, an arbitrary area of the original image data is designated by a pointing device or the like, and a corresponding area of the background image data is pasted on the designated area. In this case, the minimum unit of the designated area is , And the brush pattern stored in the brush pattern area 3c.

【0016】その他の各種情報やデータを管理したり、
ワークとして使用したりするための領域が管理・ワーク
領域3fである。
[0016] It manages various other information and data,
An area used as a work is the management / work area 3f.

【0017】キーボード4は、ユーザが文字・数字・記
号等のデータの入力、及びCPU1に対する各種指示を
行なうためのものである。マウス5は、表示器6上に表
示されている各種情報を指示することにより、CPU1
に対して各種指示を行なう。マウスの代わりにトラック
ボール、ペン、またはタッチパネル等の方式でも良い。
表示器6は、LCD等により構成され、CPU1の制御
により各種データの表示を行なう。外部記憶装置7は、
例えばフロッピーディスク等のメディアからなり、該外
部記憶装置7からCPU1の制御により読み出された各
種データは、バスライン8を介してRAM3上で展開さ
れる。
The keyboard 4 is for the user to input data such as characters, numbers, and symbols, and to give various instructions to the CPU 1. The mouse 5 is used to indicate various types of information displayed on the display unit 6 so that the CPU 1
To give various instructions. Instead of a mouse, a trackball, a pen, a touch panel or the like may be used.
The display 6 is composed of an LCD or the like, and displays various data under the control of the CPU 1. The external storage device 7
For example, various data read from the external storage device 7 under the control of the CPU 1 is developed on the RAM 3 via the bus line 8.

【0018】以上の構成を備えた本実施形態のデータ処
理装置の動作について説明する。
The operation of the data processing apparatus according to the present embodiment having the above configuration will be described.

【0019】図2は、本実施形態で説明する画像の合成
処理の概要を説明する図である。(a)は、画像の合成
を指示する表示器6上の画面の様子を表している。な
お、実際には、必要となる各種ツールアイコンなども同
時に表示される場合がある。
FIG. 2 is a diagram for explaining the outline of the image synthesizing process described in the present embodiment. (A) shows the state of the screen on the display 6 for instructing the synthesis of the image. Actually, various necessary tool icons may be displayed at the same time.

【0020】合成処理が指示されると、画面上には元画
像データを表示した画像21の上に、合成領域を指示す
るためのマウスカーソル22が表示される。図では+の
形状で表示しているが、後述するブラシパターン31と
同じ形状にするなど、他の形状であってもよい。
When the synthesizing process is instructed, a mouse cursor 22 for indicating a synthesizing area is displayed on an image 21 displaying the original image data on the screen. In the figure, the shape is indicated by a + shape, but may be another shape such as the same shape as a brush pattern 31 described later.

【0021】(b)は、画面に表示された画像21に対
応する元画像データ23の様子を示している。これは画
像データ領域3aに格納されている画像データである。
(a)の画面でカーソルによって指示された位置は、対
応する元画像データ23ではそれと相対的に同じ位置
(領域)が対象となる。ここで、「相対的に」というの
は次の理由からである。すなわち、もし(b)の元画像
データ23の1画素が(a)の表示器6上でも1ドット
として表示されるならば、(a)の1ドットと(b)の
1画素が1対1に対応する。しかしながら、元画像デー
タ23が表示器6に表示できる画像領域のドット数を越
えて大きい場合などは、スクロールさせない限り1対1
に対応させることはできないので、例えば元画像データ
23の4画素を画面上に表示された画像の1ドットに対
応させるなど、縮小または拡大されて元画像データ23
が画面上に表示されるからである。
FIG. 2B shows the original image data 23 corresponding to the image 21 displayed on the screen. This is image data stored in the image data area 3a.
The position indicated by the cursor on the screen (a) is the same position (area) as the target in the corresponding original image data 23. Here, "relatively" is for the following reason. That is, if one pixel of the original image data 23 of (b) is displayed as one dot on the display 6 of (a), one dot of (a) and one pixel of (b) are in one-to-one correspondence. Corresponding to However, when the original image data 23 is larger than the number of dots in the image area that can be displayed on the display 6, for example, the one-to-one
Since the original image data 23 is not reduced or enlarged, for example, four pixels of the original image data 23 are made to correspond to one dot of the image displayed on the screen.
Is displayed on the screen.

【0022】(c)は、元画像データ23に合成する背
景画像データ24であり、背景画像データ領域3bに格
納されている画像データである。この背景画像データ2
4は、元画像データ23と大きさが異なっていてもよ
い。本例では、背景画像データ24上における、画面で
指示された位置(領域)と相対的に同じ位置(領域)の
データが、元画像データ23における画面で指示された
位置(領域)と相対的に同じ位置(領域)に貼り付けら
れる。
(C) is the background image data 24 to be synthesized with the original image data 23, which is the image data stored in the background image data area 3b. This background image data 2
4 may be different in size from the original image data 23. In this example, the data at the same position (area) on the background image data 24 as the position (area) specified on the screen is relative to the position (area) specified on the screen in the original image data 23. At the same position (area).

【0023】(d)は、指示された位置への合成を行っ
た後の元画像データ23の状態を示している。図示のよ
うに、本例ではマウスカーソルによって指示された位置
の、ブラシパターン31で特定される領域が合成処理の
対象となる。
FIG. 2D shows the state of the original image data 23 after the synthesis at the designated position. As shown in the figure, in this example, the area specified by the brush pattern 31 at the position indicated by the mouse cursor is to be subjected to the synthesis processing.

【0024】図3はブラシパターンの例を示す図であ
る。(a)はブラシパターンを2値にて構成した例であ
る。この場合、例えば黒の部分に背景画像データが貼り
付けられ、白の部分には元画像データが貼り付けられる
(元画像データがそのまま残る)ことを示している。実
際には、例えば黒の部分=1、白の部分=0として表現
すれば、2値のデータでブラシパターンを構成すること
ができる。すなわち、ブラシパターンの領域において、
[元画像データの画素値]×(1−[ブラシパターンの
値])と[背景画像データの画素値]×[ブラシパター
ンの値]の論理和をとって合成することで合成画像の画
素値を生成する。
FIG. 3 is a diagram showing an example of a brush pattern. (A) is an example in which the brush pattern is constituted by two values. In this case, for example, the background image data is pasted on a black portion, and the original image data is pasted on a white portion (the original image data remains as it is). Actually, if expressed as, for example, black part = 1 and white part = 0, the brush pattern can be constituted by binary data. That is, in the area of the brush pattern,
The pixel value of the composite image is obtained by taking the logical sum of [pixel value of original image data] × (1− [value of brush pattern]) and [pixel value of background image data] × [value of brush pattern]. Generate

【0025】また、(b)はブラシパターンを多値にし
た例である。数値は、その画素に対応する背景画像上の
画素のパーセンテージを表し、上記の式と同様の演算に
よって画素値を算出することができる。例えば「70」
の部分を例にとると、[ブラシパターンのその位置に対
応する背景画像データ上の画素の値]×70%+[元画
像データ上の対応する画素の値]×30%が、合成画像
の対応する画素の値となる。このようにブラシパターン
を多値とすることにより、元画像と背景画像を合成した
領域の境界部分が、元画像から背景画像へと自然に変化
するように見えるという効果がある。
FIG. 3B is an example in which the brush pattern is multi-valued. The numerical value represents the percentage of the pixel on the background image corresponding to the pixel, and the pixel value can be calculated by the same operation as the above equation. For example, "70"
For example, in the case of the portion of the above, [the value of the pixel on the background image data corresponding to the position of the brush pattern] × 70% + [the value of the corresponding pixel on the original image data] × 30% It becomes the value of the corresponding pixel. By making the brush pattern multi-valued in this way, there is an effect that the boundary portion of the area where the original image and the background image are combined appears to change naturally from the original image to the background image.

【0026】図4は、本実施形態による合成処理の操作
仕様例を示す図である。図4における画像は、表示器6
上に表示された画像(図2(a)の21に相当する)を
示している。画像データの処理を行う場合には、表示器
6に表示された画像をマウスなどのポインティングデバ
イス、またはカーソルキーなどキーボードからの入力な
どによって指示することによって処理を行なう。
FIG. 4 is a diagram showing an example of operation specifications of the synthesizing process according to the present embodiment. The image in FIG.
An image (corresponding to 21 in FIG. 2A) displayed above is shown. When processing image data, the processing is performed by instructing the image displayed on the display 6 by a pointing device such as a mouse or an input from a keyboard such as a cursor key.

【0027】図4におけるt0の+記号は、合成指示を
行ない、合成したい領域の始点を指示した状態のカーソ
ル位置である。例えばマウスによってこのカーソルを移
動させ、始点としたい位置で実行ボタンを押下すること
によって始点位置が決定される。次に背景を貼り付けた
い方向にカーソルを移動させると、画面では移動させた
軌跡に沿って背景が浮かび上がる。例えば始点を指定す
るためにマウスのボタンを押下し、その状態のまま(マ
ウスのボタンを押下したまま)ドラッグし、終点におい
てマウスボタンを放す。この様に、始点を指定してから
終点を指定するまでの間のマウスの軌跡に沿って当該元
画像データへの背景画像データの貼り付けが行われる。
The + symbol at t0 in FIG. 4 is the cursor position in a state where a compositing instruction is given and the start point of the area to be composed is designated. For example, the cursor is moved by a mouse, and the start button is pressed at a position to be set as the start point, thereby determining the start point position. Next, when the cursor is moved in a direction in which the background is to be pasted, the background appears on the screen along the locus of the movement. For example, a mouse button is pressed to specify a start point, dragged in that state (while holding down the mouse button), and the mouse button is released at the end point. In this way, the background image data is pasted to the original image data along the locus of the mouse from when the start point is specified to when the end point is specified.

【0028】なお、始点と終点の指定の操作方法は上記
に限らない。例えば、始点で1クリックした後にマウス
を動かし、終点でもう一度1クリックするようにしても
よい。あるいは、キーボードのカーソルキーなどによっ
てカーソルを移動させて、実行キーなどにより始点・終
点を指定するようにしてもよい。このように、そのシス
テムの操作仕様にしたがって始点・終点を指定する。
The operation method for designating the start point and the end point is not limited to the above. For example, the mouse may be moved after one click at the start point, and one click may be performed again at the end point. Alternatively, the cursor may be moved by a cursor key or the like of a keyboard, and the start point and the end point may be designated by an execution key or the like. In this way, the start point and the end point are specified according to the operation specifications of the system.

【0029】なお、カーソルキーによる始点・終点の指
定であれば、例えば実行キーが1回押下されて始点が指
定された後、当該実行キーの再度の押下によって終点が
指定されるまで、カーソル移動のためのカーソルキーが
押される毎に図5で説明する合成処理を実行する。もち
ろん1回押下でなく、複数回の押下毎に行なったり、一
定時間経過後の押下で行なったり、表示上の画像でのカ
ーソルの動きではなく実際の画像データ上での対象位置
の移動量に合わせて行なったりするなど、合成処理を実
行するタイミングは一通りではない。
In the case of specifying the start point and end point using the cursor keys, for example, after the start key is pressed once to specify the start point, the cursor is moved until the end point is specified by pressing the execute key again. Each time the cursor key is pressed, the synthesizing process described with reference to FIG. 5 is executed. Of course, instead of pressing once, it is performed every time the button is pressed, or after a certain period of time, and the amount of movement of the target position on the actual image data is not the movement of the cursor on the image on the display. The timing at which the combining process is performed, such as when they are performed together, is not unique.

【0030】またマウスなどのポインティングデバイス
による始点、終点の指定であれば、始点指定から終点指
定までの間に、一定時間経過する毎にその時点のカーソ
ルの位置を取得して合成処理を行なう。この場合も、一
定時間ではなく移動量を考慮したり、直前の合成処理を
行なった位置からカーソルが移動されていない場合には
合成処理を行なわないなど、合成処理を行なうタイミン
グは一通りではない。
When the start point and the end point are designated by a pointing device such as a mouse, the position of the cursor at that point is acquired every time a predetermined time elapses between the start point designation and the end point designation, and the synthesizing process is performed. In this case as well, the timing of performing the combining process is not unique, such as considering the amount of movement instead of the fixed time or not performing the combining process if the cursor is not moved from the position where the previous combining process was performed. .

【0031】図4の例では、一定時間経過毎にその時点
のカーソル位置を取得して合成処理を行なう様子を示し
ている。t0からt1、t2、というように一定時間が
経過したときのカーソル位置で合成処理を行なってい
る。そしてその合成結果は(b)のようになる。なお、
図4の(a)において、実際には、t0からt1にカー
ソルが移動する時点で、t0における背景合成が行われ
るために、カーソルがt1に移動した時点ではt0には
背景が表示されている。また、図4の(b)において
は、図4(a)のt14が終点となった時点の表示器上
の画像が示されている。
FIG. 4 shows an example in which the cursor position at that time is acquired every time a predetermined time elapses and the combining process is performed. The combining process is performed at the cursor position when a certain time elapses from t0 to t1, t2, and so on. The result of the synthesis is as shown in FIG. In addition,
In FIG. 4A, the background is actually synthesized at t0 when the cursor moves from t0 to t1, so the background is displayed at t0 when the cursor moves to t1. . Further, FIG. 4B shows an image on the display at the time when t14 in FIG. 4A is the end point.

【0032】以下、図5のフローチャートと図2〜4を
用いて処理の流れを説明する。図5は本実施形態による
画像合成処理の手順を説明するフローチャートである。
ただし、画像アプリなどを起動し、各種初期処理を行な
うフローや、画像を呼び出したりするなどの処理のフロ
ーは、図5のフローチャートでは省略する。
The processing flow will be described below with reference to the flowchart of FIG. 5 and FIGS. FIG. 5 is a flowchart illustrating the procedure of the image combining process according to the present embodiment.
However, a flow of starting an image application and performing various initial processes and a flow of a process of calling an image and the like are omitted in the flowchart of FIG.

【0033】まず、画像アプリが起動されると、ROM
2から画像アプリプログラム2bや本実施形態のように
画像を合成するための画像合成処理プログラム2b1が
読み出される。ただし、画像合成処理プログラム2b1
は、画像アプリから画像合成処理が起動された時に読み
出されるようにすれば、無駄な領域を使わないために効
果的である。画像の合成に必要となる各種情報や領域
は、RAM3上に確保される。画像データ領域3aや背
景画像データ領域3b、ブラシパターン領域3cは、当
該画像アプリの起動時に確保すれば良いが、それぞれが
必要となった時点で確保するようにすれば、やはり無駄
な領域を使わないため、他にメモリ領域を使用する他の
処理を行なう際などに効果的である。管理・ワーク領域
3fも、アプリ起動時にあらかじめ確保するか、必要と
なった時に確保しても良い。
First, when the image application is activated, the ROM
2, an image application program 2b and an image synthesis processing program 2b1 for synthesizing images as in the present embodiment are read. However, the image synthesis processing program 2b1
Is effective when the image composition processing is started from the image application so that no useless area is used. Various information and areas required for image synthesis are secured in the RAM 3. The image data area 3a, the background image data area 3b, and the brush pattern area 3c may be secured at the time of starting the image application. This is effective when other processing using the memory area is performed. The management / work area 3f may be reserved in advance at the time of starting the application, or may be reserved when necessary.

【0034】画像アプリで加工したい画像(元画像デー
タとなる)を呼び出し、画像合成処理の起動を画像アプ
リで指示すると、次に背景としたい画像(背景画像デー
タとなる)を呼び出す処理を行なう。もちろん、背景と
したい画像を呼び出してから画像合成処理を指示するよ
うな仕様でも良い。この時、画像データ領域3aと背景
画像データ領域3bには、呼び出されたそれぞれの画像
データが格納され、必要な情報が設定されている。
When an image to be processed (to be original image data) is called by the image application, and activation of the image synthesizing process is instructed by the image application, a process to call the next image to be the background (to be background image data) is performed. Of course, the specification may be such that an image to be used as a background is called and then the image synthesis processing is instructed. At this time, the called image data is stored in the image data area 3a and the background image data area 3b, and necessary information is set.

【0035】また、元の画像データと背景となる画像デ
ータの形式が異なる(例えば元画像データがフルカラー
データであり、背景画像データが白黒多値画像など)場
合には、合成処理時においてはそれらの形式を一致させ
る必要がある。これは、例えばステップS1へ遷移する
前の処理において、何れか一方の画像データ形式を他方
の画像データ形式に合わせておくことで解決される。例
えば、画像データ領域3aと背景画像データ領域3bに
画像データが格納された時点で、背景画像データのデー
タ形式を元画像データのデータ形式に合わせて変換すれ
ばよい。更に両画像データを新たな形式に変換して呼び
出すなどの処理を行なってもよい。なお、両画像データ
の形式の整合は、後述する、合成画像の画素を計算する
時点において行うようにしてもよい。いずれにしても、
画像データの形式の整合は当業者には明らかであるの
で、それについての説明は本実施形態では省略する。ま
た、本実施形態では、本実施形態による合成処理の効果
を最もよく得ることができるフルカラー画像を対象とし
て説明している。
If the format of the original image data is different from that of the background image data (for example, the original image data is full-color data and the background image data is a black-and-white multi-valued image, etc.) Must match the format. This can be solved, for example, by adjusting one of the image data formats to the other image data format in the process before transitioning to step S1. For example, when the image data is stored in the image data area 3a and the background image data area 3b, the data format of the background image data may be converted according to the data format of the original image data. Further, a process such as converting both image data into a new format and calling it may be performed. The matching of the formats of the two image data may be performed at the time of calculating the pixels of the composite image, which will be described later. In any case,
Since the matching of the format of the image data is apparent to those skilled in the art, a description thereof will be omitted in the present embodiment. In the present embodiment, a full-color image in which the effect of the synthesizing process according to the present embodiment can be best obtained is described.

【0036】合成機能を起動すると、図4の説明で前述
したように、表示されている元画像上において表示背景
を合成する領域の始点を指定することになる。この始点
指定から、以下、終点が指定されるまで、前述したよう
にカーソルがキーボードからのカーソルキーによって移
動されたり、一定時間が経過したりする毎に、ステップ
S1以下の処理を行なう。
When the synthesizing function is activated, the start point of the area for synthesizing the display background on the displayed original image is specified as described above with reference to FIG. After the start point is specified, until the end point is specified, the process from step S1 is performed every time the cursor is moved by the cursor key from the keyboard or a predetermined time elapses as described above.

【0037】ステップS1では、現時点の表示器6上に
表示されている画像の表示器6上でのカーソル位置(座
標)を取得する。ここでカーソルの基点が、後述するブ
ラシパターン3cのどの位置に当たるかは、あらかじめ
決めておく必要がある。本実施形態では、マウスカーソ
ル22の中心(図2、図4における+の中心)をブラシ
パターン3cの中心とすることにする。
In step S1, the cursor position (coordinate) on the display 6 of the image currently displayed on the display 6 is obtained. Here, it is necessary to determine in advance which position of the brush pattern 3c, which will be described later, the base point of the cursor. In the present embodiment, the center of the mouse cursor 22 (the center of + in FIGS. 2 and 4) is set as the center of the brush pattern 3c.

【0038】ステップS2では、ステップS1で取得し
た表示器6上での座標に対応する元画像データでの座標
を求める。例えば表示器6上の画像及び元画像データの
原点と縦・横の画素数を用いて比例計算を行うことによ
って元画像データで座標を求めることが可能である。あ
るいは、あらかじめ両画像の座標値の対応表をテーブル
として管理・ワーク領域3fなどの領域に作成しておい
てもよい。なお、表示器の解像度が切換可能である場
合、対応表はそれぞれの解像度に応じたものを用意して
おく必要がある。
In step S2, coordinates in the original image data corresponding to the coordinates on the display 6 obtained in step S1 are obtained. For example, by performing a proportional calculation using the origin of the image on the display 6 and the original image data and the number of pixels in the vertical and horizontal directions, the coordinates can be obtained from the original image data. Alternatively, a correspondence table of the coordinate values of both images may be created in advance in a region such as the management / work region 3f as a table. When the resolution of the display can be switched, it is necessary to prepare a correspondence table corresponding to each resolution.

【0039】ただし、表示器6上での画像のドットと画
像データ3aの画素が1対1に対応しており、座標も同
じ値を持っていれば、ステップS1で取得した座標をそ
のまま元画像データの座標としてよい。
However, if the dots of the image on the display 6 correspond to the pixels of the image data 3a on a one-to-one basis, and the coordinates have the same value, the coordinates obtained in step S1 are used as they are in the original image. The coordinates of the data may be used.

【0040】次に、このカーソル位置にはブラシパター
ン3cが重ねられてそれにしたがって背景画像データが
合成されることになる。そこで、ブラシパターン31が
重ねられる、元画像データ上の範囲を求める。前述した
ように、ここで求めたカーソル座標はブラシパターン3
1の中心に当たるので、元画像データ上の座標とブラシ
パターン31の大きさとから、その範囲を求めることが
できる。元画像データ上の注目座標上にブラシパターン
31を重ねたときにブラシパターンが元画像データから
はみ出す(例えば指示された座標が(0,0)の場合な
ど)場合には、はみ出した領域は無視してよい。このよ
うな場合には、以後の処理も同様であるが、元画像デー
タ上に乗っているブラシの領域についてだけ処理を行な
えば良い。
Next, the brush pattern 3c is superimposed on this cursor position, and the background image data is synthesized according to the brush pattern 3c. Therefore, a range on the original image data where the brush pattern 31 is superimposed is obtained. As described above, the cursor coordinates obtained here are the brush pattern 3
Since it corresponds to the center of 1, the range can be obtained from the coordinates on the original image data and the size of the brush pattern 31. If the brush pattern protrudes from the original image data when the brush pattern 31 is superimposed on the noted coordinates on the original image data (for example, when the designated coordinates are (0, 0)), the protruding area is ignored. May do it. In such a case, the subsequent processing is the same, but the processing only needs to be performed for the area of the brush on the original image data.

【0041】このようにしてステップS2で元画像デー
タ上におけるブラシパターン31の重なる位置が求めら
れたらステップS3へ進む。以下ステップS3からステ
ップS7までの処理により、そのブラシパターン領域に
おける元画像データ上の全ての画素について合成処理が
行なわれる。すなわちブラシパターン31の要素数(図
3の例では9×9=81画素)だけ、対応する元画像デ
ータ上の各画素に注目して以下のステップS3〜S6の
処理を行なう。具体的にはブラシパターン31の全行に
ついて、それぞれ全桁について処理を行なう。
When the overlapping position of the brush pattern 31 on the original image data is obtained in step S2 in this way, the process proceeds to step S3. Hereinafter, by the processing from step S3 to step S7, the synthesis processing is performed on all the pixels on the original image data in the brush pattern area. That is, the following steps S3 to S6 are performed by focusing on the corresponding pixels on the original image data by the number of elements of the brush pattern 31 (9 × 9 = 81 pixels in the example of FIG. 3). More specifically, the process is performed on all the rows of the brush pattern 31 for all the digits.

【0042】まず、ステップS3において、ブラシパタ
ーン31上の注目する要素に重なる元画像データ上の画
素に着目し、その画素値を取得する。具体的には、その
画素を管理・ワーク領域3f上に確保したポインタで指
す。ポインタで指すことにより、その画素の持つ画素値
もただちに知ることができる。
First, in step S3, attention is paid to a pixel on the original image data which overlaps the element of interest on the brush pattern 31, and the pixel value is obtained. Specifically, the pixel is indicated by a pointer secured on the management / work area 3f. By pointing with the pointer, the pixel value of the pixel can be immediately known.

【0043】次にステップS4では、背景画像データ上
の、元画像データ上の着目している画素に対応する座標
を求める。例えば背景画像データが縦・横ともに元画像
データと同じ大きさであれば、元画像データで着目して
いる画素に対する背景画像データ上の座標は元画像デー
タで着目している画素の座標と同じである。また、背景
画像データが元画像データと同じ大きさでなければ、比
例計算によって、元画像データ上の着目している座標に
対応する背景画像データ上の座標を求める。そして、こ
のようにして求められた座標に対応する背景画像データ
の画素の画素値を取得する。
Next, in step S4, coordinates corresponding to the pixel of interest on the original image data on the background image data are obtained. For example, if the background image data is the same size as the original image data both vertically and horizontally, the coordinates on the background image data for the pixel of interest in the original image data are the same as the coordinates of the pixel of interest in the original image data It is. If the background image data is not the same size as the original image data, the coordinates on the background image data corresponding to the coordinates of interest on the original image data are obtained by proportional calculation. Then, the pixel value of the pixel of the background image data corresponding to the coordinates thus obtained is obtained.

【0044】ただし、使用可能なRAMサイズに余裕が
あるシステムの場合などには、本処理に入る前、例えば
背景合成処理の先頭などで、背景画像データを元画像デ
ータと同じ大きさに変倍しておけば、ここでの比例計算
は行なわなくて済む。さらにその変倍において適切な補
間や間引き処理を行なうことにより、合成後の背景部分
の画像の品位がより良いものとなる。
However, in the case of a system having a sufficient available RAM size, the background image data is scaled to the same size as the original image data before starting this processing, for example, at the beginning of the background synthesis processing. If so, the proportional calculation need not be performed here. Further, by performing appropriate interpolation and thinning-out processing in the scaling, the quality of the image of the background portion after the synthesis is improved.

【0045】また、ステップS4で求めた背景画像デー
タ上の座標も、管理・ワーク領域3f上に確保したポイ
ンタで指すことにより、ただちに画素値を知ることがで
きる。
Also, by pointing the coordinates on the background image data obtained in step S4 with the pointer secured on the management / work area 3f, the pixel value can be immediately known.

【0046】ステップS5では、着目しているブラシパ
ターン31上の要素と、ステップS3、S4で求めた元
画像データ、背景画像データの画素値によって、合成後
の画素の値を求める。ここで図3(a)で示すような2
値のブラシパターンを用いる場合は、着目しているブラ
シパターン31上の要素が1であれば背景画像データの
注目画素値が、0であれば元画像データの注目画素値が
合成後の画素の値となる。
In step S5, the value of the pixel after synthesis is obtained from the element on the brush pattern 31 of interest and the pixel values of the original image data and the background image data obtained in steps S3 and S4. Here, as shown in FIG.
When the brush pattern of the value is used, if the element on the focused brush pattern 31 is 1, the pixel value of the background image data is 0, and if 0, the pixel value of the original image data is the pixel value of the synthesized pixel. Value.

【0047】また図3(b)で示すような多値のブラシ
パターンを用いる場合は、ブラシパターンの要素の値に
よって計算を行なうことにより、合成後の画素値を求め
る。例えばブラシパターン3c上で着目している要素の
値が70であるとすると、(背景画像データの注目画素
値×70%+元画像データの注目画素値×(100−7
0)%)が求める値となる。ここでブラシパターン31
上で着目している要素の値が0の場合は元画像データの
注目画素の値を、100の場合は背景画像データの注目
画素の値をそのまま合成後の値とすれば良いことは言う
までもない。またこの例ではブラシパターンの値を0か
ら100としているが、それ以外の数値を用いて合成後
の画素値を計算してもよいことも明らかであろう。
When a multi-valued brush pattern as shown in FIG. 3B is used, a pixel value after synthesis is obtained by performing calculations using the values of the elements of the brush pattern. For example, assuming that the value of the element of interest on the brush pattern 3c is 70, (the target pixel value of the background image data × 70% + the target pixel value of the original image data × (100−7)
0)%) is the desired value. Here brush pattern 31
Needless to say, if the value of the element of interest is 0, the value of the pixel of interest in the original image data is 100, and if it is 100, the value of the pixel of interest in the background image data is the value after synthesis as it is. . In this example, the value of the brush pattern is set to 0 to 100. However, it is apparent that the pixel value after the combination may be calculated using other numerical values.

【0048】ステップS6では、以上のステップS5で
求めた画素値を画像データ領域3a上の注目画素上に書
き込む。このため、既に合成の行なわれた元画像データ
上の領域が後で再び背景合成領域として指示された場
合、元画像データ上の合成済の領域が元の画像データと
して指定されることになる。このため、その部分は元画
像も背景画像もともに背景画像となり、合成結果はやは
り背景画像が合成されることになる。ここでも、ブラシ
パターン31上で着目している要素の値が0の場合は元
画像データ上の注目画素の値と同じ値であるから、この
場合は画素の書き込みは行なわないようにしてもよい。
In step S6, the pixel value obtained in step S5 is written on the target pixel in the image data area 3a. For this reason, if an area on the original image data that has already been synthesized is again designated as a background synthesis area later, a synthesized area on the original image data is specified as the original image data. Therefore, both the original image and the background image become the background image, and the result of the synthesis is that the background image is also synthesized. Also in this case, when the value of the element of interest on the brush pattern 31 is 0, the value is the same as the value of the pixel of interest on the original image data, and in this case, writing of the pixel may not be performed. .

【0049】このようにして、パターンブラシ31にお
ける全要素についてステップS3からステップS6の処
理を行なう(ステップS7)と、その時のカーソル位置
における合成を行なうことができる。さらに合成領域の
終点が指定されるまで、図4で説明したように一定時間
の経過またはカーソルの移動などに応じて、ステップ1
からの処理を繰り返す。以上の処理を背景合成機能の終
了指示を受けるまで繰り返すことにより、背景合成を実
現することができる。
In this manner, when the processing from step S3 to step S6 is performed on all the elements in the pattern brush 31 (step S7), the composition at the cursor position at that time can be performed. Further, as described with reference to FIG. 4, until the end point of the synthesis area is designated, a predetermined time elapses or the cursor moves, and so on.
Is repeated. By repeating the above processing until an instruction to end the background composition function is received, background composition can be realized.

【0050】図6は、以上説明した、本実施形態による
画像合成処理を実現するための機能構成を表わすブロッ
ク図である。元画像101及び背景画像102は夫々画
像データ領域3a及び背景画像データ領域3bに格納さ
れた画像データを表わす。表示部111は、表示器6上
に、元画像101を表示する。表示部111にはマウス
カーソル22が表示される。抽出部112は、表示器6
上のマウスカーソルの位置から、元画像101と背景画
像102上の対応する位置を獲得し、それぞれから画像
合成処理の対象と成る部分画像データを抽出する。ここ
で、部分画像データは、ブラシパターン113によって
特定されるブラシ領域である。
FIG. 6 is a block diagram showing a functional configuration for realizing the image synthesizing process according to the present embodiment described above. The original image 101 and the background image 102 represent the image data stored in the image data area 3a and the background image data area 3b, respectively. The display unit 111 displays the original image 101 on the display 6. The display unit 111 displays a mouse cursor 22. The extracting unit 112 displays the display 6
The corresponding positions on the original image 101 and the background image 102 are obtained from the positions of the upper mouse cursor, and the partial image data to be subjected to the image synthesis processing is extracted from each of them. Here, the partial image data is a brush area specified by the brush pattern 113.

【0051】合成部114は、抽出部112によって抽
出された部分画像データとブラシパターン113とに基
づいて画像合成を行う。すなわち、2値データで構成さ
れる図3(a)の如きブラシパターンであれば、元画像
データか背景画像データのいずれかを採用する。或い
は、図3(b)の如き多値のブラシパターンであれば、
その値に応じた比率で元画像データと背景画像データを
合成する。そして、合成部114は、以上のようにして
合成した部分画像を、元画像101の対応する部分に書
込む。この結果、合成された結果が即座に表示部111
によって表示器6上に反映される。
The synthesizing unit 114 performs image synthesizing based on the partial image data extracted by the extracting unit 112 and the brush pattern 113. That is, in the case of a brush pattern as shown in FIG. 3A composed of binary data, either the original image data or the background image data is employed. Alternatively, if it is a multi-valued brush pattern as shown in FIG.
The original image data and the background image data are combined at a ratio according to the value. Then, the synthesizing unit 114 writes the partial image synthesized as described above in a corresponding part of the original image 101. As a result, the synthesized result is immediately displayed on the display unit 111.
Is reflected on the display 6.

【0052】[変形例1]上記実施形態では、背景画像
を合成することのみ説明したが、「元画像に戻す」とい
うモードを設けることにより、いったん背景画像に置き
換わった部分を元画像データに戻すこともできる。その
場合、元画像データを画像データ領域3aとは別に残し
ておく。そして、「背景を合成」と「元画像を合成」の
2つのモードを切り替えるメニューを背景合成機能内部
に設け、そのモードに応じて、処理を切り分けることに
なる。この場合の「背景を合成」モード中の動作は上記
実施形態と同じであるが、「元の画像を合成」モード中
には、ブラシパターンの持つ意味を次のように変更す
る。すなわち、「元画像を合成」モード中には、「背景
を合成」モードすなわち上述の実施形態において「背景
画像データ」としているところを「画像データ領域3a
とは別に残してある元画像データ」と置き換えて処理を
行なうことにより実現できる。
[Modification 1] In the above embodiment, only the synthesis of the background image has been described. However, by providing a mode of "return to original image", the portion once replaced with the background image is returned to the original image data. You can also. In that case, the original image data is left separately from the image data area 3a. Then, a menu for switching between two modes of "combining the background" and "combining the original image" is provided inside the background compositing function, and the processing is separated according to the mode. The operation in the “combine background” mode in this case is the same as that in the above embodiment, but the meaning of the brush pattern is changed as follows in the “combine original image” mode. That is, during the “combine original image” mode, the “combine background” mode, that is, “background image data” in the above-described embodiment is replaced with “image data area 3a”
The processing can be realized by replacing the original image data that has been left separately with the original image data.

【0053】図7は上記変形例1による合成処理の機能
構成を説明するブロック図である。同図において図6と
同様の構成には同一の参照番号を付してある。画像合成
処理の起動に先立って元画像101のコピー103を生
成し、保持しておく。切換部120は、「背景を合成」
モードの場合は背景画像102を選択し、「元の画像を
合成」モードの場合には元画像のコピー103を選択し
て抽出部112と接続する。
FIG. 7 is a block diagram for explaining the functional configuration of the synthesizing process according to the first modification. In the figure, the same components as those in FIG. 6 are denoted by the same reference numerals. Prior to the start of the image synthesis processing, a copy 103 of the original image 101 is generated and held. The switching unit 120 performs “composite background”
In the case of the mode, the background image 102 is selected, and in the case of the “synthesis of the original image” mode, the copy 103 of the original image is selected and connected to the extraction unit 112.

【0054】[変形例2]上記実施形態では、1枚の元
画像に他のもう1枚の背景画像を合成する方法について
説明したが、合成する背景画像を2枚以上にすることも
できる。その場合、背景画像データの他にも合成すべき
背景画像を格納するための画像領域をRAM3に確保し
ておく。そして、合成を行なう時点で(始点を指定する
時点などで)、これから背景として合成する画像がどの
背景画像であるかを指示することにより、実現可能であ
る。合成処理方法は、上述の実施形態で「背景画像デー
タ」としているところを、「指示された背景画像デー
タ」に置き換えることにより実現できる。
[Modification 2] In the above embodiment, a method of combining another background image with one original image has been described. However, two or more background images may be combined. In this case, an image area for storing a background image to be combined other than the background image data is secured in the RAM 3. Then, at the time of performing composition (for example, at the time of designating the start point), it can be realized by designating which background image is the image to be composed as the background. The synthesis processing method can be realized by replacing the “background image data” in the above-described embodiment with “instructed background image data”.

【0055】図8は変形例2による合成処理の機能構成
を説明するブロック図である。同図において図6と同様
の構成には同一の参照番号を付してある。背景画像デー
タ領域3bには例えば背景画像A102、背景画像B1
04、背景画像C105が格納される。そして、切換部
121は指示された背景画像データとして、背景画像A
102、背景画像B104、背景画像C105の一つを
選択して、抽出部112と接続することになる。
FIG. 8 is a block diagram for explaining the functional configuration of the synthesizing process according to the second modification. In the figure, the same components as those in FIG. 6 are denoted by the same reference numerals. In the background image data area 3b, for example, a background image A102, a background image B1
04, a background image C105 is stored. Then, the switching unit 121 sets the background image A as the designated background image data.
102, one of the background image B104, and one of the background images C105 are selected and connected to the extraction unit 112.

【0056】[変形例3]上記実施形態では、1種類の
ブラシパターンで説明したが、ブラシパターンの形状や
大きさや透明度(上述の実施形態におけるブラシパター
ンの0〜100の割合)などの異なる複数のブラシパタ
ーンを準備することにより、よりきめの細かい合成を行
なうことも可能である。その場合は、合成を行なう時点
で(始点を指定する時点などで)どのブラシパターンを
使用するかを指定し、以降の処理ではその指定されたブ
ラシパターンを使用することで実現することができる。
[Modification 3] In the above-described embodiment, one type of brush pattern has been described. However, a plurality of brush patterns having different shapes, sizes, and transparency (0 to 100 ratios of the brush pattern in the above-described embodiment) are used. By preparing the above brush pattern, it is also possible to perform finer composition. In that case, it is possible to specify which brush pattern to use at the time of performing the synthesis (for example, at the time of specifying the start point), and to realize the subsequent processing by using the specified brush pattern.

【0057】なお、変形例3では、例えば、図6〜図8
の機能構成において、ブラシパターン113に複数種類
のブラシパターンを保持しておき、ユーザによって指示
されたブラシパターンを抽出部112、合成部114に
供給するように構成すればよいであろう。
In the third modification, for example, FIGS.
In the functional configuration described above, a plurality of types of brush patterns may be held in the brush pattern 113, and the brush pattern specified by the user may be supplied to the extraction unit 112 and the synthesis unit 114.

【0058】[変形例4]上記実施形態では、ブラシパ
ターンをあらかじめ準備し、そのブラシパターンを使用
することについて説明したが、ユーザが自由にブラシパ
ターンを作成する方法も提供することができる。その場
合、ブラシパターンの大きさ・形状・透明度などのパラ
メータをユーザに指定させ、その指定に応じてブラシパ
ターン生成する手段を具備させる。そして、生成された
ブラシパターンをブラシパターン領域3cに格納するこ
とにより、ユーザによって定義されたブラシパターンを
用いて画像合成を行うことができる。もちろん、ユーザ
が複数のブラシパターンを作成することも、上述の変形
例3の手法と組み合わせることにより、可能である。ま
たそのようにしてユーザが作成したブラシパターンを外
部記憶装置7やRAM3などに登録する手段を提供する
ことにより、より使いやすい合成機能を提供することが
できる。
[Fourth Modification] In the above embodiment, a description has been given of a case where a brush pattern is prepared in advance and the brush pattern is used. However, a method in which a user can freely create a brush pattern can also be provided. In such a case, a means is provided for allowing the user to specify parameters such as the size, shape, and transparency of the brush pattern, and for generating the brush pattern in accordance with the specification. Then, by storing the generated brush pattern in the brush pattern area 3c, it is possible to perform image synthesis using the brush pattern defined by the user. Of course, the user can also create a plurality of brush patterns by combining with the method of the above-described third modification. Further, by providing a means for registering the brush pattern created by the user in the external storage device 7 or the RAM 3 or the like, it is possible to provide an easier-to-use synthesizing function.

【0059】なお、上記実施形態では背景画像データを
表示していないが、元画像データによる元画像と共に背
景画像データによる背景画像を表示するようにしてもよ
い。
Although the background image data is not displayed in the above embodiment, a background image based on the background image data may be displayed together with the original image based on the original image data.

【0060】以上説明したように、上記実施形態によれ
ば、画像を合成する場合に、表示画像上で他の画像を合
成したい部分をポインティングデバイスなどで指示する
ことにより、その指示された部分に当該他の画像を簡単
に合成することができる。また、合成箇所の合成結果を
ただちに確認することもでき、優れた操作性を提供する
ことができる。
As described above, according to the above-described embodiment, when an image is synthesized, a portion to be synthesized with another image on the display image is designated by a pointing device or the like, so that the designated portion is The other images can be easily synthesized. In addition, it is possible to immediately check the synthesis result of the synthesis location, and it is possible to provide excellent operability.

【0061】なお、本発明は、複数の機器(例えばホス
トコンピュータ,インタフェイス機器,リーダ,プリン
タなど)から構成されるシステムに適用しても、一つの
機器からなる装置(例えば、複写機,ファクシミリ装置
など)に適用してもよい。
Even if the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), an apparatus (for example, a copying machine, a facsimile) including one device Device).

【0062】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPU
やMPU)が記憶媒体に格納されたプログラムコードを
読出し実行することによっても、達成されることは言う
までもない。
Another object of the present invention is to provide a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or apparatus, and to provide a computer (or CPU) of the system or apparatus.
And MPU) read and execute the program code stored in the storage medium.

【0063】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

【0064】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク,ハードディス
ク,光ディスク,光磁気ディスク,CD−ROM,CD
−R,磁気テープ,不揮発性のメモリカード,ROMな
どを用いることができる。
As a storage medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD
-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

【0065】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。
When the computer executes the readout program code, not only the functions of the above-described embodiment are realized, but also the OS (Operating System) running on the computer based on the instruction of the program code. ) May perform some or all of the actual processing, and the processing may realize the functions of the above-described embodiments.

【0066】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instructions of the program code, It goes without saying that the CPU included in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0067】[0067]

【発明の効果】以上説明したように、本発明によれば、
画像の合成作業における操作性が著しく向上する。
As described above, according to the present invention,
Operability in the image synthesizing operation is remarkably improved.

【0068】[0068]

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係るデータ処理装置の概
略構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a schematic configuration of a data processing device according to an embodiment of the present invention.

【図2】本実施形態で説明する画像の合成処理の概要を
説明する図である。
FIG. 2 is a diagram illustrating an overview of an image combining process described in the present embodiment.

【図3】ブラシパターンの例を示す図である。FIG. 3 is a diagram illustrating an example of a brush pattern.

【図4】本実施形態による合成処理の操作仕様例を示す
図である。
FIG. 4 is a diagram illustrating an operation specification example of a combining process according to the embodiment;

【図5】本実施形態による画像合成処理の手順を説明す
るフローチャートである。
FIG. 5 is a flowchart illustrating a procedure of an image combining process according to the embodiment.

【図6】実施形態による画像合成処理の機能構成を説明
するブロック図である。
FIG. 6 is a block diagram illustrating a functional configuration of an image combining process according to the embodiment.

【図7】変形例1による画像合成処理の機能構成を説明
するブロック図である。
FIG. 7 is a block diagram illustrating a functional configuration of an image combining process according to a first modification.

【図8】変形例2による画像合成処理の機能構成を説明
するブロック図である。
FIG. 8 is a block diagram illustrating a functional configuration of an image combining process according to a second modification.

【符号の説明】[Explanation of symbols]

1 CPU 2 ROM 3 RAM 4 キーボード 5 マウス 6 表示器 7 外部記憶装置 8 パスライン DESCRIPTION OF SYMBOLS 1 CPU 2 ROM 3 RAM 4 Keyboard 5 Mouse 6 Display 7 External storage device 8 Pass line

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 第1及び第2の画像データを格納する格
納手段と、 前記第1の画像データに基づく画像を画面上に表示する
表示手段と、 前記表示手段で表示された画像上において指定された指
定部位に対応する部分を、前記第1及び第2の画像デー
タのそれぞれより抽出する抽出手段と、 前記抽出手段で抽出されたデータについて合成処理を行
う合成手段と を備えることを特徴とする情報処理装置。
A storage unit for storing first and second image data; a display unit for displaying an image based on the first image data on a screen; and a designation on the image displayed by the display unit. Extracting means for extracting a portion corresponding to the designated part from each of the first and second image data; and synthesizing means for performing a synthesizing process on the data extracted by the extracting means. Information processing device.
【請求項2】 前記合成手段で合成された結果を前記第
1の画像データに書き込む書込み手段を更に備えること
を特徴とする請求項1に記載の情報処理装置。
2. The information processing apparatus according to claim 1, further comprising a writing unit that writes a result synthesized by the synthesizing unit into the first image data.
【請求項3】 前記抽出手段は、 前記表示手段で表示された画像上において指定された位
置を検出する検出手段と、 前記第1及び第2の画像データのそれぞれにおいて、前
記検出手段で検出された位置に対応する位置を特定し、
該特定された位置を含む所定領域を特定する特定手段を
有し、 前記第1及び第2の画像データのそれぞれから、前記特
定手段で特定された所定領域に含まれるデータを抽出す
ることを特徴とする請求項1に記載の情報処理装置。
3. The image processing apparatus according to claim 2, wherein the extracting unit detects a designated position on the image displayed by the display unit, and detects the position detected by the detecting unit in each of the first and second image data. Location corresponding to the location
A specifying unit for specifying a predetermined region including the specified position, wherein data included in the predetermined region specified by the specifying unit is extracted from each of the first and second image data. The information processing apparatus according to claim 1.
【請求項4】 前記検出手段は、前記画面上に表示され
ているカーソルの位置に基づいて、ユーザによって指定
された位置を検出することを特徴とする請求項3に記載
の情報処理装置。
4. The information processing apparatus according to claim 3, wherein the detecting unit detects a position designated by a user based on a position of a cursor displayed on the screen.
【請求項5】 前記特定領域は前記検出手段で検出され
た位置を中心とする所定の閉図形領域であることを特徴
とする請求項3に記載の情報処理装置。
5. The information processing apparatus according to claim 3, wherein the specific area is a predetermined closed graphic area centered on a position detected by the detection means.
【請求項6】 前記所定領域における合成処理の態様を
示す処理情報を保持する保持手段を更に備え、 前記合成手段は、前記抽出手段で抽出されたデータにつ
いて、前記処理情報に従って合成処理を行うことを特徴
とする請求項3に記載の情報処理装置。
6. A storage unit for storing processing information indicating a mode of a synthesis process in the predetermined area, wherein the synthesis unit performs a synthesis process on the data extracted by the extraction unit in accordance with the processing information. The information processing apparatus according to claim 3, wherein:
【請求項7】 前記処理情報は、当該所定領域内の各画
素について、画素値の合成比率を示すことを特徴とする
請求項6に記載の情報処理装置。
7. The information processing apparatus according to claim 6, wherein the processing information indicates a composition ratio of a pixel value for each pixel in the predetermined area.
【請求項8】 前記保持手段は、複数種類の処理情報を
保持し、 前記合成手段は、前記複数種類の処理情報より選択され
た1つの処理情報を用いて、前記抽出手段で抽出された
データについて、前記処理情報に従って合成処理を行う
ことを特徴とする請求項6に記載の情報処理装置。
8. The storage unit stores a plurality of types of processing information, and the combining unit uses one piece of processing information selected from the plurality of types of processing information to extract data extracted by the extraction unit. 7. The information processing apparatus according to claim 6, wherein a combining process is performed according to the processing information.
【請求項9】 前記第1の画像データを複写し、コピー
画像データとして保持する画像保持手段を更に備え、 前記抽出手段は、前記第2の画像データか前記コピー画
像データのいずれか一方と、前記第1の画像データとか
ら前記指定部位に対応する部分を抽出することを特徴と
する請求項1に記載の情報処理装置。
9. An image holding means for copying the first image data and holding the copied image data as copy image data, wherein the extracting means includes: one of the second image data and the copy image data; The information processing apparatus according to claim 1, wherein a portion corresponding to the designated part is extracted from the first image data.
【請求項10】 前記第2の画像データとして複数種類
の画像データを保持する画像保持手段を更に備え、 前記抽出手段は、前記画像保持手段に保持された複数種
類の画像データより選択された一つの画像データと、前
記第1の画像データとから前記指定部位に対応する部分
を抽出することを特徴とする請求項1に記載の情報処理
装置。
10. The image processing apparatus according to claim 1, further comprising an image holding unit that holds a plurality of types of image data as the second image data, wherein the extracting unit selects one of the plurality of types of image data held by the image holding unit. The information processing apparatus according to claim 1, wherein a portion corresponding to the designated part is extracted from one image data and the first image data.
【請求項11】 第1及び第2の画像データを記憶領域
に格納する格納工程と、 前記第1の画像データに基づく画像を画面上に表示する
表示工程と、 前記表示工程で表示された画像上において指定された指
定部位に対応する部分を、前記第1及び第2の画像デー
タのそれぞれより抽出する抽出工程と、 前記抽出工程で抽出されたデータについて合成処理を行
う合成工程とを備えることを特徴とする情報処理方法。
11. A storage step of storing first and second image data in a storage area, a display step of displaying an image based on the first image data on a screen, and an image displayed in the display step An extraction step of extracting a portion corresponding to the designated part specified above from each of the first and second image data; and a combining step of performing a combining process on the data extracted in the extraction step. An information processing method characterized by the following.
【請求項12】 画像データの合成処理を行う制御プロ
グラムを格納するコンピュータ可読メモリであって、該
制御プログラムが、 第1及び第2の画像データを記憶領域に格納する格納工
程のコードと、 前記第1の画像データに基づく画像を画面上に表示する
表示工程のコードと、 前記表示工程で表示された画像上において指定された指
定部位に対応する部分を、前記第1及び第2の画像デー
タのそれぞれより抽出する抽出工程のコードと、 前記抽出工程で抽出されたデータについて合成処理を行
う合成工程のコードとを備えることを特徴とする情報処
理方法。
12. A computer-readable memory for storing a control program for performing a process of synthesizing image data, the control program comprising: a code for a storage step of storing first and second image data in a storage area; A code of a display step of displaying an image based on the first image data on a screen; and a part corresponding to a designated part specified on the image displayed in the display step, the first and second image data An information processing method comprising: a code of an extraction step extracted from each of the following: and a code of a synthesis step of performing a synthesis process on the data extracted in the extraction step.
JP27127097A 1997-10-03 1997-10-03 Information processor and its processing method Pending JPH11110517A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27127097A JPH11110517A (en) 1997-10-03 1997-10-03 Information processor and its processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27127097A JPH11110517A (en) 1997-10-03 1997-10-03 Information processor and its processing method

Publications (1)

Publication Number Publication Date
JPH11110517A true JPH11110517A (en) 1999-04-23

Family

ID=17497753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27127097A Pending JPH11110517A (en) 1997-10-03 1997-10-03 Information processor and its processing method

Country Status (1)

Country Link
JP (1) JPH11110517A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010206647A (en) * 2009-03-04 2010-09-16 Casio Computer Co Ltd Tape printer, method of producing composite label synthesizing image and document, and storage medium memorizing composite label producing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010206647A (en) * 2009-03-04 2010-09-16 Casio Computer Co Ltd Tape printer, method of producing composite label synthesizing image and document, and storage medium memorizing composite label producing program

Similar Documents

Publication Publication Date Title
US7557816B2 (en) Image processing apparatus, method and computer-readable storage medium for generating and presenting an image of virtual objects including the operation panel viewed from the position and orientation of the viewpoint of the observer
US20120229501A1 (en) Method and a Computer System for Displaying and Selecting Images
JP3862336B2 (en) Image editing method and apparatus
US7742095B2 (en) Information processing apparatus, method and storage medium
US5636336A (en) Graphics processing unit for use with a stylus pen and tablet, and method therefore
JP2996933B2 (en) Drawing display device
JPH11110517A (en) Information processor and its processing method
JP2588914B2 (en) Document processing device
JP2549630B2 (en) Image information processing device
JPH08286881A (en) Document generation device having image presentation function and image presentation method
JP3133093B2 (en) Electronic image correction method and apparatus
JPH11306369A (en) Picture data editor
JPH08286868A (en) Document generation device having image presentation function and image presentation method
JP2979928B2 (en) Score recognition result display system
JP2728669B2 (en) External character editing device
JP2009003566A (en) Window display device and window display method
CN117649460A (en) Mask operation method and equipment, storage medium and terminal thereof
JPH067386B2 (en) Graphic editing device
JPS60250482A (en) Picture rotation indicating system
JPS59117630A (en) Pattern output terminal device
JPS6385978A (en) Graphic editing device
JPH05188909A (en) Device and method for font generation
JPH06110442A (en) Character and figure processor and method for deforming character of figure
JPS6217768B2 (en)
JPH04139585A (en) Image processor

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041004

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041004

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20041004

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20041004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070119

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070518