JP5991406B2 - Image processing system, image processing method, and image processing apparatus - Google Patents

Image processing system, image processing method, and image processing apparatus Download PDF

Info

Publication number
JP5991406B2
JP5991406B2 JP2015118404A JP2015118404A JP5991406B2 JP 5991406 B2 JP5991406 B2 JP 5991406B2 JP 2015118404 A JP2015118404 A JP 2015118404A JP 2015118404 A JP2015118404 A JP 2015118404A JP 5991406 B2 JP5991406 B2 JP 5991406B2
Authority
JP
Japan
Prior art keywords
image
pattern
image processing
image data
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015118404A
Other languages
Japanese (ja)
Other versions
JP2015181046A (en
Inventor
大塚 愛子
愛子 大塚
伊藤 篤
篤 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015118404A priority Critical patent/JP5991406B2/en
Publication of JP2015181046A publication Critical patent/JP2015181046A/en
Application granted granted Critical
Publication of JP5991406B2 publication Critical patent/JP5991406B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像処理システム、画像処理方法および画像処理装置に関する。   The present invention relates to an image processing system, an image processing method, and an image processing apparatus.

電子メールなどにおいて、作成した文章に絵文字画像を挿入する例が多く見受けられる。絵文字画像は、様々な表情の顔、動物、記号、アイテムなどを、文書において一般的に用いられるフォントサイズで図案化したものであり、対応するアプリケーションにより、テキストと共に表示される。一例として、携帯電話端末に搭載される電子メール機能においては、例えばサイズが縦20ドット×横20ドット程度の絵文字画像が用いられる。絵文字画像は、文書中に使用することで文書の表現の幅が広がると考えられており、広く普及している。   In e-mails and the like, there are many examples in which pictographic images are inserted into created sentences. A pictographic image is a graphic representation of faces, animals, symbols, items, and the like of various expressions, with font sizes commonly used in documents, and is displayed together with text by a corresponding application. As an example, in an e-mail function installed in a mobile phone terminal, for example, a pictographic image having a size of about 20 dots long × 20 dots wide is used. Pictogram images are widely used because they are considered to expand the range of document expression when used in documents.

特許文献1には、ペン入力可能なタブレットを用いて手書き入力された画像を、電子メール作成ソフトウェアで作成中の電子メールの文書に書き込むことができるようにしたメールツールが記載されている。この特許文献1によれば、ユーザは、手書きで作成した画像を、電子メールの文書に貼り付けて送信することが可能となる。   Patent Document 1 describes a mail tool that can write an image input by handwriting using a tablet capable of pen input into an email document being created by email creation software. According to this patent document 1, the user can paste an image created by handwriting into an e-mail document and transmit it.

本発明は、上記に鑑みてなされたものであって、手書き画像に基づく絵文字画像をより容易に作成可能とすることを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to make it easier to create a pictographic image based on a handwritten image .

上述した課題を解決し、目的を達成するために、第1の発明は、1以上の情報処理装置で構成され、ユーザが描画する描画領域と、描画領域に描画された絵柄を表示する際に絵柄の画像に与える動作のパターンを指定する動作定領域と、を含む用紙を読み取って、絵柄の画像を表示画面上で移動させる画像処理システムであって、用紙を読み取り画像データを取得する読取手段と、画像データの描画領域から、描画された絵柄の画像データを抽出する抽出手段と、抽出手段で抽出した画像データに基づき、表示画面上に表示する表示画像を生成する生成手段と、移動動作、回転動作、拡大動作、縮小動作、ならびに、移動動作、回転動作、拡大動作および縮小動作のうち複数の動作の組み合わせによる動作、の何れかの動作を用いてパターン化される複数の動作のパターンのそれぞれに応じた画像処理を、抽出した画像データに対して行い、表示画像に動作を与える画像処理手段と、画像データから動作定領検出し、複数の動作のパターンのうち動作設定領域によって指定される動作のパターンを特定する検出手段と、抽出した画像データに対して、検出手段により特定された動作のパターンに応じた画像処理を画像処理手段により行い、動作のパターンに基づく動作が与えられた表示画像表示画面上動作させる動作設定手段と、を有する。 In order to solve the above-described problems and achieve the object, the first invention is configured by one or more information processing apparatuses, and displays a drawing area drawn by a user and a picture drawn in the drawing area. reading the paper including the operation settings Teiryo area to specify the pattern of the operation to be given to the pattern of the image, and an image processing system for moving the picture image on the display screen, and acquires the read image data to paper Reading means; extraction means for extracting image data of a drawn pattern from the drawing area of the image data; generation means for generating a display image to be displayed on the display screen based on the image data extracted by the extraction means; A pattern using any one of a movement operation, a rotation operation, an enlargement operation, a reduction operation, and an operation based on a combination of a plurality of operations among a movement operation, a rotation operation, an enlargement operation, and a reduction operation. The image processing corresponding to each of the patterns of a plurality of operations of, performed on the extracted image data, image processing means for giving an operation to display an image, detects the operation setting Teiryo region from the image data, Detection means for specifying an operation pattern specified by an operation setting area among a plurality of operation patterns, and image processing according to the operation pattern specified by the detection means for the extracted image data And an operation setting means for operating a display image to which an operation based on the operation pattern is given on the display screen.

また、第2の発明は、ユーザが描画する描画領域と、描画領域に描画された絵柄を表示する際に絵柄の画像に与える動作のパターンを指定する動作定領域と、を含む用紙を読み取って、絵柄の画像を表示画面上で移動させる画像処理方法であって、用紙を読み取り画像データを取得する読取ステップと、画像データの描画領域から、描画された絵柄の画像データを抽出する抽出ステップと、抽出ステップで抽出した画像データに基づき、表示画面上に表示する表示画像を生成する生成ステップと、移動動作、回転動作、拡大動作、縮小動作、ならびに、移動動作、回転動作、拡大動作および縮小動作のうち複数の動作の組み合わせによる動作、の何れかの動作を用いてパターン化される複数の動作のパターンのそれぞれに応じた画像処理を、抽出した画像データに対して行い、表示画像に動作を与える画像処理ステップと、画像データから動作定領検出し、複数の動作のパターンのうち動作設定領域によって指定される動作のパターンを特定する検出ステップと、抽出した画像データに対して、検出ステップにより特定された動作のパターンに応じた画像処理を画像処理ステップにより行い、動作のパターンに基づく動作が与えられた表示画像表示画面上動作させる動作設定ステップと、を有する。 The second invention includes a drawing area for the user to draw, and operation setting Teiryo area to specify the pattern of the operation that gives the picture of the picture when displaying the picture drawn in the drawing area, the paper containing the An image processing method for reading and moving an image of a pattern on a display screen, reading a sheet to acquire image data, and extraction for extracting image data of the drawn pattern from a drawing area of the image data A generation step for generating a display image to be displayed on the display screen based on the image data extracted in the step, the extraction step, a movement operation, a rotation operation, an enlargement operation, a reduction operation, and a movement operation, a rotation operation, and an enlargement operation And image processing corresponding to each of a plurality of operation patterns patterned using any one of the operations of a combination of a plurality of operations among reduction operations Performed on the extracted image data, an image processing step of giving an operation to display an image, detects the operation setting Teiryo region from the image data, the pattern of operation specified by the operation setting area of the pattern of a plurality of operation The image processing step performs image processing according to the operation pattern specified in the detection step on the extracted image data, and displays a display image to which an operation based on the operation pattern is given. And an operation setting step for operating on the screen.

また、第3の発明は、ユーザが描画する描画領域と、描画領域に描画された絵柄を表示する際に絵柄の画像に与える動作のパターンを指定する動作定領域と、を含む用紙を読み取って、絵柄の画像を表示画面上で移動させる画像処理装置であって、読取手段により用紙から読み取られた画像データを取得する取得手段と、画像データの描画領域から、描画された絵柄の画像データを抽出する抽出手段と、抽出手段で抽出した画像データに基づき、表示画面上に表示する表示画像を生成する生成手段と、移動動作、回転動作、拡大動作、縮小動作、ならびに、移動動作、回転動作、拡大動作および縮小動作のうち複数の動作の組み合わせによる動作、の何れかの動作を用いてパターン化される複数の動作のパターンのそれぞれに応じた画像処理を、抽出した画像データに対して行い、表示画像に動作を与える画像処理手段と、画像データから動作定領検出し、複数の動作のパターンのうち動作設定領域によって指定される動作のパターンを特定する検出手段と、抽出した画像データに対して、検出手段により特定された動作のパターンに応じた画像処理を画像処理手段により行い、動作のパターンに基づく動作が与えられた表示画像表示画面上動作させる動作設定手段と、を有する。 A third aspect of the present invention is a drawing area for the user to draw, and operation setting Teiryo area to specify the pattern of the operation that gives the picture of the picture when displaying the picture drawn in the drawing area, the paper containing the An image processing apparatus that reads and moves an image of a pattern on a display screen, an acquisition unit that acquires image data read from a sheet by a reading unit, and an image of the drawn pattern from a drawing area of the image data Extraction means for extracting data; generation means for generating a display image to be displayed on the display screen based on the image data extracted by the extraction means; movement operation, rotation operation, enlargement operation, reduction operation, and movement operation; Image processing corresponding to each of a plurality of operation patterns patterned using any one of a rotation operation, an enlargement operation, and a reduction operation in combination of a plurality of operations. The performed on the extracted image data, image processing means for giving an operation to display an image, detects the operation setting Teiryo region from the image data is designated by the operation setting area of the pattern of a plurality of operation Operation And a display image to which an operation based on the operation pattern is given to the extracted image data by performing image processing on the extracted image data according to the operation pattern specified by the detection unit. having a operation setting means causes operation on the display screen a.

本発明によれば、手書き画像に基づく絵文字画像をより容易に作成可能となるという効果を奏する。 According to the present invention, an effect that pictographic image that Do more easily create based on the handwritten image.

図1は、本発明の各実施形態の利用形態の例を示す略線図である。FIG. 1 is a schematic diagram showing an example of a usage pattern of each embodiment of the present invention. 図2は、本発明の第1の実施形態による画像処理装置の一例の機能を示す機能ブロック図である。FIG. 2 is a functional block diagram showing functions of an example of the image processing apparatus according to the first embodiment of the present invention. 図3は、本発明の第1の実施形態による絵文字画像の生成方法を示す一例のフローチャートである。FIG. 3 is a flowchart of an example showing a pictographic image generation method according to the first embodiment of the present invention. 図4は、絵柄を描画するための用紙の例を説明するための略線図である。FIG. 4 is a schematic diagram for explaining an example of a sheet for drawing a pattern. 図5は、整形処理部における整形処理について説明するための略線図である。FIG. 5 is a schematic diagram for explaining the shaping process in the shaping processing unit. 図6は、グレースケール画像の場合の誇張処理について説明するための略線図である。FIG. 6 is a schematic diagram for explaining exaggeration processing in the case of a grayscale image. 図7は、グレースケール画像の場合の誇張処理について説明するための略線図である。FIG. 7 is a schematic diagram for explaining exaggeration processing in the case of a grayscale image. 図8は、カラー画像の場合の誇張処理について説明するための一例のフローチャートである。FIG. 8 is an example flowchart for explaining the exaggeration processing in the case of a color image. 図9は、誇張処理を繰り返して行うことを説明するための略線図である。FIG. 9 is a schematic diagram for explaining that the exaggeration process is repeatedly performed. 図10は、トリミング処理部で行われるトリミング処理について説明するための略線図である。FIG. 10 is a schematic diagram for explaining the trimming process performed in the trimming processing unit. 図11は、縮小処理部で行われる縮小処理について説明するための略線図である。FIG. 11 is a schematic diagram for explaining a reduction process performed by the reduction processing unit. 図12は、誇張処理回数の決め方について説明するための略線図である。FIG. 12 is a schematic diagram for explaining how to determine the number of exaggeration processes. 図13は、本発明の第1の実施形態の第1の変形例による用紙の例を示す略線図である。FIG. 13 is a schematic diagram illustrating an example of a sheet according to a first modification of the first embodiment of the present invention. 図14は、本発明の第1の実施形態の第2の変形例による用紙の例を示す略線図である。FIG. 14 is a schematic diagram illustrating an example of a sheet according to a second modification of the first embodiment of the present invention. 図15は、本発明の第2の実施形態による画像処理装置の一例の機能を示す機能ブロック図である。FIG. 15 is a functional block diagram showing functions of an example of an image processing apparatus according to the second embodiment of the present invention. 図16は、本発明の第2の実施形態による絵文字画像の生成方法を示す一例のフローチャートである。FIG. 16 is a flowchart of an example showing a pictographic image generation method according to the second embodiment of the present invention. 図17は、設定情報の例を示す略線図である。FIG. 17 is a schematic diagram illustrating an example of setting information. 図18は、画像の回転について説明するための略線図である。FIG. 18 is a schematic diagram for explaining rotation of an image. 図19は、拡大/縮小に関する動画について説明するための略線図である。FIG. 19 is a schematic diagram for explaining a moving image relating to enlargement / reduction. 図20は、移動処理の例についてより具体的に説明するための略線図である。FIG. 20 is a schematic diagram for specifically explaining an example of the movement process. 図21は、本発明の第2の実施形態による動画像による絵文字画像生成処理を要約して示す略線図である。FIG. 21 is a schematic diagram showing a summary of pictogram image generation processing using moving images according to the second embodiment of the present invention. 図22は、動画像による絵文字画像の動きを設定する設定入力領域の一例を示す略線図である。FIG. 22 is a schematic diagram illustrating an example of a setting input area for setting the movement of a pictographic image by a moving image. 図23は、回転処理の手順の違いによる縮小画像の違いを説明するための略線図である。FIG. 23 is a schematic diagram for explaining a difference in reduced images due to a difference in the procedure of rotation processing. 図24は、回転角度に応じて誇張処理の強度を調整することを説明するための略線図である。FIG. 24 is a schematic diagram for explaining that the strength of the exaggeration process is adjusted according to the rotation angle. 図25は、本発明の第1および第2の実施形態それぞれの画像処理装置に共通して適用可能なPCの一例の構成を示すブロック図である。FIG. 25 is a block diagram illustrating a configuration example of a PC that can be commonly applied to the image processing apparatuses according to the first and second embodiments of the present invention. 図26は、本発明の第3の実施形態による非接触の近接無線通信方式を利用した絵文字画像作成システムの構成の例を示す略線図である。FIG. 26 is a schematic diagram illustrating an example of a configuration of a pictographic image creation system using a non-contact proximity wireless communication system according to the third embodiment of the present invention. 図27は、従来技術による絵文字画像作成の例を示す略線図である。FIG. 27 is a schematic diagram illustrating an example of creating a pictographic image according to the prior art.

以下に添付図面を参照して、本発明に係る画像処理装置の実施形態を詳細に説明する。本発明の実施形態では、連続した直線や曲線を用いて描画された元画像に基づき、例えばサイズが縦20ドット×横20ドットの絵文字画像を生成する。このとき、元画像に対して描画部分を誇張する誇張処理を施し、その後、当該元画像を縦20ドット×横20ドットに縮小して、所望の絵文字画像を生成する。絵文字画像のサイズへの縮小処理を、元画像の描画部分を誇張した後に行うので、元画像における必要な線が欠けるのが防がれ、見易い絵文字画像を得ることができる。   Embodiments of an image processing apparatus according to the present invention will be described below in detail with reference to the accompanying drawings. In the embodiment of the present invention, based on an original image drawn using continuous straight lines and curves, for example, a pictographic image having a size of 20 dots vertically × 20 dots horizontally is generated. At this time, an exaggeration process for exaggerating the drawing portion is performed on the original image, and then the original image is reduced to 20 dots vertically by 20 dots horizontally to generate a desired pictographic image. Since the reduction process to the size of the pictographic image is performed after exaggerating the drawing portion of the original image, it is possible to prevent a necessary line from being lost in the original image and to obtain an easy-to-see pictographic image.

図1は、本発明の各実施形態の利用形態の例を示す。パーソナルコンピュータ(PC)10、MFP(Multi Function Printer)20およびタブレット端末21は、絵文字画像の元となる元画像を作成し、作成された元画像から絵文字画像を生成する装置の例である。なお、MFP20は、プリンタ機能、スキャナ機能、コピー機能、FAX機能、通信機能など複数の機能を1台の筐体で実現したものである。一方、携帯電話端末40およびPC41は、PC10、MFP20およびタブレット端末21などで生成された絵文字画像を用いた文書作成などを行う装置の例である。   FIG. 1 shows an example of a usage pattern of each embodiment of the present invention. A personal computer (PC) 10, an MFP (Multi Function Printer) 20, and a tablet terminal 21 are examples of apparatuses that create an original image that is the basis of a pictographic image and generate a pictographic image from the created original image. Note that the MFP 20 implements a plurality of functions such as a printer function, a scanner function, a copy function, a FAX function, and a communication function in a single casing. On the other hand, the mobile phone terminal 40 and the PC 41 are examples of apparatuses that perform document creation using pictographic images generated by the PC 10, the MFP 20, the tablet terminal 21, and the like.

例えば、PC10、MFP20およびタブレット端末21などで生成された絵文字画像は、インターネットなどによるネットワーク30を介して携帯電話端末40やPC41に送信される。携帯電話端末40やPC41は、ネットワーク30を介して送信された絵文字画像を受信して保存し、文書作成の際に用いる。例えば、携帯電話端末40やPC41は、保存した絵文字画像を電子メールの文書中に挿入して、当該電子メールを送信する。   For example, pictographic images generated by the PC 10, MFP 20, tablet terminal 21, and the like are transmitted to the mobile phone terminal 40 and the PC 41 via the network 30 such as the Internet. The mobile phone terminal 40 and the PC 41 receive and store pictographic images transmitted via the network 30 and use them when creating a document. For example, the mobile phone terminal 40 or the PC 41 inserts a stored pictographic image into an e-mail document and transmits the e-mail.

絵文字画像の生成方法について、概略的に説明する。例えば、ユーザは、絵文字画像化したい絵柄2をマーカペンなどを用いて紙などに描画した原稿1を用意し、この原稿1を、PC10に接続したスキャナ装置11に読み取らせる。なお、絵文字画像化するための絵柄2の内容は、特に限定されない。例えば、絵、図案、文字、記号などを絵柄2として用いることができる。   A method for generating a pictographic image will be schematically described. For example, the user prepares a document 1 in which a pattern 2 to be converted into a pictographic image is drawn on paper or the like using a marker pen or the like, and causes the scanner device 11 connected to the PC 10 to read the document 1. In addition, the content of the pattern 2 for making a pictographic image is not specifically limited. For example, a picture, a design, a character, a symbol, or the like can be used as the design 2.

PC10は、本発明の実施形態による絵文字画像生成を行う画像処理プログラムが搭載され、スキャナ装置11で原稿1を読み取った原稿画像がこのPC10に入力される。PC10は、画像処理プログラムにより、入力された原稿画像から絵柄2による描画部分を含む所定領域を絵文字画像の元となる元画像として抽出し、この元画像に対して誇張処理を施して元の描画部分を誇張した画像を生成し、この画像を絵文字画像のサイズに縮小して絵文字画像を生成する。   The PC 10 is equipped with an image processing program for generating pictographic images according to an embodiment of the present invention, and an original image obtained by reading the original 1 with the scanner device 11 is input to the PC 10. Using the image processing program, the PC 10 extracts a predetermined area including a drawing portion of the pattern 2 from the input original image as an original image that is a source of the pictographic image, and performs an exaggeration process on the original image to perform the original drawing. An image exaggerating the part is generated, and the image is reduced to the size of the pictographic image to generate a pictographic image.

絵文字画像の元となる絵柄2は、紙などに描画されるのに限られない。例えば、PC10に接続されたペンタブレット12などのポインティングデバイスを用いて絵柄2を描画し、元画像を電子データとして直接的に作成してもよい。例えは、ユーザは、PC10において描画ソフトウェアを起動させ、絵柄2をペンタブレット12を用いて描画する。描画ソフトウェアは、ペンタブレット12による描画に応じて絵柄2による描画部分を含む元画像を生成する。PC10は、この元画像に基づき画像処理プログラムにより絵文字画像を生成する。同様にして、表示デバイスとタブレットとが一体的に形成され、内部にコンピュータと同等の機能を有するタブレット端末21を用いて絵文字画像を生成することもできる。   The pattern 2 that is the basis of the pictographic image is not limited to being drawn on paper or the like. For example, the pattern 2 may be drawn using a pointing device such as the pen tablet 12 connected to the PC 10 to directly create the original image as electronic data. For example, the user activates drawing software on the PC 10 and draws the pattern 2 using the pen tablet 12. The drawing software generates an original image including a drawing portion by the pattern 2 in accordance with the drawing by the pen tablet 12. The PC 10 generates a pictographic image by an image processing program based on the original image. Similarly, a pictographic image can also be generated using a tablet terminal 21 in which a display device and a tablet are integrally formed and have a function equivalent to that of a computer.

絵文字画像は、MFP20を用いて生成することもできる。MFP20には、本発明の実施形態による絵文字画像生成を行う画像処理プログラムを予め搭載しておく。例えば、ユーザは、絵文字画像化したい絵柄2が描画された原稿1を、MFP20にスキャナ機能を用いて読み取らせる。MFP20は、画像処理プログラムにより、原稿1がスキャナ機能により読み取られた原稿画像に対して上述と同様にして元画像の抽出、誇張処理および縮小処理を施して絵文字画像を生成する。   The pictographic image can also be generated using the MFP 20. The MFP 20 is preinstalled with an image processing program for generating a pictographic image according to the embodiment of the present invention. For example, the user causes the MFP 20 to read the document 1 on which the pattern 2 to be converted into a pictographic image is drawn using the scanner function. In accordance with the image processing program, the MFP 20 performs extraction, exaggeration processing, and reduction processing of the original image on the document image obtained by scanning the document 1 with the scanner function to generate a pictographic image.

また、絵文字画像化の処理は、絵文字画像化する元の画像が入力される場所とは異なる場所で行ってもよい。図1の例において、例えばネットワーク30に接続されるサーバ42に対して、本発明の実施形態による画像処理プログラムを搭載しておく。PC10、MFP20およびタブレット端末21は、絵柄2による描画部分を含む画像のデータが入力されると、入力された画像データをそのまま、あるいは圧縮符号化して、ネットワーク30を介してサーバ42に向けて送信する。   Further, the pictogram image processing may be performed at a place different from the place where the original image to be pictographed is input. In the example of FIG. 1, for example, an image processing program according to an embodiment of the present invention is installed in a server 42 connected to the network 30. When the image data including the drawing portion of the pattern 2 is input, the PC 10, MFP 20, and tablet terminal 21 transmit the input image data to the server 42 via the network 30 as it is or after compression encoding. To do.

サーバ42は、ネットワーク30を介して送信された画像データを受信し、受信された画像データにおける絵柄2による描画部分を含む所定領域を抽出して元画像データとし、この元画像データに対して上述した誇張処理および縮小処理を施して、例えば縦20ドット×横20ドットの絵文字画像による絵文字画像データを得る。この絵文字画像データは、ネットワーク30を介して携帯電話端末40やPC41に対して送信される。PC10やMFP20、タブレット端末21などに画像処理プログラムを搭載すること無く、ユーザが描画した絵柄2に基づく絵文字画像を得ることができる。   The server 42 receives the image data transmitted via the network 30 and extracts a predetermined area including a drawing portion by the pattern 2 in the received image data as original image data. The exaggeration process and the reduction process are performed to obtain pictographic image data of, for example, a pictographic image of vertical 20 dots × horizontal 20 dots. This pictographic image data is transmitted to the mobile phone terminal 40 and the PC 41 via the network 30. A pictographic image based on the picture 2 drawn by the user can be obtained without installing an image processing program in the PC 10, MFP 20, tablet terminal 21, or the like.

(第1の実施形態)
次に、本発明の第1の実施形態について説明する。本第1の実施形態では、ユーザが描画した絵柄2に基づき、静止画像としての絵文字画像を生成する。図2は、本第1の実施形態による画像処理装置100の一例の機能を示す機能ブロック図である。画像処理装置100は、整形処理部110、正規化/誇張処理部111、トリミング処理部112および縮小処理部113を含む。
(First embodiment)
Next, a first embodiment of the present invention will be described. In the first embodiment, a pictographic image as a still image is generated based on the pattern 2 drawn by the user. FIG. 2 is a functional block diagram showing functions of an example of the image processing apparatus 100 according to the first embodiment. The image processing apparatus 100 includes a shaping processing unit 110, a normalization / exaggeration processing unit 111, a trimming processing unit 112, and a reduction processing unit 113.

整形処理部110は、入力された元画像が正方形でない場合に、当該画像の上下または左右に余白を追加して、元画像を含む正方形の画像を作成する。正規化/誇張処理部111は、整形処理部110で整形された画像に対してドット数を正規化する正規化処理を施した後、誇張処理を施し、絵柄2による描画部分が誇張された画像を作成する。誇張処理は、例えば、描画部分を構成する線の幅を太くする処理である。誇張処理の詳細については、後述する。   When the input original image is not a square, the shaping processing unit 110 adds margins to the top and bottom or the left and right of the image to create a square image including the original image. The normalization / exaggeration processing unit 111 performs normalization processing to normalize the number of dots on the image shaped by the shaping processing unit 110, and then performs exaggeration processing so that the drawing portion by the pattern 2 is exaggerated. Create The exaggeration process is, for example, a process for increasing the width of a line constituting the drawing portion. Details of the exaggeration process will be described later.

トリミング処理部112は、正規化/誇張処理部111で作成された画像から必要部分を切り出す。必要部分は、例えば、画像に含まれる余白部分を取り除いた最小の正方形部分である。トリミング処理部112は、画像から切り出された必要部分の画像に対して拡大または縮小処理を施し、予め定められたサイズの画像を作成する。縮小処理部113は、トリミング処理部112で作成された画像に対して縮小処理を施し、例えば縦20ドット×横20ドットの絵文字画像を生成する。   The trimming processing unit 112 cuts out a necessary part from the image created by the normalization / exaggeration processing unit 111. The necessary part is, for example, a minimum square part from which a blank part included in the image is removed. The trimming processing unit 112 performs an enlargement or reduction process on an image of a necessary part cut out from the image, and creates an image having a predetermined size. The reduction processing unit 113 performs a reduction process on the image created by the trimming processing unit 112 to generate, for example, a pictographic image of 20 dots vertically × 20 dots horizontally.

図3は、本第1の実施形態による絵文字画像の生成方法を示す一例のフローチャートである。なお、ここでは、図1に示したPC10およびスキャナ装置11を用いて絵文字画像を生成するものとする。この場合、画像処理装置100を構成する各部は、PC10に搭載される画像処理プログラムのモジュールとして、PC10の主記憶上に展開される。   FIG. 3 is a flowchart illustrating an example of a pictographic image generation method according to the first embodiment. Here, it is assumed that a pictographic image is generated using the PC 10 and the scanner device 11 shown in FIG. In this case, each unit constituting the image processing apparatus 100 is expanded on the main memory of the PC 10 as a module of an image processing program mounted on the PC 10.

図3のフローチャートの実行に先立って、ユーザは、絵文字画像化したい絵柄2を紙にマーカペンなどを用いて描画した原稿1を用意する。そして、原稿1をスキャナ装置11に読み取らせた原稿画像をPC10に入力する。PC10では、原稿画像データから絵柄2による描画部分を含む所定領域を抽出し、元画像とする。   Prior to the execution of the flowchart of FIG. 3, the user prepares a document 1 in which a picture 2 to be converted into a pictographic image is drawn on paper using a marker pen or the like. Then, the original image obtained by causing the scanner device 11 to read the original 1 is input to the PC 10. The PC 10 extracts a predetermined area including a drawing portion of the pattern 2 from the document image data, and uses it as an original image.

絵柄2を描画する紙は、特に限定しないが、例えば、図4に例示されるように、大きさが予め定められた描画領域3を示す枠4が印刷された専用の用紙5を用いると、スキャナ装置11で原稿1を読み取った原稿画像から元画像を抽出する処理が容易となり、好ましい。なお、元画像のサイズは、スキャナ装置11が原稿1を読み取る際の解像度に依存する。一例として、スキャナ装置11の原稿1の読み取り時の解像度が100dpi(dot per inch)、用紙5のサイズがA4サイズ、枠4のサイズが縦5インチ×横6インチである場合、元画像のサイズは、縦500ドット×横600ドットとなる。   The paper on which the pattern 2 is drawn is not particularly limited. For example, as illustrated in FIG. 4, when a dedicated paper 5 on which a frame 4 indicating a drawing area 3 having a predetermined size is printed is used, The process of extracting the original image from the document image obtained by reading the document 1 with the scanner device 11 is easy and preferable. Note that the size of the original image depends on the resolution when the scanner 11 reads the document 1. As an example, if the resolution of the scanner 11 when reading the document 1 is 100 dpi (dot per inch), the size of the paper 5 is A4 size, and the size of the frame 4 is 5 inches long × 6 inches wide, the size of the original image Is 500 dots long × 600 dots wide.

また、描画領域3は、背景色を予め定められた色としておくと、正規化/誇張処理部111による誇張処理や、トリミング処理部112によるトリミング処理などが容易となり、好ましい。一般的には、マーカペンなどを用いて描画を行う場合、描画を行った部分の色が濃くなる(輝度値が下がる)ため、背景色は、例えば白色や、輝度値が所定値よりも高い淡い色とする。   In addition, it is preferable that the drawing area 3 has a predetermined background color because the exaggeration processing by the normalization / exaggeration processing unit 111 and the trimming processing by the trimming processing unit 112 are facilitated. In general, when drawing using a marker pen or the like, the color of the drawn portion becomes dark (the luminance value decreases), so the background color is, for example, white or a light value whose luminance value is higher than a predetermined value. Color.

図3のフローチャートにおいて、ステップS10で、画像処理装置100に対して元画像が入力され、次のステップS11で、画像処理装置100の全体を制御するCPU(図示しない)などにより、設定情報が読み込まれる。設定情報は、正規化/誇張処理部111で行われる誇張処理の回数を示す値が含まれる。誇張処理の回数は、例えば0回〜30回の範囲から選択されるものとする。   In the flowchart of FIG. 3, in step S10, an original image is input to the image processing apparatus 100, and in the next step S11, setting information is read by a CPU (not shown) that controls the entire image processing apparatus 100. It is. The setting information includes a value indicating the number of exaggeration processes performed by the normalization / exaggeration processing unit 111. The number of exaggeration processes is selected from a range of 0 to 30 times, for example.

画像処理装置100に入力された元画像は、整形処理部110に供給される。ステップS12で、整形処理部110は、供給された元画像に対して余白を付加して縦横のドット数の比が1:1である正方形の画像とする整形処理を行う。   The original image input to the image processing apparatus 100 is supplied to the shaping processing unit 110. In step S12, the shaping processing unit 110 performs shaping processing to add a blank to the supplied original image to form a square image in which the ratio of the number of vertical and horizontal dots is 1: 1.

図5を用いて、整形処理部110における整形処理について説明する。図5(a)は、元画像の例を示す。このように、元画像は、正方形ではない場合がある。整形処理部110は、正方形ではない元画像に対して、図5(b)に例示されるように、上下のそれぞれ、または、左右のそれぞれに等しい幅の余白を付加し、正方形の画像を作成する(図5(c))。   The shaping process in the shaping process part 110 is demonstrated using FIG. FIG. 5A shows an example of the original image. Thus, the original image may not be a square. The shaping processor 110 creates a square image by adding margins equal in width to the upper and lower sides or the left and right sides of the original image that is not square as illustrated in FIG. 5B. (FIG. 5C).

次のステップS13で、正規化/誇張処理部111は、ステップS12で作成された正方形の画像に対して正規化処理を施し、その後、誇張処理を施し、画像に含まれる描画部分を誇張する。   In the next step S13, the normalization / exaggeration processing unit 111 performs a normalization process on the square image created in step S12, and then performs an exaggeration process to exaggerate the drawing portion included in the image.

正規化処理について、概略的に説明する。正規化処理は、画像の解像度(縦横のドット数)を予め定められた値に変換する処理である。後述するように、正規化/誇張処理部111では、画像に対して、注目画素の画素値を注目画素周辺の画素の画素値で置き換えることにより、当該画像に含まれる描画部分の線の幅を太くする誇張処理を施す。ここで、例えばスキャナ装置11で原稿1を読み取る場合に、原稿1上で同じ太さの線の線幅に含まれるドット数は、読み取りの際の解像度が高いほど多くなる。したがって、誇張処理の効果は、原稿1の読み取り時の解像度が低いほど、顕著に表れることになる。   The normalization process will be schematically described. The normalization process is a process of converting the image resolution (vertical and horizontal dot numbers) to a predetermined value. As will be described later, the normalization / exaggeration processing unit 111 replaces the pixel value of the target pixel with the pixel values of the pixels around the target pixel in the image, thereby reducing the line width of the drawing portion included in the image. Apply exaggeration processing to thicken. Here, for example, when the document 1 is read by the scanner 11, the number of dots included in the line width of the same thickness line on the document 1 increases as the resolution at the time of reading increases. Therefore, the effect of the exaggeration process becomes more prominent as the resolution at the time of reading the document 1 is lower.

そのため、ステップS13において、誇張処理を行う前に、誇張処理の対象の画像に対して、画像の解像度を予め定められた解像度に変換する解像度変換処理を行い、正規化を行う。誇張処理は、このように解像度が正規化された画像に対して施される。   Therefore, in step S13, before performing the exaggeration process, a resolution conversion process for converting the resolution of the image to a predetermined resolution is performed on the image to be exaggerated, and normalization is performed. The exaggeration process is performed on the image whose resolution is normalized as described above.

誇張処理について、詳細に説明する。正規化/誇張処理部111で行われる誇張処理は、描画された線の線幅を太くする処理である。描画された線の線幅を誇張処理により太くすることで、誇張処理前に比べて描画部分が膨張する。これにより、描画部分が誇張される。   The exaggeration process will be described in detail. The exaggeration process performed by the normalization / exaggeration processing unit 111 is a process of increasing the line width of a drawn line. By increasing the line width of the drawn line by the exaggeration process, the drawing part expands compared to before the exaggeration process. Thereby, the drawing portion is exaggerated.

誇張処理は、背景色が白色乃至淡色の場合、注目画素および注目画素の周囲の8画素による9画素の画素値のうち、最も低い画素値を注目画素の画素値とする処理である。例えば、2値画像の場合は、注目画素および注目画素の周囲の8画素による9画素に1つでも黒(画素値=0)の画素があった場合、当該注目画素を黒にする。また、グレースケール画像の場合は、注目画素および注目画素の周囲の8画素による9画素の輝度値(画素値)のうち、最も低い輝度値を注目画素の輝度値とする。   The exaggeration process is a process in which, when the background color is white to light color, the lowest pixel value is set as the pixel value of the target pixel among the pixel values of nine pixels by the target pixel and the eight pixels around the target pixel. For example, in the case of a binary image, if there is at least one black pixel (pixel value = 0) in nine pixels including the target pixel and eight pixels around the target pixel, the target pixel is set to black. In the case of a gray scale image, the lowest luminance value among the luminance values (pixel values) of nine pixels by the target pixel and the eight pixels around the target pixel is set as the luminance value of the target pixel.

図6および図7を用いて、グレースケール画像の場合の誇張処理について、より具体的に説明する。なお、図6および図7において、縦5マス×横5マスの各マスは画素(ドット)を表し、画素はビット深度が8ビットであり輝度が256階調で表現されるものとする。また、背景色は輝度値=255の白であるものとする。   The exaggeration process in the case of a gray scale image will be described more specifically with reference to FIGS. 6 and 7, each of the vertical 5 square × horizontal 5 square represents a pixel (dot), and the pixel has a bit depth of 8 bits and a luminance of 256 gradations. The background color is white with a luminance value = 255.

図6(a)は、誇張処理前の画像の例を示す。この例では、右上から左下にかけて、幅が1乃至2画素の黒い線が描画されていることが分かる。この画像に対して、上述したようにして誇張処理を施す。   FIG. 6A shows an example of an image before the exaggeration process. In this example, it can be seen that a black line having a width of 1 to 2 pixels is drawn from the upper right to the lower left. Exaggeration processing is performed on this image as described above.

図7は、誇張処理の具体的な例を示す。なお、図7の各図において、注目画素は、マス目に斜線を付して示す。図7(a)は、上および左からそれぞれ2画素目の画素が注目画素となっており、注目画素の輝度値=190である。図7(a)の左側に例示されるように、注目画素および注目画素の周囲8画素の輝度値のうち、「10」が最も低い輝度値である。そのため、図7(a)の右側に例示されるように、注目画素が輝度値=10とされる。   FIG. 7 shows a specific example of the exaggeration process. In each drawing of FIG. 7, the target pixel is indicated by hatching the square. In FIG. 7A, the second pixel from the top and the left is the target pixel, and the luminance value of the target pixel is 190. As illustrated on the left side of FIG. 7A, “10” is the lowest luminance value among the luminance values of the pixel of interest and the eight pixels around the pixel of interest. Therefore, as illustrated on the right side of FIG. 7A, the target pixel has a luminance value = 10.

次に、図7(b)の左側に例示されるように、前回の注目画素の右隣の画素を新たな注目画素として、同様の処理を行う。この場合、注目画素および注目画素の周囲8画素の輝度値のうち、「0」が最も低い輝度値である。そのため、図7(b)の右側に例示されるように、注目画素が輝度値=0とされる。さらに、図7(c)の左側に例示されるように、前回の注目画素の右隣の画素を新たな注目画素として、同様の処理を行う。この場合、注目画素および注目画素の周囲8画素の輝度値のうち、「0」が最も低い輝度値である。そのため、図7(c)の右側に例示されるように、注目画素が輝度値=0とされる。   Next, as illustrated on the left side of FIG. 7B, the same processing is performed with the pixel immediately adjacent to the previous pixel of interest as the new pixel of interest. In this case, “0” is the lowest luminance value among the luminance values of the target pixel and the surrounding eight pixels. Therefore, as illustrated on the right side of FIG. 7B, the target pixel has a luminance value = 0. Further, as illustrated on the left side of FIG. 7C, the same processing is performed with the pixel immediately adjacent to the previous pixel of interest as the new pixel of interest. In this case, “0” is the lowest luminance value among the luminance values of the target pixel and the surrounding eight pixels. Therefore, as illustrated on the right side of FIG. 7C, the target pixel has a luminance value = 0.

図7(d)および図7(e)の例でも、同様にして誇張処理が行われる。図7(d)の例では、注目画素の輝度値が「10」とされ、図7(e)の例では、注目画素の輝度値が「10」とされる。   In the example of FIGS. 7D and 7E, the exaggeration process is similarly performed. In the example of FIG. 7D, the luminance value of the target pixel is “10”, and in the example of FIG. 7E, the luminance value of the target pixel is “10”.

図6(b)は、図6(a)に例示される画像の全ての画素を順次注目画素として誇張処理を行った結果の例を示す。なお、この場合、縦5画素×横5画素の領域外は、全て輝度値が「255」の背景色であるものと見做して誇張処理を行っている。図6(b)に例示されるように、誇張処理の結果が、画像の右上から左下にかけた幅が3乃至4画素の黒い線となって現れており、図6(a)の誇張処理前の状態に対して、黒い線の線幅が太くなり、画像の描画部分が膨張していることが分かる。   FIG. 6B shows an example of a result obtained by performing the exaggeration process on all the pixels of the image exemplified in FIG. In this case, the exaggeration process is performed on the assumption that all the areas outside the vertical 5 pixels × horizontal 5 pixels area are background colors having a luminance value of “255”. As illustrated in FIG. 6B, the result of the exaggeration process appears as a black line with a width of 3 to 4 pixels from the upper right to the lower left of the image, and before the exaggeration process in FIG. 6A. It can be seen that the line width of the black line becomes thicker with respect to the state of FIG.

なお、カラー画像の場合は、画像をR(赤色)、G(緑色)およびB(青色)の各色の要素毎に誇張処理を施して、最後に各要素の画像を合成する。図8のフローチャートを用いて、カラー画像の場合の誇張処理の例について説明する。先ず、ステップS20で、対象とする画像を、R、GおよびBの各色の要素による画像に分解する。   In the case of a color image, the image is exaggerated for each color element of R (red), G (green), and B (blue), and finally the image of each element is synthesized. An example of exaggeration processing in the case of a color image will be described using the flowchart of FIG. First, in step S20, the target image is decomposed into images of elements of R, G, and B colors.

次のステップS21で、R、G、B各色要素の画像を、それぞれグレースケール化する。すなわち、ステップS20で形成されたR、G、B各色要素の画像の画素値を、輝度値に変換する。そして、次のステップS22で、グレースケール化したR、G、B各色要素の画像に対して、図6および図7を用いて説明したようにして、誇張処理を施す。   In the next step S21, the images of the R, G, and B color elements are converted to gray scales. That is, the pixel value of the image of each R, G, B color element formed in step S20 is converted into a luminance value. Then, in the next step S22, an exaggeration process is performed on the gray scaled R, G, B color element images as described with reference to FIGS.

なお、カラー画像の場合、ある色、例えば色Rの線は、色Rの画素値が最大値で、他の色G、色Bの画素値が「0」となっている。一方、背景色が白色、すなわちR、G、B各色の画素値が全て最大値の場合、色Rの画素値は、色Rの線の部分以外においても全て最大値となる。したがって、R、G、B各色のうち何れか1の色要素の線の線幅を太くする処理は、対象色以外の各色要素画像において上述の誇張処理を施すことと同義である。   In the case of a color image, for a certain color, for example, a line of color R, the pixel value of color R is the maximum value, and the pixel values of other colors G and B are “0”. On the other hand, when the background color is white, that is, when the pixel values of the R, G, and B colors are all the maximum values, the pixel values of the color R are all the maximum values except for the line portion of the color R. Therefore, the process of increasing the line width of any one of the R, G, and B color elements is synonymous with performing the above-described exaggeration process on each color element image other than the target color.

次のステップS23では、ステップS22で誇張処理を施されたR、G、B各色要素の画像を、元の色でカラー化する。すなわち、グレースケール化されて誇張処理されたR、G、B各色要素の画像の輝度値を、R、G、B各色の画素値に変換する。そして、次のステップS24で、カラー化されたR、G、B各色要素の画像を合成する。これにより、カラー画像に対する誇張処理が行われる。   In the next step S23, the image of the R, G, B color elements subjected to the exaggeration process in step S22 is colored with the original color. That is, the luminance values of the R, G, and B color element images that have been grayscaled and exaggerated are converted into pixel values of the R, G, and B colors. In the next step S24, the colored R, G, B color element images are synthesized. Thereby, an exaggeration process is performed on the color image.

なお、カラー画像に対して上述のようにして誇張処理を行った場合、誇張処理前の色の境界部分において、この境界の両側の何方の色とも異なる色が発生してしまうことがある。すなわち、上述の誇張処理においては、R、G、B各色の色要素の画像において、より小さい値の画素値が優先される。そのため、境界部分において、例えば黒色など、元の境界の両側における色よりも暗い色が発生する可能性がある。しかしながら、本第1の実施形態では、後述するように、画像に対して誇張処理後に縮小処理が施されるため、この点は無視することができる。   Note that when the exaggeration process is performed on a color image as described above, a color that is different from any of the colors on both sides of the boundary may occur in the color boundary part before the exaggeration process. That is, in the above-described exaggeration process, a smaller pixel value is prioritized in the color element images of R, G, and B colors. For this reason, a darker color than the colors on both sides of the original boundary, such as black, may occur in the boundary portion. However, in the first embodiment, as will be described later, since the reduction process is performed on the image after the exaggeration process, this point can be ignored.

また、この誇張処理は、ステップS11で読み込まれた設定情報に含まれる誇張処理の回数だけ繰り返して実行される。すなわち、図9に例示されるように、誇張処理前の元画像302に対して1回目の誇張処理を施して、誇張された画像303aを得る。この画像303aに対して2回目の誇張処理を施して、画像303aより描画の線幅が太く誇張された画像303bを得る。画像303c、303dおよび303eは、同様にして直前に誇張処理された画像に対して3回目、4回目、5回目の誇張処理を施して得られた画像の例である。誇張処理回数が増えるに連れ、描画部分の線幅が太くなっていくのが分かる。   Further, this exaggeration process is repeatedly executed as many times as the number of exaggeration processes included in the setting information read in step S11. That is, as illustrated in FIG. 9, the first exaggeration process is performed on the original image 302 before the exaggeration process to obtain an exaggerated image 303a. A second exaggeration process is performed on the image 303a to obtain an image 303b in which the drawing line width is exaggerated wider than the image 303a. Images 303c, 303d, and 303e are examples of images obtained by performing the third, fourth, and fifth exaggeration processes on an image that has been similarly exaggerated immediately before. As the number of exaggeration processes increases, it can be seen that the line width of the drawing portion increases.

説明は図3のフローチャートに戻り、ステップS13の誇張処理が設定情報に含まれる処理回数だけ終了したら、処理はステップS14に移行する。ステップS14で、トリミング処理部112は、ステップS13で得られた誇張された画像に対するトリミング処理を行う。これにより、当該画像から描画部分が切り出される。   Returning to the flowchart of FIG. 3, when the exaggeration process in step S <b> 13 is completed for the number of processes included in the setting information, the process proceeds to step S <b> 14. In step S14, the trimming processing unit 112 performs trimming processing on the exaggerated image obtained in step S13. Thereby, a drawing part is cut out from the image.

図10を用いて、トリミング処理部112で行われるトリミング処理について説明する。図10(a)は、トリミング処理前の画像304の例を示す。トリミング処理部112は、この画像304における描画部分を抽出するマスク画像305を生成する(図10(b)参照)。マスク画像305は、画像304における各画素の画素値を閾値判定して2値化することで生成する。トリミング処理部112は、画像304から、マスク画像305が含まれる最小の矩形を切り出す。図10(c)は、画像304から描画部分を切り出した画像306の例を示す。   The trimming process performed by the trimming processing unit 112 will be described with reference to FIG. FIG. 10A shows an example of the image 304 before the trimming process. The trimming processing unit 112 generates a mask image 305 for extracting a drawing portion in the image 304 (see FIG. 10B). The mask image 305 is generated by binarizing the pixel value of each pixel in the image 304 by determining the threshold value. The trimming processing unit 112 cuts out a minimum rectangle including the mask image 305 from the image 304. FIG. 10C shows an example of an image 306 obtained by cutting out a drawing portion from the image 304.

なお、ここでは、トリミング処理部112が、画像304からマスク画像305が含まれる最小の矩形を切り出して、トリミングされた画像306を得るように説明したが、これはこの例に限定されない。例えば、画像304から、マスク画像305が含まれる最小の矩形に対して多少の余白領域を付加した領域を切り出すことで、トリミングされた画像306としてもよい。   Here, the trimming processing unit 112 has been described so as to obtain the trimmed image 306 by cutting out the minimum rectangle including the mask image 305 from the image 304, but this is not limited to this example. For example, a trimmed image 306 may be obtained by cutting out from the image 304 an area obtained by adding some margin area to the minimum rectangle including the mask image 305.

説明は図3のフローチャートに戻り、ステップS14のトリミング処理が終了したら、次のステップS15で、トリミング処理部112により、トリミングされた画像306の縦横比が1:1とされる。このステップS15では、上述のステップS12と同様に、トリミングされた画像306に対して、上下のそれぞれ、または、左右のそれぞれに等しい幅の余白を付加し、正方形の画像を作成する。   Returning to the flowchart of FIG. 3, when the trimming process in step S14 is completed, the trimming processing unit 112 sets the aspect ratio of the trimmed image 306 to 1: 1 in the next step S15. In step S15, similarly to step S12 described above, margins having the same width are added to the trimmed image 306 on the upper and lower sides or the left and right sides, respectively, to create a square image.

次のステップS16で、ステップS15で縦横比が1:1とされた画像に対して縮小処理部113が縮小処理を施し、縮小処理前の画像に対して十分サイズが小さい縮小画像を生成する。生成された縮小画像は、絵文字画像として画像処理装置100から出力される。なお、縮小処理部113による縮小処理は、バイリニア法やバイキュービック法といった、一般的な画像補間方法を用いて行うことができる。   In the next step S16, the reduction processing unit 113 performs reduction processing on the image whose aspect ratio is 1: 1 in step S15, and generates a reduced image having a sufficiently small size with respect to the image before the reduction processing. The generated reduced image is output from the image processing apparatus 100 as a pictographic image. Note that the reduction processing by the reduction processing unit 113 can be performed using a general image interpolation method such as a bilinear method or a bicubic method.

縮小処理について、より具体的に説明する。既に述べたように、絵文字画像は、例えば携帯電話端末40やPC41において、電子メールの文書などに挿入されて用いられる。そのため、絵文字画像のサイズを、電子メール文書で一般的に用いられるフォントサイズと揃えると、文書が読み易くなり、好ましい。一例として、例えば携帯電話端末40において、電子メール文書で用いられる標準のフォントサイズが縦20ドット×横20ドットである場合、絵文字画像のサイズも、フォントサイズに揃えて縦20ドット×横20ドットとすることが考えられる。なお、携帯電話端末40の画面解像度は、例えば320ドット×240ドット乃至960ドット×480ドット程度が一般的であると考えられる。   The reduction process will be described more specifically. As described above, the pictographic image is used by being inserted into an e-mail document or the like in the mobile phone terminal 40 or the PC 41, for example. Therefore, it is preferable to make the size of the pictographic image the same as the font size generally used in an e-mail document because the document becomes easy to read. As an example, in the mobile phone terminal 40, for example, when the standard font size used in an e-mail document is 20 dots long x 20 dots wide, the size of the pictographic image is also 20 dots long x 20 dots wide in accordance with the font size. It can be considered. The screen resolution of the mobile phone terminal 40 is considered to be generally about 320 dots × 240 dots to 960 dots × 480 dots, for example.

図11を用いて説明する。図11(a)は、トリミング処理部112で解像度が正規化された画像307の例を示す。ここでは、画像307は、サイズが縦400ドット×横400ドットであるとする。縮小処理部113は、この画像307に対して縮小処理を施して、図11(b)に例示されるような、画像307に対して十分サイズの小さな、例えば縦20ドット×横20ドットのサイズの縮小画像308を生成する。   This will be described with reference to FIG. FIG. 11A shows an example of an image 307 whose resolution has been normalized by the trimming processing unit 112. Here, it is assumed that the size of the image 307 is 400 dots long × 400 dots wide. The reduction processing unit 113 performs a reduction process on the image 307 and has a sufficiently small size with respect to the image 307 as illustrated in FIG. The reduced image 308 is generated.

上述したように、縮小画像308のサイズは、携帯電話端末40において電子メール文書などで用いられる標準のフォントサイズに対応するサイズが選択される。すなわち、縮小画像308のサイズは、縦20ドット×横20ドットに限られず、縦16ドット×横16ドット、縦32ドット×横32ドットなど、当該縮小画像308による絵文字画像の用途や、当該絵文字画像の送信先の仕様などに応じて決められる。また、縮小処理部113は、複数のサイズでそれぞれ縮小画像308を生成してもよい。   As described above, as the size of the reduced image 308, a size corresponding to a standard font size used in an e-mail document or the like in the mobile phone terminal 40 is selected. That is, the size of the reduced image 308 is not limited to vertical 20 dots × horizontal 20 dots, and uses of the pictogram image by the reduced image 308 such as vertical 16 dots × horizontal 16 dots, vertical 32 dots × horizontal 32 dots, It is determined according to the specifications of the image transmission destination. Further, the reduction processing unit 113 may generate the reduced images 308 with a plurality of sizes.

なお、図3のステップS13における誇張処理の回数は、予め、ステップS12〜ステップS16の処理を1または複数種類の元画像に対して実行して決めておくとよい。このとき、ステップS13における誇張処理の回数が0回の場合、1回の場合、2回の場合、…といったように、順次変更していって、それぞれ縮小画像308を生成する。そして、見た目に最適と判断した縮小画像308を生成した際の誇張処理回数を、設定情報に予め含めておく。   Note that the number of exaggeration processes in step S13 in FIG. 3 may be determined in advance by executing the processes in steps S12 to S16 on one or more types of original images. At this time, the reduced image 308 is generated by sequentially changing the number of exaggeration processes in step S13, such as 0, 1, 2 and so on. Then, the number of exaggeration processes when the reduced image 308 that is determined to be optimal in appearance is generated is included in the setting information in advance.

図12を用いて、誇張処理回数の決め方について概略的に説明する。図12において、縮小画像308aは、図3のステップS13において誇張処理を行っていない場合の、縮小処理部113における縮小処理結果の例、縮小画像308b〜308iは、それぞれ、ステップS13において誇張処理を1回〜8回行った場合の、縮小処理部113における縮小処理結果の例を示す。なお、縮小画像308a〜308iは、図5(a)に示した画像を元画像として生成されている。   A method of determining the number of exaggeration processes will be schematically described with reference to FIG. 12, the reduced image 308a is an example of the reduction process result in the reduction processing unit 113 when the exaggeration process is not performed in step S13 of FIG. 3, and the reduced images 308b to 308i are subjected to the exaggeration process in step S13. An example of the reduction processing result in the reduction processing unit 113 when performed once to eight times is shown. The reduced images 308a to 308i are generated using the image shown in FIG. 5A as the original image.

誇張処理の回数が増えるに連れ、強い誇張となり、少ない回数では弱い誇張となる。誇張が無い場合や誇張が弱すぎる場合、元画像における描画部分の主要な線が掠れてしまったり、一部の色が消滅してしまっており、縮小画像において元画像の形状が崩れてしまっている(例えば縮小画像308a〜308c)。一方、誇張が強すぎる場合、元画像における描画部分の線が太くなり過ぎ、縮小画像において色潰れなどが発生し、元画像の形状が崩れてしまっている(例えば縮小画像308h、308i)。   As the number of exaggeration processes increases, it becomes a strong exaggeration, and when it is less, it becomes a weak exaggeration. When there is no exaggeration or when the exaggeration is too weak, the main line of the drawing part in the original image has faded, or some colors have disappeared, and the shape of the original image has collapsed in the reduced image (For example, reduced images 308a to 308c). On the other hand, if the exaggeration is too strong, the line of the drawing portion in the original image becomes too thick, color collapse occurs in the reduced image, and the shape of the original image is destroyed (for example, the reduced images 308h and 308i).

ユーザや画像処理装置100(画像処理プログラム)の提供者は、異なる誇張処理回数で生成した縮小画像308a〜308iを見て、最適と思われる縮小画像を選択する。そして、選択された縮小画像を生成する際の誇張処理回数を、設定情報に含める。この例では、縮小画像308eが、最適に誇張されていると判断され、当該縮小画像308eの誇張処理の回数(4回)を、ステップS11で読み込まれる設定情報に対して含める。   The user or the provider of the image processing apparatus 100 (image processing program) selects the reduced image that seems to be optimal by looking at the reduced images 308a to 308i generated with different exaggeration processing times. Then, the number of exaggeration processes when the selected reduced image is generated is included in the setting information. In this example, it is determined that the reduced image 308e is optimally exaggerated, and the number of exaggeration processes (4 times) of the reduced image 308e is included in the setting information read in step S11.

なお、上述では、誇張処理の回数を予め設定情報に含めて、ステップS11にて読み込むように説明したが、これはこの例に限定されない。例えば、誇張処理の回数は、元画像から絵文字画像を作成する際に、ユーザが画像処理装置100に対して入力するようにできる。   In the above description, the number of exaggeration processes is included in the setting information in advance and is read in step S11. However, this is not limited to this example. For example, the number of exaggeration processes can be input to the image processing apparatus 100 by the user when creating a pictographic image from the original image.

このように、本第1の実施形態では、元画像に対して、描画部分の誇張処理を施してから縮小処理を行っている。そのため、元画像の描画部分における主要な線が掠れてしまったり、必要な色が消滅してしまったりすることが防がれ、全体として描画部分の形状を保ち見易い絵文字画像を生成することができる。   As described above, in the first embodiment, the reduction processing is performed after the exaggeration processing of the drawing portion is performed on the original image. For this reason, it is possible to prevent the main lines in the drawing portion of the original image from being blurred or the necessary colors to disappear, and it is possible to generate an easy-to-see pictographic image while maintaining the shape of the drawing portion as a whole. .

(第1の実施形態の第1の変形例)
また、上述では、ユーザによる手書きの原稿1をスキャナ装置11で読み取った原稿画像から元画像を抽出する際の用紙5に、描画領域3を示す枠4が印刷されている例を示したが、これはこの例に限定されない。図13は、本第1の実施形態の第1の変形例による用紙5’の例を示す。なお、図13において、上述の図4と共通する部分には同一の符号を付し、詳細な説明を省略する。
(First modification of the first embodiment)
In the above description, an example in which the frame 4 indicating the drawing region 3 is printed on the paper 5 when the original image is extracted from the original image obtained by reading the handwritten original 1 by the scanner device 11 has been described. This is not limited to this example. FIG. 13 shows an example of a sheet 5 ′ according to a first modification of the first embodiment. In FIG. 13, the same reference numerals are given to portions common to FIG. 4 described above, and detailed description thereof is omitted.

本第1の実施形態の第1の変形例による用紙5’は、描画領域3に描画された絵柄2から作成した絵文字画像を送信する送信先のアドレスを記入するアドレス入力領域6をさらに設ける。アドレス入力領域6には、例えば、当該絵文字画像の送信先である携帯電話端末40やPC41の電子メールアドレスがユーザによる手書きで書き込まれる。PC10は、この電子メールアドレスが書き込まれた原稿1をスキャナ装置11で読み取って得られた原稿画像から、描画領域3の画像と、アドレス入力領域6の画像とを抽出する。描画領域3の画像は、元画像として処理され、上述したようにして絵文字画像が生成される。   The sheet 5 ′ according to the first modification of the first embodiment further includes an address input area 6 in which an address of a transmission destination for transmitting a pictographic image created from the picture 2 drawn in the drawing area 3 is entered. In the address input area 6, for example, the e-mail address of the mobile phone terminal 40 or the PC 41 to which the pictographic image is transmitted is written by handwriting by the user. The PC 10 extracts the image in the drawing area 3 and the image in the address input area 6 from the original image obtained by reading the original 1 in which the e-mail address is written by the scanner device 11. The image in the drawing area 3 is processed as an original image, and a pictographic image is generated as described above.

PC10は、アドレス入力領域6の画像に対してOCR(Optical Character Recognition)処理を施し、文字情報を抽出する。そして、抽出された文字情報からなる文字列が電子メールアドレスを表しているか否かを判定する。例えば、文字列の先頭および末尾以外の部分に記号「@(アットマーク)」が含まれている場合に、当該文字列が電子メールアドレスであると判定することが考えられる。PC10は、描画領域3の画像を処理した絵文字画像を、アドレス入力領域6から抽出した電子メールアドレスを送信先として送信する。   The PC 10 performs OCR (Optical Character Recognition) processing on the image in the address input area 6 and extracts character information. Then, it is determined whether or not the character string composed of the extracted character information represents an electronic mail address. For example, when a symbol “@ (at mark)” is included in a portion other than the beginning and end of a character string, it may be determined that the character string is an e-mail address. The PC 10 transmits a pictographic image obtained by processing the image in the drawing area 3 to the e-mail address extracted from the address input area 6 as a transmission destination.

この第1の変形例によれば、絵文字画像の送信先となる電子メールアドレスを、一々キー入力する必要が無い。そのため、この第1の変形例は、PC10のみならず、キーボードなど専用の文字入力手段を持たないMFP20などを用いて絵文字画像を生成する場合にも、用いて好適である。   According to the first modification, there is no need to key-in the e-mail address that is the destination of the pictographic image. For this reason, the first modification is suitable not only for generating a pictographic image using not only the PC 10 but also the MFP 20 that does not have a dedicated character input means such as a keyboard.

(第1の実施形態の第2の変形例)
図14は、本第1の実施形態の第2の変形例による用紙5”の例を示す。なお、図14において、上述の図13と共通する部分には同一の符号を付し、詳細な説明を省略する。本第1の実施形態の第2の変形例による用紙5”は、上述した第1の変形例の用紙5’に対して、付加情報を入力する付加情報入力領域7をさらに設ける。付加情報入力領域7は、例えば描画領域3に描画された絵柄2に関する付加情報がユーザによる手書きで書き込まれる。付加情報は、例えば描画領域3に描画された絵柄2のタイトルが考えられる。付加情報は、絵柄2のタイトルに限られず、例えば描画領域3に描画を行ったユーザの名前などでもよいし、絵柄2と直接的な関連性の無い情報でもよい。
(Second modification of the first embodiment)
FIG. 14 shows an example of a sheet 5 ″ according to the second modification of the first embodiment. In FIG. 14, the same reference numerals are given to the same parts as those in FIG. The sheet 5 ″ according to the second modification of the first embodiment further includes an additional information input area 7 for inputting additional information with respect to the sheet 5 ′ according to the first modification described above. Provide. In the additional information input area 7, for example, additional information related to the pattern 2 drawn in the drawing area 3 is written by handwriting by the user. As the additional information, for example, the title of the pattern 2 drawn in the drawing area 3 can be considered. The additional information is not limited to the title of the picture 2, and may be, for example, the name of the user who has drawn in the drawing area 3, or information that is not directly related to the picture 2.

PC10は、この付加情報が書き込まれた原稿1をスキャナ装置11で読み取って得られた原稿画像から、描画領域3の画像と、アドレス入力領域6の画像と、付加情報入力領域7の画像とを抽出する。描画領域3の画像は、元画像として処理される。また、アドレス入力領域6の画像は、上述したようにOCR処理されて、当該描画領域3の画像を処理した絵文字画像を送信する送信先の電子メールアドレスが抽出される。さらに、付加情報入力領域7の画像は、同様にOCR処理されて文字情報が抽出され、抽出された文字情報からなる文字列が付加情報としてメモリなどに一時的に保持される。   The PC 10 extracts the image in the drawing area 3, the image in the address input area 6, and the image in the additional information input area 7 from the original image obtained by reading the original 1 on which the additional information is written by the scanner device 11. Extract. The image in the drawing area 3 is processed as an original image. Further, the image in the address input area 6 is subjected to OCR processing as described above, and a destination e-mail address to which a pictographic image obtained by processing the image in the drawing area 3 is transmitted is extracted. Further, the image of the additional information input area 7 is similarly subjected to OCR processing to extract character information, and a character string composed of the extracted character information is temporarily held in a memory or the like as additional information.

PC10は、描画領域3の画像を処理した絵文字画像を、アドレス入力領域6から抽出した電子メールアドレスを送信先として送信する。このとき、PC10は、絵文字画像に対して、付加情報入力領域7から抽出された付加情報を付加して、当該送信先に送信する。   The PC 10 transmits a pictographic image obtained by processing the image in the drawing area 3 to the e-mail address extracted from the address input area 6 as a transmission destination. At this time, the PC 10 adds the additional information extracted from the additional information input area 7 to the pictographic image and transmits it to the transmission destination.

この第2の変形例によれば、絵文字画像に関する付加情報を、一々キー入力することなく、当該絵文字画像と共に送信先に送信することができる。そのため、この第2の変形例は、PC10のみならず、キーボードなど専用の文字入力手段を持たないMFP20などを用いて絵文字画像を生成する場合にも、用いて好適である。   According to the second modification, the additional information related to the pictographic image can be transmitted to the transmission destination together with the pictographic image without inputting the key one by one. For this reason, the second modification is suitable not only for generating a pictographic image using not only the PC 10 but also the MFP 20 or the like that does not have a dedicated character input means such as a keyboard.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。上述の第1の実施形態では、絵文字画像を静止画像として生成した。これに対して、本第2の実施形態では、絵文字画像を動画像として生成する。このとき、動画像は、1枚の元画像から生成する。例えば、本第2の実施形態で生成される動画像は、回転、移動および拡大/縮小、ならびに、これらの組み合わせからなる。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the first embodiment described above, the pictographic image is generated as a still image. In contrast, in the second embodiment, a pictographic image is generated as a moving image. At this time, the moving image is generated from one original image. For example, the moving image generated in the second embodiment includes rotation, movement, enlargement / reduction, and combinations thereof.

図15は、本第2の実施形態による画像処理装置200の一例の機能を示す機能ブロック図である。なお、図15において、上述した図2と共通する部分には同一の符号を付し、詳細な説明を省略する。画像処理装置200は、整形処理部110と、第1記憶部210と、回転処理部211と、正規化/誇張処理部111と、トリミング処理部112と、縮小処理部212と、移動処理部213と、第2記憶部214と、動画像生成部215とを有する。   FIG. 15 is a functional block diagram showing functions of an example of the image processing apparatus 200 according to the second embodiment. In FIG. 15, the same reference numerals are given to the portions common to FIG. 2 described above, and detailed description thereof is omitted. The image processing apparatus 200 includes a shaping processing unit 110, a first storage unit 210, a rotation processing unit 211, a normalization / exaggeration processing unit 111, a trimming processing unit 112, a reduction processing unit 212, and a movement processing unit 213. And a second storage unit 214 and a moving image generation unit 215.

図15において、第1記憶部210は、整形処理部110で元画像の縦横比が1:1に整形された画像を格納する。回転処理部211は、第1記憶部210から整形された画像を読み出して、読み出した画像を指定された角度だけ回転させる。正規化/誇張処理部111は、この回転処理部211で生成された回転画像に対して、第1の実施形態で説明したようにして、解像度の正規化を施した後、誇張処理を施すことになる。   In FIG. 15, the first storage unit 210 stores an image that has been shaped by the shaping processing unit 110 so that the aspect ratio of the original image is 1: 1. The rotation processing unit 211 reads the shaped image from the first storage unit 210 and rotates the read image by a specified angle. The normalization / exaggeration processing unit 111 performs the exaggeration processing on the rotated image generated by the rotation processing unit 211 after normalizing the resolution as described in the first embodiment. become.

トリミング処理部112は、回転処理部210で回転され、正規化/誇張処理部111で誇張処理された画像から必要部分を切り出すと共に、切り出した画像の縦横比を1:1に整形する。縮小処理部212は、トリミング処理部112で作成された画像に対して、当該画像を指定されたサイズに縮小する縮小処理を施す。移動処理部213は、縮小処理部212で縮小された画像に対して、指定された方向および移動量で移動させる移動処理を施す。移動処理部213から出力された画像は、第2記憶部214に格納される。   The trimming processing unit 112 cuts out a necessary part from the image rotated by the rotation processing unit 210 and exaggerated by the normalization / exaggeration processing unit 111, and shapes the aspect ratio of the cut-out image to 1: 1. The reduction processing unit 212 performs reduction processing on the image created by the trimming processing unit 112 to reduce the image to a specified size. The movement processing unit 213 performs a movement process for moving the image reduced by the reduction processing unit 212 in a designated direction and movement amount. The image output from the movement processing unit 213 is stored in the second storage unit 214.

画像処理装置200において、回転処理部211、正規化/誇張処理部111、トリミング処理部112、縮小処理部212および移動処理部213による各処理は、第1記憶部210から読み出した画像に対して、指定された回数だけ繰り返される。また、第2記憶部214には、各繰り返しにより生成された画像が蓄積的に記憶される。指定された回数の処理が終了すると、動画像生成部215は、第2記憶部215から処理毎の画像を読み出して時系列で並べて、動画像による絵文字画像を生成する。   In the image processing apparatus 200, each process performed by the rotation processing unit 211, normalization / exaggeration processing unit 111, trimming processing unit 112, reduction processing unit 212, and movement processing unit 213 is performed on an image read from the first storage unit 210. Is repeated the specified number of times. Further, the second storage unit 214 stores images generated by each repetition in an accumulative manner. When the designated number of processes is completed, the moving image generation unit 215 reads out the images for each process from the second storage unit 215, arranges them in time series, and generates a pictographic image based on the moving images.

図16は、本第2の実施形態による絵文字画像の生成方法を示す一例のフローチャートである。なお、ここでは、図1に示したPC10およびスキャナ装置11を用いて絵文字画像を生成するものとする。この場合、画像処理装置200を構成する各部は、PC10に搭載される画像処理プログラムのモジュールとして、PC10の主記憶上に展開される。   FIG. 16 is a flowchart illustrating an example of a pictographic image generation method according to the second embodiment. Here, it is assumed that a pictographic image is generated using the PC 10 and the scanner device 11 shown in FIG. In this case, each unit constituting the image processing apparatus 200 is expanded on the main memory of the PC 10 as a module of an image processing program mounted on the PC 10.

図16のフローチャートの実行に先立って、ユーザは、絵文字画像化したい絵柄2を紙にマーカペンなどを用いて描画した原稿1を用意する。そして、原稿1をスキャナ装置11に読み取らせた原稿画像をPC10に入力する。PC10では、原稿画像データから絵柄2による描画部分を含む所定領域を抽出し、元画像とする。   Prior to the execution of the flowchart of FIG. 16, the user prepares a document 1 in which a picture 2 to be converted into a pictographic image is drawn on paper using a marker pen or the like. Then, the original image obtained by causing the scanner device 11 to read the original 1 is input to the PC 10. The PC 10 extracts a predetermined area including a drawing portion of the pattern 2 from the document image data, and uses it as an original image.

図16のフローチャートにおいて、ステップS30で、画像処理装置200に対して元画像が入力される。入力された元画像は、整形処理部110に供給される。次のステップS31で、例えばこの画像処理装置200の全体を制御するCPU(図示しない)により、設定情報が読み込まれる。   In the flowchart of FIG. 16, an original image is input to the image processing apparatus 200 in step S30. The input original image is supplied to the shaping processing unit 110. In the next step S31, for example, setting information is read by a CPU (not shown) that controls the entire image processing apparatus 200.

図17は、設定情報の例を示す。図17(a)は、設定情報の一例のフォーマットを示す。設定情報の第1行目には、動画像を構成する画像の枚数(単位:枚)と、動画像における1枚の画像の表示時間(単位:1/100秒)とが示される。   FIG. 17 shows an example of setting information. FIG. 17A shows an exemplary format of setting information. In the first line of the setting information, the number of images constituting the moving image (unit: sheet) and the display time of one image in the moving image (unit: 1/100 second) are shown.

設定情報の第2行目は、動画像を構成する画像毎に設定される情報が示される。この例では、画像毎に設定される情報として、誇張回数、回転角度(単位:度)、大きさ、x方向の移動量(単位:ドット)、y方向の移動量(単位:ドット)が示されている。これらのうち、誇張回数は、例えば0回〜30回の範囲から選択される。大きさは、例えば正方形で1ドット×1ドット〜30ドット×30ドットの範囲から選択される。また、回転角は、例えば元画像のx方向に対する角度とする。x方向の移動量およびy方向の移動量は、移動処理が1回も施されていない初期位置の画像に対するものであるとする。この設定情報の第2行目の情報が、動画像を構成する画像の枚数分、記述される。   The second line of the setting information indicates information set for each image constituting the moving image. In this example, the number of exaggerations, the rotation angle (unit: degree), the size, the amount of movement in the x direction (unit: dot), and the amount of movement in the y direction (unit: dot) are shown as information set for each image. Has been. Among these, the number of exaggerations is selected from a range of 0 to 30 times, for example. The size is, for example, a square and is selected from a range of 1 dot × 1 dot to 30 dots × 30 dots. The rotation angle is, for example, an angle with respect to the x direction of the original image. It is assumed that the movement amount in the x direction and the movement amount in the y direction are for the image at the initial position where the movement process has not been performed once. The information on the second line of the setting information is described for the number of images constituting the moving image.

図17(b)は、設定情報が格納される設定情報ファイルの内容の例を示す。このように、各項目が「,(カンマ)」で区切られ、各行が改行文字(図示しない)で区切られて、設定情報がファイルに格納される。図17(b)の例では、第1行目に、動画像が4枚の画像で構成され、1枚の画像の表示時間が0.5秒であることが記述される。第2行目以降は、動画像を構成する各画像の設定情報が記述される。例えば、第2行目は、動画像を構成する1枚目の画像について、誇張回数が7回、回転角度が5度、大きさが縦20ドット×横20ドット、x方向およびy方向への移動は無しであることが示される。第3行目〜第5行目も同様にして、画像毎に設定情報が記述される。   FIG. 17B shows an example of the contents of a setting information file in which setting information is stored. In this way, each item is separated by “, (comma)”, each line is separated by a line feed character (not shown), and the setting information is stored in the file. In the example of FIG. 17B, it is described in the first row that the moving image is composed of four images, and the display time of one image is 0.5 seconds. In the second and subsequent lines, setting information of each image constituting the moving image is described. For example, in the second row, the first image constituting the moving image has an exaggeration count of 7 times, a rotation angle of 5 degrees, a size of 20 dots vertically × 20 dots horizontally, x direction and y direction. It is shown that there is no transfer. Similarly, the setting information is described for each image in the third to fifth lines.

図16のフローチャートにおいて、ステップS31で設定情報が読み込まれると、処理が次のステップS32に移行される。ステップS32では、整形処理部110において、供給された元画像の上下、または、左右のそれぞれに等しい幅の余白を付加して、元画像を、縦横比が1:1の正方形の画像に整形する。整形処理部110で整形された画像は、第1記憶部210に格納される。   In the flowchart of FIG. 16, when the setting information is read in step S31, the process proceeds to the next step S32. In step S32, the shaping processing unit 110 adds margins having the same width to the top and bottom or the left and right of the supplied original image, and shapes the original image into a square image with an aspect ratio of 1: 1. . The image shaped by the shaping processing unit 110 is stored in the first storage unit 210.

次のステップS33で、回転処理部211は、第1記憶部210から画像を読み出す。なお、このステップS33から後述するステップS41までのループ処理において、第1記憶部210から読み出した同一の画像に対して各ループによる処理が施される。その際に、各ループにおいて、処理対象の画像に対して、設定情報(図17(b)参照)の第2行目からループ毎に順次、各行の設定情報が適用される。   In the next step S <b> 33, the rotation processing unit 211 reads an image from the first storage unit 210. In the loop processing from step S33 to step S41 described later, the processing by each loop is performed on the same image read from the first storage unit 210. At that time, in each loop, the setting information of each row is sequentially applied to the processing target image for each loop from the second row of the setting information (see FIG. 17B).

次のステップS34で、回転処理部211は、第1記憶部210から読み出した画像に対して、設定情報の回転角の項目に示される角度だけ回転させる回転処理を施す。回転の中心は、例えば画像の中央部とする。一例として、図18(a)に示される画像に対して、−15度(反時計回りに15度)の回転処理を施し、図18(b)に示される回転された画像を得る。画像の回転処理は、周知の回転行列を用いて実現することができる。   In the next step S <b> 34, the rotation processing unit 211 performs a rotation process for rotating the image read from the first storage unit 210 by the angle indicated in the rotation angle item of the setting information. The center of rotation is, for example, the center of the image. As an example, a rotation process of −15 degrees (15 degrees counterclockwise) is performed on the image shown in FIG. 18A to obtain a rotated image shown in FIG. The image rotation process can be realized using a known rotation matrix.

次のステップS35で、正規化/誇張処理部111は、上述した図3のステップS13と同様にして、ステップS34で作成された画像の解像度を正規化し、その後、設定情報の誇張回数の項目に示される回数だけ誇張処理を施す。次のステップS36で、トリミング処理部112は、上述した図3のステップS14と同様にして、ステップS35で誇張された画像に対するトリミング処理を行い、当該誇張画像から描画部分を含む最小の矩形を切り出す。この最小の矩形に対して多少の余白領域を付加して切り出してもよい。そして、次のステップS37で、トリミング処理部112により、トリミングされた画像の縦横比が1:1にされ、正方形の画像が作成される。   In the next step S35, the normalization / exaggeration processing unit 111 normalizes the resolution of the image created in step S34 in the same manner as in step S13 in FIG. Exaggeration is performed as many times as indicated. In the next step S36, the trimming processing unit 112 performs a trimming process on the image exaggerated in step S35 in the same manner as in step S14 of FIG. 3 described above, and cuts out the minimum rectangle including the drawing portion from the exaggerated image. . The minimum rectangle may be cut out by adding some margin area. In the next step S37, the trimming processing unit 112 sets the aspect ratio of the trimmed image to 1: 1 and creates a square image.

次に、ステップS38で、縮小処理部212が、トリミング処理部112から出力された画像に対して、設定情報に含まれる画像の大きさを示す情報に従い縮小処理を施す。この設定情報において、画像の大きさを示す情報を行毎、すなわち、動画を構成する画像毎に異なる値とすることで、絵文字画像における絵柄2が拡大または縮小する動画を作成することができる。   Next, in step S <b> 38, the reduction processing unit 212 performs reduction processing on the image output from the trimming processing unit 112 according to information indicating the size of the image included in the setting information. In this setting information, by setting the information indicating the size of the image to a different value for each row, that is, for each image constituting the moving image, it is possible to create a moving image in which the pattern 2 in the pictographic image is enlarged or reduced.

図19を用いて、拡大/縮小に関する動画について説明する。一例として、4枚の画像で動画像が構成され、最終的に出力される絵文字画像のサイズが縦20ドット×横20ドットであるものとする。また、設定情報において、画像の大きさとして、動画像を構成する画像の1枚目〜4枚目に対してそれぞれ「5」、「10」、「15」および「20」が設定されているものとする。   A moving image relating to enlargement / reduction will be described with reference to FIG. As an example, a moving image is composed of four images, and the size of a pictographic image that is finally output is 20 dots long × 20 dots wide. In the setting information, “5”, “10”, “15”, and “20” are set as the image size for the first to fourth images constituting the moving image, respectively. Shall.

この場合、1回目のループでは、画像310のサイズが縦5ドット×横5ドットに縮小される。縦5ドット×横5ドットに縮小された画像が縦20ドット×横20ドットの枠内の所定位置に配置されて、縮小画像311aが生成される。縮小した画像の配置位置は、予め指定された位置としてもよいし、設定情報に当該配置位置を示す情報を加えてもよい。   In this case, in the first loop, the size of the image 310 is reduced to 5 dots vertically by 5 dots horizontally. An image reduced to 5 dots vertically by 5 dots horizontally is arranged at a predetermined position within a frame of 20 dots vertically by 20 dots horizontally to generate a reduced image 311a. The arrangement position of the reduced image may be a position designated in advance, or information indicating the arrangement position may be added to the setting information.

2回目以降のループにおいても、同様にして処理がなされる。すなわち、2回目のループでは、画像310が縦10ドット×横10ドットに縮小され、縦20ドット×横20ドットの枠内の所定位置に配置され、縮小画像311bが生成される。3回目および4回目のループでも、画像310が縦15ドット×横15ドット、ならびに、縦20ドット×横20ドットに縮小され、縦20ドット×横20ドットの枠内の所定位置にそれぞれ配置され、縮小画像311cおよび311dが生成される。   The same processing is performed in the second and subsequent loops. That is, in the second loop, the image 310 is reduced to 10 dots vertically × 10 dots horizontally, and is arranged at a predetermined position within a frame of 20 dots vertically × 20 dots horizontally to generate a reduced image 311b. Also in the third and fourth loops, the image 310 is reduced to 15 dots vertically by 15 dots horizontally and 20 dots vertically by 20 dots horizontally and placed at predetermined positions within a frame of 20 dots vertically by 20 dots horizontally. Reduced images 311c and 311d are generated.

生成された縮小画像311a〜311dを、縮小画像311a、311b、311c、311dの順に表示することで、絵文字画像における絵柄2が徐々に拡大していく様子を表現することができる。同様に、縮小画像311d、311c、311b、311aの順に表示することで、絵文字画像における絵柄2が徐々に縮小していく様子を表現することができる。   By displaying the generated reduced images 311a to 311d in the order of the reduced images 311a, 311b, 311c, and 311d, it is possible to express a state in which the pattern 2 in the pictographic image is gradually enlarged. Similarly, by displaying the reduced images 311d, 311c, 311b, and 311a in this order, it is possible to express how the pattern 2 in the pictographic image is gradually reduced.

なお、画像310を、最終的に出力される絵文字画像に対して指定されているサイズよりも大きいサイズに縮小することも可能である。この場合、縮小後の画像を、絵文字画像に対して指定されているサイズで切り出す処理を行う。   It is also possible to reduce the image 310 to a size larger than the size specified for the finally output pictographic image. In this case, a process of cutting out the reduced image with a size specified for the pictographic image is performed.

ステップS38での縮小処理が終了すると、処理はステップS39に移行される。ステップS39では、移動処理部213が、縮小画像に対して設定情報に含まれるx方向の移動量およびy方向の移動量に従い移動処理を施す。なお、移動は、縮小画像の左上隅の点を原点として行うものとする。この設定情報において、x方向の移動量を示す情報と、y方向の移動量を示す情報とのうち少なくとも一方を行毎、すなわち、動画を構成する画像毎に異なる値とすることで、絵文字画像における絵柄2が移動する動画を作成することができる。   When the reduction process in step S38 ends, the process proceeds to step S39. In step S39, the movement processing unit 213 performs movement processing on the reduced image according to the movement amount in the x direction and the movement amount in the y direction included in the setting information. Note that the movement is performed with the upper left corner point of the reduced image as the origin. In this setting information, at least one of the information indicating the amount of movement in the x direction and the information indicating the amount of movement in the y direction is set to a different value for each row, that is, for each image constituting the moving image. It is possible to create a moving image in which the pattern 2 moves.

図20を用いて、移動処理の例について、より具体的に説明する。移動量は、x方向およびy方向の移動量がそれぞれ「−5」に設定されているものとする。移動処理部213は、例えば、最初のループ時における移動前の縮小画像、すなわち、1度も移動処理を施していない状態の縮小画像312aを、メモリなどに保持する。移動処理は、例えば、メモリに保持されたこの縮小画像312aを読み出し、読み出した縮小画像312aの各画素を、x方向の移動量およびy方向の移動量に従いドット単位で移動させることで行う。   An example of the movement process will be described more specifically with reference to FIG. It is assumed that the movement amount in the x direction and the y direction is set to “−5”, respectively. The movement processing unit 213 holds, for example, a reduced image before movement at the time of the first loop, that is, a reduced image 312a that has not been subjected to movement processing in a memory or the like. The movement process is performed, for example, by reading the reduced image 312a held in the memory and moving each pixel of the read reduced image 312a in units of dots according to the movement amount in the x direction and the movement amount in the y direction.

図20(a)の例では、縮小画像312aの各画素が、縮小画像312aの左上隅の点を原点として、x方向に「−5」(左に5ドット)、y方向に「−5」(上に5ドット)、それぞれ移動される。このとき、移動によって元の縮小画像312aの範囲外になってしまった画素は、捨てられる。このようにして、縮小画像312aがx方向に−5ドット(左に5ドット)、y方向に−5ドット(上に5ドット)、それぞれ移動された縮小画像312bが得られる。   In the example of FIG. 20A, each pixel of the reduced image 312a has “−5” in the x direction (5 dots on the left) and “−5” in the y direction with the upper left corner point of the reduced image 312a as the origin. (5 dots on top) are moved respectively. At this time, pixels that are outside the range of the original reduced image 312a due to movement are discarded. In this way, a reduced image 312b is obtained in which the reduced image 312a is moved by -5 dots in the x direction (5 dots to the left) and -5 dots in the y direction (5 dots upward).

ステップS39で縮小画像に対する移動処理が施されると、処理がステップS40に移行され、移動処理が施された縮小画像が第2記憶部214に格納される。   When the movement process for the reduced image is performed in step S39, the process proceeds to step S40, and the reduced image subjected to the movement process is stored in the second storage unit 214.

次のステップS41で、設定情報の、動画像を構成する画像の枚数分の処理が終了したか否かが判定される。若し、終了していないと判定された場合は、処理がステップS33に戻され、第1記憶部210に格納されている正規化元画像を読み出し、読み出した正規化元画像に対する処理を実行する。   In the next step S41, it is determined whether or not the processing for the number of images constituting the moving image in the setting information has been completed. If it is determined that the processing has not been completed, the process returns to step S33, the normalization original image stored in the first storage unit 210 is read, and the process for the read normalization original image is executed. .

一方、ステップS41で、動画像を構成する画像の枚数分の処理が終了したと判定されたら、処理がステップS42に移行される。ステップS42では、動画像生成部215による動画生成処理が行われる。より具体的には、動画像生成部215は、第2記憶部214に格納される複数の縮小画像を読み出す。そして、読み出した複数の縮小画像を、設定情報に含まれる1枚の画像の表示時間に従って時系列で並べて連結し、1の動画像ファイルを生成する。   On the other hand, if it is determined in step S41 that the processing for the number of images constituting the moving image has been completed, the process proceeds to step S42. In step S42, moving image generation processing by the moving image generation unit 215 is performed. More specifically, the moving image generation unit 215 reads a plurality of reduced images stored in the second storage unit 214. Then, the plurality of read out reduced images are arranged in time series and connected in accordance with the display time of one image included in the setting information to generate one moving image file.

このような、複数の画像を連結して動画像を構成する動画像ファイルのフォーマットの一つとして、GIF(Graphics Interchange Format)がある。GIFにおいては、1のファイルに対し、所定のヘッダ情報に続けて、延滞時間(表示時間)の情報を含む画像制御情報と、表示される画像の本体である画像データとの組を複数組、格納することで、動画像表示を可能としている。また、ヘッダ情報に対して、拡張情報として動画のループ回数を示す情報を付加することができる。   There is a GIF (Graphics Interchange Format) as one of the formats of a moving image file that forms a moving image by connecting a plurality of images. In GIF, for a single file, a plurality of sets of image control information including delay time (display time) information and image data that is the main body of an image to be displayed, following predetermined header information, By storing, moving image display is possible. In addition, information indicating the number of times the moving image loops can be added as extension information to the header information.

動画像生成部215で生成された動画像は、動画像による絵文字画像として、画像処理装置200から出力される。   The moving image generated by the moving image generation unit 215 is output from the image processing apparatus 200 as a pictographic image based on the moving image.

図21を用いて、上述した図16のフローチャートによる動画像による絵文字画像生成処理を要約して示す。図21(a)は、縦20ドット×横20ドットの動画絵文字画像を生成する場合において、設定情報に対し、回転角度が−15度、誇張回数が5回、大きさが縦16ドット×横16ドット、x方向に3、y方向に8の移動量が設定された場合の例である。また、図21(b)は、同様に縦20ドット×横20ドットの動画絵文字画像を生成する場合において、設定情報に対し、回転角度が15度、誇張回数が8回、大きさが縦20ドット×横20ドット、x方向に−5、y方向に−5の移動量が設定された場合の例である。   FIG. 21 shows a summary of pictogram image generation processing using a moving image according to the flowchart of FIG. 16 described above. FIG. 21A shows a case where a moving picture pictographic image of 20 dots long × 20 dots wide is generated, the rotation angle is −15 degrees, the number of exaggerations is 5 times, and the size is 16 dots long × horizontal with respect to the setting information. This is an example in a case where 16 dots, a movement amount of 3 in the x direction, and 8 in the y direction are set. Further, FIG. 21B shows that when a moving picture pictographic image of 20 dots vertically × 20 dots horizontally is generated similarly, the rotation angle is 15 degrees, the number of exaggerations is 8 times, and the size is 20 vertically. This is an example in the case where a movement amount of dots × 20 dots in the horizontal direction, −5 in the x direction, and −5 in the y direction is set.

図21(a)の例において、図16のステップS30で、絵文字画像化したい絵柄2が描画された元画像313が入力され、ステップS31で当該元画像313に対応する設定情報が読み込まれる。次のステップS32で、整形処理部110で元画像313の縦横比が1:1に整形された画像314aが作成される。元画像313の縦横比を1:1とすることで、ステップS34の回転処理の際に、描画部分が欠落するのを防ぐことができる。この画像314aが第1記憶部210に格納される。   In the example of FIG. 21A, in step S30 of FIG. 16, the original image 313 on which the pattern 2 to be converted into a pictographic image is drawn is input, and in step S31, setting information corresponding to the original image 313 is read. In the next step S32, an image 314a in which the aspect ratio of the original image 313 is shaped by the shaping processor 110 is created. By setting the aspect ratio of the original image 313 to 1: 1, it is possible to prevent the drawing portion from being lost during the rotation processing in step S34. This image 314 a is stored in the first storage unit 210.

次に、回転処理部211は、第1記憶部210から画像314aを読み出して(ステップS33)、設定情報に従い、画像314aに対して−10度の回転処理(時計回り)を施し、画像314bを生成する。次のステップS35で、この画像314bに対して解像度の正規化を施し、1回の誇張処理における誇張の度合を一定にした後、設定情報に従った誇張回数(5回)にて誇張処理を施して、画像314cを生成する。   Next, the rotation processing unit 211 reads the image 314a from the first storage unit 210 (step S33), performs rotation processing (clockwise) of −10 degrees on the image 314a according to the setting information, and displays the image 314b. Generate. In the next step S35, the image 314b is normalized in resolution, the degree of exaggeration in one exaggeration process is made constant, and then the exaggeration process is performed with the number of exaggerations (5 times) according to the setting information. To generate an image 314c.

誇張処理が行われると、次に、ステップS36で、トリミング処理部112において画像314cに基づきマスク画像314dが生成される。そして、マスク画像314dにより、画像314cから絵文字画像化したい絵柄2による描画部分を含む画像が切り出される。ステップS37で、トリミング処理部112は、切り出した画像に対して縦横比を1:1にする整形処理を施し、正方形の画像314eを得る。   When the exaggeration process is performed, next, in step S36, the trimming processing unit 112 generates a mask image 314d based on the image 314c. Then, the mask image 314d cuts out an image including a drawing portion of the pattern 2 that is to be converted into a pictographic image from the image 314c. In step S <b> 37, the trimming processing unit 112 performs a shaping process to set the aspect ratio to 1: 1 on the cut image, and obtains a square image 314 e.

次に、縮小処理部212において、設定情報に従い、画像314eが縦16ドット×横16ドットのサイズに縮小され(ステップS38)、縮小された画像が縦20ドット×横20ドットの枠内に配置されて縮小画像314fが得られる。さらに、移動処理部213により、縮小画像314fに対して設定情報に従いx方向に3ドット、y方向に8ドットの移動処理が施され(ステップS39)、移動画像314gが得られる。   Next, in the reduction processing unit 212, the image 314e is reduced to a size of 16 dots vertically × 16 dots horizontally according to the setting information (step S38), and the reduced image is arranged in a frame of 20 dots vertically × 20 dots horizontally. Thus, a reduced image 314f is obtained. Further, the movement processing unit 213 applies a movement process of 3 dots in the x direction and 8 dots in the y direction according to the setting information to the reduced image 314f (step S39), and a moving image 314g is obtained.

図21(b)の例の処理も、上述の図21(a)の場合と略同様である。図16のステップS30で元画像315が入力され、ステップS31で当該元画像313に対応する設定情報が読み込まれる。次のステップS32で元画像315の縦横比が1:1に整形された画像316aが作成され、この画像316aが第1記憶部210に格納される。回転処理部211は、ステップS33で第1記憶部210から読み出した画像316aに対して、設定情報に従い、15度の回転処理(反時計回り)を施し、画像316bを生成する。次のステップS35で、この画像316bに対して解像度の正規化を施してから設定情報に従った誇張回数(8回)にて誇張処理を施して、画像316cを生成する。   The process in the example of FIG. 21B is also substantially the same as in the case of FIG. The original image 315 is input in step S30 of FIG. 16, and setting information corresponding to the original image 313 is read in step S31. In the next step S 32, an image 316 a in which the aspect ratio of the original image 315 is shaped to 1: 1 is created, and this image 316 a is stored in the first storage unit 210. The rotation processing unit 211 performs a 15-degree rotation process (counterclockwise) on the image 316a read from the first storage unit 210 in step S33 according to the setting information to generate an image 316b. In the next step S35, the image 316b is subjected to resolution normalization and then subjected to exaggeration processing with the number of exaggerations (8 times) according to the setting information to generate an image 316c.

誇張処理が行われると、次に、ステップS36で、トリミング処理部112において画像316cに基づき生成したマスク画像316dにより、画像314cから絵文字画像化したい絵柄2による描画部分を含む画像が切り出される。そして、トリミング処理部112は、切り出した画像の縦横比を1:1にする整形処理を施し、正方形の画像316eを得る。   When the exaggeration processing is performed, next, in step S36, an image including a drawing portion by the design 2 that is desired to be converted into a pictographic image is cut out from the image 314c by the mask image 316d generated based on the image 316c in the trimming processing unit 112. Then, the trimming processing unit 112 performs a shaping process to set the aspect ratio of the cut-out image to 1: 1 to obtain a square image 316e.

次に、縮小処理部212において、設定情報に従い、画像316eが縦20ドット×横20ドットのサイズに縮小され(ステップS38)、縮小画像316fが得られる。さらに、移動処理部213により、縮小画像316fに対して設定情報に従いx方向に−5ドット、y方向に−5ドットの移動処理が施され(ステップS39)、画像316gが得られる。   Next, in the reduction processing unit 212, the image 316e is reduced to a size of 20 dots vertically × 20 dots horizontally according to the setting information (step S38), and a reduced image 316f is obtained. Further, the movement processing unit 213 applies a movement process of −5 dots in the x direction and −5 dots in the y direction according to the setting information to the reduced image 316f (step S39), and an image 316g is obtained.

なお、本第2の実施形態において、複数の処理を組み合わせることで、1の元画像から様々な動画像を生成することが可能である。例えば、移動処理において、設定情報中の動画像を構成する画像毎のx方向およびy方向の移動量を適当に設定することで、縮小画像中の描画部分の、上下移動、左右移動および斜め移動、ならびに、これらを組み合わせた移動(ジグザグ移動など)が可能となる。また、回転処理において、設定情報中の回転角を適当に設定することで、縮小画像中の描画部分の時計回りおよび反時計回りの何れも設定可能である。さらに、設定情報中の画像の大きさを適当に設定することで、縮小画像中の描画部分の拡大および縮小が可能である。さらにまた、これら移動処理、回転処理、拡大縮小処理を組み合わせることで、1の元画像からさらに複雑な動きも容易に実現可能である。   In the second embodiment, various moving images can be generated from one original image by combining a plurality of processes. For example, in the moving process, by appropriately setting the amount of movement in the x direction and y direction for each image constituting the moving image in the setting information, the drawing portion in the reduced image is moved up and down, left and right, and obliquely moved. , And a combination of these (such as zigzag movement). Also, in the rotation process, it is possible to set either the clockwise or counterclockwise direction of the drawing portion in the reduced image by appropriately setting the rotation angle in the setting information. Furthermore, by appropriately setting the size of the image in the setting information, the drawing portion in the reduced image can be enlarged and reduced. Furthermore, by combining these movement processing, rotation processing, and enlargement / reduction processing, more complicated movements can be easily realized from one original image.

図22(a)は、動画像による絵文字画像の動きを設定する設定入力領域350の一例を示す。この設定入力領域350は、例えば、図22(b)に例示されるように、用紙5に対して予め印刷されて提示される。この例では、設定入力領域350は、動きを設定するための複数のチェックボックス351〜355が設けられる。   FIG. 22A shows an example of a setting input area 350 for setting the movement of a pictographic image by a moving image. The setting input area 350 is printed and presented in advance on the paper 5 as exemplified in FIG. In this example, the setting input area 350 is provided with a plurality of check boxes 351 to 355 for setting movement.

ユーザは、マーカペンなどを用いてチェックボックス351〜355をチェックすることで、各種設定を行う。PC10は、スキャナ装置11で設定入力領域350を含む原稿1を読み取った原稿画像から、当該設定入力領域350の画像を抽出し、マーカペンなどでチェックされた位置を検出する。そして、検出された位置に対応する設定項目に応じて、設定情報を生成する。   The user performs various settings by checking the check boxes 351 to 355 using a marker pen or the like. The PC 10 extracts the image of the setting input area 350 from the original image obtained by reading the original 1 including the setting input area 350 by the scanner device 11, and detects the position checked with a marker pen or the like. Then, setting information is generated according to the setting item corresponding to the detected position.

チェックボックス351は、絵文字画像を動かさない旨を設定する。このチェックボックス351がチェックされた場合、例えば、第1の実施形態による画像処理装置100による絵文字画像生成が行われる。設定情報の表示時間を無限大とし、動画像を構成する画像の枚数を1枚と設定してもよい。チェックボックス352a〜352dは、それぞれ、上方向、下方向、右方向および左方向への動作を設定する。チェックボックス353aおよび353bは、それぞれ時計回りおよび反時計回りの回転動作を設定する。チェックボックス354aおよび354bは、それぞれ拡大および縮小動作を設定する。また、チェックボックス355は、予め定められた小さな動きを設定する。これらチェックボックス351〜355は、例えば、互いに動作が矛盾しない複数の項目を同時に設定することができる。   The check box 351 sets that the pictographic image is not moved. When the check box 351 is checked, for example, a pictographic image is generated by the image processing apparatus 100 according to the first embodiment. The display time of the setting information may be infinite, and the number of images constituting the moving image may be set to one. The check boxes 352a to 352d set operations in the upward direction, the downward direction, the right direction, and the left direction, respectively. Check boxes 353a and 353b set clockwise and counterclockwise rotation operations, respectively. Check boxes 354a and 354b set enlargement and reduction operations, respectively. The check box 355 sets a predetermined small movement. These check boxes 351 to 355 can simultaneously set a plurality of items whose operations do not contradict each other, for example.

なお、ここでは、設定入力領域350が用紙5に印刷されるものとして説明したが、これはこの例に限定されない。例えば、設定入力領域350を、画像処理装置200が構成されるPC10やMFP20などの機器における表示手段に表示される設定入力画面として提示することも可能である。ユーザは、PC10やMFP20の表示手段に表示される設定入力画面に従い、マウスなどのポインティングデバイスや、タッチパネル、各種キーなどを操作することでチェックボックス351〜355をチェックする。PC10やMFP20は、チェックされた内容に基づき設定情報を生成する。   Although the setting input area 350 is described as being printed on the paper 5 here, this is not limited to this example. For example, the setting input area 350 can be presented as a setting input screen displayed on a display unit in a device such as the PC 10 or the MFP 20 in which the image processing apparatus 200 is configured. The user checks the check boxes 351 to 355 by operating a pointing device such as a mouse, a touch panel, and various keys in accordance with a setting input screen displayed on the display unit of the PC 10 or the MFP 20. The PC 10 and the MFP 20 generate setting information based on the checked content.

(第2の実施形態における回転処理)
次に、動画像作成における回転処理に際する、本第2の実施形態に特有の、幾つかの処理について説明する。第1の処理は、処理全体の中での回転処理の手順に関するものである。本第2の実施形態では、上述した図16のフローチャートに示されるように、回転処理部211による回転処理を、縮小処理部212による縮小処理の前に実行している。そのため、回転処理による画像の滲みや崩れを抑制できる。
(Rotation processing in the second embodiment)
Next, some processes unique to the second embodiment in the rotation process in moving image creation will be described. The first process relates to the procedure of the rotation process in the entire process. In the second embodiment, as illustrated in the flowchart of FIG. 16 described above, the rotation processing by the rotation processing unit 211 is executed before the reduction processing by the reduction processing unit 212. Therefore, it is possible to suppress blurring or collapse of the image due to the rotation process.

図23を用いて説明する。以下では、例えば縦400ドット×横400ドット程度の元画像317から、当該元画像317に描画される絵柄2が反時計回りに15度回転された、縦20ドット×横20ドットの縮小画像を生成する場合について説明する。   This will be described with reference to FIG. In the following, for example, a reduced image of vertical 20 dots × horizontal 20 dots in which the pattern 2 drawn in the original image 317 is rotated 15 degrees counterclockwise from the original image 317 of approximately 400 vertical dots × horizontal 400 dots. The case of generating will be described.

図23(a)は、画像を縮小した後に回転する例を示す。元画像317に対して誇張処理、トリミング処理、正規化処理などを施した後、画像補間を用いて縮小して画像318aを生成する。この画像318aに対して回転処理を施し、絵柄2が回転された画像318bを得る。なお、画像318b’は、画像318bを見易いように拡大したものである。元画像317を縮小して解像度を低くした後に回転処理を加えているので、画像318bは、元画像317に対して大きく滲んだようになってしまっている。   FIG. 23A shows an example in which the image is rotated after being reduced. The original image 317 is subjected to exaggeration processing, trimming processing, normalization processing, and the like, and then reduced using image interpolation to generate an image 318a. The image 318a is rotated to obtain an image 318b in which the pattern 2 is rotated. Note that the image 318b 'is enlarged so that the image 318b can be easily seen. Since the rotation processing is applied after reducing the resolution by reducing the original image 317, the image 318b appears to be greatly blurred with respect to the original image 317.

一方、図23(b)は、画像を回転させた後に縮小する例を示す。元画像317を回転させて画像319aを得る。その後、画像319aに対して誇張処理、トリミング処理、正規化処理などを施した後、画像補間を用いて縮小して画像319bを生成する。なお、画像319b’は、画像319bを見易いように拡大したものである。この場合には、解像度が十分高い状態で回転処理を施し、その後、誇張処理などを経て縮小処理を行っている。そのため、画像319bは、上述した縮小処理を施した後に回転処理を施した画像318bと比べて、滲みなどが少なく、非常に見易いものとなっている。   On the other hand, FIG. 23B shows an example in which an image is reduced after being rotated. The original image 317 is rotated to obtain an image 319a. Thereafter, the image 319a is subjected to exaggeration processing, trimming processing, normalization processing, and the like, and then reduced using image interpolation to generate an image 319b. Note that the image 319b 'is enlarged so that the image 319b is easy to see. In this case, the rotation process is performed with a sufficiently high resolution, and then the reduction process is performed through an exaggeration process. For this reason, the image 319b is very easy to see and has less bleeding compared to the image 318b that has been subjected to the rotation processing after the reduction processing described above.

第2の処理は、回転角度に応じた誇張処理の強度の調整である。本第2の実施形態では、回転処理部211で回転処理を行った場合、正規化/誇張処理部111における誇張処理の度合を、回転角に応じて変えるようにする。   The second process is adjustment of the strength of the exaggeration process according to the rotation angle. In the second embodiment, when rotation processing is performed by the rotation processing unit 211, the degree of exaggeration processing in the normalization / exaggeration processing unit 111 is changed according to the rotation angle.

図24を用いて説明する。図24(a)に例示される元画像320に対して指定された回転角で回転処理を施し、回転処理された画像に対して所定回数の誇張処理を施した後、縮小処理を施して、例えば縦20ドット×横20ドットの縮小画像を得るものとする。元画像320の解像度は、例えば縦400ドット×横400ドット程度とする。   This will be described with reference to FIG. The original image 320 illustrated in FIG. 24A is subjected to a rotation process at a specified rotation angle, the image subjected to the rotation process is subjected to an exaggeration process a predetermined number of times, and then subjected to a reduction process. For example, it is assumed that a reduced image of 20 dots vertically × 20 dots horizontally is obtained. The resolution of the original image 320 is about 400 dots long × 400 dots wide, for example.

図24(b)は、元画像320に対して、回転角が0度、15度、30度、45度、60度、75度および90度の場合に、それぞれ回転処理および誇張処理を行い、さらに縮小処理を施した場合の例を示す。なお、ここでは、回転処理を施さない場合の最適の誇張処理回数が7回であるものとし、図24(b)において、誇張処理回数が7回の場合の例と、9回の場合の例とが示されている。   FIG. 24B shows that when the rotation angle is 0 degree, 15 degrees, 30 degrees, 45 degrees, 60 degrees, 75 degrees and 90 degrees, the original image 320 is rotated and exaggerated, respectively. Furthermore, an example in the case of performing reduction processing will be shown. Here, it is assumed that the optimum number of exaggeration processes when the rotation process is not performed is 7. In FIG. 24B, an example when the exaggeration process number is 7 and an example when the exaggeration process is 9 times. Is shown.

図24(b)の例から分かるように、回転角が15度、30度、60度および75度では、回転角が0度の縮小画像と比べて斜め方向の線に荒れが目立つ。一方、回転角が90度の縮小画像は、回転角が0度の縮小画像と見え方に違いが認められない。また、回転角が45度の縮小画像についても、回転角が0度の縮小画像に対して見え方に大きな違いが認められない。   As can be seen from the example of FIG. 24B, when the rotation angles are 15 degrees, 30 degrees, 60 degrees, and 75 degrees, the lines in the oblique direction are more prominent than the reduced image with the rotation angle of 0 degrees. On the other hand, a reduced image with a rotation angle of 90 degrees has no difference in appearance from a reduced image with a rotation angle of 0 degrees. Also, a reduced image with a rotation angle of 45 degrees does not show a significant difference in appearance with respect to a reduced image with a rotation angle of 0 degrees.

一方、図24(b)における誇張処理回数が9回の例では、回転角が15度、30度、60度および75度の縮小画像について、誇張処理回数が7回の場合に比べて、見え方が改善されていることが分かる。図24(c)は、回転角が15度の場合の、誇張処理回数が7回の縮小画像321aと、誇張処理回数が9回の縮小画像321bとを拡大して示す。これに対して、回転角が45度の縮小画像は、誇張処理回数を9回に増やすことで、線が太くなり過ぎ、却って見難くなっているのが分かる。   On the other hand, in the example in which the number of exaggeration processes is nine in FIG. 24B, the reduced images with the rotation angles of 15, 30, 60, and 75 degrees are visible as compared with the case where the exaggeration process is seven times. It can be seen that there is an improvement. FIG. 24C shows an enlarged view of a reduced image 321a with seven exaggeration processes and a reduced image 321b with nine exaggeration processes when the rotation angle is 15 degrees. On the other hand, it can be seen that the reduced image with the rotation angle of 45 degrees is increased in the number of exaggeration processes to 9 and the line becomes too thick and difficult to see.

この例の場合、回転角が0度、45度および90度の場合には、誇張処理回数を7回のままとする。また、回転角が15度、30度、60度および75度の場合には、誇張処理回数を9回に増やし、回転角が0度、45度および90度の場合に対して誇張の度合を強める。このように、回転角に応じて誇張処理回数を変えて、誇張の度合を変えることで、縮小画像が回転する動画像において回転中に縮小画像の見え方が大きく変わることが防がれる。   In this example, when the rotation angles are 0 degree, 45 degrees, and 90 degrees, the number of exaggeration processes remains seven. When the rotation angle is 15, 30, 60, and 75 degrees, the number of exaggeration processes is increased to 9, and the degree of exaggeration is increased with respect to the cases where the rotation angles are 0 degree, 45 degrees, and 90 degrees. ramp up. In this manner, by changing the number of exaggeration processes in accordance with the rotation angle and changing the degree of exaggeration, it is possible to prevent the appearance of the reduced image from changing greatly during rotation in a moving image in which the reduced image rotates.

このように、本第2の実施形態によれば、元画像に対して回転処理を行ってから誇張処理を行い、その後、縮小処理を行うことで、動画像による絵文字画像を生成している。そのため、再生した際により見易い動画像による絵文字画像を生成することができる。また、本第2の実施形態によれば、様々な動きの動画像を1枚の元画像から容易に作成することができる。   As described above, according to the second embodiment, the exaggeration process is performed after the rotation process is performed on the original image, and then the reduction process is performed to generate a pictographic image using a moving image. Therefore, it is possible to generate a pictographic image with a moving image that is easier to see when reproduced. Further, according to the second embodiment, it is possible to easily create moving images having various movements from one original image.

(PCの構成)
図25は、上述した第1の実施形態による画像処理装置100と、第2の実施形態による画像処理装置200とに共通して適用可能なPC10の一例の構成を示す。
(PC configuration)
FIG. 25 shows a configuration of an example of the PC 10 that can be commonly applied to the image processing apparatus 100 according to the first embodiment and the image processing apparatus 200 according to the second embodiment.

図25において、バス401に対してCPU410、RAM411、ROM412、表示制御部413および通信I/F(インターフェイス)414が接続される。また、バス400に対して、HDD(ハードディスクドライブ)415、ドライブ装置416および入力I/F417が接続される。なお、図15に示した画像処理装置200における第1記憶部210および第2記憶部214は、RAM411やHDD415を適用することができる。   In FIG. 25, a CPU 410, a RAM 411, a ROM 412, a display control unit 413, and a communication I / F (interface) 414 are connected to a bus 401. An HDD (hard disk drive) 415, a drive device 416, and an input I / F 417 are connected to the bus 400. Note that the RAM 411 and the HDD 415 can be applied to the first storage unit 210 and the second storage unit 214 in the image processing apparatus 200 shown in FIG.

CPU410は、ROM412やHDD415に記憶されるプログラムに従い、RAM411をワークメモリとして用いて、このコンピュータにおける動作を制御する。表示制御部413は、CPU410により生成された表示制御信号を、表示装置420が表示可能な信号に変換して出力する。   The CPU 410 controls the operation of the computer using the RAM 411 as a work memory in accordance with programs stored in the ROM 412 and the HDD 415. The display control unit 413 converts the display control signal generated by the CPU 410 into a signal that can be displayed by the display device 420 and outputs the converted signal.

HDD415は、CPU410が実行するためのプログラム、プログラムによって用いられるデータなどが格納される。ドライブ装置416は、脱着可能な記録媒体421が装填可能とされ、当該記録媒体421に対するデータの読み書きを行うことができる。ドライブ装置416が対応可能な記録媒体421としては、CD(Compact Disk)、DVD(Digital Versatile Disk)、フレキシブルディスクといったディスク記録媒体や、読み書き可能で不揮発性の半導体メモリが考えられる。   The HDD 415 stores a program executed by the CPU 410, data used by the program, and the like. The drive device 416 can be loaded with a removable recording medium 421 and can read / write data from / to the recording medium 421. As the recording medium 421 that the drive device 416 can handle, a disk recording medium such as a CD (Compact Disk), a DVD (Digital Versatile Disk), and a flexible disk, and a readable / writable nonvolatile semiconductor memory can be considered.

入力I/F417は、外部からのデータの入力を行う。例えば、入力I/F417は、USB(Universal Serial Bus)やIEEE1394(Institute of Electrical and Electronics Engineers 1394)といった所定のインターフェイスを有し、このインターフェイスにより、タブレット424やスキャナ装置425といった外部の機器からのデータ入力を行う。また、入力I/F417に対して、キーボード422やマウス423といった入力デバイスが接続される。ユーザは、例えば表示装置420に対する表示に応じてこれら入力デバイスを操作することで、このコンピュータに対して指示を出すことができる。   The input I / F 417 inputs data from the outside. For example, the input I / F 417 has a predetermined interface such as USB (Universal Serial Bus) or IEEE 1394 (Institute of Electrical and Electronics Engineers 1394). By this interface, data from an external device such as the tablet 424 or the scanner device 425 is obtained. Make input. Input devices such as a keyboard 422 and a mouse 423 are connected to the input I / F 417. The user can issue an instruction to the computer by operating these input devices in accordance with the display on the display device 420, for example.

通信I/F414は、所定のプロトコルを用いて外部の通信ネットワークと通信を行う。   The communication I / F 414 communicates with an external communication network using a predetermined protocol.

画像処理装置100や画像処理装置200をPC10上で実現するための画像処理プログラムは、インストール可能な形式または実行可能な形式のファイルで、例えばCD(Compact Disk)やDVD(Digital Versatile Disk)、フレキシブルディスク、USB(Universal Serial Bus)メモリといった不揮発性メモリといったコンピュータで読み取り可能な記憶媒体に記憶されて提供される。   An image processing program for realizing the image processing apparatus 100 and the image processing apparatus 200 on the PC 10 is a file in an installable or executable format, such as a CD (Compact Disk), a DVD (Digital Versatile Disk), or a flexible file. The program is stored in a computer-readable storage medium such as a non-volatile memory such as a disk or a USB (Universal Serial Bus) memory.

また、当該画像処理プログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、当該画像処理プログラムを、インターネットなどのネットワーク経由で提供または配布するように構成してもよい。また、当該画像処理プログラムを、ROMなどに予め組み込んで提供するように構成してもよい。   The image processing program may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The image processing program may be provided or distributed via a network such as the Internet. Further, the image processing program may be provided by being incorporated in advance in a ROM or the like.

当該画像処理プログラムは、例えば第1の実施形態の場合、上述した各部(整形処理部110、正規化/誇張処理部111、トリミング処理部112、縮小処理部113)を含むモジュール構成となっており、実際のハードウェアとしてはCPU410が上述の記憶媒体から画像処理プログラムを読み出して実行することにより、上述の各部が主記憶装置(RAM411)上にロードされ、整形処理部110、正規化/誇張処理部111、トリミング処理部112、縮小処理部113が主記憶装置上に生成されるようになっている。   For example, in the case of the first embodiment, the image processing program has a module configuration including the above-described units (the shaping processing unit 110, the normalization / exaggeration processing unit 111, the trimming processing unit 112, and the reduction processing unit 113). As actual hardware, the CPU 410 reads out and executes the image processing program from the above-described storage medium, whereby the above-described units are loaded onto the main storage device (RAM 411), and the shaping processing unit 110, normalization / exaggeration processing The unit 111, the trimming processing unit 112, and the reduction processing unit 113 are generated on the main storage device.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。本第3の実施形態では、携帯電話端末との間で第1の通信を行い、当該携帯電話端末に対して絵文字画像を送信するための送信先アドレスを取得する。そして、取得したこの送信先アドレスに従い第2の通信を行い、絵文字画像を当該携帯電話端末に対して送信する。
(Third embodiment)
Next, a third embodiment of the present invention will be described. In the third embodiment, first communication is performed with a mobile phone terminal, and a transmission destination address for transmitting a pictographic image to the mobile phone terminal is acquired. Then, second communication is performed according to the acquired transmission destination address, and the pictographic image is transmitted to the mobile phone terminal.

ここで、第1の通信は、送信先アドレスの取得側が予め通信相手固有の情報を持っていなくとも可能な通信であるものとする。おサイフケータイ(登録商標)などに採用される、非接触型の近接無線通信方式を第1の通信方式として適用することができる。この通信方式では、無線通信を行うためのアンテナの電磁誘導によりICチップに電力を供給することで、非接触での無線通信を行っている。この近接無線通信方式によれば、当該通信方式に対応するICチップを埋め込んだ携帯電話端末を、専用のリーダ・ライタに非接触で近接させることにより、ICチップとリーダ・ライタとの間で自動的に通信が開始される。   Here, it is assumed that the first communication is possible even if the transmission destination address acquisition side does not have information specific to the communication partner in advance. A non-contact proximity wireless communication method employed in Osaifu-Keitai (registered trademark) or the like can be applied as the first communication method. In this communication method, non-contact wireless communication is performed by supplying power to the IC chip by electromagnetic induction of an antenna for performing wireless communication. According to this proximity wireless communication method, a mobile phone terminal embedded with an IC chip corresponding to the communication method is brought close to a dedicated reader / writer in a non-contact manner, thereby automatically between the IC chip and the reader / writer. Communication is started.

図26は、この非接触の近接無線通信方式を利用した絵文字画像作成システムの構成の例を示す。図26(a)は、MFP61を用い、絵文字画像化したい絵柄2が書き込まれた原稿63に基づき絵文字画像を生成し、ユーザの携帯電話端末60に送信する場合の例である。ここで、携帯電話端末60には、非接触の近接無線通信方式に対応するICチップ(図示しない)が埋め込まれており、MFP61は、当該通信方式による通信を行うリーダ・ライタ62が接続されているものとする。また、MFP61は、第1の実施形態または第2の実施形態による絵文字画像生成機能を有していると共に、電子メールアドレスで指定された送信先にデータを送信する機能を有するものとする。   FIG. 26 shows an example of the configuration of a pictographic image creation system using this non-contact proximity wireless communication system. FIG. 26A shows an example in which the MFP 61 is used to generate a pictographic image based on the original 63 on which the pattern 2 to be converted into a pictographic image is written and transmit it to the user's mobile phone terminal 60. Here, an IC chip (not shown) corresponding to a contactless proximity wireless communication system is embedded in the mobile phone terminal 60, and a reader / writer 62 that performs communication according to the communication system is connected to the MFP 61. It shall be. The MFP 61 has the pictographic image generation function according to the first embodiment or the second embodiment, and also has the function of transmitting data to the transmission destination designated by the e-mail address.

ユーザは、絵文字画像化したい絵柄2を用紙に書き込んで、原稿63を作成する。そして、ユーザは、この原稿63をMFP61に、スキャナ機能を用いて読み取らせる。MFP61は、原稿63を読み取った原稿画像から絵文字画像化したい絵柄2による描画部分を含む元画像を抽出し、抽出した元画像に基づき、上述の第1の実施形態や第2の実施形態と同様にして、例えば縦20ドット×横20ドットの絵文字画像を生成する。   The user creates a manuscript 63 by writing the pattern 2 to be converted into a pictographic image on paper. Then, the user causes the MFP 61 to read the document 63 using the scanner function. The MFP 61 extracts an original image including a drawing portion of the pattern 2 to be converted into a pictographic image from the original image obtained by reading the original 63, and based on the extracted original image, is the same as in the first and second embodiments described above. Thus, for example, a pictographic image of vertical 20 dots × horizontal 20 dots is generated.

ユーザは、また、生成した絵文字画像の送信先である携帯電話端末60を、MFP61に接続されるリーダ・ライタ62に近接させる。これにより、携帯電話端末60内のICチップと、リーダ・ライタ62との間で無線通信が開始される。この通信により、MFP61は、携帯電話端末60の電子メールアドレスを取得することが可能である。MFP61は、この通信で取得した電子メールアドレスを送信先として、原稿63から読み取った原稿画像に基づき生成した絵文字画像を送信する。   The user also brings the mobile phone terminal 60 that is the transmission destination of the generated pictographic image close to the reader / writer 62 connected to the MFP 61. Thereby, wireless communication is started between the IC chip in the mobile phone terminal 60 and the reader / writer 62. Through this communication, the MFP 61 can acquire the e-mail address of the mobile phone terminal 60. The MFP 61 transmits a pictographic image generated based on the original image read from the original 63, with the e-mail address acquired by this communication as a transmission destination.

図26(b)は、PC64を用い、絵文字画像化したい絵柄2をペンタブレット65などのポインティングデバイスにより描画して、絵文字画像の元画像をPC64に直接的に取り込むようにした場合の例である。PC64は、リーダ・ライタ62が接続されると共に、第1の実施形態または第2の実施形態による絵文字画像生成機能を有する。また、PC64は、電子メールアドレスで指定された送信先にデータを送信する機能を有するものとする。   FIG. 26B shows an example in which the PC 64 is used to draw the pattern 2 to be converted into a pictographic image with a pointing device such as the pen tablet 65 so that the original image of the pictographic image is directly taken into the PC 64. . The PC 64 is connected to a reader / writer 62 and has a pictographic image generation function according to the first embodiment or the second embodiment. Further, the PC 64 has a function of transmitting data to a transmission destination designated by an e-mail address.

ユーザは、絵文字画像化したい絵柄2をペンタブレット65を用いて描画する。PC64は、ペンタブレット65による描画に従い、当該絵柄2による描画部分を含む元画像を生成し、この元画像に基づき、上述の第1の実施形態や第2の実施形態と同様にして、例えば縦20ドット×横20ドットの絵文字画像を生成する。   The user draws the pattern 2 to be converted into a pictographic image using the pen tablet 65. The PC 64 generates an original image including a drawing portion of the pattern 2 in accordance with the drawing by the pen tablet 65, and based on this original image, for example, in the same manner as in the first embodiment and the second embodiment described above, for example, A pictographic image of 20 dots × 20 dots horizontally is generated.

ユーザは、また、生成した絵文字画像の送信先である携帯電話端末60を、PC64に接続されるリーダ・ライタ62に近接させる。これにより、携帯電話端末60内のICチップと、リーダ・ライタ62との間で無線通信が開始される。この通信により、PC64は、携帯電話端末60の電子メールアドレスを取得することが可能である。PC64は、この通信で取得した電子メールアドレスを送信先として、ペンタブレット65を用いて描画した絵柄2に基づき生成した絵文字画像を送信する。   The user also brings the mobile phone terminal 60 that is the transmission destination of the generated pictographic image close to the reader / writer 62 connected to the PC 64. Thereby, wireless communication is started between the IC chip in the mobile phone terminal 60 and the reader / writer 62. Through this communication, the PC 64 can acquire the e-mail address of the mobile phone terminal 60. The PC 64 transmits a pictographic image generated based on the pattern 2 drawn using the pen tablet 65, with the e-mail address acquired by this communication as a transmission destination.

このように、本第3の実施形態によれば、ユーザは、マーカペンやペンタブレット65を用いて絵文字画像化したい絵柄2を描画してMFP61やPC64に入力すると共に、絵文字画像の送信先である携帯電話端末60をリーダ・ライタ62にかざすだけで、自分で作成した絵文字画像を携帯電話端末60にて利用することができるようになる。   As described above, according to the third embodiment, the user draws the pattern 2 to be converted into a pictographic image by using the marker pen or the pen tablet 65 and inputs the pattern 2 to the MFP 61 or the PC 64, and is a transmission destination of the pictographic image. By simply holding the mobile phone terminal 60 over the reader / writer 62, a pictographic image created by the user can be used on the mobile phone terminal 60.

1 原稿
2 絵柄2
3 描画領域
4 枠
5 用紙
6 アドレス入力領域
7 付加情報入力領域
10,41,64 PC
11 スキャナ装置
12,65 ペンタブレット
20,61 MFP
21 タブレット端末
30 ネットワーク
40,60 携帯電話端末
42 サーバ
100,200 画像処理装置
110 整形処理部
111 正規化/誇張処理部
112 トリミング処理部
113 縮小処理部
210 第1記憶部
211 回転処理部
212 縮小処理部
213 移動処理部
214 第2記憶部
215 動画像生成部
1 Manuscript 2 Pattern 2
3 Drawing area 4 Frame 5 Paper 6 Address input area 7 Additional information input area 10, 41, 64 PC
11 Scanner device 12, 65 Pen tablet 20, 61 MFP
21 Tablet terminal 30 Network 40, 60 Mobile phone terminal 42 Server 100, 200 Image processing device 110 Shaping processing unit 111 Normalization / exaggeration processing unit 112 Trimming processing unit 113 Reduction processing unit 210 First storage unit 211 Rotation processing unit 212 Reduction processing Unit 213 movement processing unit 214 second storage unit 215 moving image generation unit

特開2001−43000号公報JP 2001-43000 A

Claims (15)

1以上の情報処理装置で構成され、ユーザが描画する描画領域と、前記描画領域に描画された絵柄を表示する際に該絵柄の画像に与える動作のパターンを指定する動作定領域と、を含む用紙を読み取って、前記絵柄の画像を表示画面上で移動させる画像処理システムであって、
前記用紙を読み取り画像データを取得する読取手段と、
前記画像データの前記描画領域から、描画された絵柄の画像データを抽出する抽出手段と、
前記抽出手段で抽出した画像データに基づき、表示画面上に表示する表示画像を生成する生成手段と、
移動動作、回転動作、拡大動作、縮小動作、ならびに、移動動作、回転動作、拡大動作および縮小動作のうち複数の動作の組み合わせによる動作、の何れかの動作を用いてパターン化される複数の動作のパターンのそれぞれに応じた画像処理を、前記抽出した画像データに対して行い、前記表示画像に動作を与える画像処理手段と、
記画像データから前記動作定領検出し、前記複数の動作のパターンのうち該動作設定領域によって指定される動作のパターンを特定する検出手段と、
前記抽出した画像データに対して、前記検出手段により特定された動作のパターンに応じた画像処理を前記画像処理手段により行い、該動作のパターンに基づく動作が与えられた前記表示画像前記表示画面上動作させる動作設定手段と、
を有する画像処理システム。
Consists of one or more information processing apparatus, a drawing area for the user to draw, and operation setting Teiryo area to specify the pattern of the operation given to該絵pattern image when displaying the picture drawn in the drawing area, An image processing system that reads a paper including the image and moves an image of the pattern on a display screen,
A reading means for obtaining the read image data of the paper,
Extraction means for extracting image data of a drawn pattern from the drawing area of the image data;
Generating means for generating a display image to be displayed on a display screen based on the image data extracted by the extracting means;
A plurality of operations that are patterned using any one of a movement operation, a rotation operation, an enlargement operation, a reduction operation, and a movement operation, a rotation operation, a combination of a plurality of operations among the enlargement operation and the reduction operation. Image processing means for performing image processing corresponding to each of the patterns on the extracted image data and giving an operation to the display image;
Detection means for detecting the operation setting Teiryo zone before Symbol image data to identify a pattern of behavior that is designated by said operating setting area of the plurality of operation patterns,
The extracted image data is subjected to image processing according to an operation pattern specified by the detection means by the image processing means, and the display image to which an operation based on the operation pattern is given is displayed on the display screen. and operation setting means for creating work on,
An image processing system.
近距離無線通信手段により通信が行われた携帯端末からアドレス情報を取得するアドレス取得手段と、
前記表示画像を前記アドレス情報が示す宛先に送信する送信手段と、
をさらに有する請求項1に記載の画像処理システム。
Address acquisition means for acquiring address information from a portable terminal that has been communicated by short-range wireless communication means;
Transmitting means for transmitting the display image to a destination indicated by the address information;
The image processing system according to claim 1, further comprising:
前記近距離無線通信手段をさらに有し、
前記アドレス取得手段は、
前記読取手段により前記用紙を読み取らせるユーザが携帯する携帯端末から前記アドレス情報を取得する
請求項2に記載の画像処理システム。
Further comprising the short-range wireless communication means;
The address acquisition means includes
The image processing system according to claim 2, wherein the address information is acquired from a portable terminal carried by a user who causes the reading unit to read the paper.
前記検出手段は、
前記表示画像を動作させないパターンをさらに含む前記複数の動作のパターンのうち前記動作設定領域により指定される動作のパターンを特定し、
前記動作設定手段は、
前記表示画像を動作させないパターンが指定されていた場合に、前記抽出した画像データに対して前記画像処理手段による画像処理を行わない
請求項1乃至請求項3の何れか1項に記載の画像処理システム。
The detection means includes
Identifying a pattern of an action specified by the action setting area among the plurality of action patterns further including a pattern that does not operate the display image;
The operation setting means includes
The image processing according to any one of claims 1 to 3 , wherein when the pattern that does not operate the display image is designated, the image processing unit does not perform image processing on the extracted image data. system.
前記検出手段は、The detection means includes
前記画像データからユーザによる記入がされた前記動作設定領域を検出し、前記複数の動作のパターンのうち該動作設定領域により指定される動作のパターンを特定するThe action setting area filled in by the user is detected from the image data, and the action pattern specified by the action setting area is specified from the plurality of action patterns.
請求項1乃至請求項4の何れか1項に記載の画像処理システム。The image processing system according to any one of claims 1 to 4.
ユーザが描画する描画領域と、前記描画領域に描画された絵柄を表示する際に該絵柄の画像に与える動作のパターンを指定する動作定領域と、を含む用紙を読み取って、前記絵柄の画像を表示画面上で移動させる画像処理方法であって、
前記用紙を読み取り画像データを取得する読取ステップと、
前記画像データの前記描画領域から、描画された絵柄の画像データを抽出する抽出ステップと、
前記抽出ステップにより抽出した画像データに基づき、表示画面上に表示する表示画像を生成する生成ステップと、
移動動作、回転動作、拡大動作、縮小動作、ならびに、移動動作、回転動作、拡大動作および縮小動作のうち複数の動作の組み合わせによる動作、の何れかの動作を用いてパターン化される複数の動作のパターンのそれぞれに応じた画像処理を、前記抽出した画像データに対して行い、前記表示画像に動作を与える画像処理ステップと、
記画像データから前記動作定領検出し、前記複数の動作のパターンのうち該動作設定領域によって指定される動作のパターンを特定する検出ステップと、
前記抽出した画像データに対して、前記検出ステップにより特定された動作のパターンに応じた画像処理を前記画像処理ステップにより行い、該動作のパターンに基づく動作が与えられた前記表示画像前記表示画面上動作させる動作設定ステップと、
を有する画像処理方法。
Reading a drawing area for the user to draw, the paper containing the operation setting Teiryo area to specify the pattern of the operation given to該絵pattern image when displaying the picture drawn in the drawing area, the picture An image processing method for moving an image on a display screen,
A step reading acquires read image data of the paper,
An extraction step of extracting image data of a drawn pattern from the drawing area of the image data;
A generation step for generating a display image to be displayed on a display screen based on the image data extracted by the extraction step;
A plurality of operations that are patterned using any one of a movement operation, a rotation operation, an enlargement operation, a reduction operation, and a movement operation, a rotation operation, a combination of a plurality of operations among the enlargement operation and the reduction operation. An image processing step of performing image processing corresponding to each of the patterns on the extracted image data and giving an operation to the display image;
A detection step of detecting the operation setting Teiryo zone before Symbol image data to identify a pattern of behavior that is designated by said operating setting area of the plurality of operation patterns,
The extracted image data is subjected to image processing according to the operation pattern specified in the detection step by the image processing step, and the display image to which an operation based on the operation pattern is given is displayed on the display screen. an operation setting step of causing the operation above,
An image processing method.
近距離無線通信手段により通信が行われた携帯端末からアドレス情報を取得するアドレス取得ステップと、
前記表示画像を前記アドレス情報が示す宛先に送信する送信ステップと、
をさらに有する請求項に記載の画像処理方法。
An address acquisition step of acquiring address information from the mobile terminal that has been communicated by the short-range wireless communication means;
A transmission step of transmitting the display image to a destination indicated by the address information;
The image processing method according to claim 6 , further comprising:
前記近距離無線通信手段による通信を行う通信ステップをさらに有し、
前記アドレス取得ステップは、
前記読取ステップにより前記用紙を読み取らせるユーザが携帯する携帯端末から前記通信ステップにより前記アドレス情報を取得する請求項に記載の画像処理方法。
A communication step of performing communication by the short-range wireless communication means;
The address acquisition step includes:
The image processing method according to claim 7 , wherein the address information is acquired by the communication step from a portable terminal carried by a user who reads the paper by the reading step.
前記検出ステップは、
前記表示画像を動作させないパターンをさらに含む前記複数の動作のパターンのうち前記動作設定領域により指定される動作のパターンを特定し、
前記動作設定ステップは、
前記表示画像を動作させないパターンが指定されていた場合に、前記抽出した画像データに対して前記画像処理手段による画像処理を行わない
請求項乃至請求項の何れか1項に記載の画像処理方法。
The detecting step includes
Identifying a pattern of an action specified by the action setting area among the plurality of action patterns further including a pattern that does not operate the display image;
The operation setting step includes:
When the display image not to the operation pattern is specified, in any one of the image no image processing by the processing means <br/> claims 6 to 8 for the image data the extracted The image processing method as described.
前記検出ステップは、The detecting step includes
前記画像データからユーザによる記入がされた前記動作設定領域を検出し、前記複数の動作のパターンのうち該動作設定領域により指定される動作のパターンを特定するThe action setting area filled in by the user is detected from the image data, and the action pattern specified by the action setting area is specified from the plurality of action patterns.
請求項6乃至請求項9の何れか1項に記載の画像処理方法。The image processing method according to claim 6.
ユーザが描画する描画領域と、前記描画領域に描画された絵柄を表示する際に該絵柄の画像に与える動作のパターンを指定する動作定領域と、を含む用紙を読み取って、前記絵柄の画像を表示画面上で移動させる画像処理装置であって、
読取手段により前記用紙から読み取られた画像データを取得する取得手段と、
前記画像データの前記描画領域から、描画された絵柄の画像データを抽出する抽出手段と、
前記抽出手段で抽出した画像データに基づき、表示画面上に表示する表示画像を生成する生成手段と、
移動動作、回転動作、拡大動作、縮小動作、ならびに、移動動作、回転動作、拡大動作および縮小動作のうち複数の動作の組み合わせによる動作、の何れかの動作を用いてパターン化される複数の動作のパターンのそれぞれに応じた画像処理を、前記抽出した画像データに対して行い、前記表示画像に動作を与える画像処理手段と、
記画像データから前記動作定領検出し、前記複数の動作のパターンのうち該動作設定領域によって指定される動作のパターンを特定する検出手段と、
前記抽出した画像データに対して、前記検出手段により特定された動作のパターンに応じた画像処理を前記画像処理手段により行い、該動作のパターンに基づく動作が与えられた前記表示画像前記表示画面上動作させる動作設定手段と、
を有する画像処理装置。
Reading a drawing area for the user to draw, the paper containing the operation setting Teiryo area to specify the pattern of the operation given to該絵pattern image when displaying the picture drawn in the drawing area, the picture An image processing apparatus for moving an image on a display screen,
Obtaining means for obtaining the image data read from the sheet by the reading means,
Extraction means for extracting image data of a drawn pattern from the drawing area of the image data;
Generating means for generating a display image to be displayed on a display screen based on the image data extracted by the extracting means;
A plurality of operations that are patterned using any one of a movement operation, a rotation operation, an enlargement operation, a reduction operation, and a movement operation, a rotation operation, a combination of a plurality of operations among the enlargement operation and the reduction operation. Image processing means for performing image processing corresponding to each of the patterns on the extracted image data and giving an operation to the display image;
Detection means for detecting the operation setting Teiryo zone before Symbol image data to identify a pattern of behavior that is designated by said operating setting area of the plurality of operation patterns,
The extracted image data is subjected to image processing according to an operation pattern specified by the detection means by the image processing means, and the display image to which an operation based on the operation pattern is given is displayed on the display screen. and operation setting means for creating work on,
An image processing apparatus.
近距離無線通信手段により通信が行われた携帯端末からアドレス情報を取得するアドレス取得手段と、
前記表示画像を前記アドレス情報が示す宛先に送信する送信手段と、
をさらに有する請求項11に記載の画像処理装置。
Address acquisition means for acquiring address information from a portable terminal that has been communicated by short-range wireless communication means;
Transmitting means for transmitting the display image to a destination indicated by the address information;
The image processing apparatus according to claim 11 , further comprising:
前記近距離無線通信手段をさらに有し、
前記アドレス取得手段は、
前記読取手段により前記用紙を読み取らせるユーザが携帯する携帯端末から前記アドレス情報を取得する請求項12に記載の画像処理装置。
Further comprising the short-range wireless communication means;
The address acquisition means includes
The image processing apparatus according to claim 12 , wherein the address information is acquired from a portable terminal carried by a user who causes the reading unit to read the paper.
前記検出手段は、
前記表示画像を動作させないパターンをさらに含む前記複数の動作のパターンのうち前記動作設定領域により指定される動作のパターンを特定し、
前記動作設定手段は、
前記表示画像を動作させないパターンが指定されていた場合に、前記抽出した画像データに対して前記画像処理手段による画像処理を行わない
請求項11乃至請求項13の何れか1項に記載の画像処理装置。
The detection means includes
Identifying a pattern of an action specified by the action setting area among the plurality of action patterns further including a pattern that does not operate the display image;
The operation setting means includes
Wherein when the display image not to the operation pattern is specified, the image processing according to any one of claims 11 to 13 does not perform the image processing by the image processing means to the image data obtained by said extraction apparatus.
前記検出手段は、The detection means includes
前記画像データからユーザによる記入がされた前記動作設定領域を検出し、前記複数の動作のパターンのうち該動作設定領域により指定される動作のパターンを特定するThe action setting area filled in by the user is detected from the image data, and the action pattern specified by the action setting area is specified from the plurality of action patterns.
請求項11乃至請求項14の何れか1項に記載の画像処理装置。The image processing apparatus according to any one of claims 11 to 14.
JP2015118404A 2015-06-11 2015-06-11 Image processing system, image processing method, and image processing apparatus Active JP5991406B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015118404A JP5991406B2 (en) 2015-06-11 2015-06-11 Image processing system, image processing method, and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015118404A JP5991406B2 (en) 2015-06-11 2015-06-11 Image processing system, image processing method, and image processing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011120740A Division JP5760703B2 (en) 2011-05-30 2011-05-30 Image processing apparatus, image processing program, and recording medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016160782A Division JP6229774B2 (en) 2016-08-18 2016-08-18 Image processing system, image processing method, and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2015181046A JP2015181046A (en) 2015-10-15
JP5991406B2 true JP5991406B2 (en) 2016-09-14

Family

ID=54329240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015118404A Active JP5991406B2 (en) 2015-06-11 2015-06-11 Image processing system, image processing method, and image processing apparatus

Country Status (1)

Country Link
JP (1) JP5991406B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11017578B2 (en) 2018-09-28 2021-05-25 Ricoh Company, Ltd. Display control system to control a display based on detecting wind

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009177626A (en) * 2008-01-25 2009-08-06 Ricoh Co Ltd Image forming apparatus
JP2010124115A (en) * 2008-11-18 2010-06-03 Ricoh Co Ltd Animation generation system, image forming apparatus, animation generating method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11017578B2 (en) 2018-09-28 2021-05-25 Ricoh Company, Ltd. Display control system to control a display based on detecting wind

Also Published As

Publication number Publication date
JP2015181046A (en) 2015-10-15

Similar Documents

Publication Publication Date Title
US10192285B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
CN107133615B (en) Information processing apparatus, information processing method, and computer program
US9558433B2 (en) Image processing apparatus generating partially erased image data and supplementary data supplementing partially erased image data
US9349080B2 (en) Printing system and printing control program
US10715697B2 (en) Image processing method that determines a number of blocks for embedding information based on a size of an image to be printed, image processing apparatus, and storage medium
JP5256956B2 (en) Image processing apparatus, image display system, and program
US8660357B2 (en) Image processing apparatus, method, and computer program
JP6477826B2 (en) Image processing system, image processing method, and image processing apparatus
JP5284994B2 (en) Image processing device
US11146705B2 (en) Character recognition device, method of generating document file, and storage medium
JP6229774B2 (en) Image processing system, image processing method, and image processing apparatus
JP5991406B2 (en) Image processing system, image processing method, and image processing apparatus
JP5020698B2 (en) Image processing apparatus, image processing method, and image processing program
JP2010074342A (en) Image processing apparatus, image forming apparatus, and program
US9338310B2 (en) Image processing apparatus and computer-readable medium for determining pixel value of a target area and converting the pixel value to a specified value of a target image data
US8213043B2 (en) Printing apparatus, printing apparatus control method, printing apparatus control program, and printing system
JP2003046746A (en) Method and apparatus for processing image
JP2020099031A (en) Information processing apparatus and information processing method
JP4665754B2 (en) Image generating apparatus, image generating method, and program
US11676318B2 (en) Image processing apparatus, image forming systems, and image processing method that draw variable data as an aggregate figure with respect to form data
JP2006201885A (en) Image decision unit, method, and program, and image forming unit and program, image decision program, and computer-readable recording medium
JP4922151B2 (en) Form reading system, form reading method, and program
JP6809050B2 (en) Programs and mobile terminals
JP6809051B2 (en) Programs and mobile terminals
JP6358198B2 (en) Image forming apparatus and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160322

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160801

R151 Written notification of patent or utility model registration

Ref document number: 5991406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151