JP2013175209A - Image processing program, image processing device, image processing method, and image processing system - Google Patents

Image processing program, image processing device, image processing method, and image processing system Download PDF

Info

Publication number
JP2013175209A
JP2013175209A JP2013080616A JP2013080616A JP2013175209A JP 2013175209 A JP2013175209 A JP 2013175209A JP 2013080616 A JP2013080616 A JP 2013080616A JP 2013080616 A JP2013080616 A JP 2013080616A JP 2013175209 A JP2013175209 A JP 2013175209A
Authority
JP
Japan
Prior art keywords
image
block
display
input
processing program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013080616A
Other languages
Japanese (ja)
Inventor
Naonori Onishi
直徳 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2013080616A priority Critical patent/JP2013175209A/en
Publication of JP2013175209A publication Critical patent/JP2013175209A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing program and an image processing device that when processing an image displayed by a user operation in accordance with a user operation, process the image while adding a new performance effect.SOLUTION: Image generating means generates an input image on the basis of an output of a pointing device. Image display controlling means displays the input image generated by the image generating means on display means. Image change controlling means decomposes the input image generated by the image generating means into a plurality of partial images, and executes processing for changing at least one of a display position and a display mode for each of the partial images.

Description

本発明は、画像処理プログラムおよび画像処理装置に関し、より特定的には、表示された画像を消去する画像処理プログラムおよび画像処理装置に関する。   The present invention relates to an image processing program and an image processing apparatus, and more specifically to an image processing program and an image processing apparatus for deleting a displayed image.

従来、ユーザ操作に応じて、表示された画像を消去する装置が各種開発されている(例えば、特許文献1参照)。上記特許文献1で開示されたゲーム装置は、プレイヤの手書き入力に応じた手書き画像が表示される。そして、当該ゲーム装置は、プレイヤが所定の消去操作を行うことによって、表示された手書き画像が消去される。例えば、プレイヤが全消去ボタンを操作した場合、それまで表示されていた手書き画像の線種別が波線となり、描画色が変更(例えば、淡色に変更)されて表示される。   2. Description of the Related Art Conventionally, various devices for erasing displayed images in response to user operations have been developed (see, for example, Patent Document 1). The game device disclosed in Patent Document 1 displays a handwritten image corresponding to a player's handwritten input. In the game device, the displayed handwritten image is erased by the player performing a predetermined erasing operation. For example, when the player operates the delete all button, the line type of the handwritten image displayed until then becomes a wavy line, and the drawing color is changed (for example, changed to a light color) and displayed.

特開2006−167192号公報JP 2006-167192 A

しかしながら、上記特許文献1で開示されたゲーム装置は、手書き画像全体の線種別および描画色を変更することによって消去しているだけであるので、ユーザが消去操作したとしてもその操作に対する演出効果もなく、操作に対するイベント性が薄い。したがって、ユーザは、消去操作自体に面白みを感じないため、手書き画像を消去する消去操作自体が単なる画一的な操作として取り扱われてしまう。つまり、上記特許文献1で開示されたゲーム装置は、ユーザ操作(消去操作)に応じて、手書き画像全体に対する処理が行われるため、当該手書き画像に対して新規な演出効果を得ることが難しいものであった。   However, since the game device disclosed in Patent Document 1 is only erased by changing the line type and the drawing color of the entire handwritten image, even if the user performs an erase operation, there is also an effect on the operation. There is no event for the operation. Therefore, since the user does not feel the erasing operation itself interesting, the erasing operation itself for erasing the handwritten image is handled as a mere uniform operation. That is, in the game device disclosed in Patent Document 1, since processing for the entire handwritten image is performed in response to a user operation (erasing operation), it is difficult to obtain a new effect on the handwritten image. Met.

それ故に、本発明の目的は、ユーザ操作によって表示された画像を、ユーザ操作に応じて処理する際、新たな演出効果を加えて当該画像を処理する画像処理プログラムおよび画像処理装置を提供することである。   SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide an image processing program and an image processing apparatus for processing an image displayed by a user operation according to the user operation by adding a new effect to the image. It is.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、本欄における括弧内の参照符号、ステップ番号、および補足説明等は、本発明の理解を助けるために後述する実施形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. Note that reference numerals in parentheses, step numbers, supplementary explanations, and the like in this column indicate correspondence with embodiments described later in order to help understanding of the present invention, and limit the present invention in any way. It is not a thing.

第1の発明は、ポインティングデバイス(13)からの出力に応じて生成された画像(Ihw、Ist)に所定の処理を施す装置のコンピュータ(31)で実行される画像処理プログラムである。画像処理プログラムは、画像生成手段(ステップ54を実行するCPU31;以下、ステップ番号のみを記載する)、画像表示制御手段(S54)、および画像変更制御手段(S56、S57)として、コンピュータを機能させる。画像生成手段は、ポインティングデバイスの出力に基づいて、入力画像(Ihw、Ist)を生成する。画像表示制御手段は、画像生成手段が生成した入力画像を表示手段(12)に表示する。画像変更制御手段は、画像生成手段が生成した入力画像を複数の部分画像(Ihw1〜Ihw5、Istn)に分解し、当該部分画像ごとに、表示位置および表示態様の少なくとも一方を変更する処理を実行する。なお、ポインティングデバイスは、画面上での入力位置や座標を指定する入力装置であり、例えば、タッチパネル、マウス、トラックパッド、トラックボール、ペンタブレット、ジョイスティック、ゲームコントローラのハウジングで指し示された画面位置を検出するシステム等で実現される。また、表示位置または表示態様を変更する処理は、分解された画像毎に移動させる処理、分解された画像毎に形状(拡大、縮小等)を変化させる処理、分解された画像毎に表示方向を変化(回転)させる処理、分解された画像毎に色を変化させる処理、分解された画像毎に点滅させる処理、分解された画像毎に透明度を変化させる処理等を含んでいる。なお、表示位置または表示態様を変更する処理は、入力画像の全体ではなく、入力画像の一部を対象としてもよい。   The first invention is an image processing program executed by a computer (31) of an apparatus that performs a predetermined process on an image (Ihw, Ist) generated in response to an output from a pointing device (13). The image processing program causes the computer to function as image generation means (CPU 31 that executes step 54; only step numbers will be described below), image display control means (S54), and image change control means (S56, S57). . The image generation means generates an input image (Ihw, Ist) based on the output of the pointing device. The image display control means displays the input image generated by the image generation means on the display means (12). The image change control unit decomposes the input image generated by the image generation unit into a plurality of partial images (Ihw1 to Ihw5, Istn), and executes a process of changing at least one of the display position and the display mode for each partial image. To do. The pointing device is an input device for designating an input position and coordinates on the screen. For example, a screen position indicated by a touch panel, a mouse, a track pad, a track ball, a pen tablet, a joystick, or a game controller housing. This is realized by a system for detecting In addition, the process of changing the display position or the display mode includes a process of moving for each decomposed image, a process of changing the shape (enlargement, reduction, etc.) for each decomposed image, and a display direction for each decomposed image. It includes a process of changing (rotating), a process of changing a color for each decomposed image, a process of blinking for each decomposed image, a process of changing the transparency for each decomposed image, and the like. Note that the process of changing the display position or the display mode may target a part of the input image, not the entire input image.

第2の発明は、上記第1の発明において、画像変更制御手段は、ユーザによって消去操作が実行された場合、当該消去操作の対象となった部分画像を対象として変更する処理を行って、変更後の画像を表示手段に表示し、当該表示後に当該対象となった部分画像を表示画面から消去する。なお、消去操作の対象となる部分画像は、入力画像の全てであってもいいし、入力画像の一部であってもよい。   In a second aspect based on the first aspect, when the user performs an erasing operation, the image change control means performs a process of changing the partial image that is the target of the erasing operation as a target. The subsequent image is displayed on the display means, and the partial image that is the target after the display is deleted from the display screen. Note that the partial image to be erased may be the entire input image or a part of the input image.

第3の発明は、上記第1または第2の発明において、画像変更制御手段は、入力画像の表示領域を複数画素で構成されるブロックに分割し(S71)、当該ブロックを単位として、入力画像を複数の部分画像に分解する。   In a third aspect based on the first or second aspect, the image change control means divides the display area of the input image into blocks each composed of a plurality of pixels (S71), and the input image in units of the block. Is decomposed into a plurality of partial images.

第4の発明は、上記第1または第2の発明において、連続判定手段(S76、S94、S114、S134、S153)として、さらに機能させる。連続判定手段は、入力画像について、連続している部分を判定する。画像変更制御手段は、連続判定手段による判定に基づいて、連続している部分が同じ部分画像に属するように、入力画像を複数の部分画像に分解する。   According to a fourth aspect of the present invention, in the first or second aspect of the present invention, the continuous determination means (S76, S94, S114, S134, S153) further functions. The continuous determination means determines a continuous portion of the input image. The image change control means decomposes the input image into a plurality of partial images based on the determination by the continuous determination means so that the continuous parts belong to the same partial image.

第5の発明は、上記第4の発明において、画像変更制御手段は、入力画像の表示領域を複数画素で構成されるブロックに分割し、当該ブロックを単位として、入力画像を複数の部分画像に分解する。連続判定手段は、入力画像がまたがるブロックを連続していると判定する。画像変更制御手段は、さらに、連続判定手段による判定に基づいて、連続しているブロックが同じ部分画像に属するように、入力画像を複数の部分画像に分解する。   In a fifth aspect based on the fourth aspect, the image change control means divides the display area of the input image into blocks each composed of a plurality of pixels, and the input image is divided into a plurality of partial images in units of the block. Decompose. The continuity determining means determines that the blocks spanned by the input image are continuous. The image change control means further decomposes the input image into a plurality of partial images so that consecutive blocks belong to the same partial image based on the determination by the continuous determination means.

第6の発明は、上記第5の発明において、連続判定手段は、隣接する2つのブロックのいずれか一方の隣接領域に入力画像が含まれている場合、当該2つのブロックが連続していると判定する(図20判断基準A)。   In a sixth aspect based on the fifth aspect, if the input image is included in one of the adjacent areas of the two adjacent blocks, the continuity determination means is that the two blocks are continuous. Determine (Judgment criteria A in FIG. 20).

第7の発明は、上記第5の発明において、連続判定手段は、隣接する2つのブロックの両方の隣接領域に入力画像が含まれている場合、当該2つのブロックが連続していると判定する(図20判断基準B)。   In a seventh aspect based on the fifth aspect, if the input image is included in both adjacent areas of two adjacent blocks, the continuous determination means determines that the two blocks are continuous. (FIG. 20 criteria B).

第8の発明は、上記第7の発明において、連続判定手段は、2つのブロックの一方ブロックの隣接領域に含まれる入力画像と、他方ブロックの隣接領域に含まれる入力画像が連続していることをさらに判定し、連続している場合に、当該2つのブロックが連続していると判定する(図20判断基準C)。   In an eighth aspect based on the seventh aspect, the continuity determining means is such that the input image included in the adjacent region of one block of the two blocks and the input image included in the adjacent region of the other block are continuous. Are further determined and it is determined that the two blocks are continuous (determination criterion C in FIG. 20).

第9の発明は、上記第5の発明において、連続判定手段は、或るブロックに連続していると判定した隣接ブロックにおいて、当該隣接ブロックと、当該隣接ブロックにさらに隣接する他のブロックが連続しているか否かを判定し、連続している場合に、当該或るブロックと当該隣接ブロックと当該他のブロックとが連続していると判定する(図12〜図16)。   In a ninth aspect based on the fifth aspect, in the adjacent block determined to be continuous to a certain block by the continuous determining means, the adjacent block and another block further adjacent to the adjacent block are continuous. If it is continuous, it is determined that the certain block, the adjacent block, and the other block are continuous (FIGS. 12 to 16).

第10の発明は、上記第1の発明において、画像変更制御手段は、部分画像を構成する要素画像に対してそれぞれ同じ移動方向に同じ移動速度を与えることによって、部分画像ごとに表示位置を変更する。   In a tenth aspect based on the first aspect, the image change control means changes the display position for each partial image by giving the same movement speed in the same movement direction to the element images constituting the partial image. To do.

第11の発明は、上記第5の発明において、画像変更制御手段は、連続判定手段によって、連続していると判定された各ブロックに対して、それぞれ同じ移動方向に同じ移動速度を与えることによって、部分画像ごとに表示位置を変更する(図23A)。   In an eleventh aspect based on the fifth aspect, the image change control means gives the same movement speed in the same movement direction to each block determined to be continuous by the continuous determination means. The display position is changed for each partial image (FIG. 23A).

第12の発明は、上記第1または第2の発明において、装置は、当該装置周辺を撮像する撮像手段(23、25)を備える。画像表示制御手段は、撮像手段で撮像された撮像画像をリアルタイムで表示手段に表示して、画像生成手段が生成した入力画像を当該撮像画像に重畳して表示手段に表示する。   In a twelfth aspect based on the first or second aspect, the apparatus comprises imaging means (23, 25) for imaging the periphery of the apparatus. The image display control unit displays the captured image captured by the imaging unit on the display unit in real time, and displays the input image generated by the image generation unit superimposed on the captured image and displayed on the display unit.

第13の発明は、上記第1または第2の発明において、画像生成手段は、ポインティングデバイスの出力に基づく手書き画像(Ihw)を生成する。   In a thirteenth aspect based on the first or second aspect, the image generation means generates a handwritten image (Ihw) based on the output of the pointing device.

第14の発明は、上記第1または第2の発明において、ポインティングデバイスの出力に基づく位置に表示される所定の合成用画像(Ist)を生成する。   In a fourteenth aspect based on the first or second aspect, a predetermined composition image (Ist) displayed at a position based on the output of the pointing device is generated.

第15の発明は、上記第1または第2の発明において、画像生成手段は、第1の入力画像が生成された後、ポインティングデバイスの出力に基づいて、第2の入力画像を生成する。画像表示制御手段は、第1の入力画像と第2の入力画像を合成して表示する。画像変更制御手段は、第1の入力画像および第2の入力画像を合成した画像を1つの画像として当該画像を分解する。   In a fifteenth aspect based on the first or second aspect, after the first input image is generated, the image generation means generates a second input image based on the output of the pointing device. The image display control means synthesizes and displays the first input image and the second input image. The image change control means decomposes the image by combining the first input image and the second input image as one image.

第16の発明は、上記第2の発明において、画像変更制御手段は、ユーザによって全てを消去する消去操作が実行された場合、入力画像の全体を複数の部分画像に分解し、当該複数の部分画像の全てについて、表示位置および表示態様の少なくとも一方を変更する処理をそれぞれ行って表示手段に表示し、当該表示後に当該部分画像を全て表示画面から消去する。   In a sixteenth aspect based on the second aspect, the image change control means decomposes the entire input image into a plurality of partial images when the user performs an erasing operation for erasing all of the plurality of partial images. For all the images, a process for changing at least one of the display position and the display mode is performed and displayed on the display means, and after the display, all the partial images are erased from the display screen.

第17の発明は、上記第2の発明において、画像変更制御手段は、部分画像ごとに異なる表示位置に移動させて表示手段に表示させる。   In a seventeenth aspect based on the second aspect, the image change control unit moves the partial image to a different display position and causes the display unit to display the image.

第18の発明は、上記第17の発明において、画像変更制御手段は、部分画像ごとに表示画面外まで移動させることによって、当該画像を当該表示画面から消去する。   In an eighteenth aspect based on the seventeenth aspect, the image change control means erases the image from the display screen by moving the partial image to the outside of the display screen.

第19の発明は、上記第17の発明において、画像変更制御手段は、部分画像ごとに異なる方向の初速度を与えた後、複数の部分画像に共通の特定方向の加速度を与えることによって、当該画像を当該表示画面から消去する。   In a nineteenth aspect based on the seventeenth aspect, the image change control means gives an acceleration in a specific direction common to a plurality of partial images after giving an initial velocity in a different direction for each partial image. Erase the image from the display screen.

第20の発明は、上記第1または第2の発明において、ポインティングデバイスは、表示手段の表示画面を覆うタッチパネルである。   In a twentieth aspect based on the first or second aspect, the pointing device is a touch panel that covers the display screen of the display means.

第21の発明は、上記第1または第2の発明において、画像変更制御手段は、画像生成手段が生成した入力画像を、それぞれ画像の色毎に分解する。   In a twenty-first aspect based on the first or second aspect, the image change control means decomposes the input image generated by the image generation means for each color of the image.

第22の発明は、上記第1または第2の発明において、入力位置履歴記憶制御手段として、さらにコンピュータを機能させる。入力位置履歴記憶制御手段は、ポインティングデバイスから出力される入力位置の履歴をメモリ(32)に記憶する。画像変更制御手段は、入力位置の履歴に基づいて、画像生成手段が入力画像の生成に用いた入力位置のうち、当該入力位置の出力が途切れずに連続した入力位置群から生成された入力画像毎に、画像生成手段が生成した入力画像を分解する。   In a twenty-second aspect, in the first or second aspect, the computer is further caused to function as input position history storage control means. The input position history storage control means stores the history of input positions output from the pointing device in the memory (32). Based on the history of the input position, the image change control means is an input image generated from a group of input positions in which the output of the input position is not interrupted among the input positions used by the image generation means to generate the input image. Each time, the input image generated by the image generation means is decomposed.

第23の発明は、上記第1または第2の発明において、画像変更制御手段は、画像生成手段が生成した入力画像を、予め設定された網の目状に分解する。   In a twenty-third aspect based on the first or second aspect, the image change control means decomposes the input image generated by the image generation means into a mesh shape set in advance.

第24の発明は、上記第1の発明において、画像変更制御手段は、分解した部分画像ごとにそれぞれ回転させて表示手段に表示させる。   In a twenty-fourth aspect based on the first aspect, the image change control means rotates each disassembled partial image and displays it on the display means.

第25の発明は、上記第1の発明において、画像変更制御手段は、分解した部分画像ごとにそれぞれ拡大または縮小して表示手段に表示させる。   In a twenty-fifth aspect based on the first aspect, the image change control means enlarges or reduces each decomposed partial image and causes the display means to display the enlarged partial image.

第26の発明は、上記第1の発明において、分解した部分画像ごとにそれぞれ画像色を変更して表示手段に表示させる。   In a twenty-sixth aspect based on the first aspect, the image color is changed for each decomposed partial image and displayed on the display means.

第27の発明は、上記第1の発明において、画像変更制御手段は、分解した部分画像ごとにそれぞれ点滅させて表示手段に表示させる。   In a twenty-seventh aspect based on the first aspect, the image change control means causes each of the decomposed partial images to blink and display on the display means.

第28の発明は、ポインティングデバイスからの出力に応じて生成された画像に所定の処理を施す画像処理装置である。画像処理装置は、画像生成手段、画像表示制御手段、および画像変更制御手段を備える。画像生成手段は、ポインティングデバイスの出力に基づいて、入力画像を生成する。画像表示制御手段は、画像生成手段が生成した入力画像を表示手段に表示する。画像変更制御手段は、画像生成手段が生成した入力画像を複数の部分画像に分解し、当該部分画像ごとに、表示位置および表示態様の少なくとも一方を変更する処理を実行する。   A twenty-eighth aspect of the present invention is an image processing apparatus that performs a predetermined process on an image generated according to an output from a pointing device. The image processing apparatus includes an image generation unit, an image display control unit, and an image change control unit. The image generation means generates an input image based on the output of the pointing device. The image display control means displays the input image generated by the image generation means on the display means. The image change control unit decomposes the input image generated by the image generation unit into a plurality of partial images, and executes a process of changing at least one of the display position and the display mode for each partial image.

上記第1の発明によれば、ユーザ操作によって表示された入力画像が分解された部分画像毎に表示位置および表示態様の少なくとも一方が変更されるため、当該入力画像に新たな演出効果を加えて当該入力画像を処理することができる。   According to the first aspect, since at least one of the display position and the display mode is changed for each partial image obtained by disassembling the input image displayed by the user operation, a new effect is added to the input image. The input image can be processed.

上記第2の発明によれば、ユーザ操作によって表示された入力画像をユーザ部分消去や全消去操作に応じて部分消去や全消去処理する際、部分画像毎に表示位置および表示態様の少なくとも一方が変更されて消去されるため、当該入力画像に新たな演出効果を加えて当該入力画像を消去することができる。   According to the second aspect of the invention, when partial erasure or full erasure processing is performed on an input image displayed by a user operation according to a user partial erasure or full erasure operation, at least one of the display position and the display mode is set for each partial image. Since it is changed and deleted, the input image can be deleted by adding a new effect to the input image.

上記第3の発明によれば、画像分解単位を画素単位でなく、それよりも大きいブロック単位とすることによって、画像を分解する処理の処理負荷を軽減することができる。   According to the third aspect of the present invention, the processing load of the process of decomposing an image can be reduced by setting the image decomposition unit not as a pixel unit but as a larger block unit.

上記第4の発明によれば、ユーザ操作によって表示された入力画像を処理する際、連続している部分毎に分解画像に対してそれぞれ新たな演出効果を加えることができる。   According to the fourth aspect, when an input image displayed by a user operation is processed, a new effect can be added to the decomposed image for each continuous portion.

上記第5の発明によれば、連続している部分の判定を画素単位でなく、それよりも大きいブロック単位とすることによって、当該判定処理負荷を軽減することができる。   According to the fifth aspect of the present invention, the determination processing load can be reduced by determining the continuous portion not in units of pixels but in units of larger blocks.

上記第6〜第8の発明によれば、隣接ブロック間の接続判定を行う際、隣接領域の画素のみを用いて、正確な接続判定が可能となる。また、上記第6〜第8の発明それぞれの判定基準を用いることによってブロック間の接続判定結果が変化するため、適切な判定基準を用いることによって処理負荷や入力画像を分解する精度等を調整することができる。   According to the sixth to eighth aspects, when connection determination between adjacent blocks is performed, accurate connection determination can be performed using only pixels in the adjacent region. In addition, since the determination result of connection between blocks changes by using the determination criteria of each of the sixth to eighth inventions, the processing load, the accuracy of decomposing the input image, and the like are adjusted by using an appropriate determination criterion. be able to.

上記第9の発明によれば、再帰的な処理を繰り返すことによって、様々な態様で接続されたブロックのグループを正確に判定することができる。   According to the ninth aspect, it is possible to accurately determine a group of blocks connected in various modes by repeating recursive processing.

上記第10の発明によれば、要素画像で構成される部分画像毎に1つのオブジェクトとしてみなさなくても、部分画像単位で移動させることができる。   According to the tenth aspect of the present invention, it is possible to move in units of partial images without considering each partial image formed of element images as one object.

上記第11の発明によれば、同じグループに属する複数のブロックを1つのオブジェクトとしてみなさなくても、グループ単位で移動させることができる。   According to the eleventh aspect, a plurality of blocks belonging to the same group can be moved in units of groups without considering them as one object.

上記第12〜第14の発明によれば、撮像画像の上にユーザの手書き線、手書き文字、手書きマーク(標号、スタンプ)群を書き加えるような処理が可能となる。   According to the twelfth to fourteenth aspects, it is possible to perform processing such as adding a user's handwritten line, handwritten character, and handwritten mark (signature, stamp) group on the captured image.

上記第15の発明によれば、ユーザが生成した画像数等に影響されることなく、同様の画像分解処理や画像演出処理が可能となる。   According to the fifteenth aspect, similar image decomposition processing and image effect processing can be performed without being affected by the number of images generated by the user.

上記第16の発明によれば、ユーザの全消去操作に応じて全消去することが可能となる。   According to the sixteenth aspect, it is possible to erase all in response to a user's all erasing operation.

上記第17〜第19の発明によれば、部分画像毎に異なる方向へ移動させて消去するような画像演出が可能となる。   According to the seventeenth to nineteenth aspects, it is possible to produce an image effect such that the partial images are moved in different directions to be erased.

上記第20の発明によれば、タッチパネルを用いて操作することによって、ユーザの直感的な操作が可能となる。   According to the twentieth aspect, the user can perform intuitive operations by operating using the touch panel.

上記第21〜第23の発明によれば、ユーザ操作に応じて生成した画像を様々な単位で部分画像に分解し、当該部分画像に新たな演出効果を加えて当該画像を処理することができる。   According to the twenty-first to twenty-third aspects, an image generated in response to a user operation can be decomposed into partial images in various units, and the image can be processed by adding a new effect to the partial image. .

上記第24〜第27の発明によれば、部分画像に様々な演出効果を加えて入力画像を処理することができる。   According to the twenty-fourth to twenty-seventh aspects, the input image can be processed by adding various effects to the partial image.

また、本発明の画像処理装置によれば、上述した画像処理プログラムと同様の効果を得ることができる。   Further, according to the image processing apparatus of the present invention, it is possible to obtain the same effect as the above-described image processing program.

本発明の一実施形態に係る画像処理プログラムを実行するゲーム装置1の外観図1 is an external view of a game apparatus 1 that executes an image processing program according to an embodiment of the present invention. 図1のゲーム装置1の内部構成の一例を示すブロック図1 is a block diagram showing an example of the internal configuration of the game apparatus 1 of FIG. 下側LCD12に表示される手書き文字Ihwの一例を示す図The figure which shows an example of the handwritten character Ihw displayed on lower LCD12 ユーザが手書き文字Ihwを全消去する操作をした場合に下側LCD12で表現される演出例の第1段階を示す図The figure which shows the 1st step of the production example expressed with lower LCD12 when a user performs operation which erases all the handwritten characters Ihw. ユーザが手書き文字Ihwを全消去する操作をした場合に下側LCD12で表現される演出例の第2段階を示す図The figure which shows the 2nd step of the example of production expressed with lower LCD12 when a user performs operation which erases all the handwritten characters Ihw. ユーザが手書き文字Ihwを全消去する操作をした場合に下側LCD12で表現される演出例の第3段階を示す図The figure which shows the 3rd step of the example of production expressed with lower LCD12 when a user performs operation which erases all the handwritten characters Ihw. 下側LCD12に表示される手書きスタンプIstの一例を示す図The figure which shows an example of the handwritten stamp Ist displayed on the lower LCD12 ユーザが手書きスタンプIstを全消去する操作をした場合に下側LCD12で表現される演出例を示す図The figure which shows the example of presentation expressed by lower LCD12 when a user performs operation which erases all the handwritten stamps Ist. 本発明の一実施形態に係る画像処理プログラムを実行することに応じて、メインメモリ32に記憶される各種データの一例を示す図The figure which shows an example of the various data memorize | stored in the main memory 32 according to performing the image processing program which concerns on one Embodiment of this invention. メインメモリ32に記憶されるブロックデータDbの一例を示す図The figure which shows an example of the block data Db memorize | stored in the main memory 32 本発明の一実施形態に係る画像処理プログラムを実行することによってゲーム装置1が画像処理を行うフローチャートThe flowchart with which the game device 1 performs an image process by executing the image processing program which concerns on one Embodiment of this invention. 図11のステップ56で行われる画像分解処理の詳細な動作を示すサブルーチンA subroutine showing the detailed operation of the image decomposition process performed in step 56 of FIG. 図12のステップ81等で行われる右側ブロック確認処理の詳細な動作を示すサブルーチンSubroutine showing detailed operation of right block confirmation processing performed in step 81 of FIG. 図12のステップ82等で行われる上側ブロック確認処理の詳細な動作を示すサブルーチンSubroutine showing the detailed operation of the upper block confirmation process performed in step 82 of FIG. 図12のステップ83等で行われる左側ブロック確認処理の詳細な動作を示すサブルーチンSubroutine showing the detailed operation of the left block confirmation process performed in step 83 of FIG. 図12のステップ84等で行われる下側ブロック確認処理の詳細な動作を示すサブルーチンSubroutine showing the detailed operation of the lower block confirmation process performed in step 84 of FIG. 横m個×縦n個のブロックで格子状に分割された表示画面DAの一例を示す図The figure which shows an example of the display screen DA divided | segmented into the grid | lattice form by the block of m horizontal x vertical n ブロックAに隣接する右側のブロック、上側のブロック、左側のブロック、および下側のブロックを説明するための図The figure for demonstrating the right block adjacent to the block A, an upper block, a left block, and a lower block 処理対象ブロックと右側ブロックとの接続関係を判断するときに用いられる最端画素の一例を説明するための図The figure for demonstrating an example of the endmost pixel used when judging the connection relation of a process target block and a right block. 判断基準A〜Cによるブロック間の接続関係の判断結果例を示す図The figure which shows the example of a judgment result of the connection relation between blocks by judgment criteria A-C 画像分解処理によって手書き画像が分解される例を説明するための図The figure for demonstrating the example by which a handwritten image is decomposed | disassembled by image decomposition processing 画面を構成する複数レイヤーの一例を示す図Diagram showing an example of multiple layers that compose the screen 同じグループに属するブロックA〜Cが移動する場合にそれぞれ与えられる移動速度の一例を示す図The figure which shows an example of the moving speed each given when the blocks A-C which belong to the same group move 同じグループに属するブロックA〜Cが回転する場合にそれぞれ与えられる移動速度の一例を示す図The figure which shows an example of the moving speed respectively given when the blocks A-C which belong to the same group rotate.

図面を参照して、本発明の一実施形態に係る画像処理プログラムを実行する画像処理装置について説明する。本発明の画像処理プログラムは、任意のコンピュータシステムで実行されることによって適用することができるが、画像処理装置の一例としてゲーム装置1を用い、ゲーム装置1で実行される画像処理プログラムを用いて説明する。なお、図1は、本発明の画像処理プログラムを実行するゲーム装置1の外観図である。ここでは、ゲーム装置1の一例として、携帯ゲーム装置を示す。なお、ゲーム装置1は、カメラを内蔵しており、当該カメラによって画像を撮像し、撮像した画像を画面に表示したり、撮像した画像のデータを保存したりする撮像装置としても機能する。なお、本明細書においては、カメラによって画像データを取り込むことを「撮像」と記し、撮像した画像データを記憶することを「撮影」と記す。   An image processing apparatus that executes an image processing program according to an embodiment of the present invention will be described with reference to the drawings. The image processing program of the present invention can be applied by being executed by an arbitrary computer system. However, the game apparatus 1 is used as an example of the image processing apparatus, and the image processing program executed by the game apparatus 1 is used. explain. FIG. 1 is an external view of a game apparatus 1 that executes the image processing program of the present invention. Here, a portable game device is shown as an example of the game device 1. Note that the game apparatus 1 has a built-in camera, and functions as an imaging apparatus that captures an image with the camera, displays the captured image on a screen, and stores data of the captured image. In this specification, capturing image data with a camera is referred to as “imaging”, and storing captured image data is referred to as “imaging”.

図1において、ゲーム装置1は、折り畳み型の携帯ゲーム装置であり、開いた状態(開状態)のゲーム装置1を示している。ゲーム装置1は、開いた状態においてもユーザが両手または片手で把持することができるようなサイズで構成される。   In FIG. 1, a game apparatus 1 is a foldable portable game apparatus, and shows the game apparatus 1 in an open state (open state). The game apparatus 1 is configured in such a size that the user can hold it with both hands or one hand even in an open state.

ゲーム装置1は、下側ハウジング11および上側ハウジング21を有する。下側ハウジング11と上側ハウジング21とは、開閉可能(折り畳み可能)に連結されている。図1の例では、下側ハウジング11および上側ハウジング21は、それぞれ横長の長方形の板状で形成され、互いの長辺部分で回動可能に連結されている。通常、ユーザは、開状態でゲーム装置1を使用する。そして、ユーザは、ゲーム装置1を使用しない場合には閉状態としてゲーム装置1を保管する。また、図1に示した例では、ゲーム装置1は、上記閉状態および開状態のみでなく、下側ハウジング11と上側ハウジング21とのなす角度が閉状態と開状態との間の任意の角度において、連結部分に発生する摩擦力などによってその開閉角度を維持することができる。つまり、上側ハウジング21を下側ハウジング11に対して任意の角度で静止させることができる。   The game apparatus 1 includes a lower housing 11 and an upper housing 21. The lower housing 11 and the upper housing 21 are connected so as to be openable and closable (foldable). In the example of FIG. 1, the lower housing 11 and the upper housing 21 are each formed in a horizontally-long rectangular plate shape, and are coupled so as to be rotatable at their long side portions. Normally, the user uses the game apparatus 1 in the open state. When the user does not use the game apparatus 1, the user stores the game apparatus 1 in a closed state. In the example shown in FIG. 1, the game apparatus 1 is not limited to the closed state and the open state, and the angle formed by the lower housing 11 and the upper housing 21 is an arbitrary angle between the closed state and the open state. The opening / closing angle can be maintained by a frictional force generated in the connecting portion. That is, the upper housing 21 can be made stationary with respect to the lower housing 11 at an arbitrary angle.

下側ハウジング11には、下側LCD(Liquid Crystal Display:液晶表示装置)12が設けられる。下側LCD12は横長形状であり、長辺方向が下側ハウジング11の長辺方向に一致するように配置される。なお、本実施形態では、ゲーム装置1に内蔵されている表示装置としてLCDを用いているが、例えばEL(Electro Luminescence:電界発光)を利用した表示装置等、他の任意の表示装置を利用してもよい。また、ゲーム装置1は、任意の解像度の表示装置を利用することができる。   The lower housing 11 is provided with a lower LCD (Liquid Crystal Display) 12. The lower LCD 12 has a horizontally long shape, and is arranged such that the long side direction coincides with the long side direction of the lower housing 11. In the present embodiment, an LCD is used as the display device built in the game apparatus 1, but other arbitrary display devices such as a display device using EL (Electro Luminescence) are used. May be. The game apparatus 1 can use a display device having an arbitrary resolution.

下側ハウジング11には、入力装置として、各操作ボタン14A〜14Kおよびタッチパネル13が設けられる。図1に示されるように、各操作ボタン14A〜14Kのうち、方向入力ボタン14A、操作ボタン14B、操作ボタン14C、操作ボタン14D、操作ボタン14E、電源ボタン14F、スタートボタン14G、およびセレクトボタン14Hは、上側ハウジング21と下側ハウジング11とを折りたたんだときに内側となる、下側ハウジング11の内側主面上に設けられる。方向入力ボタン14Aは、例えば選択操作等に用いられる。各操作ボタン14B〜14Eは、例えば決定操作やキャンセル操作等に用いられる。電源ボタン14Fは、ゲーム装置1の電源をオン/オフするために用いられる。図1に示す例では、方向入力ボタン14Aおよび電源ボタン14Fは、下側ハウジング11の内側主面中央付近に設けられる下側LCD12に対して、左右一方側(図1では左側)の当該主面上に設けられる。また、操作ボタン14B〜14E、スタートボタン14G、およびセレクトボタン14Hは、下側LCD12に対して左右他方側(図1では右側)となる下側ハウジング11の内側主面上に設けられる。方向入力ボタン14A、操作ボタン14B〜14E、スタートボタン14G、およびセレクトボタン14Hは、ゲーム装置1に対する各種操作を行うために用いられる。   The lower housing 11 is provided with operation buttons 14A to 14K and a touch panel 13 as input devices. As shown in FIG. 1, among the operation buttons 14A to 14K, a direction input button 14A, an operation button 14B, an operation button 14C, an operation button 14D, an operation button 14E, a power button 14F, a start button 14G, and a select button 14H. Is provided on the inner main surface of the lower housing 11 which is the inner side when the upper housing 21 and the lower housing 11 are folded. The direction input button 14A is used for, for example, a selection operation. The operation buttons 14B to 14E are used for, for example, a determination operation or a cancel operation. The power button 14F is used for turning on / off the power of the game apparatus 1. In the example shown in FIG. 1, the direction input button 14 </ b> A and the power button 14 </ b> F are on the left and right sides (left side in FIG. 1) of the main surface with respect to the lower LCD 12 provided near the center of the inner main surface of the lower housing 11. Provided on top. In addition, the operation buttons 14B to 14E, the start button 14G, and the select button 14H are provided on the inner main surface of the lower housing 11 that is on the other side of the lower LCD 12 (right side in FIG. 1). The direction input button 14A, the operation buttons 14B to 14E, the start button 14G, and the select button 14H are used for performing various operations on the game apparatus 1.

なお、図1においては、操作ボタン14I〜14Kの図示を省略している。例えば、Lボタン14Iは、下側ハウジング11の上側面の左端部に設けられ、Rボタン14Jは、下側ハウジング11の上側面の右端部に設けられる。Lボタン14IおよびRボタン14Jは、ゲーム装置1に対して、例えば撮影指示操作(シャッター操作)を行うために用いられる。さらに、音量ボタン14Kは、下側ハウジング11の左側面に設けられる。音量ボタン14Kは、ゲーム装置1が備えるスピーカの音量を調整するために用いられる。   In FIG. 1, the operation buttons 14I to 14K are not shown. For example, the L button 14I is provided at the left end portion of the upper side surface of the lower housing 11, and the R button 14J is provided at the right end portion of the upper side surface of the lower housing 11. The L button 14I and the R button 14J are used to perform, for example, a shooting instruction operation (shutter operation) on the game apparatus 1. Furthermore, the volume button 14K is provided on the left side surface of the lower housing 11. The volume button 14K is used to adjust the volume of the speaker provided in the game apparatus 1.

また、ゲーム装置1は、各操作ボタン14A〜14Kとは別の入力装置として、さらにタッチパネル13を備えている。タッチパネル13は、下側LCD12の画面上を覆うように装着されている。なお、本実施形態では、タッチパネル13は、例えば抵抗膜方式のタッチパネルが用いられる。ただし、タッチパネル13は、抵抗膜方式に限らず、任意の押圧式のタッチパネルを用いることができる。また、本実施形態では、タッチパネル13として、例えば下側LCD12の解像度と同解像度(検出精度)のものを利用する。ただし、必ずしもタッチパネル13の解像度と下側LCD12の解像度とが一致している必要はない。また、下側ハウジング11の右側面には、タッチペン27の挿入口(図1に示す破線)が設けられている。上記挿入口は、タッチパネル13に対する操作を行うために用いられるタッチペン27を収納することができる。なお、タッチパネル13に対する入力は、通常タッチペン27を用いて行われるが、タッチペン27に限らずユーザの指等でタッチパネル13を操作することも可能である。   Further, the game apparatus 1 further includes a touch panel 13 as an input device different from the operation buttons 14A to 14K. The touch panel 13 is mounted so as to cover the screen of the lower LCD 12. In the present embodiment, for example, a resistive film type touch panel is used as the touch panel 13. However, the touch panel 13 is not limited to the resistive film type, and any pressing type touch panel can be used. In the present embodiment, as the touch panel 13, for example, a touch panel having the same resolution (detection accuracy) as that of the lower LCD 12 is used. However, the resolution of the touch panel 13 and the resolution of the lower LCD 12 are not necessarily matched. Further, on the right side surface of the lower housing 11, an insertion port for the touch pen 27 (broken line shown in FIG. 1) is provided. The insertion slot can accommodate a touch pen 27 used for performing an operation on the touch panel 13. Note that the input to the touch panel 13 is normally performed using the touch pen 27, but the touch panel 13 can be operated not only with the touch pen 27 but also with a user's finger or the like.

また、下側ハウジング11の右側面には、メモリカード28を収納するための挿入口(図1では、二点鎖線で示している)が設けられている。この挿入口の内側には、ゲーム装置1とメモリカード28とを電気的に接続するためのコネクタ(図示せず)が設けられる。メモリカード28は、例えばSD(Secure Digital)メモリカードであり、上記コネクタに着脱自在に装着される。メモリカード28は、例えば、ゲーム装置1によって撮像された画像を記憶(保存)したり、他の装置で生成された画像をゲーム装置1に読み込んだりするため等に用いられる。   Further, on the right side surface of the lower housing 11, an insertion slot (indicated by a two-dot chain line in FIG. 1) for storing the memory card 28 is provided. A connector (not shown) for electrically connecting the game apparatus 1 and the memory card 28 is provided inside the insertion slot. The memory card 28 is, for example, an SD (Secure Digital) memory card, and is detachably attached to the connector. The memory card 28 is used, for example, for storing (saving) an image captured by the game apparatus 1 or reading an image generated by another apparatus into the game apparatus 1.

さらに、下側ハウジング11の上側面には、メモリカード29を収納するための挿入口(図1では、一点鎖線で示している)が設けられている。この挿入口の内側にも、ゲーム装置1とメモリカード29とを電気的に接続するためのコネクタ(図示せず)が設けられる。メモリカード29は、画像処理プログラムやゲームプログラム等を記憶した記憶媒体であり、下側ハウジング11に設けられた挿入口に着脱自在に装着される。   Further, an insertion slot (indicated by a one-dot chain line in FIG. 1) for accommodating the memory card 29 is provided on the upper side surface of the lower housing 11. A connector (not shown) for electrically connecting the game apparatus 1 and the memory card 29 is also provided inside the insertion slot. The memory card 29 is a storage medium that stores an image processing program, a game program, and the like, and is detachably attached to an insertion port provided in the lower housing 11.

下側ハウジング11と上側ハウジング21との連結部の左側部分には、3つのLED15A〜15Cが取り付けられる。ここで、ゲーム装置1は、他の機器との間で無線通信を行うことが可能であり、第1LED15Aは、無線通信が確立している場合に点灯する。第2LED15Bは、ゲーム装置1の充電中に点灯する。第3LED15Cは、ゲーム装置1の電源がオンである場合に点灯する。したがって、3つのLED15A〜15Cによって、ゲーム装置1の通信確立状況、充電状況、および、電源のオン/オフ状況をユーザに通知することができる。   Three LEDs 15 </ b> A to 15 </ b> C are attached to the left portion of the connecting portion between the lower housing 11 and the upper housing 21. Here, the game apparatus 1 can perform wireless communication with other devices, and the first LED 15A lights up when wireless communication is established. The second LED 15B is lit while the game apparatus 1 is being charged. The third LED 15C is lit when the power of the game apparatus 1 is on. Therefore, the three LEDs 15A to 15C can notify the user of the communication establishment status, the charging status, and the power on / off status of the game apparatus 1.

一方、上側ハウジング21には、上側LCD22が設けられる。上側LCD22は横長形状であり、長辺方向が上側ハウジング21の長辺方向に一致するように配置される。なお、下側LCD12と同様、上側LCD22に代えて、他の任意の方式および任意の解像度の表示装置を利用してもよい。また、上側LCD22上を覆うように、タッチパネルを設けてもかまわない。   On the other hand, the upper housing 21 is provided with an upper LCD 22. The upper LCD 22 has a horizontally long shape and is arranged such that the long side direction coincides with the long side direction of the upper housing 21. As in the case of the lower LCD 12, instead of the upper LCD 22, a display device having any other method and any resolution may be used. A touch panel may be provided so as to cover the upper LCD 22.

また、上側ハウジング21には、2つのカメラ(内側カメラ23および外側カメラ25)が設けられる。図1に示されるように、内側カメラ23は、上側ハウジング21の連結部付近の内側主面に取り付けられる。一方、外側カメラ25は、内側カメラ23が取り付けられる内側主面の反対側の面、すなわち、上側ハウジング21の外側主面(ゲーム装置1が閉状態となった場合に外側となる面であり、図1に示す上側ハウジング21の背面)に取り付けられる。なお、図1においては、外側カメラ25を破線で示している。これによって、内側カメラ23は、上側ハウジング21の内側主面が向く方向を撮像することが可能であり、外側カメラ25は、内側カメラ23の撮像方向の逆方向、すなわち、上側ハウジング21の外側主面が向く方向を撮像することが可能である。このように、本実施形態では、2つの内側カメラ23および外側カメラ25の撮像方向が互いに逆方向となるように設けられる。例えば、ユーザは、ゲーム装置1からユーザの方を見た景色を内側カメラ23で撮像することができるとともに、ゲーム装置1からユーザの反対側の方向を見た景色を外側カメラ25で撮像することができる。なお、下側LCD12および/または上側LCD22は、内側カメラ23または外側カメラ25で撮像されている画像をリアルタイムに表示するために用いられることもある。   The upper housing 21 is provided with two cameras (an inner camera 23 and an outer camera 25). As shown in FIG. 1, the inner camera 23 is attached to the inner main surface near the connecting portion of the upper housing 21. On the other hand, the outer camera 25 is a surface on the opposite side of the inner main surface to which the inner camera 23 is attached, that is, the outer main surface of the upper housing 21 (the outer surface when the game apparatus 1 is in a closed state, It is attached to the rear surface of the upper housing 21 shown in FIG. In FIG. 1, the outer camera 25 is indicated by a broken line. As a result, the inner camera 23 can capture an image in the direction in which the inner main surface of the upper housing 21 faces, and the outer camera 25 can rotate in the direction opposite to the image capturing direction of the inner camera 23, that is, the outer main surface of the upper housing 21. It is possible to image the direction in which the surface faces. Thus, in the present embodiment, the two inner cameras 23 and the outer cameras 25 are provided so that the imaging directions are opposite to each other. For example, the user can take an image of a scene viewed from the game apparatus 1 with the inner camera 23 and can also capture an image of the scene viewed from the game apparatus 1 on the opposite side of the user with the outer camera 25. Can do. The lower LCD 12 and / or the upper LCD 22 may be used to display an image captured by the inner camera 23 or the outer camera 25 in real time.

なお、上記連結部付近の内側主面には、音声入力装置としてマイク(図2に示すマイク43)が収納されている。そして、上記連結部付近の内側主面には、マイク43がゲーム装置1外部の音を検知できるように、マイクロフォン用孔16が形成される。マイク43を収納する位置およびマイクロフォン用孔16の位置は必ずしも上記連結部である必要はなく、例えば下側ハウジング11にマイク43を収納し、マイク43の収納位置に対応させて下側ハウジング11にマイクロフォン用孔16を設けるようにしても良い。   Note that a microphone (a microphone 43 shown in FIG. 2) is accommodated as an audio input device on the inner main surface near the connecting portion. A microphone hole 16 is formed on the inner main surface near the connecting portion so that the microphone 43 can detect the sound outside the game apparatus 1. The position where the microphone 43 is accommodated and the position of the microphone hole 16 do not necessarily need to be the connecting portion. For example, the microphone 43 is accommodated in the lower housing 11, and the lower housing 11 corresponds to the accommodation position of the microphone 43. A microphone hole 16 may be provided.

また、上側ハウジング21の外側主面には、第4LED26(図1では、破線で示す)が取り付けられる。第4LED26は、内側カメラ23または外側カメラ25によって撮像が行われている間点灯する。また、内側カメラ23または外側カメラ25によって動画が撮像(撮像画像を動画として記憶)される間は点滅させても良い。なお、LEDが画面に映り込むことを防ぐために、シャッターが押された瞬間から、当該シャッターが押された瞬間の撮像画像の記憶が完了するまでの間は第4LED26を消灯させても良い。第4LED26によって、ゲーム装置1による撮像が行われていることを撮像対象者や周囲に通知することができる。   A fourth LED 26 (shown by a broken line in FIG. 1) is attached to the outer main surface of the upper housing 21. The fourth LED 26 is lit while an image is being taken by the inner camera 23 or the outer camera 25. Further, the moving image may be blinked while the inner camera 23 or the outer camera 25 captures a moving image (a captured image is stored as a moving image). In order to prevent the LED from appearing on the screen, the fourth LED 26 may be turned off from the moment the shutter is pressed until the storage of the captured image at the moment the shutter is pressed is completed. The fourth LED 26 can notify the person to be imaged and the surroundings that the imaging by the game apparatus 1 is being performed.

また、上側ハウジング21の内側主面中央付近に設けられる上側LCD22に対して、左右両側の当該主面に音抜き孔24がそれぞれ形成される。音抜き孔24の奥の上側ハウジング21内には、それぞれスピーカが収納されている。音抜き孔24は、スピーカからの音をゲーム装置1の外部に放出するための孔である。   In addition, sound release holes 24 are formed in the main surfaces on both the left and right sides of the upper LCD 22 provided near the center of the inner main surface of the upper housing 21. Speakers are housed in the upper housings 21 behind the sound release holes 24, respectively. The sound release hole 24 is a hole for releasing sound from the speaker to the outside of the game apparatus 1.

以上に説明したように、上側ハウジング21には、画像を撮像するための構成である内側カメラ23および外側カメラ25と、各種画像を表示するための表示手段である上側LCD22とが設けられる。一方、下側ハウジング11には、ゲーム装置1に対する操作入力を行うための入力装置(タッチパネル13および各ボタン14A〜14K)と、各種画像を表示するための表示手段である下側LCD12とが設けられる。当該入力装置は、例えば、ゲーム装置1を使用する際には、下側LCD12や上側LCD22に撮像画像(カメラによって撮像された画像)を表示しながら、下側ハウジング11をユーザが把持して入力装置に対する入力を行うような用途に用いることができる。   As described above, the upper housing 21 is provided with the inner camera 23 and the outer camera 25 that are configured to capture images, and the upper LCD 22 that is display means for displaying various images. On the other hand, the lower housing 11 is provided with an input device (touch panel 13 and buttons 14A to 14K) for performing an operation input to the game apparatus 1, and a lower LCD 12 which is a display means for displaying various images. It is done. For example, when the game apparatus 1 is used, the input device displays the captured image (image captured by the camera) on the lower LCD 12 or the upper LCD 22 while the user holds and inputs the lower housing 11. It can be used for applications such as inputting to the apparatus.

次に、図2を参照して、ゲーム装置1の内部構成を説明する。なお、図2は、ゲーム装置1の内部構成の一例を示すブロック図である。   Next, the internal configuration of the game apparatus 1 will be described with reference to FIG. FIG. 2 is a block diagram illustrating an example of the internal configuration of the game apparatus 1.

図2において、ゲーム装置1は、CPU31と、メインメモリ32と、メモリ制御回路33と、保存用データメモリ34と、プリセットデータ用メモリ35と、メモリカードインターフェース(メモリカードI/F)36および37と、無線通信モジュール38と、ローカル通信モジュール39と、リアルタイムクロック(RTC)40と、電源回路41と、インターフェース回路(I/F回路)42等との電子部品を備えている。これらの電子部品は、電子回路基板上に実装されて、下側ハウジング11(または上側ハウジング21でもよい)内に収納される。   2, the game apparatus 1 includes a CPU 31, a main memory 32, a memory control circuit 33, a storage data memory 34, a preset data memory 35, and memory card interfaces (memory card I / F) 36 and 37. And electronic components such as a wireless communication module 38, a local communication module 39, a real-time clock (RTC) 40, a power supply circuit 41, an interface circuit (I / F circuit) 42, and the like. These electronic components are mounted on an electronic circuit board and housed in the lower housing 11 (or the upper housing 21).

CPU31は、所定のプログラムを実行するための情報処理手段である。本実施形態では、所定のプログラムがゲーム装置1内のメモリ(例えば保存用データメモリ34)やメモリカード28および/または29に記憶されており、CPU31は、当該所定のプログラムを実行することによって、後述する画像処理を実行する。なお、CPU31によって実行されるプログラムは、ゲーム装置1内のメモリに予め記憶されていてもよいし、メモリカード28および/または29から取得されてもよいし、他の機器との通信によって他の機器から取得されてもよい。   The CPU 31 is information processing means for executing a predetermined program. In the present embodiment, a predetermined program is stored in a memory (for example, the storage data memory 34) or the memory card 28 and / or 29 in the game apparatus 1, and the CPU 31 executes the predetermined program, thereby Image processing to be described later is executed. Note that the program executed by the CPU 31 may be stored in advance in a memory in the game apparatus 1, acquired from the memory card 28 and / or 29, or other programs by communication with other devices. It may be acquired from the device.

CPU31には、メインメモリ32、メモリ制御回路33、およびプリセットデータ用メモリ35が接続される。また、メモリ制御回路33には、保存用データメモリ34が接続される。メインメモリ32は、CPU31のワーク領域やバッファ領域として用いられる記憶手段である。すなわち、メインメモリ32は、上記情報処理に用いられる各種データを記憶したり、外部(メモリカード28および29や他の機器等)から取得されるプログラムを記憶したりする。本実施形態では、メインメモリ32として、例えばPSRAM(Pseudo−SRAM)を用いる。保存用データメモリ34は、CPU31によって実行されるプログラムや内側カメラ23および外側カメラ25によって撮像された画像のデータ等を記憶するための記憶手段である。保存用データメモリ34は、不揮発性の記憶媒体によって構成されており、例えば本実施例ではNAND型フラッシュメモリで構成される。メモリ制御回路33は、CPU31の指示に従って、保存用データメモリ34に対するデータの読み出しおよび書き込みを制御する回路である。プリセットデータ用メモリ35は、ゲーム装置1において予め設定される各種パラメータ等のデータ(プリセットデータ)を記憶するための記憶手段である。プリセットデータ用メモリ35としては、SPI(Serial Peripheral Interface)バスによってCPU31と接続されるフラッシュメモリを用いることができる。   A main memory 32, a memory control circuit 33, and a preset data memory 35 are connected to the CPU 31. In addition, a storage data memory 34 is connected to the memory control circuit 33. The main memory 32 is a storage means used as a work area or buffer area for the CPU 31. That is, the main memory 32 stores various data used for the information processing, and stores programs acquired from the outside (memory cards 28 and 29, other devices, etc.). In the present embodiment, for example, a PSRAM (Pseudo-SRAM) is used as the main memory 32. The storage data memory 34 is a storage unit for storing a program executed by the CPU 31, data of images taken by the inner camera 23 and the outer camera 25, and the like. The storage data memory 34 is configured by a nonvolatile storage medium, and is configured by, for example, a NAND flash memory in this embodiment. The memory control circuit 33 is a circuit that controls reading and writing of data with respect to the storage data memory 34 in accordance with instructions from the CPU 31. The preset data memory 35 is storage means for storing data (preset data) such as various parameters set in advance in the game apparatus 1. As the preset data memory 35, a flash memory connected to the CPU 31 via an SPI (Serial Peripheral Interface) bus can be used.

メモリカードI/F36および37は、それぞれCPU31に接続される。メモリカードI/F36は、コネクタに装着されたメモリカード28に対するデータの読み出しおよび書き込みを、CPU31の指示に応じて行う。また、メモリカードI/F37は、コネクタに装着されたメモリカード29に対するデータの読み出しおよび書き込みを、CPU31の指示に応じて行う。本実施形態では、内側カメラ23および外側カメラ25によって撮像された画像データや他の装置から受信された画像データがメモリカード28に書き込まれたり、メモリカード28に記憶された画像データがメモリカード28から読み出されて保存用データメモリ34に記憶されたりする。また、メモリカード29に記憶された各種プログラムが、CPU31によって読み出されて実行されたりする。   Memory card I / Fs 36 and 37 are each connected to CPU 31. The memory card I / F 36 reads and writes data to and from the memory card 28 attached to the connector according to instructions from the CPU 31. The memory card I / F 37 reads and writes data to and from the memory card 29 attached to the connector in accordance with instructions from the CPU 31. In the present embodiment, image data captured by the inner camera 23 and the outer camera 25 and image data received from other devices are written to the memory card 28, or image data stored in the memory card 28 is stored in the memory card 28. Or stored in the storage data memory 34. Various programs stored in the memory card 29 are read out and executed by the CPU 31.

なお、本発明の画像処理プログラムは、メモリカード29等の外部記憶媒体を通じてコンピュータシステムに供給されるだけでなく、有線または無線の通信回線を通じてコンピュータシステムに供給されてもよい。また、画像処理プログラムは、コンピュータシステム内部の不揮発性記憶装置に予め記憶されていてもよい。なお、画像処理プログラムを記憶する情報記憶媒体としては、上記不揮発性記憶装置に限らず、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体でもよい。   Note that the image processing program of the present invention may be supplied not only to the computer system through an external storage medium such as the memory card 29 but also to the computer system through a wired or wireless communication line. The image processing program may be stored in advance in a nonvolatile storage device inside the computer system. The information storage medium for storing the image processing program is not limited to the non-volatile storage device, but may be a CD-ROM, a DVD, or an optical disk storage medium similar to them.

無線通信モジュール38は、例えばIEEE802.11.b/gの規格に準拠した方式により、無線LANに接続する機能を有する。また、ローカル通信モジュール39は、所定の通信方式により同種のゲーム装置との間で無線通信を行う機能を有する。無線通信モジュール38およびローカル通信モジュール39は、CPU31に接続される。CPU31は、無線通信モジュール38を用いてインターネットを介して他の機器との間でデータを送受信したり、ローカル通信モジュール39を用いて同種の他のゲーム装置との間でデータを送受信したりすることができる。   The wireless communication module 38 is, for example, IEEE 802.11. It has a function of connecting to a wireless LAN by a method compliant with the b / g standard. Further, the local communication module 39 has a function of performing wireless communication with the same type of game device by a predetermined communication method. The wireless communication module 38 and the local communication module 39 are connected to the CPU 31. The CPU 31 transmits / receives data to / from other devices via the Internet using the wireless communication module 38, and transmits / receives data to / from other game devices of the same type using the local communication module 39. be able to.

また、CPU31には、RTC40および電源回路41が接続される。RTC40は、時間をカウントしてCPU31に出力する。例えば、CPU31は、RTC40によって計時された時間に基づいて、現在時刻(日付)等を計算することもできる。電源回路41は、ゲーム装置1が有する電源(典型的には電池であり、下側ハウジング11に収納される)から供給される電力を制御し、ゲーム装置1の各部品に電力を供給する。   Further, the RTC 40 and the power supply circuit 41 are connected to the CPU 31. The RTC 40 counts the time and outputs it to the CPU 31. For example, the CPU 31 can calculate the current time (date) based on the time counted by the RTC 40. The power supply circuit 41 controls power supplied from a power supply (typically a battery, which is stored in the lower housing 11) of the game apparatus 1, and supplies power to each component of the game apparatus 1.

また、ゲーム装置1は、マイク43およびアンプ44を備えている。マイク43およびアンプ44は、それぞれI/F回路42に接続される。マイク43は、ゲーム装置1に向かって発声されたユーザの音声を検知して、当該音声を示す音声信号をI/F回路42に出力する。アンプ44は、I/F回路42から音声信号を増幅してスピーカ(図示せず)から出力させる。I/F回路42は、CPU31に接続される。   Further, the game apparatus 1 includes a microphone 43 and an amplifier 44. The microphone 43 and the amplifier 44 are each connected to the I / F circuit 42. The microphone 43 detects the voice of the user uttered toward the game apparatus 1 and outputs a voice signal indicating the voice to the I / F circuit 42. The amplifier 44 amplifies the audio signal from the I / F circuit 42 and outputs it from a speaker (not shown). The I / F circuit 42 is connected to the CPU 31.

また、タッチパネル13は、I/F回路42に接続される。I/F回路42は、マイク43およびアンプ44(スピーカ)の制御を行う音声制御回路と、タッチパネル13の制御を行うタッチパネル制御回路とを含む。音声制御回路は、音声信号に対するA/D変換およびD/A変換を行ったり、音声信号を所定の形式の音声データに変換したりする。タッチパネル制御回路は、タッチパネル13からの信号に基づいて所定の形式のタッチ位置データを生成してCPU31に出力する。例えば、タッチ位置データは、タッチパネル13の入力面に対して入力が行われた位置の座標を示すデータである。なお、タッチパネル制御回路は、タッチパネル13からの信号の読み込み、および、タッチ位置データの生成を所定時間に1回の割合で行う。CPU31は、I/F回路42を介して、タッチ位置データを取得することにより、タッチパネル13に対して入力が行われた位置を知ることができる。   The touch panel 13 is connected to the I / F circuit 42. The I / F circuit 42 includes a sound control circuit that controls the microphone 43 and the amplifier 44 (speaker), and a touch panel control circuit that controls the touch panel 13. The voice control circuit performs A / D conversion and D / A conversion on the voice signal, or converts the voice signal into voice data of a predetermined format. The touch panel control circuit generates touch position data in a predetermined format based on a signal from the touch panel 13 and outputs it to the CPU 31. For example, the touch position data is data indicating coordinates of a position where an input is performed on the input surface of the touch panel 13. The touch panel control circuit reads signals from the touch panel 13 and generates touch position data at a rate of once per predetermined time. The CPU 31 can know the position where the input is made on the touch panel 13 by acquiring the touch position data via the I / F circuit 42.

操作ボタン14は、上記各操作ボタン14A〜14Kから構成され、CPU31に接続される。操作ボタン14からCPU31へは、各操作ボタン14A〜14Kに対する入力状況(押下されたか否か)を示す操作データが出力される。CPU31は、操作ボタン14から操作データを取得することによって、操作ボタン14に対する入力に応じた処理を実行する。   The operation button 14 includes the operation buttons 14A to 14K and is connected to the CPU 31. From the operation button 14 to the CPU 31, operation data indicating an input status (whether or not the button is pressed) for each of the operation buttons 14A to 14K is output. The CPU 31 obtains operation data from the operation button 14 to execute processing corresponding to the input to the operation button 14.

内側カメラ23および外側カメラ25は、それぞれCPU31に接続される。内側カメラ23および外側カメラ25は、CPU31の指示に応じて画像を撮像し、撮像した画像データをCPU31に出力する。例えば、CPU31は、内側カメラ23および外側カメラ25のいずれか一方に対して撮像指示を行い、撮像指示を受けたカメラが画像を撮像して画像データをCPU31に送る。   The inner camera 23 and the outer camera 25 are each connected to the CPU 31. The inner camera 23 and the outer camera 25 capture an image in accordance with an instruction from the CPU 31 and output the captured image data to the CPU 31. For example, the CPU 31 issues an imaging instruction to one of the inner camera 23 and the outer camera 25, and the camera that has received the imaging instruction captures an image and sends the image data to the CPU 31.

また、下側LCD12および上側LCD22は、それぞれCPU31に接続される。下側LCD12および上側LCD22は、それぞれCPU31の指示に従って画像を表示する。一例として、CPU31は、内側カメラ23および外側カメラ25のいずれかから取得した画像を、下側LCD12および上側LCD22の一方に表示させ、所定の処理によって生成した操作説明画面を下側LCD12および上側LCD22の他方に表示させる。   Further, the lower LCD 12 and the upper LCD 22 are each connected to the CPU 31. The lower LCD 12 and the upper LCD 22 display images according to instructions from the CPU 31, respectively. As an example, the CPU 31 displays an image acquired from either the inner camera 23 or the outer camera 25 on one of the lower LCD 12 and the upper LCD 22, and displays an operation explanation screen generated by a predetermined process on the lower LCD 12 and the upper LCD 22. Is displayed on the other side.

次に、ゲーム装置1で実行される画像処理プログラムによる具体的な処理動作を説明する前に、図3〜図8を参照して当該処理動作によって下側LCD12に表示される表示形態例等について説明する。なお、図3は、下側LCD12に表示される手書き文字Ihwの一例を示す図である。図4は、ユーザが手書き文字Ihwを全消去する操作をした場合に下側LCD12で表現される演出例の第1段階を示す図である。図5は、ユーザが手書き文字Ihwを全消去する操作をした場合に下側LCD12で表現される演出例の第2段階を示す図である。図6は、ユーザが手書き文字Ihwを全消去する操作をした場合に下側LCD12で表現される演出例の第3段階を示す図である。図7は、下側LCD12に表示される手書きスタンプIstの一例を示す図である。図8は、ユーザが手書きスタンプIstを全消去する操作をした場合に下側LCD12で表現される演出例を示す図である。   Next, before describing specific processing operations by the image processing program executed on the game apparatus 1, examples of display forms displayed on the lower LCD 12 by the processing operations with reference to FIGS. explain. FIG. 3 is a diagram illustrating an example of the handwritten character Ihw displayed on the lower LCD 12. FIG. 4 is a diagram illustrating a first stage of an effect example expressed on the lower LCD 12 when the user performs an operation of erasing all the handwritten characters Ihw. FIG. 5 is a diagram showing a second stage of the effect example expressed on the lower LCD 12 when the user performs an operation of erasing all the handwritten characters Ihw. FIG. 6 is a diagram illustrating a third stage of the effect example expressed on the lower LCD 12 when the user performs an operation of erasing all the handwritten characters Ihw. FIG. 7 is a diagram illustrating an example of the handwritten stamp Ist displayed on the lower LCD 12. FIG. 8 is a diagram illustrating an example of an effect expressed on the lower LCD 12 when the user performs an operation of erasing all the handwritten stamps Ist.

図3において、下側LCD12には、ユーザがタッチペン27を用いてタッチパネル13をタッチ操作した軌跡に沿って、手書き文字や手書きスタンプ(標号)等を描くことができる。例えば、下側LCD12には手書き線描画ボタンBhw、部分消去ボタンBpe、手書きスタンプ描画ボタンBst、および全消去ボタンBae等が表示されている。そして、ユーザが所望するボタンがタッチ操作によって選択されることによって、当該選択されたボタンに応じて全消去やタッチ操作に対する描画や部分消去が行われる。   In FIG. 3, handwritten characters, handwritten stamps (standard marks), and the like can be drawn on the lower LCD 12 along the locus of the user touching the touch panel 13 using the touch pen 27. For example, the lower LCD 12 displays a handwritten line drawing button Bhw, a partial erase button Bpe, a handwritten stamp drawing button Bst, a full erase button Bae, and the like. Then, when a button desired by the user is selected by the touch operation, all erasure, drawing for the touch operation, and partial erasure are performed according to the selected button.

図3では、ユーザが手書き線描画ボタンBhwを選択しており、タッチ操作の軌跡に沿った自由線が下側LCD12に描画される。したがって、ユーザが所望する文字を描くようにタッチパネル13をタッチ操作することによって、当該タッチ操作に応じた文字を下側LCD12に描画することができる。例えば、図3の例では、ユーザがタッチペン27を用いてタッチパネル13をタッチ操作した軌跡に沿って描かれる手書き文字Ihwが表示されている。具体的には、ユーザがタッチパネル13をタッチ操作して文字「hello」を手書き入力している一例を示しており、最後の文字「o」まで描かれた手書き文字Ihwが下側LCD12に表示されている。   In FIG. 3, the user has selected the handwriting line drawing button Bhw, and a free line along the locus of the touch operation is drawn on the lower LCD 12. Therefore, by touching the touch panel 13 so as to draw a character desired by the user, a character corresponding to the touch operation can be drawn on the lower LCD 12. For example, in the example of FIG. 3, the handwritten character Ihw drawn along the locus where the user touches the touch panel 13 using the touch pen 27 is displayed. Specifically, an example is shown in which the user touches the touch panel 13 to input the character “hello” by handwriting, and the handwritten character Ihw drawn up to the last character “o” is displayed on the lower LCD 12. ing.

図4において、手書き文字Ihwが下側LCD12に描画された後、ユーザが全消去ボタンBaeをタッチ操作する。この操作によって、タッチパネル13を介して手書き入力された画像(図4の例では、手書き文字Ihw)が下側LCD12から全て消去される。このとき、本実施例では、全消去の対象となっている手書き画像(手書き文字Ihw)が下側LCD12から消去されるまでの間に、当該手書き画像が分解されて分解された画像毎に所定の演出が施される。   In FIG. 4, after the handwritten character Ihw is drawn on the lower LCD 12, the user touches the all delete button Bae. By this operation, all images input by handwriting via the touch panel 13 (in the example of FIG. 4, handwritten characters Ihw) are all erased from the lower LCD 12. At this time, in this embodiment, the handwritten image that is the target of all erasure (the handwritten character Ihw) is erased from the lower LCD 12 until the handwritten image is decomposed and predetermined for each decomposed image. Will be given.

例えば、図4に示した一例では、手書き文字Ihwが5つの手書き文字Ihw1〜Ihw5に分解され、それぞれが異なる方向に移動したり、異なる速度で移動したりしている。図4の例では、手書き文字Ihwが1文字ずつ分解されている。具体的には、手書き文字Ihwは、1文字目の文字「h」を示す手書き文字Ihw1、2文字目の文字「e」を示す手書き文字Ihw2、3文字目の文字「l」を示す手書き文字Ihw3、4文字目の文字「l」を示す手書き文字Ihw4、および5文字目の文字「o」を示す手書き文字Ihw5にそれぞれ分解される。   For example, in the example shown in FIG. 4, the handwritten character Ihw is broken down into five handwritten characters Ihw1 to Ihw5, each moving in a different direction or moving at a different speed. In the example of FIG. 4, the handwritten character Ihw is decomposed character by character. Specifically, the handwritten character Ihw is the handwritten character Ihw indicating the first character “h”, the handwritten character Ihw2 indicating the first character “e”, and the handwritten character indicating the third character “l”. Ihw3 is divided into a handwritten character Ihw4 indicating the fourth character “l” and a handwritten character Ihw5 indicating the fifth character “o”.

分解された手書き文字Ihw1〜Ihw5は、やがて下側LCD12の下方に自由落下するようにそれぞれ移動する(図5)。そして、手書き文字Ihw1〜Ihw5は、それぞれ下側LCD12の表示領域外まで移動することによって下側LCD12から全て消去される(図6)。   The decomposed handwritten characters Ihw1 to Ihw5 each move so as to freely fall below the lower LCD 12 (FIG. 5). The handwritten characters Ihw1 to Ihw5 are all erased from the lower LCD 12 by moving outside the display area of the lower LCD 12 (FIG. 6).

図7では、ユーザが手書きスタンプ描画ボタンBstを選択しており、スタンプ群(標号群)がタッチ操作の軌跡に沿って下側LCD12に描画される。例えば、図7の例では、ユーザがタッチペン27を用いてタッチパネル13をタッチ操作した軌跡に沿って描かれる手書きスタンプIstが表示されている。具体的には、ユーザがタッチパネル13をタッチ操作して2つの葉型画像を一対としたスタンプを手書き入力している一例を示している。そして、ユーザがタッチ操作した軌跡に沿った所定時間間隔毎または所定距離間隔毎に、上記一対のスタンプが下側LCD12に順次追加されて描画され、結果的にタッチ操作した軌跡に沿ったスタンプ群が手書きスタンプIstとして下側LCD12に表示される。   In FIG. 7, the user has selected the handwritten stamp drawing button Bst, and the stamp group (signature group) is drawn on the lower LCD 12 along the locus of the touch operation. For example, in the example of FIG. 7, the handwritten stamp Ist drawn along the locus where the user touches the touch panel 13 using the touch pen 27 is displayed. Specifically, an example is shown in which the user performs a hand operation on the touch panel 13 to input by hand a stamp that is a pair of two leaf images. The pair of stamps are sequentially added and drawn on the lower LCD 12 at predetermined time intervals or at predetermined distance intervals along the locus touched by the user, and as a result, a group of stamps along the locus touched. Is displayed on the lower LCD 12 as a handwritten stamp Ist.

図8において、手書きスタンプIstが下側LCD12に描画された後、ユーザが全消去ボタンBaeをタッチ操作する。この操作によって、タッチパネル13を介して手書き入力された画像(図8の例では、手書きスタンプIst)が下側LCD12から全て消去される。この場合も、本実施例では、全消去の対象となっている手書き画像(手書きスタンプIst)が下側LCD12から消去されるまでの間に、当該手書き画像が分解されて分解された画像毎に所定の演出が施される。   In FIG. 8, after the handwritten stamp Ist is drawn on the lower LCD 12, the user touches the all delete button Bae. As a result of this operation, all the images input by handwriting via the touch panel 13 (in the example of FIG. 8, the handwritten stamp Ist) are all erased from the lower LCD 12. In this case as well, in this embodiment, the handwritten image that has been subject to all erasure (the handwritten stamp Ist) is erased from the lower LCD 12 until the handwritten image is decomposed and decomposed for each image. A predetermined performance is given.

例えば、図8に示した一例では、手書きスタンプIstがn個の手書きスタンプIstnに分解され、それぞれが異なる方向に移動したり、異なる速度で移動したりしている。図8の例では、スタンプ群として描画されていた手書きスタンプIstが、2つの葉型画像を一対としたスタンプ毎に分解されると共に、一対のスタンプもさらに葉型画像毎に分解される。   For example, in the example shown in FIG. 8, the handwritten stamp Ist is decomposed into n handwritten stamps Istn, each of which moves in different directions or at different speeds. In the example of FIG. 8, the handwritten stamp Ist drawn as a stamp group is decomposed for each pair of stamps including two leaf images, and the pair of stamps is further decomposed for each leaf image.

分解された手書きスタンプIstnも、やがて下側LCD12の下方に自由落下するようにそれぞれ移動する。そして、手書きスタンプIstnは、それぞれ下側LCD12の表示領域外まで移動することによって下側LCD12から全て消去される。   The disassembled handwritten stamp Istn also moves so as to freely fall below the lower LCD 12 over time. The handwritten stamp Istn is all erased from the lower LCD 12 by moving outside the display area of the lower LCD 12.

なお、下側LCD12の背景画像には、内側カメラ23または外側カメラ25によって撮像されたリアルタイムの画像(撮像画像)を表示してもかまわない。この場合、上述した手書き画像(手書き文字Ihw、手書きスタンプIst)は、上記撮像画像の上に描画されることになる。つまり、ユーザは、内側カメラ23または外側カメラ25によって撮像された撮像画像に、ユーザが所望する手書き画像を加えるような操作(落書き)が可能となる。   Note that a real-time image (captured image) captured by the inner camera 23 or the outer camera 25 may be displayed on the background image of the lower LCD 12. In this case, the above-described handwritten image (handwritten character Ihw, handwritten stamp Ist) is drawn on the captured image. That is, the user can perform an operation (graffiti) to add a handwritten image desired by the user to the captured image captured by the inner camera 23 or the outer camera 25.

次に、図9〜図16を参照して、ゲーム装置1で実行される画像処理プログラムによる具体的な処理動作について説明する。なお、図9は、画像処理プログラムを実行することに応じて、メインメモリ32に記憶される各種データの一例を示す図である。図10は、メインメモリ32に記憶されるブロックデータDbの一例を示す図である。図11は、当該画像処理プログラムを実行することによってゲーム装置1が画像処理を行うフローチャートである。図12は、図11のステップ56で行われる画像分解処理の詳細な動作を示すサブルーチンである。図13は、図12のステップ81等で行われる右側ブロック確認処理の詳細な動作を示すサブルーチンである。図14は、図12のステップ82等で行われる上側ブロック確認処理の詳細な動作を示すサブルーチンである。図15は、図12のステップ83等で行われる左側ブロック確認処理の詳細な動作を示すサブルーチンである。図16は、図12のステップ84等で行われる下側ブロック確認処理の詳細な動作を示すサブルーチンである。なお、これらの処理を実行するためのプログラムは、ゲーム装置1に内蔵されるメモリ(例えば、保存用データメモリ34)やメモリカード28またはメモリカード29に含まれており、ゲーム装置1の電源がオンになったときに、メモリカードI/F36を介してメモリカード28やメモリカード29から、または内蔵メモリからメインメモリ32に読み出されて、CPU31によって実行される。   Next, with reference to FIGS. 9 to 16, a specific processing operation by the image processing program executed in the game apparatus 1 will be described. FIG. 9 is a diagram illustrating an example of various data stored in the main memory 32 in response to executing the image processing program. FIG. 10 is a diagram illustrating an example of the block data Db stored in the main memory 32. FIG. 11 is a flowchart in which the game apparatus 1 performs image processing by executing the image processing program. FIG. 12 is a subroutine showing the detailed operation of the image decomposition process performed in step 56 of FIG. FIG. 13 is a subroutine showing the detailed operation of the right block confirmation process performed in step 81 of FIG. FIG. 14 is a subroutine showing the detailed operation of the upper block confirmation process performed in step 82 of FIG. FIG. 15 is a subroutine showing the detailed operation of the left block confirmation process performed in step 83 of FIG. FIG. 16 is a subroutine showing the detailed operation of the lower block confirmation process performed in step 84 of FIG. Note that a program for executing these processes is included in a memory (for example, the storage data memory 34), the memory card 28, or the memory card 29 built in the game apparatus 1, and the game apparatus 1 is powered on. When it is turned on, it is read from the memory card 28 or 29 via the memory card I / F 36 or from the built-in memory to the main memory 32 and executed by the CPU 31.

図9において、メインメモリ32には、内蔵メモリ、メモリカード28、またはメモリカード29から読み出されたプログラムや画像処理において生成される一時的なデータが記憶される。図9において、メインメモリ32のデータ記憶領域には、操作データDa、ブロックデータDb、ブロック移動データDc、および画像データDd等が格納される。また、メインメモリ32のプログラム記憶領域には、画像処理プログラムを構成する各種プログラム群Paが記憶される。   In FIG. 9, the main memory 32 stores programs read from the built-in memory, the memory card 28, or the memory card 29, and temporary data generated in image processing. In FIG. 9, operation data Da, block data Db, block movement data Dc, image data Dd, and the like are stored in the data storage area of the main memory 32. The program storage area of the main memory 32 stores various program groups Pa constituting the image processing program.

操作データDaは、ユーザがゲーム装置1を操作しているデータが格納される。操作データDaは、タッチパネル13をユーザがタッチしている画面座標系のタッチ位置を示すタッチ座標のデータを含んでいる。例えば、タッチ座標は、ゲーム装置1がゲーム処理する時間単位(例えば、1/60秒)毎に取得され、当該取得に応じて操作データDaに格納されて更新される。   As the operation data Da, data indicating that the user is operating the game apparatus 1 is stored. The operation data Da includes touch coordinate data indicating the touch position of the screen coordinate system where the user touches the touch panel 13. For example, the touch coordinates are acquired every time unit (for example, 1/60 seconds) in which the game apparatus 1 performs a game process, and stored and updated in the operation data Da according to the acquisition.

ブロックデータDbは、上述した手書き画像を表示する表示画面を複数の領域に区分したブロック毎のデータが格納される。図10に示すように、ブロックデータDbは、上記ブロック毎に、ブロック番号Bn、画像有無フラグ、グループ番号Gn、および接続フラグをそれぞれ示すデータが格納される。ブロック番号Bnは、上記ブロック毎にそれぞれ付番される番号である。画像有無フラグは、上記ブロック毎に手書き画像の少なくとも一部が含まれているか否かを示すデータである。グループ番号Gnは、手書き画像の分割処理によって区分されるグループ毎にそれぞれ付番される番号である。接続フラグは、処理対象となっているブロックを基準として、当該ブロックと隣接するブロックとが手書き画像によって接続されているか否かを示すデータである。例えば、接続フラグは、隣接する右側のブロックと接続されているか否かを示すフラグ、隣接する上側のブロックと接続されているか否かを示すフラグ、隣接する左側のブロックと接続されているか否かを示すフラグ、および隣接する下側のブロックと接続されているか否かを示すフラグを含んでいる。   The block data Db stores data for each block obtained by dividing the display screen displaying the handwritten image described above into a plurality of regions. As shown in FIG. 10, the block data Db stores data indicating a block number Bn, an image presence / absence flag, a group number Gn, and a connection flag for each block. The block number Bn is a number assigned to each block. The image presence / absence flag is data indicating whether or not at least a part of the handwritten image is included for each block. The group number Gn is a number assigned to each group divided by handwritten image division processing. The connection flag is data indicating whether or not the block and the adjacent block are connected by a handwritten image on the basis of the block to be processed. For example, the connection flag is a flag indicating whether or not it is connected to the adjacent right block, a flag that indicates whether or not it is connected to the adjacent upper block, and whether or not it is connected to the adjacent left block. And a flag indicating whether or not it is connected to the adjacent lower block.

図9に戻り、ブロック移動データDcは、上記ブロック毎に設定され、当該ブロックが仮想世界を移動するためのデータ(移動方向、移動速度等)が格納される。画像データDdは、上述した手書き画像や操作ボタン画像等をゲーム装置1に表示するための画像データが格納される。   Returning to FIG. 9, the block movement data Dc is set for each block, and data (movement direction, movement speed, etc.) for the block to move in the virtual world is stored. The image data Dd stores image data for displaying the above-described handwritten image, operation button image, and the like on the game apparatus 1.

次に、図11を参照して、ゲーム装置1の動作について説明する。まず、ゲーム装置1の電源(電源ボタン14F)がONされると、CPU31によってブートプログラム(図示せず)が実行され、これにより内蔵メモリまたはメモリカード28やメモリカード29に格納されている画像処理プログラムがメインメモリ32にロードされる。そして、当該ロードされた画像処理プログラムがCPU31で実行されることによって、図11に示すステップ(図11〜図16では「S」と略称する)が実行される。   Next, the operation of the game apparatus 1 will be described with reference to FIG. First, when the power supply (power button 14F) of the game apparatus 1 is turned on, a boot program (not shown) is executed by the CPU 31, whereby image processing stored in the built-in memory or the memory card 28 or the memory card 29 is performed. The program is loaded into the main memory 32. Then, when the loaded image processing program is executed by the CPU 31, the steps shown in FIG. 11 (abbreviated as “S” in FIGS. 11 to 16) are executed.

図9において、CPU31は、画像処理の初期設定を行って(ステップ51)、処理を次のステップに進める。例えば、CPU31がステップ51で行う初期設定として、メインメモリ32に格納されている各パラメータを所定の数値に初期化する。例えば、ブロックデータDbに格納されている画像有無フラグおよび接続フラグを全てオフ(OFF)に設定し、グループ番号Gnを全て「0」に設定する。   In FIG. 9, the CPU 31 performs initial setting of image processing (step 51), and advances the processing to the next step. For example, as an initial setting performed by the CPU 31 in step 51, each parameter stored in the main memory 32 is initialized to a predetermined numerical value. For example, all the image presence / absence flags and connection flags stored in the block data Db are set to OFF, and all the group numbers Gn are set to “0”.

次に、CPU31は、ユーザが操作ボタン14やタッチパネル13を操作することによって出力される操作データを取得して操作データDaを更新し(ステップ52)、処理を次のステップに進める。例えば、CPU31は、タッチパネル13をタッチしている画面座標系のタッチ位置を示すタッチ座標を取得して、操作データDaに記憶されたタッチ座標を更新する。   Next, the CPU 31 acquires operation data output when the user operates the operation button 14 or the touch panel 13, updates the operation data Da (step 52), and advances the processing to the next step. For example, the CPU 31 acquires touch coordinates indicating the touch position of the screen coordinate system touching the touch panel 13 and updates the touch coordinates stored in the operation data Da.

次に、CPU31は、上記ステップ52で取得した操作データが、ユーザによる手書き入力を示すデータか否か(ステップ53)、全消去を示すデータか否か(ステップ55)をそれぞれ判断する。例えば、CPU31は、上記操作データが、手書き線描画ボタンBhwや手書きスタンプ描画ボタンBst(図3等参照)を選択した後のタッチ操作を示すデータである場合、手書き入力を示すデータであると判断して(ステップ53でYes)、次のステップ54に処理を進める。また、CPU31は、上記操作データが、全消去ボタンBaeを選択するデータである場合、全消去を示すデータであると判断して(ステップ55でYes)、次のステップ56に処理を進める。一方、CPU31は、上記操作データが、手書き入力や全消去を示すデータでない場合(ステップ53およびステップ55が何れもNo)、次のステップ59に処理を進める。   Next, the CPU 31 determines whether or not the operation data acquired in step 52 is data indicating handwritten input by the user (step 53) and data indicating complete erasure (step 55). For example, if the operation data is data indicating a touch operation after selecting the handwriting line drawing button Bhw or the handwriting stamp drawing button Bst (see FIG. 3 or the like), the CPU 31 determines that the data indicates handwriting input. (Yes in step 53), the process proceeds to the next step 54. If the operation data is data for selecting the all erasure button Bae, the CPU 31 determines that the operation data is data indicating all erasure (Yes in step 55), and proceeds to the next step 56. On the other hand, when the operation data is not data indicating handwritten input or complete erasure (both step 53 and step 55 are No), the CPU 31 proceeds to the next step 59.

ステップ54において、CPU31は、上記ステップ52で取得した操作データ(タッチ座標データ)に応じて、手書き画像を生成して下側LCD12に描画し、次のステップ60に処理を進める。   In step 54, the CPU 31 generates a handwritten image according to the operation data (touch coordinate data) acquired in step 52, draws it on the lower LCD 12, and proceeds to the next step 60.

例えば、CPUコア31は、上記ステップ52で取得されたタッチ座標に応じた仮想世界における位置を算出する。ここで、上記位置は、タッチ座標を仮想世界に透視変換することによって得られる。一例として、上記位置は、タッチ座標と重なって下側LCD12に表示される仮想世界の2次元平面上の位置を算出することによって得られる。そして、CPU31は、手書き線描画ボタンBhwが選択され、かつ、前回の処理で上記位置が算出されている場合、前回の処理で算出された上記位置から今回の処理で算出された上記位置まで所定の太さの線で結ぶ線分を生成して下側LCD12に表示する。また、CPU31は、手書きスタンプ描画ボタンBstが選択され、かつ、前回の処理で上記位置が算出されている場合、下側LCD12に表示された最後のスタンプの位置から今回の処理で算出された上記位置までの仮想世界における距離が閾値に到達していれば、新たなスタンプ(例えば、2つの葉型画像を一対としたスタンプ)を今回の処理で算出された上記位置に表示する。なお、CPU31は、手書きスタンプ描画ボタンBstが選択され、かつ、前回の処理で上記位置が算出されている場合、最後のスタンプが下側LCD12に表示されてからの時間が閾値以上経過しているときに、新たなスタンプを今回の処理で算出された上記位置に表示してもかまわない。また、CPU31は、手書きスタンプ描画ボタンBstが選択され、かつ、前回の処理で上記位置が算出されている場合、下側LCD12に表示された最後のスタンプの位置から今回の処理で算出された上記位置までの仮想世界における変位量(すなわち、タッチ座標が変位した累計)の累計が閾値に到達していれば、新たなスタンプを今回の処理で算出された上記位置に表示してもかまわない。また、CPU31は、既に表示された自由線またはスタンプ上に新たな手書き入力が行われた場合、後からの入力に応じて生成された自由線またはスタンプを、既に表示された自由線またはスタンプに重畳して表示する。   For example, the CPU core 31 calculates a position in the virtual world according to the touch coordinates acquired in step 52. Here, the position is obtained by perspective-transforming the touch coordinates into the virtual world. As an example, the position is obtained by calculating the position on the two-dimensional plane of the virtual world displayed on the lower LCD 12 so as to overlap the touch coordinates. Then, when the handwritten line drawing button Bhw is selected and the position is calculated in the previous process, the CPU 31 determines from the position calculated in the previous process to the position calculated in the current process. A line segment connected by a line having a thickness of is generated and displayed on the lower LCD 12. Further, when the handwritten stamp drawing button Bst is selected and the position is calculated in the previous process, the CPU 31 calculates the above-described process calculated in the current process from the position of the last stamp displayed on the lower LCD 12. If the distance in the virtual world to the position has reached the threshold value, a new stamp (for example, a pair of two leaf images) is displayed at the position calculated in the current process. Note that, when the handwritten stamp drawing button Bst is selected and the position is calculated in the previous process, the CPU 31 has elapsed from the time when the last stamp is displayed on the lower LCD 12 over the threshold. Sometimes, a new stamp may be displayed at the position calculated in the current process. Further, when the handwritten stamp drawing button Bst is selected and the position is calculated in the previous process, the CPU 31 calculates the above-described process calculated in the current process from the position of the last stamp displayed on the lower LCD 12. If the cumulative amount of displacement in the virtual world up to the position (that is, the cumulative total of the touch coordinates) has reached the threshold value, a new stamp may be displayed at the position calculated in the current process. In addition, when a new handwritten input is performed on the already displayed free line or stamp, the CPU 31 converts the free line or stamp generated according to the later input to the already displayed free line or stamp. Superimposed display.

一方、全消去操作が行われた場合(ステップ55でYes)、CPU31は、画像分解処理を行って(ステップ56)、次のステップに処理を進める。以下、図12を参照して、画像分解処理の詳細な動作について説明する。   On the other hand, when the all erasing operation has been performed (Yes in step 55), the CPU 31 performs image decomposition processing (step 56), and proceeds to the next step. Hereinafter, the detailed operation of the image decomposition process will be described with reference to FIG.

図12において、CPU31は、下側LCD12に表示される表示画面DAを複数のブロックに分割して(ステップ71)、ブロック毎に手書き画像が含まれているか否かを選別し(ステップ72)、次のステップ73に処理を進める。   In FIG. 12, the CPU 31 divides the display screen DA displayed on the lower LCD 12 into a plurality of blocks (step 71), and selects whether or not a handwritten image is included for each block (step 72). The process proceeds to the next step 73.

例えば、図17に示すように、表示画面DAは、横m個×縦n個のブロックで格子状に分割される。好ましくは、各ブロックの大きさは同じであり、例えばブロックがそれぞれ横8画素×縦8画素のサイズで設定される。そして、CPU31は、ブロック毎にブロック番号Bnを付与する。図17に示すブロック内の数値は、付与されたブロック番号Bnの一例を示しており、左上のブロックから右へブロック番号Bnが1、2、3…と順次付与され、右下の最終ブロックのブロック番号Bnがm×n(最大値Bnmax)となる。   For example, as shown in FIG. 17, the display screen DA is divided into a grid pattern with m blocks in the horizontal direction and n blocks in the vertical direction. Preferably, the size of each block is the same. For example, each block is set to have a size of horizontal 8 pixels × vertical 8 pixels. And CPU31 gives block number Bn for every block. The numerical value in the block shown in FIG. 17 shows an example of the assigned block number Bn, and the block number Bn is sequentially assigned 1, 2, 3,... From the upper left block to the right. The block number Bn is m × n (maximum value Bnmax).

そして、CPU31は、ブロック毎に手書き画像の少なくとも一部が描画されているか否かを判定し、手書き画像が描画されていると判定されたブロックに対応する画像有無フラグ(図10参照)をそれぞれオン(ON)に設定する。例えば、ブロックに対応する横8画素×縦8画素に、上記手書き画像またはスタンプに含まれる画素が、少なくとも1つ以上存在する場合に、当該ブロックに入力画像の少なくとも一部が描画されていると判定し、ブロックに対応する画像有無フラグをオンに設定する。   Then, the CPU 31 determines whether or not at least a part of the handwritten image is drawn for each block, and sets an image presence / absence flag (see FIG. 10) corresponding to the block for which the handwritten image is determined to be drawn. Set to ON. For example, when at least one pixel included in the handwritten image or stamp exists in 8 horizontal pixels × 8 vertical pixels corresponding to the block, and at least a part of the input image is drawn in the block The image presence / absence flag corresponding to the block is set to ON.

ステップ73において、CPU31は、処理対象とするブロック番号iを1および処理対象とするグループ番号jを1にそれぞれ設定し、次のステップに処理を進める。   In step 73, the CPU 31 sets the block number i to be processed to 1 and the group number j to be processed to 1, respectively, and proceeds to the next step.

次に、CPU31は、現在処理対象となっているブロック番号iのブロックに手書き画像が描画されているか否かを判断する(ステップ74)。例えば、CPU31は、現在処理対象となっているブロック番号iに対応するブロックデータDbの画像有無フラグを参照し、当該画像有無フラグがオン(ON)である場合に手書き画像が描画されていると判断する。そして、CPU31は、現在処理対象となっているブロック番号iのブロックに手書き画像が描画されている場合、次のステップ75に処理を進める。一方、CPU31は、現在処理対象となっているブロック番号iのブロックに手書き画像が描画されていない場合、次のステップ86に処理を進める。   Next, the CPU 31 determines whether or not a handwritten image is drawn in the block of the block number i that is currently processed (step 74). For example, the CPU 31 refers to the image presence / absence flag of the block data Db corresponding to the block number i currently being processed, and the handwritten image is drawn when the image presence / absence flag is on (ON). to decide. When the handwritten image is drawn in the block of block number i that is currently processed, the CPU 31 proceeds to the next step 75. On the other hand, when the handwritten image is not drawn in the block of the block number i that is the current processing target, the CPU 31 proceeds to the next step 86.

ステップ75において、CPU31は、現在処理対象となっているブロック番号iのブロックが、何れかのグループに設定されているか否かを判断する。例えば、CPU31は、現在処理対象となっているブロック番号iに対応するブロックデータDbのグループ番号Gnを参照し、当該グループ番号に0以外の数値が設定されている場合にグループ設定済であると判断する。そして、CPU31は、現在処理対象となっているブロック番号iのブロックがグループに設定されていない場合、次のステップ76に処理を進める。一方、CPU31は、現在処理対象となっているブロック番号iのブロックが既に何れかのグループに設定されている場合、次のステップ86に処理を進める。   In step 75, the CPU 31 determines whether or not the block with the block number i currently being processed is set in any group. For example, the CPU 31 refers to the group number Gn of the block data Db corresponding to the block number i currently being processed, and the group has been set when a numerical value other than 0 is set for the group number. to decide. If the block with the block number i currently being processed is not set as a group, the CPU 31 proceeds to the next step 76. On the other hand, if the block with the block number i currently being processed is already set in any group, the CPU 31 proceeds to the next step 86.

ステップ76において、CPU31は、現在処理対象となっているブロック番号iのブロックを、現在処理対象となっているグループ番号jのグループに属するブロックに設定して、次のステップに処理を進める。例えば、CPU31は、現在処理対象となっているブロック番号iに対応するブロックデータDbのグループ番号に、現在処理対象となっているグループ番号jを記述してブロックデータDbを更新する。   In step 76, the CPU 31 sets the block having the block number i currently being processed as a block belonging to the group having the group number j being currently processed, and proceeds to the next step. For example, the CPU 31 updates the block data Db by describing the group number j currently being processed as the group number of the block data Db corresponding to the block number i currently being processed.

次に、CPU31は、現在処理対象となっているブロック番号iのブロックの右端列画素に手書き画像が含まれるか否か(ステップ77)、上端行画素に手書き画像が含まれるか否か(ステップ78)、左端列画素に手書き画像が含まれるか否か(ステップ79)、および下端行画素に手書き画像が含まれるか否か(ステップ80)を、それぞれ順次判断する。   Next, the CPU 31 determines whether or not the handwritten image is included in the rightmost column pixel of the block of the block number i currently being processed (step 77) and whether or not the handwritten image is included in the uppermost row pixel (step 77). 78), whether or not the handwritten image is included in the leftmost column pixel (step 79), and whether or not the handwritten image is included in the lowermost row pixel (step 80) are sequentially determined.

例えば、図18に示すように、ブロックAが現在の処理対象ブロックであるとする。このとき、ブロックAには、右側のブロック、上側のブロック、左側のブロック、および下側のブロックがそれぞれ隣接している。そして、CPU31は、ブロックAが手書き画像によってこれらの隣接ブロックと接続されているか否かを判断する。例えば、手書き文字「h」の一部は、ブロックAおよびブロックAの下側ブロックに描画されており、ブロックAと下側ブロックとを手書き文字「h」によって接続されていると判断する。一方、ブロックAと左側ブロック、上側ブロック、および右側ブロックとは、何れも共通する手書き文字が存在しないため、ブロックAとこれらのブロックとは、未接続であると判断する。   For example, as shown in FIG. 18, it is assumed that block A is the current processing target block. At this time, the block A is adjacent to the right block, the upper block, the left block, and the lower block. Then, the CPU 31 determines whether or not the block A is connected to these adjacent blocks by a handwritten image. For example, a part of the handwritten character “h” is drawn in the lower block of the block A and the block A, and it is determined that the block A and the lower block are connected by the handwritten character “h”. On the other hand, since there is no common handwritten character in the block A, the left block, the upper block, and the right block, it is determined that the block A and these blocks are not connected.

このようなブロック間の接続関係を判断するために、本実施例では処理対象となっているブロック番号iのブロックの最端画素における手書き画像の有無を判断基準としている。例えば、図19に示すように、処理対象ブロックと右側ブロックとの接続関係を考える場合、処理対象ブロックにおける最も右端となる右端列RAに配置されている画素(例えば、ブロックが横8画素×縦8画素のサイズの場合、右端列の8画素)に、手書き画像が含まれるか否かを判断する。そして、右端列RAの少なくとも一部に手書き画像が含まれる場合、処理対象ブロックと右側ブロックとが接続されていると判断する(判断基準A)。   In order to determine such a connection relationship between blocks, in this embodiment, the presence / absence of a handwritten image in the endmost pixel of the block of block number i that is the processing target is used as a determination criterion. For example, as shown in FIG. 19, when considering the connection relationship between the processing target block and the right block, the pixels (for example, the block is 8 horizontal pixels × vertical) arranged in the rightmost column RA which is the rightmost edge in the processing target block. In the case of the size of 8 pixels, it is determined whether or not a handwritten image is included in the rightmost column (8 pixels). When a handwritten image is included in at least a part of the right end row RA, it is determined that the processing target block and the right block are connected (determination criterion A).

なお、ブロック間の接続関係を判断するために、他の画素を用いてもかまわない。例えば、右側ブロックとの接続関係を判断する際、図19に示すように右端列RAの画素に加えて右側ブロックの最も左端に配置されている左端列LAの画素も用いて、ブロック間の接続関係を判断してもかまわない。具体的には、処理対象ブロックと右側ブロックとの接続関係を考える場合、処理対象ブロックの右端列RAに配置されている画素および右側ブロックの左端列LAに配置されている画素に対して、両者共に手書き画像が含まれる場合に処理対象ブロックと右側ブロックとが接続されていると判断する(判断基準B)。さらに、処理対象ブロックの右端列RAのうちの手書き画像が含まれている画素と、右側ブロックの左端列LAのうちの手書き画像が含まれている画素とが隣接している場合にのみ、処理対象ブロックと右側ブロックとが接続されていると判断してもかまわない(判断基準C)。この場合、処理対象ブロックの右端列RAの画素および右側ブロックの左端列LAの画素の何れにも手書き画像が含まれていても、両者間で手書き画像の画素に隣接しているものがなければ、処理対象ブロックと右側ブロックとが未接続であると判断される。   Note that other pixels may be used to determine the connection relationship between the blocks. For example, when determining the connection relationship with the right block, as shown in FIG. 19, in addition to the pixel in the right end column RA, the pixel in the left end column LA arranged at the left end of the right block is also used. You may judge the relationship. Specifically, when considering the connection relationship between the processing target block and the right block, both the pixel arranged in the right end column RA of the processing target block and the pixel arranged in the left end column LA of the right block are both When both handwritten images are included, it is determined that the processing target block and the right block are connected (determination criterion B). Furthermore, the processing is performed only when the pixel including the handwritten image in the right end row RA of the processing target block is adjacent to the pixel including the handwritten image in the left end row LA of the right block. It may be determined that the target block and the right block are connected (determination criterion C). In this case, even if a handwritten image is included in any of the pixels in the right end row RA of the processing target block and the pixels in the left end row LA of the right block, there is no one adjacent to the pixel of the handwritten image between them. , It is determined that the processing target block and the right block are not connected.

上述した判断基準A〜Cによるブロック間の接続関係の判断結果をまとめると、図20のようになる。例えば、図20に示すように、処理対象ブロックの右端列RAおよび右側ブロックの左端列LAに注目して、例1〜例3を考える。図20に示す例1のように、処理対象ブロックの右端列RAにのみに手書き画像(図20では塗りつぶし画素で示す)が含まれる場合、判断基準Aではブロック間が接続されていると判断されるが、判断基準BおよびCではブロック間が未接続であると判断される。また、図20に示す例2のように、処理対象ブロックの右端列RAおよび右側ブロックの左端列LA共に手書き画像が含まれるが、手書き画像の画素に両者間で隣接しているものがない場合、判断基準AおよびBではブロック間が接続されていると判断されるが、判断基準Cではブロック間が未接続であると判断される。さらに、図20に示す例3のように、処理対象ブロックの右端列RAおよび右側ブロックの左端列LA共に手書き画像が含まれ、かつ、手書き画像の画素に両者間で隣接しているものを含む場合、全ての判断基準A〜Cでブロック間が接続されていると判断される。このように、判断基準の設定によって判断結果が変化するため、処理負荷や後述する分解精度に応じて適切な判断基準を選択すればよい。本実施例においては、判断基準Aでブロック間の接続関係を判断する例を用いて説明する。   FIG. 20 summarizes the determination results of the connection relationship between blocks based on the determination criteria A to C described above. For example, as illustrated in FIG. 20, Examples 1 to 3 are considered by paying attention to the right end row RA of the processing target block and the left end row LA of the right block. As in Example 1 shown in FIG. 20, when a handwritten image (indicated by a filled pixel in FIG. 20) is included only in the right end row RA of the processing target block, it is determined that the blocks are connected according to the criterion A. However, the determination criteria B and C determine that the blocks are not connected. In addition, as in Example 2 illustrated in FIG. 20, both the right end row RA of the processing target block and the left end row LA of the right block include a handwritten image, but there are no pixels adjacent to the handwritten image. The determination criteria A and B determine that the blocks are connected, but the determination criteria C determines that the blocks are not connected. Furthermore, as in Example 3 shown in FIG. 20, both the right end row RA of the processing target block and the left end row LA of the right block include a handwritten image and include pixels adjacent to the pixels of the handwritten image. In this case, it is determined that the blocks are connected by all the determination criteria A to C. As described above, since the determination result changes depending on the setting of the determination criterion, an appropriate determination criterion may be selected according to the processing load and the resolution accuracy described later. In the present embodiment, description will be made using an example in which the connection relationship between blocks is determined based on the determination criterion A.

図12に戻り、CPU31は、現在処理対象となっているブロック番号iのブロックの右端列画素に手書き画像が含まれるか否かを判断する(ステップ77)。そして、CPU31は、現在処理対象となっているブロック番号iのブロックの右端列画素に手書き画像が含まれる場合、すなわち処理対象ブロックと右側ブロックとが接続されていると判断した場合(ステップ77でYes)、当該ブロック番号iの接続フラグ(右)(図10参照)をオン(ON)に設定して右側ブロック確認処理を行い(ステップ81)、次のステップ78に処理を進める。一方、CPU31は、現在処理対象となっているブロック番号iのブロックの右端列画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと右側ブロックとが接続されていないと判断した場合(ステップ77でNo)、そのまま次のステップ78に処理を進める。なお、右側ブロック確認処理の詳細な動作については後述する。   Returning to FIG. 12, the CPU 31 determines whether or not the handwritten image is included in the right end column pixel of the block of the block number i currently being processed (step 77). When the CPU 31 determines that the handwritten image is included in the right end column pixel of the block with the block number i currently being processed, that is, when the processing target block and the right block are connected (in step 77). Yes), the connection flag (right) (see FIG. 10) of the block number i is set to ON (ON), right block confirmation processing is performed (step 81), and the processing proceeds to the next step 78. On the other hand, when the CPU 31 determines that the handwritten image is not included in the right end column pixel of the block with the block number i currently being processed, that is, when the processing target block and the right block are not connected (step) 77), the process proceeds to the next step 78 as it is. The detailed operation of the right block confirmation process will be described later.

ステップ78において、CPU31は、現在処理対象となっているブロック番号iのブロックの上端行画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、現在処理対象となっているブロック番号iのブロックの上端行画素に手書き画像が含まれる場合、すなわち処理対象ブロックと上側ブロックとが接続されていると判断した場合(ステップ78でYes)、当該ブロック番号iの接続フラグ(上)をオン(ON)に設定して上側ブロック確認処理を行い(ステップ82)、次のステップ79に処理を進める。一方、CPU31は、現在処理対象となっているブロック番号iのブロックの上端行画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと上側ブロックとが接続されていないと判断した場合(ステップ78でNo)、そのまま次のステップ79に処理を進める。なお、上側ブロック確認処理の詳細な動作については後述する。   In step 78, the CPU 31 determines whether or not a handwritten image is included in the upper end row pixel of the block with the block number i currently being processed. When the CPU 31 determines that the handwritten image is included in the upper row pixel of the block with the block number i currently being processed, that is, when the processing target block and the upper block are connected (in step 78). Yes), the connection flag (upper) of the block number i is set to ON (ON), the upper block confirmation process is performed (step 82), and the process proceeds to the next step 79. On the other hand, when the CPU 31 determines that the handwritten image is not included in the upper row pixel of the block number i currently being processed, that is, the processing target block and the upper block are not connected (step No in 78), the process proceeds to the next step 79 as it is. The detailed operation of the upper block confirmation process will be described later.

ステップ79において、CPU31は、現在処理対象となっているブロック番号iのブロックの左端列画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、現在処理対象となっているブロック番号iのブロックの左端列画素に手書き画像が含まれる場合、すなわち処理対象ブロックと左側ブロックとが接続されていると判断した場合(ステップ79でYes)、当該ブロック番号iの接続フラグ(左)をオン(ON)に設定して左側ブロック確認処理を行い(ステップ83)、次のステップ80に処理を進める。一方、CPU31は、現在処理対象となっているブロック番号iのブロックの左端列画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと左側ブロックとが接続されていないと判断した場合(ステップ79でNo)、そのまま次のステップ80に処理を進める。なお、左側ブロック確認処理の詳細な動作については後述する。   In step 79, the CPU 31 determines whether or not a handwritten image is included in the left end column pixel of the block with the block number i currently being processed. Then, when the CPU 31 determines that the handwritten image is included in the left end column pixel of the block with the block number i currently being processed, that is, when the processing target block and the left block are connected (in step 79). Yes), the connection flag (left) of the block number i is set to ON (ON), left block confirmation processing is performed (step 83), and the processing proceeds to the next step 80. On the other hand, when the CPU 31 determines that the handwritten image is not included in the left end column pixel of the block with the block number i currently being processed, that is, when the processing target block and the left block are not connected (step) No in 79), the process proceeds to the next step 80 as it is. The detailed operation of the left block confirmation process will be described later.

ステップ80において、CPU31は、現在処理対象となっているブロック番号iのブロックの下端行画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、現在処理対象となっているブロック番号iのブロックの下端行画素に手書き画像が含まれる場合、すなわち処理対象ブロックと下側ブロックとが接続されていると判断した場合(ステップ80でYes)、当該ブロック番号iの接続フラグ(下)をオン(ON)に設定して下側ブロック確認処理を行い(ステップ84)、次のステップ85に処理を進める。一方、CPU31は、現在処理対象となっているブロック番号iのブロックの下端行画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと下側ブロックとが接続されていないと判断した場合(ステップ80でNo)、そのまま次のステップ85に処理を進める。なお、下側ブロック確認処理の詳細な動作については後述する。   In step 80, the CPU 31 determines whether or not a handwritten image is included in the bottom row pixel of the block with the block number i currently being processed. Then, when the CPU 31 determines that the handwritten image is included in the lower row pixel of the block No. i currently being processed, that is, when it is determined that the processing target block and the lower block are connected (step 80). Yes), the connection flag (lower) of the block number i is set to ON (ON), the lower block confirmation process is performed (step 84), and the process proceeds to the next step 85. On the other hand, when the CPU 31 determines that the handwritten image is not included in the lower row pixel of the block of the block number i currently being processed, that is, the processing target block and the lower block are not connected ( No at step 80), the process proceeds to the next step 85 as it is. The detailed operation of the lower block confirmation process will be described later.

ステップ85において、CPU31は、現在処理対象としているグループ番号jに1を加算して、新たに処理対象のグループ番号jを設定し、次のステップ86に処理を進める。   In step 85, the CPU 31 adds 1 to the group number j currently being processed, sets a new group number j to be processed, and proceeds to the next step 86.

ステップ86において、CPU31は、現在処理対象としているブロック番号iに1を加算して、新たに処理対象のブロック番号iを設定し、次のステップに処理を進める。   In step 86, the CPU 31 adds 1 to the block number i currently being processed, sets a new block number i to be processed, and proceeds to the next step.

次に、CPU31は、現在処理対象としているブロック番号iがブロック番号の最大値Bnmaxより大きいか否かを判断する(ステップ87)。ここで、最大値Bnmaxは、上記ステップ71で表示画面DAをブロックに分割してブロック番号を付与した際の、ブロック番号最大値である。そして、CPU31は、現在処理対象としているブロック番号iがブロック番号の最大値Bnmax以下の場合、上記ステップ74に戻って処理を繰り返す。一方、CPU31は、現在処理対象としているブロック番号iがブロック番号の最大値Bnmaxより大きい場合、当該サブルーチンによる処理を終了して、ステップ57(図11)に処理を進める。   Next, the CPU 31 determines whether or not the block number i currently being processed is larger than the maximum block number Bnmax (step 87). Here, the maximum value Bnmax is a block number maximum value when the display screen DA is divided into blocks and assigned block numbers in step 71. If the block number i currently being processed is equal to or less than the maximum block number Bnmax, the CPU 31 returns to step 74 and repeats the process. On the other hand, if the block number i currently being processed is larger than the block number maximum value Bnmax, the CPU 31 ends the process by the subroutine and proceeds to step 57 (FIG. 11).

以下、図13を参照して、上記ステップ81や後述するステップ98、ステップ118、およびステップ158で行う右側ブロック確認処理について説明する。   Hereinafter, with reference to FIG. 13, the right block confirmation process performed in step 81 and steps 98, 118, and 158 described later will be described.

図13において、CPU31は、現在処理対象となっているブロック(処理対象ブロック)の右側に隣接している右側ブロックを、新たな処理対象ブロックに設定し(ステップ91)、次のステップに処理を進める。例えば、図17に示すブロック番号m+2のブロックが処理対象ブロックとなっている場合、当該ブロックの右側に隣接しているブロック番号m+3のブロックが新たな処理対象ブロックに設定される。   In FIG. 13, the CPU 31 sets the right block adjacent to the right side of the block currently being processed (processing target block) as a new processing target block (step 91), and performs processing in the next step. Proceed. For example, when the block with the block number m + 2 shown in FIG. 17 is a processing target block, the block with the block number m + 3 adjacent to the right side of the block is set as a new processing target block.

次に、CPU31は、処理対象ブロックに手書き画像が描画されているか否かを判断する(ステップ92)。例えば、CPU31は、現在の処理対象ブロックに対応するブロックデータDbの画像有無フラグを参照し、当該画像有無フラグがオン(ON)である場合に手書き画像が描画されていると判断する。そして、CPU31は、処理対象ブロックに手書き画像が描画されている場合、次のステップ93に処理を進める。一方、CPU31は、処理対象ブロックに手書き画像が描画されていない場合、次のステップ101に処理を進める。   Next, the CPU 31 determines whether or not a handwritten image is drawn on the processing target block (step 92). For example, the CPU 31 refers to the image presence / absence flag of the block data Db corresponding to the current processing target block, and determines that the handwritten image is drawn when the image presence / absence flag is on. Then, the CPU 31 proceeds to the next step 93 when the handwritten image is drawn in the processing target block. On the other hand, if the handwritten image is not drawn in the processing target block, the CPU 31 proceeds to the next step 101.

ステップ93において、CPU31は、処理対象ブロックが、何れかのグループに設定されているか否かを判断する。例えば、CPU31は、処理対象ブロックに対応するブロックデータDbのグループ番号Gnを参照し、当該グループ番号に0以外の数値が設定されている場合にグループ設定済であると判断する。そして、CPU31は、処理対象ブロックがグループに設定されていない場合、次のステップ94に処理を進める。一方、CPU31は、処理対象ブロックが既に何れかのグループに設定されている場合、次のステップ101に処理を進める。   In step 93, the CPU 31 determines whether the processing target block is set in any group. For example, the CPU 31 refers to the group number Gn of the block data Db corresponding to the processing target block, and determines that the group has been set when a numerical value other than 0 is set for the group number. If the processing target block is not set to a group, the CPU 31 proceeds to the next step 94. On the other hand, if the processing target block has already been set to any group, the CPU 31 proceeds to the next step 101.

ステップ94において、CPU31は、処理対象ブロックを、現在処理対象となっているグループ番号jのグループに属するブロックに設定して、次のステップに処理を進める。例えば、CPU31は、処理対象ブロックに対応するブロックデータDbのグループ番号に、現在処理対象となっているグループ番号jを記述してブロックデータDbを更新する。つまり、上記ステップ94の処理によって、処理対象ブロックは、当該右側ブロック確認処理を行う前に処理対象に設定されていたブロック(すなわち、処理対象ブロックから見て左側のブロック)と同じグループ番号のグループに属することになる。   In step 94, the CPU 31 sets the processing target block to a block belonging to the group having the group number j that is the current processing target, and proceeds to the next step. For example, the CPU 31 updates the block data Db by describing the group number j currently being processed as the group number of the block data Db corresponding to the processing target block. That is, by the processing of step 94, the processing target block is a group having the same group number as the block set as the processing target before the right block confirmation processing (that is, the left block as viewed from the processing target block). Will belong to.

次に、CPU31は、処理対象ブロックの右端列画素に手書き画像が含まれるか否かを判断する(ステップ95)。そして、CPU31は、処理対象ブロックの右端列画素に手書き画像が含まれる場合、すなわち処理対象ブロックと右側ブロックとが接続されていると判断した場合(ステップ95でYes)、当該処理対象ブロックの接続フラグ(右)をオン(ON)に設定して上記ステップ91から右側ブロック確認処理を新たに開始し(ステップ98)、当該右側ブロック確認処理が終わった後にステップ96に処理を進める。一方、CPU31は、処理対象ブロックの右端列画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと右側ブロックとが接続されていないと判断した場合(ステップ95でNo)、そのまま次のステップ96に処理を進める。   Next, the CPU 31 determines whether or not a handwritten image is included in the right end column pixel of the processing target block (step 95). Then, when the CPU 31 determines that the processing target block and the right block are connected when the right end column pixel of the processing target block includes the handwritten image (Yes in Step 95), the connection of the processing target block is performed. The flag (right) is set to ON and the right block confirmation process is newly started from step 91 (step 98). After the right block confirmation process is completed, the process proceeds to step 96. On the other hand, when the CPU 31 determines that the handwritten image is not included in the right end column pixel of the processing target block, that is, when the processing target block and the right block are not connected (No in step 95), the next step is continued. The process proceeds to 96.

ステップ96において、CPU31は、処理対象ブロックの上端行画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、処理対象ブロックの上端行画素に手書き画像が含まれる場合、すなわち処理対象ブロックと上側ブロックとが接続されていると判断した場合(ステップ96でYes)、当該処理対象ブロックの接続フラグ(上)をオン(ON)に設定して上側ブロック確認処理を行い(ステップ99)、次のステップ97に処理を進める。一方、CPU31は、処理対象ブロックの上端行画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと上側ブロックとが接続されていないと判断した場合(ステップ96でNo)、そのまま次のステップ97に処理を進める。   In step 96, the CPU 31 determines whether or not a handwritten image is included in the upper row pixel of the processing target block. Then, when the CPU 31 determines that the top row pixel of the processing target block includes a handwritten image, that is, the processing target block and the upper block are connected (Yes in step 96), the CPU 31 connects the processing target block. The flag (upper) is set to ON (ON) and the upper block confirmation process is performed (step 99), and the process proceeds to the next step 97. On the other hand, when the CPU 31 determines that the top row pixel of the processing target block does not include a handwritten image, that is, the processing target block and the upper block are not connected (No in step 96), the next step is continued. The process proceeds to 97.

ステップ97において、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれる場合、すなわち処理対象ブロックと下側ブロックとが接続されていると判断した場合(ステップ97でYes)、当該処理対象ブロックの接続フラグ(下)をオン(ON)に設定して下側ブロック確認処理を行い(ステップ100)、次のステップ101に処理を進める。一方、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと下側ブロックとが接続されていないと判断した場合(ステップ97でNo)、そのまま次のステップ101に処理を進める。   In step 97, the CPU 31 determines whether or not a handwritten image is included in the bottom row pixel of the processing target block. When the CPU 31 determines that the processing target block and the lower block are connected when the handwritten image is included in the lower row pixel of the processing target block (Yes in Step 97), the CPU 31 of the processing target block The connection flag (lower) is set to ON (ON) and lower block confirmation processing is performed (step 100), and the processing proceeds to the next step 101. On the other hand, if the CPU 31 determines that the handwritten image is not included in the lower row pixel of the processing target block, that is, if the processing target block and the lower block are not connected (No in step 97), the next processing is continued. The process proceeds to step 101.

ステップ101において、CPU31は、処理対象ブロックの左側に隣接している左側ブロックを、新たな処理対象ブロックに設定し、当該サブルーチンによる処理を終了する。例えば、図17に示すブロック番号m+3のブロックが処理対象ブロックとなっている場合、当該ブロックの左側に隣接しているブロック番号m+2のブロックが新たな処理対象ブロックに設定される。   In step 101, the CPU 31 sets the left block adjacent to the left side of the processing target block as a new processing target block, and ends the processing by the subroutine. For example, when the block with the block number m + 3 shown in FIG. 17 is a processing target block, the block with the block number m + 2 adjacent to the left side of the block is set as a new processing target block.

以下、図14を参照して、上記ステップ82および上記ステップ99や後述するステップ119およびステップ138で行う上側ブロック確認処理について説明する。   Hereinafter, with reference to FIG. 14, the upper block confirmation processing performed in step 82 and step 99 and steps 119 and 138 described later will be described.

図14において、CPU31は、現在処理対象に設定されている処理対象ブロックの上側に隣接している上側ブロックを、新たな処理対象ブロックに設定し(ステップ111)、次のステップに処理を進める。例えば、図17に示すブロック番号m+2のブロックが処理対象ブロックとなっている場合、当該ブロックの上側に隣接しているブロック番号2のブロックが新たな処理対象ブロックに設定される。   In FIG. 14, the CPU 31 sets the upper block adjacent to the upper side of the processing target block currently set as the processing target as a new processing target block (step 111), and proceeds to the next step. For example, when the block with the block number m + 2 shown in FIG. 17 is the processing target block, the block with the block number 2 adjacent to the upper side of the block is set as a new processing target block.

次に、CPU31は、処理対象ブロックに手書き画像が描画されているか否かを判断する(ステップ112)。なお、ステップ112の動作例は、上記ステップ92と同様であるため、詳細な説明を省略する。そして、CPU31は、処理対象ブロックに手書き画像が描画されている場合、次のステップ113に処理を進める。一方、CPU31は、処理対象ブロックに手書き画像が描画されていない場合、次のステップ121に処理を進める。   Next, the CPU 31 determines whether or not a handwritten image is drawn on the processing target block (step 112). Note that the operation example of step 112 is the same as step 92 described above, and thus detailed description thereof is omitted. Then, when a handwritten image is drawn in the processing target block, the CPU 31 proceeds to the next step 113. On the other hand, when the handwritten image is not drawn in the processing target block, the CPU 31 proceeds to the next step 121.

ステップ113において、CPU31は、処理対象ブロックが、何れかのグループに設定されているか否かを判断する。なお、ステップ113の動作例は、上記ステップ93と同様であるため、詳細な説明を省略する。そして、CPU31は、処理対象ブロックがグループに設定されていない場合、次のステップ114に処理を進める。一方、CPU31は、処理対象ブロックが既に何れかのグループに設定されている場合、次のステップ121に処理を進める。   In step 113, the CPU 31 determines whether or not the processing target block is set in any group. Note that the operation example of Step 113 is the same as Step 93 described above, and thus detailed description thereof is omitted. And CPU31 advances a process to the following step 114, when a process target block is not set to the group. On the other hand, if the processing target block has already been set to any group, the CPU 31 proceeds to the next step 121.

ステップ114において、CPU31は、処理対象ブロックを、現在処理対象となっているグループ番号jのグループに属するブロックに設定して、次のステップに処理を進める。なお、ステップ114の動作例は、上記ステップ94と同様であるため、詳細な説明を省略する。上記ステップ114の処理によって、処理対象ブロックは、当該上側ブロック確認処理を行う前に処理対象に設定されていたブロック(すなわち、処理対象ブロックから見て下側のブロック)と同じグループ番号のグループに属することになる。   In step 114, the CPU 31 sets the processing target block to a block belonging to the group of the group number j that is currently the processing target, and proceeds to the next step. Note that the operation example of step 114 is the same as step 94 described above, and thus detailed description thereof is omitted. By the processing in step 114, the processing target block is assigned to the group having the same group number as the block set as the processing target before the upper block confirmation processing (that is, the lower block as viewed from the processing target block). Will belong.

次に、CPU31は、処理対象ブロックの右端列画素に手書き画像が含まれるか否かを判断する(ステップ115)。そして、CPU31は、処理対象ブロックの右端列画素に手書き画像が含まれる場合、すなわち処理対象ブロックと右側ブロックとが接続されていると判断した場合(ステップ115でYes)、当該処理対象ブロックの接続フラグ(右)をオン(ON)に設定して上述した右側ブロック確認処理を行い(ステップ118)、次のステップ116に処理を進める。一方、CPU31は、処理対象ブロックの右端列画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと右側ブロックとが接続されていないと判断した場合(ステップ115でNo)、そのまま次のステップ116に処理を進める。   Next, the CPU 31 determines whether or not a handwritten image is included in the right end column pixel of the processing target block (step 115). Then, when the CPU 31 determines that the processing target block and the right block are connected when the right end column pixel of the processing target block includes the handwritten image (Yes in step 115), the CPU 31 connects the processing target block. The flag (right) is set to ON (ON), the right block confirmation process described above is performed (step 118), and the process proceeds to the next step 116. On the other hand, if the CPU 31 determines that the handwritten image is not included in the right end column pixel of the processing target block, that is, if the processing target block and the right block are not connected (No in step 115), the next step is continued. The process proceeds to 116.

ステップ116において、CPU31は、処理対象ブロックの上端行画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、処理対象ブロックの上端行画素に手書き画像が含まれる場合、すなわち処理対象ブロックと上側ブロックとが接続されていると判断した場合(ステップ116でYes)、当該処理対象ブロックの接続フラグ(上)をオン(ON)に設定して上記ステップ111から上側ブロック確認処理を新たに開始し(ステップ119)、当該上側ブロック確認処理が終わった後にステップ117に処理を進める。一方、CPU31は、処理対象ブロックの上端行画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと上側ブロックとが接続されていないと判断した場合(ステップ116でNo)、そのまま次のステップ117に処理を進める。   In step 116, the CPU 31 determines whether or not a handwritten image is included in the upper row pixel of the processing target block. When the CPU 31 determines that the upper end row pixel of the processing target block includes a handwritten image, that is, determines that the processing target block and the upper block are connected (Yes in step 116), the CPU 31 connects the processing target block. The flag (upper) is set to ON and the upper block confirmation process is newly started from step 111 (step 119). After the upper block confirmation process is completed, the process proceeds to step 117. On the other hand, when the handwritten image is not included in the upper row pixel of the processing target block, that is, when the CPU 31 determines that the processing target block and the upper block are not connected (No in step 116), the next step is continued. The process proceeds to 117.

ステップ117において、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれる場合、すなわち処理対象ブロックと下側ブロックとが接続されていると判断した場合(ステップ117でYes)、当該処理対象ブロックの接続フラグ(下)をオン(ON)に設定して下側ブロック確認処理を行い(ステップ120)、次のステップ121に処理を進める。一方、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと下側ブロックとが接続されていないと判断した場合(ステップ117でNo)、そのまま次のステップ121に処理を進める。   In step 117, the CPU 31 determines whether or not a handwritten image is included in the bottom row pixel of the processing target block. When the CPU 31 determines that the processing target block and the lower block are connected when the handwritten image is included in the bottom row pixel of the processing target block (Yes in step 117), the CPU 31 of the processing target block The connection flag (lower) is set to ON (ON) and the lower block confirmation process is performed (step 120), and the process proceeds to the next step 121. On the other hand, if the CPU 31 determines that the handwritten image is not included in the lower row pixel of the processing target block, that is, if the processing target block and the lower block are not connected (No in step 117), the next processing is continued. The process proceeds to step 121.

ステップ121において、CPU31は、処理対象ブロックの下側に隣接している下側ブロックを、新たな処理対象ブロックに設定し、当該サブルーチンによる処理を終了する。例えば、図17に示すブロック番号2のブロックが処理対象ブロックとなっている場合、当該ブロックの下側に隣接しているブロック番号m+2のブロックが新たな処理対象ブロックに設定される。   In step 121, the CPU 31 sets the lower block adjacent to the lower side of the processing target block as a new processing target block, and ends the processing by the subroutine. For example, when the block with the block number 2 shown in FIG. 17 is a processing target block, the block with the block number m + 2 adjacent to the lower side of the block is set as a new processing target block.

以下、図15を参照して、上記ステップ83および上記ステップ120や後述するステップ139およびステップ159で行う左側ブロック確認処理について説明する。   Hereinafter, with reference to FIG. 15, the left block confirmation process performed in step 83 and step 120 and steps 139 and 159 described later will be described.

図15において、CPU31は、現在処理対象に設定されている処理対象ブロックの左側に隣接している左側ブロックを、新たな処理対象ブロックに設定し(ステップ131)、次のステップに処理を進める。例えば、図17に示すブロック番号m+2のブロックが処理対象ブロックとなっている場合、当該ブロックの左側に隣接しているブロック番号m+1のブロックが新たな処理対象ブロックに設定される。   In FIG. 15, the CPU 31 sets the left block adjacent to the left side of the processing target block currently set as a processing target as a new processing target block (step 131), and proceeds to the next step. For example, when the block with the block number m + 2 shown in FIG. 17 is a processing target block, the block with the block number m + 1 adjacent to the left side of the block is set as a new processing target block.

次に、CPU31は、処理対象ブロックに手書き画像が描画されているか否かを判断する(ステップ132)。なお、ステップ132の動作例は、上記ステップ92と同様であるため、詳細な説明を省略する。そして、CPU31は、処理対象ブロックに手書き画像が描画されている場合、次のステップ133に処理を進める。一方、CPU31は、処理対象ブロックに手書き画像が描画されていない場合、次のステップ141に処理を進める。   Next, the CPU 31 determines whether or not a handwritten image is drawn on the processing target block (step 132). The operation example of step 132 is the same as that of step 92 described above, and thus detailed description thereof is omitted. Then, when the handwritten image is drawn in the processing target block, the CPU 31 proceeds to the next step 133. On the other hand, if the handwritten image is not drawn in the processing target block, the CPU 31 proceeds to the next step 141.

ステップ133において、CPU31は、処理対象ブロックが、何れかのグループに設定されているか否かを判断する。なお、ステップ133の動作例は、上記ステップ93と同様であるため、詳細な説明を省略する。そして、CPU31は、処理対象ブロックがグループに設定されていない場合、次のステップ134に処理を進める。一方、CPU31は、処理対象ブロックが既に何れかのグループに設定されている場合、次のステップ141に処理を進める。   In step 133, the CPU 31 determines whether or not the processing target block is set in any group. Note that the operation example of step 133 is the same as step 93 described above, and thus detailed description thereof is omitted. And CPU31 advances a process to the following step 134, when the process target block is not set to the group. On the other hand, if the processing target block has already been set to any group, the CPU 31 proceeds to the next step 141.

ステップ134において、CPU31は、処理対象ブロックを、現在処理対象となっているグループ番号jのグループに属するブロックに設定して、次のステップに処理を進める。なお、ステップ134の動作例は、上記ステップ94と同様であるため、詳細な説明を省略する。上記ステップ134の処理によって、処理対象ブロックは、当該左側ブロック確認処理を行う前に処理対象に設定されていたブロック(すなわち、処理対象ブロックから見て右側のブロック)と同じグループ番号のグループに属することになる。   In step 134, the CPU 31 sets the processing target block to a block belonging to the group of the group number j that is currently the processing target, and proceeds to the next step. The operation example of step 134 is the same as that of step 94 described above, and a detailed description thereof will be omitted. By the processing in step 134, the processing target block belongs to the group having the same group number as the block set as the processing target before the left block confirmation processing (that is, the right block as viewed from the processing target block). It will be.

次に、CPU31は、処理対象ブロックの上端行画素に手書き画像が含まれるか否かを判断する(ステップ135)。そして、CPU31は、処理対象ブロックの上端行画素に手書き画像が含まれる場合、すなわち処理対象ブロックと上側ブロックとが接続されていると判断した場合(ステップ135でYes)、当該処理対象ブロックの接続フラグ(上)をオン(ON)に設定して上述した上側ブロック確認処理を行い(ステップ138)、次のステップ136に処理を進める。一方、CPU31は、処理対象ブロックの上端行画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと上側ブロックとが接続されていないと判断した場合(ステップ135でNo)、そのまま次のステップ136に処理を進める。   Next, the CPU 31 determines whether or not a handwritten image is included in the upper row pixel of the processing target block (step 135). Then, when the CPU 31 determines that the top row pixel of the processing target block includes a handwritten image, that is, the processing target block and the upper block are connected (Yes in step 135), the CPU 31 connects the processing target block. The flag (upper) is set to ON (ON) and the above-described upper block confirmation process is performed (step 138), and the process proceeds to the next step 136. On the other hand, when the CPU 31 determines that the top row pixel of the processing target block does not include a handwritten image, that is, the processing target block and the upper block are not connected (No in step 135), the next step is continued. The process proceeds to 136.

ステップ136において、CPU31は、処理対象ブロックの左端列画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、処理対象ブロックの左端列画素に手書き画像が含まれる場合、すなわち処理対象ブロックと左側ブロックとが接続されていると判断した場合(ステップ136でYes)、当該処理対象ブロックの接続フラグ(左)をオン(ON)に設定して上記ステップ131から左側ブロック確認処理を新たに開始し(ステップ139)、当該左側ブロック確認処理が終わった後にステップ137に処理を進める。一方、CPU31は、処理対象ブロックの左端列画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと左側ブロックとが接続されていないと判断した場合(ステップ136でNo)、そのまま次のステップ137に処理を進める。   In step 136, the CPU 31 determines whether or not a handwritten image is included in the leftmost column pixel of the processing target block. Then, when the CPU 31 determines that the processing target block and the left block are connected when the left end column pixel of the processing target block includes the handwritten image (Yes in step 136), the CPU 31 connects the processing target block. The flag (left) is set to ON (ON) and the left block confirmation process is newly started from step 131 (step 139). After the left block confirmation process is completed, the process proceeds to step 137. On the other hand, if the CPU 31 determines that the handwritten image is not included in the leftmost column pixel of the processing target block, that is, if the processing target block and the left block are not connected (No in step 136), the next step is continued. The process proceeds to 137.

ステップ137において、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれる場合、すなわち処理対象ブロックと下側ブロックとが接続されていると判断した場合(ステップ137でYes)、当該処理対象ブロックの接続フラグ(下)をオン(ON)に設定して下側ブロック確認処理を行い(ステップ140)、次のステップ141に処理を進める。一方、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと下側ブロックとが接続されていないと判断した場合(ステップ137でNo)、そのまま次のステップ141に処理を進める。   In step 137, the CPU 31 determines whether or not a handwritten image is included in the bottom row pixel of the processing target block. When the CPU 31 determines that the processing target block and the lower block are connected when the handwritten image is included in the bottom row pixel of the processing target block (Yes in step 137), the CPU 31 of the processing target block The connection flag (lower) is set to ON (ON) and lower block confirmation processing is performed (step 140), and the processing proceeds to the next step 141. On the other hand, if the CPU 31 determines that the handwritten image is not included in the lower row pixel of the processing target block, that is, if the processing target block and the lower block are not connected (No in step 137), the next processing is continued. The process proceeds to step 141.

ステップ141において、CPU31は、処理対象ブロックの右側に隣接している右側ブロックを、新たな処理対象ブロックに設定し、当該サブルーチンによる処理を終了する。例えば、図17に示すブロック番号m+1のブロックが処理対象ブロックとなっている場合、当該ブロックの右側に隣接しているブロック番号m+2のブロックが新たな処理対象ブロックに設定される。   In step 141, the CPU 31 sets the right block adjacent to the right side of the processing target block as a new processing target block, and ends the processing by the subroutine. For example, when the block with the block number m + 1 shown in FIG. 17 is a processing target block, the block with the block number m + 2 adjacent to the right side of the block is set as a new processing target block.

以下、図16を参照して、上記ステップ84、上記ステップ100、および上記ステップ140や後述するステップ160で行う下側ブロック確認処理について説明する。   Hereinafter, with reference to FIG. 16, the lower block confirmation process performed in step 84, step 100, step 140, and step 160 described later will be described.

図16において、CPU31は、現在処理対象に設定されている処理対象ブロックの下側に隣接している下側ブロックを、新たな処理対象ブロックに設定し(ステップ151)、次のステップに処理を進める。例えば、図17に示すブロック番号m+2のブロックが処理対象ブロックとなっている場合、当該ブロックの下側に隣接しているブロック番号2m+2のブロックが新たな処理対象ブロックに設定される。   In FIG. 16, the CPU 31 sets a lower block adjacent to the lower side of the processing target block currently set as a processing target as a new processing target block (step 151), and performs processing in the next step. Proceed. For example, when the block with the block number m + 2 shown in FIG. 17 is a processing target block, the block with the block number 2m + 2 adjacent to the lower side of the block is set as a new processing target block.

次に、CPU31は、処理対象ブロックに手書き画像が描画されているか否かを判断する(ステップ152)。なお、ステップ152の動作例は、上記ステップ92と同様であるため、詳細な説明を省略する。そして、CPU31は、処理対象ブロックに手書き画像が描画されている場合、次のステップ153に処理を進める。一方、CPU31は、処理対象ブロックに手書き画像が描画されていない場合、次のステップ161に処理を進める。   Next, the CPU 31 determines whether or not a handwritten image is drawn on the processing target block (step 152). Note that the operation example of step 152 is the same as that of step 92 described above, and thus detailed description thereof is omitted. Then, when the handwritten image is drawn in the processing target block, the CPU 31 proceeds to the next step 153. On the other hand, if the handwritten image is not drawn in the processing target block, the CPU 31 proceeds to the next step 161.

ステップ153において、CPU31は、処理対象ブロックが、何れかのグループに設定されているか否かを判断する。なお、ステップ153の動作例は、上記ステップ93と同様であるため、詳細な説明を省略する。そして、CPU31は、処理対象ブロックがグループに設定されていない場合、次のステップ154に処理を進める。一方、CPU31は、処理対象ブロックが既に何れかのグループに設定されている場合、次のステップ161に処理を進める。   In step 153, the CPU 31 determines whether the processing target block is set in any group. Note that the operation example of step 153 is the same as that of step 93 described above, and thus detailed description thereof is omitted. And CPU31 advances a process to the following step 154, when a process target block is not set to the group. On the other hand, if the processing target block has already been set to any group, the CPU 31 advances the processing to the next step 161.

ステップ154において、CPU31は、処理対象ブロックを、現在処理対象となっているグループ番号jのグループに属するブロックに設定して、次のステップに処理を進める。なお、ステップ154の動作例は、上記ステップ94と同様であるため、詳細な説明を省略する。上記ステップ154の処理によって、処理対象ブロックは、当該下側ブロック確認処理を行う前に処理対象に設定されていたブロック(すなわち、処理対象ブロックから見て上側のブロック)と同じグループ番号のグループに属することになる。   In step 154, the CPU 31 sets the processing target block to a block belonging to the group of the group number j that is currently the processing target, and proceeds to the next step. The operation example of step 154 is the same as that of step 94 described above, and a detailed description thereof will be omitted. By the processing in step 154, the processing target block is put into a group having the same group number as the block set as the processing target before the lower block confirmation processing (that is, the upper block as viewed from the processing target block). Will belong.

次に、CPU31は、処理対象ブロックの右端列画素に手書き画像が含まれるか否かを判断する(ステップ155)。そして、CPU31は、処理対象ブロックの右端列画素に手書き画像が含まれる場合、すなわち処理対象ブロックと右側ブロックとが接続されていると判断した場合(ステップ155でYes)、当該処理対象ブロックの接続フラグ(右)をオン(ON)に設定して上述した右側ブロック確認処理を行い(ステップ158)、次のステップ156に処理を進める。一方、CPU31は、処理対象ブロックの右端列画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと右側ブロックとが接続されていないと判断した場合(ステップ155でNo)、そのまま次のステップ156に処理を進める。   Next, the CPU 31 determines whether or not a handwritten image is included in the right end column pixel of the processing target block (step 155). Then, when the CPU 31 determines that the processing target block and the right block are connected when the right end column pixel of the processing target block includes the handwritten image (Yes in Step 155), the CPU 31 connects the processing target block. The flag (right) is set to ON (ON), the right block confirmation process described above is performed (step 158), and the process proceeds to the next step 156. On the other hand, when the CPU 31 determines that the handwritten image is not included in the right end column pixel of the processing target block, that is, when the processing target block and the right block are not connected (No in step 155), the next step is continued. The process proceeds to 156.

ステップ156において、CPU31は、処理対象ブロックの左端列画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、処理対象ブロックの左端列画素に手書き画像が含まれる場合、すなわち処理対象ブロックと左側ブロックとが接続されていると判断した場合(ステップ156でYes)、当該処理対象ブロックの接続フラグ(左)をオン(ON)に設定して上述した左側ブロック確認処理を行い(ステップ159)、次のステップ157に処理を進める。一方、CPU31は、処理対象ブロックの左端列画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと左側ブロックとが接続されていないと判断した場合(ステップ156でNo)、そのまま次のステップ157に処理を進める。   In step 156, the CPU 31 determines whether or not a handwritten image is included in the leftmost column pixel of the processing target block. When the CPU 31 determines that the leftmost column pixel of the processing target block includes a handwritten image, that is, determines that the processing target block and the left block are connected (Yes in step 156), the CPU 31 connects the processing target block. The flag (left) is set to ON (ON), the left block confirmation process described above is performed (step 159), and the process proceeds to the next step 157. On the other hand, if the CPU 31 determines that the handwritten image is not included in the leftmost column pixel of the processing target block, that is, if the processing target block and the left block are not connected (No in step 156), the next step is continued. The process proceeds to 157.

ステップ157において、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれる場合、すなわち処理対象ブロックと下側ブロックとが接続されていると判断した場合(ステップ157でYes)、当該処理対象ブロックの接続フラグ(下)をオン(ON)に設定して上記ステップ151から下側ブロック確認処理を新たに開始し(ステップ160)、当該下側ブロック確認処理が終わった後にステップ161に処理を進める。一方、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと下側ブロックとが接続されていないと判断した場合(ステップ157でNo)、そのまま次のステップ161に処理を進める。   In step 157, the CPU 31 determines whether or not a handwritten image is included in the bottom row pixel of the processing target block. When the CPU 31 determines that the processing target block and the lower block are connected when the handwritten image is included in the bottom row pixel of the processing target block (Yes in step 157), the CPU 31 of the processing target block The connection flag (lower) is set to ON (ON), and the lower block confirmation process is newly started from step 151 (step 160). After the lower block confirmation process is completed, the process proceeds to step 161. On the other hand, if the CPU 31 determines that the handwritten image is not included in the lower row pixel of the processing target block, that is, if the processing target block and the lower block are not connected (No in step 157), the next processing is continued. The process proceeds to step 161.

ステップ161において、CPU31は、処理対象ブロックの上側に隣接している上側ブロックを、新たな処理対象ブロックに設定し、当該サブルーチンによる処理を終了する。例えば、図17に示すブロック番号2m+2のブロックが処理対象ブロックとなっている場合、当該ブロックの上側に隣接しているブロック番号m+2のブロックが新たな処理対象ブロックに設定される。   In step 161, the CPU 31 sets the upper block adjacent to the upper side of the processing target block as a new processing target block, and ends the processing by the subroutine. For example, when the block with the block number 2m + 2 shown in FIG. 17 is a processing target block, the block with the block number m + 2 adjacent to the upper side of the block is set as a new processing target block.

図21を用いて、上述した画像分解処理によって手書き画像が分解される例を説明する。なお、図21において、A〜Cはブロック番号を示し、矢印内の数値はブロック間の接続関係を判断した順番を示し、矢印内の記号はその判断結果を示している。   An example in which a handwritten image is decomposed by the above-described image decomposition processing will be described with reference to FIG. In FIG. 21, A to C indicate block numbers, the numerical values in the arrows indicate the order in which the connection relationship between the blocks is determined, and the symbols in the arrows indicate the determination results.

図21において、ブロック番号Aのブロック(以下、ブロックAと記載する)が処理対象となって、上記ステップ74〜ステップ87(図12参照)の処理が行われる場合を考える。ブロックAは、手書き文字「h」の一部を含んでいるため、何れかのグループ(例えば、グループ番号1のグループ;以下グループ1と記載する)に設定される(ステップ74〜ステップ76)。   In FIG. 21, a case is considered where the block of block number A (hereinafter referred to as block A) is the processing target, and the processing from step 74 to step 87 (see FIG. 12) is performed. Since the block A includes a part of the handwritten character “h”, it is set to any group (for example, group of group number 1; hereinafter referred to as group 1) (step 74 to step 76).

ブロックAに隣接する左右および上側ブロックに注目すると、これらのブロックとブロックAとは共通する手書き画像を含んでいないため、ブロックAと左右および上側ブロックとの間は未接続(×1〜×3)であると判断される(ステップ77〜ステップ79)。一方、ブロックAに隣接する下側ブロック(ブロックB)に注目すると、ブロックBはブロックAと同じ手書き文字「h」の一部を含んでいるため、ブロックAとブロックBとの間は接続(○4)されていると判断される(ステップ80)。そして、ブロックBを処理対象ブロックとした確認処理(下側ブロック確認処理;ステップ84)が実行される。当該確認処理によって、ブロックBは、手書き文字「h」の一部を含んでいるため、ブロックAと同じグループ1に設定される(ステップ151〜ステップ154)。   When attention is paid to the left and right and upper blocks adjacent to the block A, these blocks and the block A do not include a common handwritten image. Therefore, the block A is not connected to the left and right and upper blocks (× 1 to × 3). ) (Step 77 to step 79). On the other hand, when attention is paid to the lower block (block B) adjacent to the block A, since the block B includes a part of the same handwritten character “h” as the block A, the connection between the block A and the block B ( (4) It is judged that it has been done (step 80). And the confirmation process (lower block confirmation process; step 84) which made the block B a process target block is performed. By the confirmation process, the block B includes a part of the handwritten character “h”, and thus is set to the same group 1 as the block A (step 151 to step 154).

次に、ブロックBに隣接する右側ブロック(ブロックC)に注目すると、ブロックCもブロックAおよびBと同じ手書き文字「h」の一部を含んでいるため、ブロックBとブロックCとの間は接続(○5)されていると判断される(ステップ155)。そして、ブロックCを処理対象ブロックとした確認処理(右側ブロック確認処理;ステップ158)が実行される。当該確認処理によって、ブロックCは、手書き文字「h」の一部を含んでいるため、ブロックAおよびBと同じグループ1に設定される(ステップ91〜ステップ94)。   Next, when attention is paid to the right block (block C) adjacent to the block B, the block C also includes a part of the same handwritten character “h” as the blocks A and B. It is determined that the connection ((5) is established (step 155). And the confirmation process (right side block confirmation process; step 158) which made the block C a process target block is performed. Since the block C includes a part of the handwritten character “h” by the confirmation process, the block 1 is set to the same group 1 as the blocks A and B (steps 91 to 94).

次に、ブロックCに隣接する右および上下側ブロックに注目すると、これらのブロックとブロックCとは共通する手書き画像を含んでいないため、ブロックCと右および上下側ブロックとの間は未接続(×6〜×8)であると判断される(ステップ95〜ステップ97)。そして、ブロックCを処理対象ブロックとした確認処理(右側ブロック確認処理;ステップ158)が終了し、ブロックBを処理対象ブロックとした確認処理(ステップ156)に戻る。   Next, focusing on the right and upper and lower blocks adjacent to the block C, these blocks and the block C do not include a common handwritten image, so the block C and the right and upper and lower blocks are not connected ( X6 to x8) (step 95 to step 97). Then, the confirmation processing (right block confirmation processing; step 158) with the block C as the processing target block ends, and the processing returns to the confirmation processing (step 156) with the block B as the processing target block.

次に、ブロックBに隣接する左および下側ブロックに注目すると、これらのブロックとブロックBとは共通する手書き画像を含んでいないため、ブロックBと左および下側ブロックとの間は未接続(×9および×10)であると判断される(ステップ156およびステップ157)。そして、ブロックBを処理対象ブロックとした確認処理(下側ブロック確認処理;ステップ84)が終了し、ブロックAを処理対象ブロックとした確認処理(ステップ85)に戻る。   Next, when attention is paid to the left and lower blocks adjacent to the block B, since these blocks and the block B do not include a common handwritten image, the block B and the left and lower blocks are not connected ( X9 and x10) (steps 156 and 157). And the confirmation process (lower block confirmation process; step 84) which used the block B as a process target block is complete | finished, and returns to the confirmation process (step 85) which used the block A as a process target block.

このように、上述した画像分解処理では、ブロックの接続判定処理をブロック各辺に対して行い、接続判定された他のブロックにおいても同様の接続判定処理を再帰的に行うことによって、手書き画像が連続している範囲を判定している。例えば、図21に示すように、このような接続判定処理によって、手書き文字「h」が連続している範囲がブロックA〜ブロックBであることが判定され、当該ブロックA〜ブロックCが同じグループに設定される。そして、同様の画像分解処理を繰り返すことによって、手書き文字は、連続している部分毎で異なるグループに設定されていく。これは、手書き文字に限らず、手書きスタンプや自由線等でも同様であり、手書き画像が連続している部分毎に異なるグループに設定されていくことになる。   In this way, in the image decomposition process described above, the block connection determination process is performed on each side of the block, and the same connection determination process is recursively performed in other blocks for which connection determination has been performed, so that a handwritten image is obtained. Judging the continuous range. For example, as shown in FIG. 21, it is determined by such connection determination processing that the range in which the handwritten character “h” is continuous is block A to block B, and the block A to block C are in the same group. Set to Then, by repeating the same image decomposition process, handwritten characters are set in different groups for each continuous portion. This applies not only to handwritten characters but also to handwritten stamps and free lines, and is set to different groups for each portion where handwritten images are continuous.

図11に戻り、上記ステップ56の画像分解処理の後、CPU31は、演出表示処理を行い(ステップ57)、次のステップに処理を進める。以下、図22を参照して、上記ステップ57で行う演出表示処理について説明する。   Returning to FIG. 11, after the image decomposition process in step 56, the CPU 31 performs an effect display process (step 57), and proceeds to the next step. Hereinafter, the effect display process performed in step 57 will be described with reference to FIG.

図22において、下側LCD12に表示される画面は、複数のレイヤーによって構成されている。具体的には、上記画面は、内側カメラ23または外側カメラ25によって撮像されたリアルタイムの画像(撮像画像)やゲーム装置1やメモリカード28に画像データとして記憶された画像(撮影画像)等を載せて表示するライブレイヤーLlive、上述した手書き画像を載せて表示するペイントレイヤーLpaint、および画面上を移動するオブジェクト等を載せて表示する3DテクスチャーレイヤーL3D等によって構成されている。   In FIG. 22, the screen displayed on the lower LCD 12 is composed of a plurality of layers. Specifically, the screen displays a real-time image (captured image) captured by the inner camera 23 or the outer camera 25, an image (captured image) stored as image data in the game apparatus 1 or the memory card 28, and the like. A live layer Llive to be displayed, a paint layer Lpaint to display the handwritten image described above, a 3D texture layer L3D to display and display an object moving on the screen, and the like.

タッチパネル13を介して、ユーザが手書き文字や手書きスタンプ等を入力した場合、当該入力に応じた手書き画像がペイントレイヤーLpaintに載せられる(図22上段図)。その後、ユーザが全消去操作を行った場合、ペイントレイヤーLpaint上の表示画像のうち、上記画像分解処理によって分類されたグループに属するブロック(具体的には、1以上のグループ番号Gnが設定されたブロック)のみが3DテクスチャーレイヤーL3D上にコピーされて、ペイントレイヤーLpaintに載せられた手書き画像が全て消去される(図22下段図)。   When the user inputs a handwritten character, a handwritten stamp, or the like via the touch panel 13, a handwritten image corresponding to the input is placed on the paint layer Lpaint (upper diagram in FIG. 22). Thereafter, when the user performs an all-erase operation, among the display images on the paint layer Lpaint, blocks belonging to the group classified by the image decomposition process (specifically, one or more group numbers Gn are set) Only the block) is copied onto the 3D texture layer L3D, and all the handwritten images placed on the paint layer Lpaint are deleted (the lower diagram in FIG. 22).

上記演出表示処理においては、3DテクスチャーレイヤーL3Dに載せられた各ブロックに対してそれぞれ所定の初速度が与えられ、ブロック移動データDcに記述される。このとき、各グループに与えられる移動速度および移動方向がランダムに決められ、同じグループ番号Gnのグループに属するブロックについては、同じ移動速度および同じ移動方向の初速度がそれぞれ与えられる。   In the effect display process, a predetermined initial speed is given to each block placed on the 3D texture layer L3D, and is described in the block movement data Dc. At this time, the moving speed and the moving direction given to each group are determined at random, and the same moving speed and the initial speed in the same moving direction are given to the blocks belonging to the group of the same group number Gn.

例えば、図23Aの左図に示すように、ブロックA〜Cが同じグループに属する場合、ブロックA〜Cそれぞれの中心位置Pba〜Pbcに対して同じ移動ベクトルVba〜Vbcがそれぞれ与えられるため、ブロックA〜Cに対して同じ移動速度および同じ移動方向の初速度がそれぞれ与えられることになる。そして、CPU31は、ブロック移動データDcに記述された各ブロックの移動データ(移動速度、移動方向)に応じて、3DテクスチャーレイヤーL3D上で各ブロックをそれぞれに記述された手書き画像と共に移動させる。その後、各ブロックが所定方向(例えば、下側LCD12の下方向)に自由落下するように、処理単位時間毎に各ブロックに対して加速度が与えられて、ブロック移動データDcが更新されていく。   For example, as shown in the left diagram of FIG. 23A, when the blocks A to C belong to the same group, the same movement vectors Vba to Vbc are given to the center positions Pba to Pbc of the blocks A to C, respectively. The same moving speed and the initial speed in the same moving direction are given to A to C, respectively. Then, the CPU 31 moves each block together with the handwritten image described on the 3D texture layer L3D according to the movement data (movement speed, movement direction) of each block described in the block movement data Dc. Thereafter, acceleration is given to each block for each processing unit time so that each block freely falls in a predetermined direction (for example, the lower direction of the lower LCD 12), and the block movement data Dc is updated.

このように、各ブロックに対して移動速度を与えることによって、各ブロックに記述された手書き画像を移動させて下側LCD12に表示することができる。ここで、同じグループに属するブロックについては、同じ移動速度および同じ移動方向が常に与えられ、異なるグループ間では異なる移動速度や異なる移動方向が与えられるため、ブロックがグループ毎に一体となって移動することになり、あたかもグループ単位に分割された手書き画像(手書き文字Ihw1)がその分割単位で移動するように表現される(図23Aの右図参照)。そして、各ブロックには所定方向の加速度が作用しているため、各ブロックは、やがて下側LCD12の表示範囲外まで移動し、各ブロックに記述された手書き画像が下側LCD12から消去されることになる(図3〜図6参照)。   Thus, by giving a moving speed to each block, the handwritten image described in each block can be moved and displayed on the lower LCD 12. Here, for the blocks belonging to the same group, the same movement speed and the same movement direction are always given, and different movement speeds and different movement directions are given between different groups, so that the blocks move together for each group. Thus, the handwritten image (handwritten character Ihw1) divided into groups is represented as if it moved in the divided units (see the right figure in FIG. 23A). Since acceleration in a predetermined direction acts on each block, each block eventually moves out of the display range of the lower LCD 12, and the handwritten image described in each block is erased from the lower LCD 12. (See FIGS. 3 to 6).

なお、上述した説明では、各ブロックが所定方向に自由落下するように、各ブロックに対して加速度が与えられる例を用いたが、当該加速度が与えられなくてもかまわない。この場合、各ブロックに与えられた初速度によって各ブロックが移動することになるため、グループ単位に分割された手書き画像が四方八方に飛び散って移動するように表現される。   In the above description, an example in which acceleration is given to each block so that each block freely falls in a predetermined direction is used. However, the acceleration may not be given. In this case, each block moves according to the initial speed given to each block, so that the handwritten image divided into groups is expressed as being scattered in all directions.

図11に戻り、上記ステップ57の演出表示処理の後、CPU31は、当該演出表示処理が終了したか否かを判断する(ステップ58)。そして、CPU31は、上記演出表示処理が終了していない場合、上記ステップ57の処理を継続する。一方、CPU31は、上記演出表示処理が終了した場合、次のステップ60に処理を進める。   Returning to FIG. 11, after the effect display process of step 57, the CPU 31 determines whether or not the effect display process is completed (step 58). And CPU31 continues the process of the said step 57, when the said production | presentation display process is not complete | finished. On the other hand, CPU31 advances a process to the following step 60, when the said production | presentation display process is complete | finished.

一方、上記ステップ52で取得した操作データが、手書き入力や全消去を示すデータでない場合(ステップ53およびステップ55が何れもNo)、CPU31は、当該操作データに応じたその他の処理を行い(ステップ59)、次のステップ60に処理を進める。   On the other hand, when the operation data acquired in step 52 is not data indicating handwritten input or complete erasure (both step 53 and step 55 are No), the CPU 31 performs other processing according to the operation data (step 59) The process proceeds to the next step 60.

ステップ60において、CPU31は、画像処理を終了するか否かを判断する。画像処理を終了する条件としては、例えば、画像処理が終了する条件が満たされたことや、ユーザが画像処理を終了する操作を行ったこと等がある。CPU31は、画像処理を終了しない場合に上記ステップ52に戻って処理を繰り返し、画像処理を終了する場合に当該フローチャートによる処理を終了する。   In step 60, the CPU 31 determines whether or not to end the image processing. Examples of the condition for ending the image processing include that the condition for ending the image processing is satisfied, and that the user performs an operation for ending the image processing. The CPU 31 returns to step 52 when the image processing is not ended, repeats the processing, and ends the processing according to the flowchart when the image processing is ended.

このように、本実施形態に係るゲーム装置1は、ユーザ操作による手書き入力によって表示された手書き画像を、ユーザ操作によって全消去する際、手書き画像が分解され、当該分解されたグループ毎に異なる移動をする。したがって、ユーザが手書き入力によって落書きしてその落書きを消すような全消去操作に対して、新たな演出効果が加えられるため、ユーザにとって面白みを感じる操作となる。   As described above, when the game apparatus 1 according to the present embodiment erases all the handwritten images displayed by the handwritten input by the user operation by the user operation, the handwritten image is decomposed, and the movement different for each of the decomposed groups. do. Therefore, since a new effect is added to the entire erasing operation in which the user doodles by handwriting input and erases the graffiti, the operation feels interesting to the user.

なお、上述した手書き画像の分解処理は、ユーザが手書き入力した画像に対して連続している部分毎にグループに分解しているが、他の態様で画像を分解してもかまわない。例えば、全消去の対象となる画像の色毎に分解したり、全消去の対象となる画像を入力したユーザの入力ストローク(例えば、タッチパネル13がタッチオンされてからタッチオフされるまでの間に入力された自由線)毎に分解したり、全消去の対象となる画像のエッジを抽出して当該エッジで分解したり、表示画面を予め設定された形状(例えば、所定形状の網の目状)に分割して全消去の対象となる画像を当該形状で分解したりしてもかまわない。ユーザの入力ストローク毎に分解する場合、ユーザが手書き入力した履歴(例えば、タッチパネル13に入力したタッチ位置の履歴)を記憶しておけば、手書き画像を入力ストローク毎に分解することが可能となる。   Note that the handwriting image decomposition process described above is divided into groups for each continuous portion of the image handwritten by the user, but the image may be decomposed in another manner. For example, an input stroke of a user who has decomposed each color of an image to be erased or has input an image to be erased (for example, input from touch panel 13 to touch-off) Each free line), extracting the edges of the image to be completely erased and disassembling the edges, or displaying the display screen in a preset shape (for example, a mesh of a predetermined shape) It is also possible to divide and decompose an image to be completely erased in this shape. When disassembling each input stroke of the user, if a history of handwriting input by the user (for example, a history of touch positions input to the touch panel 13) is stored, a handwritten image can be decomposed for each input stroke. .

また、上述した手書き画像の分解処理は、当該手書き画像を所定の分割領域(ブロック)に分割し、当該分割領域を当該手書き画像に基づいてグループ化しているため、分解処理の処理負荷が軽減される効果がある。しかしながら、このような効果を期待しない場合、他の方式で手書き画像を分解してもかまわない。例えば、手書き画像を示す画素群に対して、互いに隣接している画素を同じグループに設定するようにそれぞれの画素をグループ化してもかまわない。   Moreover, since the handwritten image decomposition process described above divides the handwritten image into predetermined divided areas (blocks) and groups the divided areas based on the handwritten image, the processing load of the decomposition process is reduced. There is an effect. However, when such an effect is not expected, the handwritten image may be decomposed by another method. For example, each pixel may be grouped so that pixels adjacent to each other are set in the same group with respect to the pixel group indicating the handwritten image.

また、上述した実施形態では、ユーザ操作による手書き入力によって表示された手書き文字、手書き線、手書きスタンプ等の手書き画像を全消去操作の対象としたが、他の画像を本発明の全消去操作の対象としてもかまわない。例えば、ユーザが内側カメラ23または外側カメラ25によって取り込んだ画像データに基づいた撮像画像や、撮像画像を所定の記憶媒体に一旦記憶した画像データに基づいた撮影画像等、ゲーム装置1の下側LCD12および/または上側LCD22に表示可能な画像を上記全消去対象としてもかまわない。具体的には、ユーザは、ゲーム装置1の操作ボタン14Gまたは操作ボタン14Hを押下することによって、内側カメラ23または外側カメラ25を用いた撮影指示を行うことができる。そして、上記撮影処理によって、内側カメラ23または外側カメラ25で撮像されている画像を、保存用データメモリ34やメモリカード28に記憶(保存)することができる。このような撮影処理によって得られた画像やリアルタイムに撮像されている画像を、CPU31が上記分解処理の対象画像として用いればよい。この場合、上述した色毎に対象画像を分解したり、エッジ抽出によって対象画像をエッジで分解したり、予め設定された形状で対称画像を分解したりすることによって、上記手書き画像と同様の全消去処理時の演出が可能となる。   Further, in the above-described embodiment, handwritten images such as handwritten characters, handwritten lines, and handwritten stamps displayed by handwriting input by a user operation are targeted for all erasing operations, but other images are subjected to all erasing operations of the present invention. It does not matter as a target. For example, the lower LCD 12 of the game apparatus 1 such as a captured image based on image data captured by the user with the inner camera 23 or the outer camera 25 or a captured image based on image data in which the captured image is temporarily stored in a predetermined storage medium. And / or an image that can be displayed on the upper LCD 22 may be the object of all erasure. Specifically, the user can issue a shooting instruction using the inner camera 23 or the outer camera 25 by pressing the operation button 14G or the operation button 14H of the game apparatus 1. Then, the image picked up by the inner camera 23 or the outer camera 25 can be stored (saved) in the saving data memory 34 or the memory card 28 by the shooting process. The CPU 31 may use an image obtained by such shooting processing or an image captured in real time as a target image for the above-described decomposition processing. In this case, the target image is decomposed for each color described above, the target image is decomposed at the edge by edge extraction, or the symmetric image is decomposed in a preset shape, so that all the same as the handwritten image is obtained. An effect at the time of erasure processing is possible.

また、上述した演出表示処理では、分解された手書き画像を異なる方向へそれぞれ移動させて消去する演出例を用いたが、分解された画像単位で当該画像が移動したり表示角度が変化したり変形したりする他のアニメーション演出処理を行ってもかまわない。例えば、分解された手書き画像を、それぞれ回転移動させて消去したり、それぞれ縮小して消去したり、それぞれ拡大させながら透明度を変化させて消去したりしてもかまわない。   Further, in the above-described effect display processing, an example of an effect in which the decomposed handwritten image is moved and deleted in different directions is used, but the image is moved or the display angle is changed or deformed in units of decomposed images. You may perform other animation production processing. For example, the disassembled handwritten image may be erased by rotating and erasing, erasing by reducing each, or erasing by changing the transparency while enlarging each.

ここで、上述した演出表示処理では、図23Aに示したように同じグループに属するブロックそれぞれに対して同じ移動ベクトルを与えることによって、当該グループを一体的に移動している。しかしながら、上述したように当該グループを回転させる場合は、当該グループに属するブロックそれぞれに異なる移動ベクトルを与えることになる。   Here, in the effect display process described above, the group is moved integrally by giving the same movement vector to each block belonging to the same group as shown in FIG. 23A. However, when the group is rotated as described above, different movement vectors are given to the blocks belonging to the group.

例えば、図23Bに示すように、ブロックA〜Cが同じグループに属し、ブロックA〜Cを一体的に回転させる場合を想定する。この場合、ブロックA〜Cの重心Pg1からブロックA〜Cそれぞれの中心位置Pba〜Pbcまでの距離に応じて、重心Pg1を中心にそれぞれのブロックA〜Cを同じ回転方向へ移動させる移動ベクトルVra〜Vrcを算出する。そして、重心Pg1を中心にブロックA〜Cがそれぞれ移動した移動角度θだけ、中心位置Pba〜Pbcを中心にブロックA〜Cを角度θ回転させる。これによって、グループ単位に分割された手書き画像(手書き文字Ihw1)がその分割単位で回転するように表現される(図23Bの右図参照)。このような回転のための移動ベクトルVra〜Vrcに、上述した移動のための移動ベクトルVba〜Vbcを加えることによって、表示画面内を分割された手書き画像が回転しながら移動するような演出表示も可能となることは言うまでもない。   For example, as shown in FIG. 23B, it is assumed that the blocks A to C belong to the same group and the blocks A to C are rotated together. In this case, according to the distance from the center of gravity Pg1 of the blocks A to C to the center positions Pba to Pbc of the blocks A to C, the movement vector Vra that moves each of the blocks A to C around the center of gravity Pg1 in the same rotational direction. Calculate ~ Vrc. Then, the blocks A to C are rotated by the angle θ about the center positions Pba to Pbc by the movement angle θ that the blocks A to C have moved about the center of gravity Pg1. As a result, the handwritten image (handwritten character Ihw1) divided into groups is represented so as to rotate in the divided units (see the right figure in FIG. 23B). By adding the above-described movement vectors Vba to Vbc to the movement vectors Vra to Vrc for such rotation, there is also an effect display in which the handwritten image divided in the display screen moves while rotating. It goes without saying that it will be possible.

また、上述した画像処理では、ユーザが全消去操作を行った場合に分割された手書き画像がそれぞれ演出表示される例を用いたが、ユーザが部分消去操作を行った場合にも同様の演出表示を行ってもかまわない。例えば、ユーザが消去する範囲を指定する操作を行った場合、当該範囲内に含まれるブロックにのみ上述した画像分解処理を行って演出表示処理を行い、当該範囲外のブロックに記述された手書き画像をペイントレイヤーLpaint(図22参照)に載せたままに保持すれば、部分消去であっても本発明を適用することが可能となる。   Further, in the above-described image processing, an example is used in which the handwritten image divided when the user performs a complete erasure operation is displayed as an effect. However, the same effect display is also performed when the user performs a partial erasure operation. You can go. For example, when the user performs an operation for designating a range to be erased, the above-described image decomposition process is performed only on the blocks included in the range, the effect display process is performed, and the handwritten image described in the block outside the range Is held on the paint layer Lpaint (see FIG. 22), the present invention can be applied even to partial erasure.

また、上述した演出表示処理では、ユーザが行う全消去操作に応じて、分割された手書き画像がそれぞれ下側LCD12の表示範囲外まで移動し、各手書き画像が下側LCD12から消去される例を示したが、本発明は各手書き画像の表示位置または表示態様がそれぞれ変更されれば表示画面から消去されなくても適用可能である。ここで、分解された手書き画像の表示態様を変更するとは、分解された手書き画像毎に形状(拡大、縮小等)を変化させる、分解された手書き画像毎に表示方向を変化(回転)させる、分解された手書き画像毎に色を変化させる、分解された手書き画像毎に点滅させる、分解された手書き画像毎に透明度を変化させる等の処理を含んでいる。例えば、ユーザが行う全消去操作に応じて、分割された手書き画像がそれぞれ下側LCD12の所定位置で重なり合って集合するように各手書き画像が移動するようにしてもかまわない。また、ユーザが行う所定操作(この場合、全消去操作でなくてもよい)に応じて、分割された手書き画像がそれぞれ下側LCD12内を浮遊して移動するように各手書き画像が移動するようにしてもかまわない。さらに、ユーザが行う所定操作(この場合、全消去操作でなくてもよい)に応じて、分割された手書き画像をそれぞれ異なる色に変化させたり、それぞれ異なるタイミングで点滅させたりして、下側LCD12に表示してもかまわない。   Further, in the above-described effect display process, an example in which the divided handwritten images are moved out of the display range of the lower LCD 12 according to the all erasing operation performed by the user, and each handwritten image is erased from the lower LCD 12. Although shown, if the display position or display mode of each handwritten image is changed, the present invention can be applied without being erased from the display screen. Here, changing the display mode of the decomposed handwritten image changes the shape (enlargement, reduction, etc.) for each decomposed handwritten image, changes (rotates) the display direction for each decomposed handwritten image, The process includes changing the color for each decomposed handwritten image, blinking for each decomposed handwritten image, changing the transparency for each decomposed handwritten image, and the like. For example, each handwritten image may be moved so that the divided handwritten images are overlapped and gathered at predetermined positions on the lower LCD 12 in accordance with a total erasing operation performed by the user. In addition, each handwritten image is moved so that the divided handwritten image floats and moves in the lower LCD 12 according to a predetermined operation (in this case, not all erasing operation) performed by the user. It doesn't matter. Furthermore, depending on a predetermined operation performed by the user (in this case, not all erasing operation), the divided handwritten images are changed to different colors or blinked at different timings, and the lower side It may be displayed on the LCD 12.

また、図22を用いて説明したように、ユーザが手書き文字や手書きスタンプ等を入力した場合、当該入力に応じた手書き画像がペイントレイヤーLpaintに載せられる例を用いたが、手書き画像を他のレイヤーに載せて表示してもかまわない。例えば、ユーザが手書き文字や手書きスタンプ等を入力した場合、当該入力に応じた手書き画像を3DテクスチャーレイヤーL3Dに載せて当該手書き画像を表示してもかまわない。   In addition, as described with reference to FIG. 22, when a user inputs a handwritten character, a handwritten stamp, or the like, an example in which a handwritten image corresponding to the input is placed on the paint layer Lpaint is used. You can display it on a layer. For example, when a user inputs a handwritten character or a handwritten stamp, the handwritten image corresponding to the input may be displayed on the 3D texture layer L3D to display the handwritten image.

また、上述した実施形態では、2画面分の液晶表示部の一例として、物理的に分離された下側LCD12および上側LCD22を互いに上下に配置した場合(上下2画面の場合)を説明した。しかしながら、2画面分の表示画面の構成は、他の構成でもかまわない。例えば、下側ハウジング11の一方主面に下側LCD12および上側LCD22を左右に配置してもかまわない。また、下側LCD12と横幅が同じで縦の長さが2倍のサイズからなる縦長サイズのLCD(すなわち、物理的には1つで、表示サイズが縦に2画面分あるLCD)を下側ハウジング11の一方主面に配設して、2つの画像(例えば、撮像画像と操作説明画面を示す画像等)を上下に表示(すなわち上下の境界部分無しに隣接して表示)するように構成してもよい。また、下側LCD12と縦幅が同じで横の長さが2倍のサイズからなる横長サイズのLCDを下側ハウジング11の一方主面に配設して、横方向に2つの画像を左右に表示(すなわち左右の境界部分無しに隣接して表示)するように構成してもよい。すなわち、物理的に1つの画面を2つに分割して使用することにより2つの画像を表示してもかまわない。いずれの画像の形態に対しても、上述した下側LCD12に表示していたまた、物理的に1つの画面を2つに分割して使用することにより上記2つの画像を表示する場合、当該画面全面にタッチパネル13を配設してもかまわない。   In the above-described embodiment, the case where the physically separated lower LCD 12 and upper LCD 22 are arranged one above the other as an example of the liquid crystal display unit for two screens (in the case of two upper and lower screens) has been described. However, the configuration of the display screen for two screens may be other configurations. For example, the lower LCD 12 and the upper LCD 22 may be arranged on the left and right on one main surface of the lower housing 11. In addition, the lower LCD 12 is the same as the lower LCD 12 and has a vertically long LCD that is twice as long as the lower LCD 12 (that is, an LCD that is physically one and has two display screens vertically). Arranged on one main surface of the housing 11 so that two images (for example, an image showing a captured image and an operation explanation screen) are displayed up and down (that is, displayed adjacent to each other without an upper and lower boundary portion). May be. In addition, a horizontally long LCD having the same vertical width as that of the lower LCD 12 and having a width twice as large as that of the lower LCD 12 is disposed on one main surface of the lower housing 11 so that two images are horizontally displayed on the left and right. You may comprise so that it may display (namely, it adjoins without a right-and-left boundary part). That is, two images may be displayed by physically dividing one screen into two. When any of the image forms is displayed on the lower LCD 12 described above, or when the two images are displayed by physically dividing the screen into two, the screen The touch panel 13 may be provided on the entire surface.

また、上述した実施例では、ゲーム装置1にタッチパネル13が一体的に設けられているが、ゲーム装置とタッチパネルとを別体にして構成しても、本発明を実現できることは言うまでもない。また、上側LCD22の上面にタッチパネル13を設けて上側LCD22に上述した下側LCD12に表示していた表示画像を表示しても良い。さらに、上記実施例では表示画面を2つ(下側LCD12、上側LCD22)を設けたが、表示画面は1つであってもかまわない。すなわち、上記実施例において、上側LCD22を設けず単に下側LCD12のみを表示画面としてタッチパネル13を設けるように構成してもよい。また、上記実施例において、下側LCD12を設けずに上側LCD22の上面にタッチパネル13を設けて、上述した下側LCD12に表示していた表示画像を上側LCD22に表示しても良い。   In the above-described embodiment, the touch panel 13 is integrally provided in the game apparatus 1. However, it goes without saying that the present invention can be realized even if the game apparatus and the touch panel are configured separately. In addition, the touch panel 13 may be provided on the upper surface of the upper LCD 22 and the display image displayed on the lower LCD 12 described above may be displayed on the upper LCD 22. Furthermore, although two display screens (lower LCD 12 and upper LCD 22) are provided in the above embodiment, the number of display screens may be one. That is, in the above-described embodiment, the touch panel 13 may be provided with only the lower LCD 12 as a display screen without providing the upper LCD 22. In the above embodiment, the touch panel 13 may be provided on the upper surface of the upper LCD 22 without providing the lower LCD 12, and the display image displayed on the lower LCD 12 may be displayed on the upper LCD 22.

また、上記実施例では、座標入力を実現するゲーム装置1の入力手段としてタッチパネル13を用いたが、他のポインティングデバイスを用いてもかまわない。ここで、ポインティングデバイスは、画面上での入力位置や座標を指定する入力装置であり、例えば、マウス、トラックパッド、トラックボール、ペンタブレット、ジョイスティック等を入力手段として使用し、入力手段から出力される出力値から計算された画面座標系の位置情報を用いれば、本発明を同様に実現することができる。   Moreover, in the said Example, although the touch panel 13 was used as an input means of the game device 1 which implement | achieves a coordinate input, you may use another pointing device. Here, the pointing device is an input device for designating an input position and coordinates on the screen. For example, a pointing device such as a mouse, a track pad, a track ball, a pen tablet, or a joystick is used as an input unit, and is output from the input unit. If the position information of the screen coordinate system calculated from the output value is used, the present invention can be similarly realized.

また、ゲームコントローラをプレイヤが把持してゲームを楽しむ据置型のゲーム装置の場合、他の態様のポインティングデバイスも考えられる。例えば、ゲームコントローラのハウジングに固設されたカメラを、上記ポインティングデバイスとして利用することも可能である。この場合、ゲームコントローラのハウジングで指し示した位置の変化に応じてカメラが撮像する撮像画像が変化する。したがって、この撮像画像を解析することにより、表示画面に対して上記ハウジングで指し示した座標を算出することができる。   In addition, in the case of a stationary game device in which a player holds a game controller and enjoys a game, a pointing device of another aspect is also conceivable. For example, a camera fixed to the housing of the game controller can be used as the pointing device. In this case, the captured image captured by the camera changes in accordance with the change in position indicated by the housing of the game controller. Therefore, by analyzing this captured image, it is possible to calculate the coordinates indicated by the housing with respect to the display screen.

この場合、上記ハウジングで指し示した位置を示す座標を、上述した処理におけるタッチ座標として取り扱えば本発明を実現することが可能である。ただし、タッチパネル入力におけるタッチオンまたはタッチオフ等の入力有無判定については、上記座標入力とは異なった上記ゲームコントローラからの他の入力の有無や変化によって代用する。第1の例として、上記ゲームコントローラに設けられた操作ボタンの押下(例えば、Aボタンを押下しているときタッチオン)しているか否かによって、上記タッチオンまたはタッチオフの判定を代用する。第2の例では、上記ゲームコントローラが2つのハウジングで構成されている。そして、これら2つのハウジングは、上記カメラが搭載されている一方ハウジングと、他方のハウジングの動きに応じた信号を出力する加速度センサ等の検出部が固設された当該他方のハウジングとで構成される。この場合、他方のハウジングの動き(例えば、ハウジングを所定方向に傾けているときにタッチオン)に応じて、上記タッチオンまたはタッチオフの判定を代用する。第3の例では、上記ゲームコントローラのハウジングにマイク等の音声入力手段が設けられている。この場合、プレイヤが所定の音声を発したときにタッチオンおよびタッチオフが切り替わる判定で代用する。   In this case, the present invention can be realized by handling the coordinates indicating the position indicated by the housing as the touch coordinates in the above-described processing. However, the input presence / absence determination such as touch-on or touch-off in the touch panel input is substituted by the presence / absence or change of another input from the game controller different from the coordinate input. As a first example, the touch-on or touch-off determination is substituted depending on whether an operation button provided in the game controller is pressed (for example, touch-on when the A button is pressed). In the second example, the game controller is composed of two housings. These two housings are composed of one housing on which the camera is mounted and the other housing on which a detection unit such as an acceleration sensor that outputs a signal corresponding to the movement of the other housing is fixed. The In this case, the touch-on or touch-off determination is substituted according to the movement of the other housing (for example, touch-on when the housing is tilted in a predetermined direction). In the third example, voice input means such as a microphone is provided in the housing of the game controller. In this case, a determination that the touch-on and the touch-off are switched when the player makes a predetermined sound is substituted.

また、上記実施例では、携帯型のゲーム装置1や据置型のゲーム装置を用いて説明したが、一般的なパーソナルコンピュータ等の情報処理装置で本発明の画像処理プログラムを実行して、本発明を実現してもかまわない。   In the above embodiments, the portable game apparatus 1 and the stationary game apparatus have been described. However, the image processing program of the present invention is executed by an information processing apparatus such as a general personal computer to execute the present invention. May be realized.

また、上述したゲーム装置1の形状や、それに設けられている各種操作ボタン14やタッチパネル13の形状、数、および設置位置等は、単なる一例に過ぎず他の形状、数、および設置位置であっても、本発明を実現できることは言うまでもない。また、上述した画像処理で用いられる処理順序等は、単なる一例に過ぎず他の順序であっても、本発明を実現できることは言うまでもない。例えば、上述した処理順序では、ブロック間の接続関係を判定する順序が右側ブロック、上側ブロック、左側ブロック、下側ブロックの順になっているが、他の順序でブロック間の接続関係を判定してもかまわない。   In addition, the shape of the game apparatus 1 described above, the shapes, numbers, and installation positions of the various operation buttons 14 and the touch panel 13 provided on the game apparatus 1 are merely examples, and other shapes, numbers, and installation positions. However, it goes without saying that the present invention can be realized. Further, the processing order used in the above-described image processing is merely an example, and it goes without saying that the present invention can be realized even in other orders. For example, in the processing order described above, the order of determining the connection relationship between the blocks is the right block, the upper block, the left block, and the lower block, but the connection relationship between the blocks is determined in another order. It doesn't matter.

以上、本発明を詳細に説明してきたが、前述の説明はあらゆる点において本発明の例示にすぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。   Although the present invention has been described in detail above, the above description is merely illustrative of the present invention in all respects and is not intended to limit the scope thereof. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention.

本発明の画像処理プログラムおよび画像処理装置は、ユーザ操作によって表示された画像を、ユーザ操作に応じて処理する際、新たな演出効果を加えて当該画像を処理することができ、ユーザ操作に応じた手書き画像を表示する装置等に有用であり、これらの装置で実行されるプログラム等としても有用である。   When the image processing program and the image processing apparatus of the present invention process an image displayed by a user operation according to the user operation, the image processing program and the image processing apparatus can process the image with a new effect. It is useful for devices that display handwritten images, and is also useful as a program that is executed by these devices.

1…ゲーム装置
11…下側ハウジング
12…下側LCD
13…タッチパネル
14…操作ボタン
15、26…LED
16…マイクロフォン用孔
21…上側ハウジング
22…上側LCD
23…内側カメラ
24…音抜き孔
25…外側カメラ
27…タッチペン
28、29…メモリカード
31…CPU
32…メインメモリ
33…メモリ制御回路
34…保存用データメモリ
35…プリセットデータ用メモリ
36、37…メモリカードI/F
38…無線通信モジュール
39…ローカル通信モジュール
40…RTC
41…電源回路
42…I/F回路
43…マイク
44…アンプ
1 ... Game device 11 ... Lower housing 12 ... Lower LCD
13 ... Touch panel 14 ... Operation buttons 15, 26 ... LED
16 ... Microphone hole 21 ... Upper housing 22 ... Upper LCD
23 ... Inner camera 24 ... Sound release hole 25 ... Outer camera 27 ... Touch pens 28, 29 ... Memory card 31 ... CPU
32 ... Main memory 33 ... Memory control circuit 34 ... Storage data memory 35 ... Preset data memory 36, 37 ... Memory card I / F
38 ... Wireless communication module 39 ... Local communication module 40 ... RTC
41 ... Power supply circuit 42 ... I / F circuit 43 ... Microphone 44 ... Amplifier

Claims (28)

ポインティングデバイスからの出力に応じて生成された画像に所定の処理を施す装置のコンピュータで実行される画像処理プログラムであって、
前記コンピュータを、
前記ポインティングデバイスの出力に基づいて、入力画像を生成する画像生成手段と、
前記画像生成手段が生成した入力画像を表示手段に表示する画像表示制御手段と、
前記画像生成手段が生成した入力画像を複数の部分画像に分解し、当該部分画像ごとに、表示位置および表示態様の少なくとも一方を変更する処理を実行する画像変更制御手段として機能させる、画像処理プログラム。
An image processing program executed by a computer of an apparatus that performs predetermined processing on an image generated in response to an output from a pointing device,
The computer,
Image generating means for generating an input image based on the output of the pointing device;
Image display control means for displaying on the display means the input image generated by the image generation means;
An image processing program that decomposes an input image generated by the image generation unit into a plurality of partial images and functions as an image change control unit that executes a process of changing at least one of a display position and a display mode for each partial image .
前記画像変更制御手段は、ユーザによって消去操作が実行された場合、当該消去操作の対象となった部分画像を対象として前記変更する処理を行って、変更後の画像を前記表示手段に表示し、当該表示後に当該対象となった部分画像を表示画面から消去する、請求項1に記載の画像処理プログラム。   The image change control means, when an erasure operation is performed by the user, performs the change process for the partial image that is the target of the erasure operation, displays the changed image on the display means, The image processing program according to claim 1, wherein the target partial image is erased from the display screen after the display. 前記画像変更制御手段は、前記入力画像の表示領域を複数画素で構成されるブロックに分割し、当該ブロックを単位として、前記入力画像を複数の部分画像に分解する、請求項1または2に記載の画像処理プログラム。   The said image change control means divides | segments the display area of the said input image into the block comprised by several pixels, and decomposes | disassembles the said input image into several partial image for the said block as a unit. Image processing program. 前記コンピュータを、前記入力画像について、連続している部分を判定する連続判定手段として、さらに機能させ、
前記画像変更制御手段は、前記連続判定手段による判定に基づいて、連続している部分が同じ部分画像に属するように、前記入力画像を複数の部分画像に分解する、請求項1または2に記載の画像処理プログラム。
Causing the computer to further function as continuous determination means for determining a continuous portion of the input image;
3. The image change control unit according to claim 1, wherein the image change control unit decomposes the input image into a plurality of partial images so that consecutive portions belong to the same partial image based on the determination by the continuous determination unit. Image processing program.
前記画像変更制御手段は、前記入力画像の表示領域を複数画素で構成されるブロックに分割し、当該ブロックを単位として、前記入力画像を複数の部分画像に分解し、
前記連続判定手段は、前記入力画像がまたがるブロックを連続していると判定し、
前記画像変更制御手段は、さらに、前記連続判定手段による判定に基づいて、連続しているブロックが同じ部分画像に属するように、前記入力画像を複数の部分画像に分解する、請求項4に記載の画像処理プログラム。
The image change control means divides the display area of the input image into blocks each composed of a plurality of pixels, decomposes the input image into a plurality of partial images in units of the block,
The continuity determining means determines that a block spanning the input image is continuous,
The said image change control means is further decomposed | disassembled into the some partial image so that the block which continues may belong to the same partial image based on the determination by the said continuous determination means. Image processing program.
前記連続判定手段は、隣接する2つの前記ブロックのいずれか一方の隣接領域に前記入力画像が含まれている場合、当該2つのブロックが連続していると判定する、請求項5に記載の画像処理プログラム。   The image according to claim 5, wherein the continuity determination unit determines that the two blocks are continuous when the input image is included in one of the adjacent regions of the two adjacent blocks. Processing program. 前記連続判定手段は、隣接する2つの前記ブロックの両方の隣接領域に前記入力画像が含まれている場合、当該2つのブロックが連続していると判定する、請求項5に記載の画像処理プログラム。   The image processing program according to claim 5, wherein the continuity determination unit determines that the two blocks are continuous when the input image is included in both adjacent regions of the two adjacent blocks. . 前記連続判定手段は、前記2つのブロックの一方ブロックの隣接領域に含まれる前記入力画像と、他方ブロックの隣接領域に含まれる前記入力画像が連続していることをさらに判定し、連続している場合に、当該2つのブロックが連続していると判定する、請求項7に記載の画像処理プログラム。   The continuous determination means further determines that the input image included in the adjacent region of one block of the two blocks and the input image included in the adjacent region of the other block are continuous, and is continuous. In this case, the image processing program according to claim 7, wherein it is determined that the two blocks are continuous. 前記連続判定手段は、或るブロックに連続していると判定した隣接ブロックにおいて、当該隣接ブロックと、当該隣接ブロックにさらに隣接する他のブロックが連続しているか否かを判定し、連続している場合に、当該或るブロックと当該隣接ブロックと当該他のブロックとが連続していると判定する、請求項5に記載の画像処理プログラム。   In the adjacent block determined to be continuous to a certain block, the continuous determination means determines whether or not the adjacent block and another block further adjacent to the adjacent block are continuous. The image processing program according to claim 5, wherein the image processing program determines that the certain block, the adjacent block, and the other block are continuous. 前記画像変更制御手段は、前記部分画像を構成する要素画像に対してそれぞれ同じ移動方向に同じ移動速度を与えることによって、前記部分画像ごとに表示位置を変更する、請求項1に記載の画像処理プログラム。   The image processing according to claim 1, wherein the image change control unit changes the display position for each partial image by giving the same moving speed in the same moving direction to the element images constituting the partial image. program. 前記画像変更制御手段は、前記連続判定手段によって、連続していると判定された各ブロックに対して、それぞれ同じ移動方向に同じ移動速度を与えることによって、前記部分画像ごとに表示位置を変更する、請求項5に記載の画像処理プログラム。   The image change control means changes the display position for each partial image by giving the same movement speed in the same movement direction to each block determined to be continuous by the continuous determination means. The image processing program according to claim 5. 前記装置は、当該装置周辺を撮像する撮像手段を備え、
前記画像表示制御手段は、前記撮像手段で撮像された撮像画像をリアルタイムで前記表示手段に表示して、前記画像生成手段が生成した入力画像を当該撮像画像に重畳して前記表示手段に表示する、請求項1または2に記載の画像処理プログラム。
The apparatus includes an imaging unit that images the periphery of the apparatus,
The image display control unit displays the captured image captured by the imaging unit on the display unit in real time, and displays the input image generated by the image generation unit superimposed on the captured image on the display unit. The image processing program according to claim 1 or 2.
前記画像生成手段は、前記ポインティングデバイスの出力に基づく手書き画像を生成する、請求項1または2に記載の画像処理プログラム。   The image processing program according to claim 1, wherein the image generation unit generates a handwritten image based on an output of the pointing device. 前記画像生成手段は、前記ポインティングデバイスの出力に基づく位置に表示される所定の合成用画像を生成する、請求項1または2に記載の画像処理プログラム。   The image processing program according to claim 1, wherein the image generation unit generates a predetermined composition image displayed at a position based on an output of the pointing device. 前記画像生成手段は、第1の前記入力画像が生成された後、前記ポインティングデバイスの出力に基づいて、第2の前記入力画像を生成し、
前記画像表示制御手段は、前記第1の入力画像と前記第2の入力画像を合成して表示し、
前記画像変更制御手段は、前記第1の入力画像および前記第2の入力画像を合成した画像を1つの画像として当該画像を分解する、請求項1または2に記載の画像処理プログラム。
The image generation means generates the second input image based on the output of the pointing device after the first input image is generated,
The image display control means combines and displays the first input image and the second input image,
The image processing program according to claim 1, wherein the image change control unit decomposes the image by combining an image obtained by combining the first input image and the second input image into one image.
前記画像変更制御手段は、ユーザによって全てを消去する消去操作が実行された場合、前記入力画像の全体を複数の部分画像に分解し、当該複数の部分画像の全てについて、表示位置および表示態様の少なくとも一方を変更する処理をそれぞれ行って前記表示手段に表示し、当該表示後に当該部分画像を全て表示画面から消去する、請求項2に記載の画像処理プログラム。   When an erasing operation for erasing all is performed by the user, the image change control means decomposes the entire input image into a plurality of partial images, and displays a display position and a display mode for all of the plurality of partial images. The image processing program according to claim 2, wherein at least one of the processes for changing is performed and displayed on the display unit, and all the partial images are erased from the display screen after the display. 前記画像変更制御手段は、前記部分画像ごとに異なる表示位置に移動させて前記表示手段に表示させる、請求項2に記載の画像処理プログラム。   The image processing program according to claim 2, wherein the image change control means moves the display image to a different display position for each partial image and displays the image on the display means. 前記画像変更制御手段は、前記部分画像ごとに前記表示画面外まで移動させることによって、当該画像を当該表示画面から消去する、請求項17に記載の画像処理プログラム。   The image processing program according to claim 17, wherein the image change control unit erases the image from the display screen by moving the partial image to the outside of the display screen. 前記画像変更制御手段は、前記部分画像ごとに異なる方向の初速度を与えた後、前記複数の部分画像に共通の特定方向の加速度を与えることによって、当該画像を当該表示画面から消去する、請求項17に記載の画像処理プログラム。   The image change control means erases the image from the display screen by giving an acceleration in a specific direction common to the plurality of partial images after giving an initial velocity in a different direction for each partial image. Item 18. The image processing program according to Item 17. 前記ポインティングデバイスは、前記表示手段の表示画面を覆うタッチパネルである、請求項1または2に記載の画像処理プログラム。   The image processing program according to claim 1, wherein the pointing device is a touch panel that covers a display screen of the display unit. 前記画像変更制御手段は、前記画像生成手段が生成した入力画像を、それぞれ画像の色毎に分解する、請求項1または2に記載の画像処理プログラム。   The image processing program according to claim 1, wherein the image change control unit decomposes the input image generated by the image generation unit for each color of the image. 前記ポインティングデバイスから出力される入力位置の履歴をメモリに記憶する入力位置履歴記憶制御手段として、さらに前記コンピュータを機能させ、
前記画像変更制御手段は、前記入力位置の履歴に基づいて、前記画像生成手段が入力画像の生成に用いた入力位置のうち、当該入力位置の出力が途切れずに連続した入力位置群から生成された入力画像毎に、前記画像生成手段が生成した入力画像を分解する、請求項1または2に記載の画像処理プログラム。
As an input position history storage control means for storing a history of input positions output from the pointing device in a memory, the computer is further functioned,
The image change control means is generated based on the history of the input positions from among the input positions that the image generation means used for generating the input images, and the output of the input positions is continuous without interruption. The image processing program according to claim 1, wherein the input image generated by the image generation unit is decomposed for each input image.
前記画像変更制御手段は、前記画像生成手段が生成した入力画像を、予め設定された網の目状に分解する、請求項1または2に記載の画像処理プログラム。   3. The image processing program according to claim 1, wherein the image change control unit decomposes the input image generated by the image generation unit into a mesh shape set in advance. 前記画像変更制御手段は、前記分解した部分画像ごとにそれぞれ回転させて前記表示手段に表示させる、請求項1に記載の画像処理プログラム。   The image processing program according to claim 1, wherein the image change control unit rotates the decomposed partial images for display on the display unit. 前記画像変更制御手段は、前記分解した部分画像ごとにそれぞれ拡大または縮小して前記表示手段に表示させる、請求項1に記載の画像処理プログラム。   The image processing program according to claim 1, wherein the image change control unit enlarges or reduces each of the decomposed partial images to display on the display unit. 前記画像変更制御手段は、前記分解した部分画像ごとにそれぞれ画像色を変更して前記表示手段に表示させる、請求項1に記載の画像処理プログラム。   The image processing program according to claim 1, wherein the image change control unit changes an image color for each of the decomposed partial images and causes the display unit to display the image color. 前記画像変更制御手段は、前記分解した部分画像ごとにそれぞれ点滅させて前記表示手段に表示させる、請求項1に記載の画像処理プログラム。   The image processing program according to claim 1, wherein the image change control unit causes each of the decomposed partial images to blink and display on the display unit. ポインティングデバイスからの出力に応じて生成された画像に所定の処理を施す画像処理装置であって、
前記ポインティングデバイスの出力に基づいて、入力画像を生成する画像生成手段と、
前記画像生成手段が生成した入力画像を表示手段に表示する画像表示制御手段と、
前記画像生成手段が生成した入力画像を複数の部分画像に分解し、当該部分画像ごとに、表示位置および表示態様の少なくとも一方を変更する処理を実行する画像変更制御手段とを備える、画像処理装置。
An image processing apparatus that performs predetermined processing on an image generated according to an output from a pointing device,
Image generating means for generating an input image based on the output of the pointing device;
Image display control means for displaying on the display means the input image generated by the image generation means;
An image processing apparatus comprising: an image change control unit that decomposes the input image generated by the image generation unit into a plurality of partial images and executes a process of changing at least one of a display position and a display mode for each partial image. .
JP2013080616A 2013-04-08 2013-04-08 Image processing program, image processing device, image processing method, and image processing system Pending JP2013175209A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013080616A JP2013175209A (en) 2013-04-08 2013-04-08 Image processing program, image processing device, image processing method, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013080616A JP2013175209A (en) 2013-04-08 2013-04-08 Image processing program, image processing device, image processing method, and image processing system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008227515A Division JP5415730B2 (en) 2008-09-04 2008-09-04 Image processing program, image processing apparatus, image processing method, and image processing system

Publications (1)

Publication Number Publication Date
JP2013175209A true JP2013175209A (en) 2013-09-05

Family

ID=49267993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013080616A Pending JP2013175209A (en) 2013-04-08 2013-04-08 Image processing program, image processing device, image processing method, and image processing system

Country Status (1)

Country Link
JP (1) JP2013175209A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009207730A (en) * 2008-03-05 2009-09-17 Sega Toys:Kk Display toy

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009207730A (en) * 2008-03-05 2009-09-17 Sega Toys:Kk Display toy

Similar Documents

Publication Publication Date Title
JP5415730B2 (en) Image processing program, image processing apparatus, image processing method, and image processing system
JP4326568B2 (en) Information processing apparatus and information processing program
JP6074170B2 (en) Short range motion tracking system and method
US9454834B2 (en) Storage medium storing image processing program for implementing controlled image display according to input coordinate, and information processing device
JP5170771B2 (en) Drawing processing program, information processing apparatus, information processing system, and information processing control method
JP5274187B2 (en) Image processing program, information processing apparatus, image processing method, and image processing system
JP2013037675A5 (en)
KR20140005141A (en) Three dimensional user interface effects on a display by using properties of motion
TW201214199A (en) A system for portable tangible interaction
JP5457768B2 (en) Object moving game program and object moving game apparatus
EP3814876B1 (en) Placement and manipulation of objects in augmented reality environment
JP5437726B2 (en) Information processing program, information processing apparatus, information processing system, and coordinate calculation method
US8643679B2 (en) Storage medium storing image conversion program and image conversion apparatus
JP5378742B2 (en) Image processing program and image processing apparatus
JP5350003B2 (en) Information processing apparatus, information processing program, information processing system, and information processing method
JP5725519B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP2013175209A (en) Image processing program, image processing device, image processing method, and image processing system
JP2010079589A (en) Image processing program and image processor
JP2011186869A (en) Image processing program, image processing device, image processing method and image processing system
JP5738372B2 (en) Information processing apparatus, information processing program, information processing system, and information processing method
JP5738351B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5483654B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
CN115494992A (en) Region division method, device and equipment for virtual scene
JP5740700B2 (en) GAME DEVICE AND GAME PROGRAM
JP5570633B2 (en) Image processing program, image processing apparatus, and image processing method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20140205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140604