JP2013175209A - Image processing program, image processing device, image processing method, and image processing system - Google Patents
Image processing program, image processing device, image processing method, and image processing system Download PDFInfo
- Publication number
- JP2013175209A JP2013175209A JP2013080616A JP2013080616A JP2013175209A JP 2013175209 A JP2013175209 A JP 2013175209A JP 2013080616 A JP2013080616 A JP 2013080616A JP 2013080616 A JP2013080616 A JP 2013080616A JP 2013175209 A JP2013175209 A JP 2013175209A
- Authority
- JP
- Japan
- Prior art keywords
- image
- block
- display
- input
- processing program
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像処理プログラムおよび画像処理装置に関し、より特定的には、表示された画像を消去する画像処理プログラムおよび画像処理装置に関する。 The present invention relates to an image processing program and an image processing apparatus, and more specifically to an image processing program and an image processing apparatus for deleting a displayed image.
従来、ユーザ操作に応じて、表示された画像を消去する装置が各種開発されている(例えば、特許文献1参照)。上記特許文献1で開示されたゲーム装置は、プレイヤの手書き入力に応じた手書き画像が表示される。そして、当該ゲーム装置は、プレイヤが所定の消去操作を行うことによって、表示された手書き画像が消去される。例えば、プレイヤが全消去ボタンを操作した場合、それまで表示されていた手書き画像の線種別が波線となり、描画色が変更(例えば、淡色に変更)されて表示される。
2. Description of the Related Art Conventionally, various devices for erasing displayed images in response to user operations have been developed (see, for example, Patent Document 1). The game device disclosed in
しかしながら、上記特許文献1で開示されたゲーム装置は、手書き画像全体の線種別および描画色を変更することによって消去しているだけであるので、ユーザが消去操作したとしてもその操作に対する演出効果もなく、操作に対するイベント性が薄い。したがって、ユーザは、消去操作自体に面白みを感じないため、手書き画像を消去する消去操作自体が単なる画一的な操作として取り扱われてしまう。つまり、上記特許文献1で開示されたゲーム装置は、ユーザ操作(消去操作)に応じて、手書き画像全体に対する処理が行われるため、当該手書き画像に対して新規な演出効果を得ることが難しいものであった。
However, since the game device disclosed in
それ故に、本発明の目的は、ユーザ操作によって表示された画像を、ユーザ操作に応じて処理する際、新たな演出効果を加えて当該画像を処理する画像処理プログラムおよび画像処理装置を提供することである。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide an image processing program and an image processing apparatus for processing an image displayed by a user operation according to the user operation by adding a new effect to the image. It is.
本発明は、上記の課題を解決するために、以下の構成を採用した。なお、本欄における括弧内の参照符号、ステップ番号、および補足説明等は、本発明の理解を助けるために後述する実施形態との対応関係を示したものであって、本発明を何ら限定するものではない。 The present invention employs the following configuration in order to solve the above problems. Note that reference numerals in parentheses, step numbers, supplementary explanations, and the like in this column indicate correspondence with embodiments described later in order to help understanding of the present invention, and limit the present invention in any way. It is not a thing.
第1の発明は、ポインティングデバイス(13)からの出力に応じて生成された画像(Ihw、Ist)に所定の処理を施す装置のコンピュータ(31)で実行される画像処理プログラムである。画像処理プログラムは、画像生成手段(ステップ54を実行するCPU31;以下、ステップ番号のみを記載する)、画像表示制御手段(S54)、および画像変更制御手段(S56、S57)として、コンピュータを機能させる。画像生成手段は、ポインティングデバイスの出力に基づいて、入力画像(Ihw、Ist)を生成する。画像表示制御手段は、画像生成手段が生成した入力画像を表示手段(12)に表示する。画像変更制御手段は、画像生成手段が生成した入力画像を複数の部分画像(Ihw1〜Ihw5、Istn)に分解し、当該部分画像ごとに、表示位置および表示態様の少なくとも一方を変更する処理を実行する。なお、ポインティングデバイスは、画面上での入力位置や座標を指定する入力装置であり、例えば、タッチパネル、マウス、トラックパッド、トラックボール、ペンタブレット、ジョイスティック、ゲームコントローラのハウジングで指し示された画面位置を検出するシステム等で実現される。また、表示位置または表示態様を変更する処理は、分解された画像毎に移動させる処理、分解された画像毎に形状(拡大、縮小等)を変化させる処理、分解された画像毎に表示方向を変化(回転)させる処理、分解された画像毎に色を変化させる処理、分解された画像毎に点滅させる処理、分解された画像毎に透明度を変化させる処理等を含んでいる。なお、表示位置または表示態様を変更する処理は、入力画像の全体ではなく、入力画像の一部を対象としてもよい。
The first invention is an image processing program executed by a computer (31) of an apparatus that performs a predetermined process on an image (Ihw, Ist) generated in response to an output from a pointing device (13). The image processing program causes the computer to function as image generation means (
第2の発明は、上記第1の発明において、画像変更制御手段は、ユーザによって消去操作が実行された場合、当該消去操作の対象となった部分画像を対象として変更する処理を行って、変更後の画像を表示手段に表示し、当該表示後に当該対象となった部分画像を表示画面から消去する。なお、消去操作の対象となる部分画像は、入力画像の全てであってもいいし、入力画像の一部であってもよい。 In a second aspect based on the first aspect, when the user performs an erasing operation, the image change control means performs a process of changing the partial image that is the target of the erasing operation as a target. The subsequent image is displayed on the display means, and the partial image that is the target after the display is deleted from the display screen. Note that the partial image to be erased may be the entire input image or a part of the input image.
第3の発明は、上記第1または第2の発明において、画像変更制御手段は、入力画像の表示領域を複数画素で構成されるブロックに分割し(S71)、当該ブロックを単位として、入力画像を複数の部分画像に分解する。 In a third aspect based on the first or second aspect, the image change control means divides the display area of the input image into blocks each composed of a plurality of pixels (S71), and the input image in units of the block. Is decomposed into a plurality of partial images.
第4の発明は、上記第1または第2の発明において、連続判定手段(S76、S94、S114、S134、S153)として、さらに機能させる。連続判定手段は、入力画像について、連続している部分を判定する。画像変更制御手段は、連続判定手段による判定に基づいて、連続している部分が同じ部分画像に属するように、入力画像を複数の部分画像に分解する。 According to a fourth aspect of the present invention, in the first or second aspect of the present invention, the continuous determination means (S76, S94, S114, S134, S153) further functions. The continuous determination means determines a continuous portion of the input image. The image change control means decomposes the input image into a plurality of partial images based on the determination by the continuous determination means so that the continuous parts belong to the same partial image.
第5の発明は、上記第4の発明において、画像変更制御手段は、入力画像の表示領域を複数画素で構成されるブロックに分割し、当該ブロックを単位として、入力画像を複数の部分画像に分解する。連続判定手段は、入力画像がまたがるブロックを連続していると判定する。画像変更制御手段は、さらに、連続判定手段による判定に基づいて、連続しているブロックが同じ部分画像に属するように、入力画像を複数の部分画像に分解する。 In a fifth aspect based on the fourth aspect, the image change control means divides the display area of the input image into blocks each composed of a plurality of pixels, and the input image is divided into a plurality of partial images in units of the block. Decompose. The continuity determining means determines that the blocks spanned by the input image are continuous. The image change control means further decomposes the input image into a plurality of partial images so that consecutive blocks belong to the same partial image based on the determination by the continuous determination means.
第6の発明は、上記第5の発明において、連続判定手段は、隣接する2つのブロックのいずれか一方の隣接領域に入力画像が含まれている場合、当該2つのブロックが連続していると判定する(図20判断基準A)。 In a sixth aspect based on the fifth aspect, if the input image is included in one of the adjacent areas of the two adjacent blocks, the continuity determination means is that the two blocks are continuous. Determine (Judgment criteria A in FIG. 20).
第7の発明は、上記第5の発明において、連続判定手段は、隣接する2つのブロックの両方の隣接領域に入力画像が含まれている場合、当該2つのブロックが連続していると判定する(図20判断基準B)。 In a seventh aspect based on the fifth aspect, if the input image is included in both adjacent areas of two adjacent blocks, the continuous determination means determines that the two blocks are continuous. (FIG. 20 criteria B).
第8の発明は、上記第7の発明において、連続判定手段は、2つのブロックの一方ブロックの隣接領域に含まれる入力画像と、他方ブロックの隣接領域に含まれる入力画像が連続していることをさらに判定し、連続している場合に、当該2つのブロックが連続していると判定する(図20判断基準C)。 In an eighth aspect based on the seventh aspect, the continuity determining means is such that the input image included in the adjacent region of one block of the two blocks and the input image included in the adjacent region of the other block are continuous. Are further determined and it is determined that the two blocks are continuous (determination criterion C in FIG. 20).
第9の発明は、上記第5の発明において、連続判定手段は、或るブロックに連続していると判定した隣接ブロックにおいて、当該隣接ブロックと、当該隣接ブロックにさらに隣接する他のブロックが連続しているか否かを判定し、連続している場合に、当該或るブロックと当該隣接ブロックと当該他のブロックとが連続していると判定する(図12〜図16)。 In a ninth aspect based on the fifth aspect, in the adjacent block determined to be continuous to a certain block by the continuous determining means, the adjacent block and another block further adjacent to the adjacent block are continuous. If it is continuous, it is determined that the certain block, the adjacent block, and the other block are continuous (FIGS. 12 to 16).
第10の発明は、上記第1の発明において、画像変更制御手段は、部分画像を構成する要素画像に対してそれぞれ同じ移動方向に同じ移動速度を与えることによって、部分画像ごとに表示位置を変更する。 In a tenth aspect based on the first aspect, the image change control means changes the display position for each partial image by giving the same movement speed in the same movement direction to the element images constituting the partial image. To do.
第11の発明は、上記第5の発明において、画像変更制御手段は、連続判定手段によって、連続していると判定された各ブロックに対して、それぞれ同じ移動方向に同じ移動速度を与えることによって、部分画像ごとに表示位置を変更する(図23A)。 In an eleventh aspect based on the fifth aspect, the image change control means gives the same movement speed in the same movement direction to each block determined to be continuous by the continuous determination means. The display position is changed for each partial image (FIG. 23A).
第12の発明は、上記第1または第2の発明において、装置は、当該装置周辺を撮像する撮像手段(23、25)を備える。画像表示制御手段は、撮像手段で撮像された撮像画像をリアルタイムで表示手段に表示して、画像生成手段が生成した入力画像を当該撮像画像に重畳して表示手段に表示する。 In a twelfth aspect based on the first or second aspect, the apparatus comprises imaging means (23, 25) for imaging the periphery of the apparatus. The image display control unit displays the captured image captured by the imaging unit on the display unit in real time, and displays the input image generated by the image generation unit superimposed on the captured image and displayed on the display unit.
第13の発明は、上記第1または第2の発明において、画像生成手段は、ポインティングデバイスの出力に基づく手書き画像(Ihw)を生成する。 In a thirteenth aspect based on the first or second aspect, the image generation means generates a handwritten image (Ihw) based on the output of the pointing device.
第14の発明は、上記第1または第2の発明において、ポインティングデバイスの出力に基づく位置に表示される所定の合成用画像(Ist)を生成する。 In a fourteenth aspect based on the first or second aspect, a predetermined composition image (Ist) displayed at a position based on the output of the pointing device is generated.
第15の発明は、上記第1または第2の発明において、画像生成手段は、第1の入力画像が生成された後、ポインティングデバイスの出力に基づいて、第2の入力画像を生成する。画像表示制御手段は、第1の入力画像と第2の入力画像を合成して表示する。画像変更制御手段は、第1の入力画像および第2の入力画像を合成した画像を1つの画像として当該画像を分解する。 In a fifteenth aspect based on the first or second aspect, after the first input image is generated, the image generation means generates a second input image based on the output of the pointing device. The image display control means synthesizes and displays the first input image and the second input image. The image change control means decomposes the image by combining the first input image and the second input image as one image.
第16の発明は、上記第2の発明において、画像変更制御手段は、ユーザによって全てを消去する消去操作が実行された場合、入力画像の全体を複数の部分画像に分解し、当該複数の部分画像の全てについて、表示位置および表示態様の少なくとも一方を変更する処理をそれぞれ行って表示手段に表示し、当該表示後に当該部分画像を全て表示画面から消去する。 In a sixteenth aspect based on the second aspect, the image change control means decomposes the entire input image into a plurality of partial images when the user performs an erasing operation for erasing all of the plurality of partial images. For all the images, a process for changing at least one of the display position and the display mode is performed and displayed on the display means, and after the display, all the partial images are erased from the display screen.
第17の発明は、上記第2の発明において、画像変更制御手段は、部分画像ごとに異なる表示位置に移動させて表示手段に表示させる。 In a seventeenth aspect based on the second aspect, the image change control unit moves the partial image to a different display position and causes the display unit to display the image.
第18の発明は、上記第17の発明において、画像変更制御手段は、部分画像ごとに表示画面外まで移動させることによって、当該画像を当該表示画面から消去する。 In an eighteenth aspect based on the seventeenth aspect, the image change control means erases the image from the display screen by moving the partial image to the outside of the display screen.
第19の発明は、上記第17の発明において、画像変更制御手段は、部分画像ごとに異なる方向の初速度を与えた後、複数の部分画像に共通の特定方向の加速度を与えることによって、当該画像を当該表示画面から消去する。 In a nineteenth aspect based on the seventeenth aspect, the image change control means gives an acceleration in a specific direction common to a plurality of partial images after giving an initial velocity in a different direction for each partial image. Erase the image from the display screen.
第20の発明は、上記第1または第2の発明において、ポインティングデバイスは、表示手段の表示画面を覆うタッチパネルである。 In a twentieth aspect based on the first or second aspect, the pointing device is a touch panel that covers the display screen of the display means.
第21の発明は、上記第1または第2の発明において、画像変更制御手段は、画像生成手段が生成した入力画像を、それぞれ画像の色毎に分解する。 In a twenty-first aspect based on the first or second aspect, the image change control means decomposes the input image generated by the image generation means for each color of the image.
第22の発明は、上記第1または第2の発明において、入力位置履歴記憶制御手段として、さらにコンピュータを機能させる。入力位置履歴記憶制御手段は、ポインティングデバイスから出力される入力位置の履歴をメモリ(32)に記憶する。画像変更制御手段は、入力位置の履歴に基づいて、画像生成手段が入力画像の生成に用いた入力位置のうち、当該入力位置の出力が途切れずに連続した入力位置群から生成された入力画像毎に、画像生成手段が生成した入力画像を分解する。 In a twenty-second aspect, in the first or second aspect, the computer is further caused to function as input position history storage control means. The input position history storage control means stores the history of input positions output from the pointing device in the memory (32). Based on the history of the input position, the image change control means is an input image generated from a group of input positions in which the output of the input position is not interrupted among the input positions used by the image generation means to generate the input image. Each time, the input image generated by the image generation means is decomposed.
第23の発明は、上記第1または第2の発明において、画像変更制御手段は、画像生成手段が生成した入力画像を、予め設定された網の目状に分解する。 In a twenty-third aspect based on the first or second aspect, the image change control means decomposes the input image generated by the image generation means into a mesh shape set in advance.
第24の発明は、上記第1の発明において、画像変更制御手段は、分解した部分画像ごとにそれぞれ回転させて表示手段に表示させる。 In a twenty-fourth aspect based on the first aspect, the image change control means rotates each disassembled partial image and displays it on the display means.
第25の発明は、上記第1の発明において、画像変更制御手段は、分解した部分画像ごとにそれぞれ拡大または縮小して表示手段に表示させる。 In a twenty-fifth aspect based on the first aspect, the image change control means enlarges or reduces each decomposed partial image and causes the display means to display the enlarged partial image.
第26の発明は、上記第1の発明において、分解した部分画像ごとにそれぞれ画像色を変更して表示手段に表示させる。 In a twenty-sixth aspect based on the first aspect, the image color is changed for each decomposed partial image and displayed on the display means.
第27の発明は、上記第1の発明において、画像変更制御手段は、分解した部分画像ごとにそれぞれ点滅させて表示手段に表示させる。 In a twenty-seventh aspect based on the first aspect, the image change control means causes each of the decomposed partial images to blink and display on the display means.
第28の発明は、ポインティングデバイスからの出力に応じて生成された画像に所定の処理を施す画像処理装置である。画像処理装置は、画像生成手段、画像表示制御手段、および画像変更制御手段を備える。画像生成手段は、ポインティングデバイスの出力に基づいて、入力画像を生成する。画像表示制御手段は、画像生成手段が生成した入力画像を表示手段に表示する。画像変更制御手段は、画像生成手段が生成した入力画像を複数の部分画像に分解し、当該部分画像ごとに、表示位置および表示態様の少なくとも一方を変更する処理を実行する。 A twenty-eighth aspect of the present invention is an image processing apparatus that performs a predetermined process on an image generated according to an output from a pointing device. The image processing apparatus includes an image generation unit, an image display control unit, and an image change control unit. The image generation means generates an input image based on the output of the pointing device. The image display control means displays the input image generated by the image generation means on the display means. The image change control unit decomposes the input image generated by the image generation unit into a plurality of partial images, and executes a process of changing at least one of the display position and the display mode for each partial image.
上記第1の発明によれば、ユーザ操作によって表示された入力画像が分解された部分画像毎に表示位置および表示態様の少なくとも一方が変更されるため、当該入力画像に新たな演出効果を加えて当該入力画像を処理することができる。 According to the first aspect, since at least one of the display position and the display mode is changed for each partial image obtained by disassembling the input image displayed by the user operation, a new effect is added to the input image. The input image can be processed.
上記第2の発明によれば、ユーザ操作によって表示された入力画像をユーザ部分消去や全消去操作に応じて部分消去や全消去処理する際、部分画像毎に表示位置および表示態様の少なくとも一方が変更されて消去されるため、当該入力画像に新たな演出効果を加えて当該入力画像を消去することができる。 According to the second aspect of the invention, when partial erasure or full erasure processing is performed on an input image displayed by a user operation according to a user partial erasure or full erasure operation, at least one of the display position and the display mode is set for each partial image. Since it is changed and deleted, the input image can be deleted by adding a new effect to the input image.
上記第3の発明によれば、画像分解単位を画素単位でなく、それよりも大きいブロック単位とすることによって、画像を分解する処理の処理負荷を軽減することができる。 According to the third aspect of the present invention, the processing load of the process of decomposing an image can be reduced by setting the image decomposition unit not as a pixel unit but as a larger block unit.
上記第4の発明によれば、ユーザ操作によって表示された入力画像を処理する際、連続している部分毎に分解画像に対してそれぞれ新たな演出効果を加えることができる。 According to the fourth aspect, when an input image displayed by a user operation is processed, a new effect can be added to the decomposed image for each continuous portion.
上記第5の発明によれば、連続している部分の判定を画素単位でなく、それよりも大きいブロック単位とすることによって、当該判定処理負荷を軽減することができる。 According to the fifth aspect of the present invention, the determination processing load can be reduced by determining the continuous portion not in units of pixels but in units of larger blocks.
上記第6〜第8の発明によれば、隣接ブロック間の接続判定を行う際、隣接領域の画素のみを用いて、正確な接続判定が可能となる。また、上記第6〜第8の発明それぞれの判定基準を用いることによってブロック間の接続判定結果が変化するため、適切な判定基準を用いることによって処理負荷や入力画像を分解する精度等を調整することができる。 According to the sixth to eighth aspects, when connection determination between adjacent blocks is performed, accurate connection determination can be performed using only pixels in the adjacent region. In addition, since the determination result of connection between blocks changes by using the determination criteria of each of the sixth to eighth inventions, the processing load, the accuracy of decomposing the input image, and the like are adjusted by using an appropriate determination criterion. be able to.
上記第9の発明によれば、再帰的な処理を繰り返すことによって、様々な態様で接続されたブロックのグループを正確に判定することができる。 According to the ninth aspect, it is possible to accurately determine a group of blocks connected in various modes by repeating recursive processing.
上記第10の発明によれば、要素画像で構成される部分画像毎に1つのオブジェクトとしてみなさなくても、部分画像単位で移動させることができる。 According to the tenth aspect of the present invention, it is possible to move in units of partial images without considering each partial image formed of element images as one object.
上記第11の発明によれば、同じグループに属する複数のブロックを1つのオブジェクトとしてみなさなくても、グループ単位で移動させることができる。 According to the eleventh aspect, a plurality of blocks belonging to the same group can be moved in units of groups without considering them as one object.
上記第12〜第14の発明によれば、撮像画像の上にユーザの手書き線、手書き文字、手書きマーク(標号、スタンプ)群を書き加えるような処理が可能となる。 According to the twelfth to fourteenth aspects, it is possible to perform processing such as adding a user's handwritten line, handwritten character, and handwritten mark (signature, stamp) group on the captured image.
上記第15の発明によれば、ユーザが生成した画像数等に影響されることなく、同様の画像分解処理や画像演出処理が可能となる。 According to the fifteenth aspect, similar image decomposition processing and image effect processing can be performed without being affected by the number of images generated by the user.
上記第16の発明によれば、ユーザの全消去操作に応じて全消去することが可能となる。 According to the sixteenth aspect, it is possible to erase all in response to a user's all erasing operation.
上記第17〜第19の発明によれば、部分画像毎に異なる方向へ移動させて消去するような画像演出が可能となる。 According to the seventeenth to nineteenth aspects, it is possible to produce an image effect such that the partial images are moved in different directions to be erased.
上記第20の発明によれば、タッチパネルを用いて操作することによって、ユーザの直感的な操作が可能となる。 According to the twentieth aspect, the user can perform intuitive operations by operating using the touch panel.
上記第21〜第23の発明によれば、ユーザ操作に応じて生成した画像を様々な単位で部分画像に分解し、当該部分画像に新たな演出効果を加えて当該画像を処理することができる。 According to the twenty-first to twenty-third aspects, an image generated in response to a user operation can be decomposed into partial images in various units, and the image can be processed by adding a new effect to the partial image. .
上記第24〜第27の発明によれば、部分画像に様々な演出効果を加えて入力画像を処理することができる。 According to the twenty-fourth to twenty-seventh aspects, the input image can be processed by adding various effects to the partial image.
また、本発明の画像処理装置によれば、上述した画像処理プログラムと同様の効果を得ることができる。 Further, according to the image processing apparatus of the present invention, it is possible to obtain the same effect as the above-described image processing program.
図面を参照して、本発明の一実施形態に係る画像処理プログラムを実行する画像処理装置について説明する。本発明の画像処理プログラムは、任意のコンピュータシステムで実行されることによって適用することができるが、画像処理装置の一例としてゲーム装置1を用い、ゲーム装置1で実行される画像処理プログラムを用いて説明する。なお、図1は、本発明の画像処理プログラムを実行するゲーム装置1の外観図である。ここでは、ゲーム装置1の一例として、携帯ゲーム装置を示す。なお、ゲーム装置1は、カメラを内蔵しており、当該カメラによって画像を撮像し、撮像した画像を画面に表示したり、撮像した画像のデータを保存したりする撮像装置としても機能する。なお、本明細書においては、カメラによって画像データを取り込むことを「撮像」と記し、撮像した画像データを記憶することを「撮影」と記す。
An image processing apparatus that executes an image processing program according to an embodiment of the present invention will be described with reference to the drawings. The image processing program of the present invention can be applied by being executed by an arbitrary computer system. However, the
図1において、ゲーム装置1は、折り畳み型の携帯ゲーム装置であり、開いた状態(開状態)のゲーム装置1を示している。ゲーム装置1は、開いた状態においてもユーザが両手または片手で把持することができるようなサイズで構成される。
In FIG. 1, a
ゲーム装置1は、下側ハウジング11および上側ハウジング21を有する。下側ハウジング11と上側ハウジング21とは、開閉可能(折り畳み可能)に連結されている。図1の例では、下側ハウジング11および上側ハウジング21は、それぞれ横長の長方形の板状で形成され、互いの長辺部分で回動可能に連結されている。通常、ユーザは、開状態でゲーム装置1を使用する。そして、ユーザは、ゲーム装置1を使用しない場合には閉状態としてゲーム装置1を保管する。また、図1に示した例では、ゲーム装置1は、上記閉状態および開状態のみでなく、下側ハウジング11と上側ハウジング21とのなす角度が閉状態と開状態との間の任意の角度において、連結部分に発生する摩擦力などによってその開閉角度を維持することができる。つまり、上側ハウジング21を下側ハウジング11に対して任意の角度で静止させることができる。
The
下側ハウジング11には、下側LCD(Liquid Crystal Display:液晶表示装置)12が設けられる。下側LCD12は横長形状であり、長辺方向が下側ハウジング11の長辺方向に一致するように配置される。なお、本実施形態では、ゲーム装置1に内蔵されている表示装置としてLCDを用いているが、例えばEL(Electro Luminescence:電界発光)を利用した表示装置等、他の任意の表示装置を利用してもよい。また、ゲーム装置1は、任意の解像度の表示装置を利用することができる。
The
下側ハウジング11には、入力装置として、各操作ボタン14A〜14Kおよびタッチパネル13が設けられる。図1に示されるように、各操作ボタン14A〜14Kのうち、方向入力ボタン14A、操作ボタン14B、操作ボタン14C、操作ボタン14D、操作ボタン14E、電源ボタン14F、スタートボタン14G、およびセレクトボタン14Hは、上側ハウジング21と下側ハウジング11とを折りたたんだときに内側となる、下側ハウジング11の内側主面上に設けられる。方向入力ボタン14Aは、例えば選択操作等に用いられる。各操作ボタン14B〜14Eは、例えば決定操作やキャンセル操作等に用いられる。電源ボタン14Fは、ゲーム装置1の電源をオン/オフするために用いられる。図1に示す例では、方向入力ボタン14Aおよび電源ボタン14Fは、下側ハウジング11の内側主面中央付近に設けられる下側LCD12に対して、左右一方側(図1では左側)の当該主面上に設けられる。また、操作ボタン14B〜14E、スタートボタン14G、およびセレクトボタン14Hは、下側LCD12に対して左右他方側(図1では右側)となる下側ハウジング11の内側主面上に設けられる。方向入力ボタン14A、操作ボタン14B〜14E、スタートボタン14G、およびセレクトボタン14Hは、ゲーム装置1に対する各種操作を行うために用いられる。
The
なお、図1においては、操作ボタン14I〜14Kの図示を省略している。例えば、Lボタン14Iは、下側ハウジング11の上側面の左端部に設けられ、Rボタン14Jは、下側ハウジング11の上側面の右端部に設けられる。Lボタン14IおよびRボタン14Jは、ゲーム装置1に対して、例えば撮影指示操作(シャッター操作)を行うために用いられる。さらに、音量ボタン14Kは、下側ハウジング11の左側面に設けられる。音量ボタン14Kは、ゲーム装置1が備えるスピーカの音量を調整するために用いられる。
In FIG. 1, the operation buttons 14I to 14K are not shown. For example, the L button 14I is provided at the left end portion of the upper side surface of the
また、ゲーム装置1は、各操作ボタン14A〜14Kとは別の入力装置として、さらにタッチパネル13を備えている。タッチパネル13は、下側LCD12の画面上を覆うように装着されている。なお、本実施形態では、タッチパネル13は、例えば抵抗膜方式のタッチパネルが用いられる。ただし、タッチパネル13は、抵抗膜方式に限らず、任意の押圧式のタッチパネルを用いることができる。また、本実施形態では、タッチパネル13として、例えば下側LCD12の解像度と同解像度(検出精度)のものを利用する。ただし、必ずしもタッチパネル13の解像度と下側LCD12の解像度とが一致している必要はない。また、下側ハウジング11の右側面には、タッチペン27の挿入口(図1に示す破線)が設けられている。上記挿入口は、タッチパネル13に対する操作を行うために用いられるタッチペン27を収納することができる。なお、タッチパネル13に対する入力は、通常タッチペン27を用いて行われるが、タッチペン27に限らずユーザの指等でタッチパネル13を操作することも可能である。
Further, the
また、下側ハウジング11の右側面には、メモリカード28を収納するための挿入口(図1では、二点鎖線で示している)が設けられている。この挿入口の内側には、ゲーム装置1とメモリカード28とを電気的に接続するためのコネクタ(図示せず)が設けられる。メモリカード28は、例えばSD(Secure Digital)メモリカードであり、上記コネクタに着脱自在に装着される。メモリカード28は、例えば、ゲーム装置1によって撮像された画像を記憶(保存)したり、他の装置で生成された画像をゲーム装置1に読み込んだりするため等に用いられる。
Further, on the right side surface of the
さらに、下側ハウジング11の上側面には、メモリカード29を収納するための挿入口(図1では、一点鎖線で示している)が設けられている。この挿入口の内側にも、ゲーム装置1とメモリカード29とを電気的に接続するためのコネクタ(図示せず)が設けられる。メモリカード29は、画像処理プログラムやゲームプログラム等を記憶した記憶媒体であり、下側ハウジング11に設けられた挿入口に着脱自在に装着される。
Further, an insertion slot (indicated by a one-dot chain line in FIG. 1) for accommodating the
下側ハウジング11と上側ハウジング21との連結部の左側部分には、3つのLED15A〜15Cが取り付けられる。ここで、ゲーム装置1は、他の機器との間で無線通信を行うことが可能であり、第1LED15Aは、無線通信が確立している場合に点灯する。第2LED15Bは、ゲーム装置1の充電中に点灯する。第3LED15Cは、ゲーム装置1の電源がオンである場合に点灯する。したがって、3つのLED15A〜15Cによって、ゲーム装置1の通信確立状況、充電状況、および、電源のオン/オフ状況をユーザに通知することができる。
Three
一方、上側ハウジング21には、上側LCD22が設けられる。上側LCD22は横長形状であり、長辺方向が上側ハウジング21の長辺方向に一致するように配置される。なお、下側LCD12と同様、上側LCD22に代えて、他の任意の方式および任意の解像度の表示装置を利用してもよい。また、上側LCD22上を覆うように、タッチパネルを設けてもかまわない。
On the other hand, the
また、上側ハウジング21には、2つのカメラ(内側カメラ23および外側カメラ25)が設けられる。図1に示されるように、内側カメラ23は、上側ハウジング21の連結部付近の内側主面に取り付けられる。一方、外側カメラ25は、内側カメラ23が取り付けられる内側主面の反対側の面、すなわち、上側ハウジング21の外側主面(ゲーム装置1が閉状態となった場合に外側となる面であり、図1に示す上側ハウジング21の背面)に取り付けられる。なお、図1においては、外側カメラ25を破線で示している。これによって、内側カメラ23は、上側ハウジング21の内側主面が向く方向を撮像することが可能であり、外側カメラ25は、内側カメラ23の撮像方向の逆方向、すなわち、上側ハウジング21の外側主面が向く方向を撮像することが可能である。このように、本実施形態では、2つの内側カメラ23および外側カメラ25の撮像方向が互いに逆方向となるように設けられる。例えば、ユーザは、ゲーム装置1からユーザの方を見た景色を内側カメラ23で撮像することができるとともに、ゲーム装置1からユーザの反対側の方向を見た景色を外側カメラ25で撮像することができる。なお、下側LCD12および/または上側LCD22は、内側カメラ23または外側カメラ25で撮像されている画像をリアルタイムに表示するために用いられることもある。
The
なお、上記連結部付近の内側主面には、音声入力装置としてマイク(図2に示すマイク43)が収納されている。そして、上記連結部付近の内側主面には、マイク43がゲーム装置1外部の音を検知できるように、マイクロフォン用孔16が形成される。マイク43を収納する位置およびマイクロフォン用孔16の位置は必ずしも上記連結部である必要はなく、例えば下側ハウジング11にマイク43を収納し、マイク43の収納位置に対応させて下側ハウジング11にマイクロフォン用孔16を設けるようにしても良い。
Note that a microphone (a microphone 43 shown in FIG. 2) is accommodated as an audio input device on the inner main surface near the connecting portion. A
また、上側ハウジング21の外側主面には、第4LED26(図1では、破線で示す)が取り付けられる。第4LED26は、内側カメラ23または外側カメラ25によって撮像が行われている間点灯する。また、内側カメラ23または外側カメラ25によって動画が撮像(撮像画像を動画として記憶)される間は点滅させても良い。なお、LEDが画面に映り込むことを防ぐために、シャッターが押された瞬間から、当該シャッターが押された瞬間の撮像画像の記憶が完了するまでの間は第4LED26を消灯させても良い。第4LED26によって、ゲーム装置1による撮像が行われていることを撮像対象者や周囲に通知することができる。
A fourth LED 26 (shown by a broken line in FIG. 1) is attached to the outer main surface of the
また、上側ハウジング21の内側主面中央付近に設けられる上側LCD22に対して、左右両側の当該主面に音抜き孔24がそれぞれ形成される。音抜き孔24の奥の上側ハウジング21内には、それぞれスピーカが収納されている。音抜き孔24は、スピーカからの音をゲーム装置1の外部に放出するための孔である。
In addition, sound release holes 24 are formed in the main surfaces on both the left and right sides of the
以上に説明したように、上側ハウジング21には、画像を撮像するための構成である内側カメラ23および外側カメラ25と、各種画像を表示するための表示手段である上側LCD22とが設けられる。一方、下側ハウジング11には、ゲーム装置1に対する操作入力を行うための入力装置(タッチパネル13および各ボタン14A〜14K)と、各種画像を表示するための表示手段である下側LCD12とが設けられる。当該入力装置は、例えば、ゲーム装置1を使用する際には、下側LCD12や上側LCD22に撮像画像(カメラによって撮像された画像)を表示しながら、下側ハウジング11をユーザが把持して入力装置に対する入力を行うような用途に用いることができる。
As described above, the
次に、図2を参照して、ゲーム装置1の内部構成を説明する。なお、図2は、ゲーム装置1の内部構成の一例を示すブロック図である。
Next, the internal configuration of the
図2において、ゲーム装置1は、CPU31と、メインメモリ32と、メモリ制御回路33と、保存用データメモリ34と、プリセットデータ用メモリ35と、メモリカードインターフェース(メモリカードI/F)36および37と、無線通信モジュール38と、ローカル通信モジュール39と、リアルタイムクロック(RTC)40と、電源回路41と、インターフェース回路(I/F回路)42等との電子部品を備えている。これらの電子部品は、電子回路基板上に実装されて、下側ハウジング11(または上側ハウジング21でもよい)内に収納される。
2, the
CPU31は、所定のプログラムを実行するための情報処理手段である。本実施形態では、所定のプログラムがゲーム装置1内のメモリ(例えば保存用データメモリ34)やメモリカード28および/または29に記憶されており、CPU31は、当該所定のプログラムを実行することによって、後述する画像処理を実行する。なお、CPU31によって実行されるプログラムは、ゲーム装置1内のメモリに予め記憶されていてもよいし、メモリカード28および/または29から取得されてもよいし、他の機器との通信によって他の機器から取得されてもよい。
The
CPU31には、メインメモリ32、メモリ制御回路33、およびプリセットデータ用メモリ35が接続される。また、メモリ制御回路33には、保存用データメモリ34が接続される。メインメモリ32は、CPU31のワーク領域やバッファ領域として用いられる記憶手段である。すなわち、メインメモリ32は、上記情報処理に用いられる各種データを記憶したり、外部(メモリカード28および29や他の機器等)から取得されるプログラムを記憶したりする。本実施形態では、メインメモリ32として、例えばPSRAM(Pseudo−SRAM)を用いる。保存用データメモリ34は、CPU31によって実行されるプログラムや内側カメラ23および外側カメラ25によって撮像された画像のデータ等を記憶するための記憶手段である。保存用データメモリ34は、不揮発性の記憶媒体によって構成されており、例えば本実施例ではNAND型フラッシュメモリで構成される。メモリ制御回路33は、CPU31の指示に従って、保存用データメモリ34に対するデータの読み出しおよび書き込みを制御する回路である。プリセットデータ用メモリ35は、ゲーム装置1において予め設定される各種パラメータ等のデータ(プリセットデータ)を記憶するための記憶手段である。プリセットデータ用メモリ35としては、SPI(Serial Peripheral Interface)バスによってCPU31と接続されるフラッシュメモリを用いることができる。
A
メモリカードI/F36および37は、それぞれCPU31に接続される。メモリカードI/F36は、コネクタに装着されたメモリカード28に対するデータの読み出しおよび書き込みを、CPU31の指示に応じて行う。また、メモリカードI/F37は、コネクタに装着されたメモリカード29に対するデータの読み出しおよび書き込みを、CPU31の指示に応じて行う。本実施形態では、内側カメラ23および外側カメラ25によって撮像された画像データや他の装置から受信された画像データがメモリカード28に書き込まれたり、メモリカード28に記憶された画像データがメモリカード28から読み出されて保存用データメモリ34に記憶されたりする。また、メモリカード29に記憶された各種プログラムが、CPU31によって読み出されて実行されたりする。
Memory card I /
なお、本発明の画像処理プログラムは、メモリカード29等の外部記憶媒体を通じてコンピュータシステムに供給されるだけでなく、有線または無線の通信回線を通じてコンピュータシステムに供給されてもよい。また、画像処理プログラムは、コンピュータシステム内部の不揮発性記憶装置に予め記憶されていてもよい。なお、画像処理プログラムを記憶する情報記憶媒体としては、上記不揮発性記憶装置に限らず、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体でもよい。
Note that the image processing program of the present invention may be supplied not only to the computer system through an external storage medium such as the
無線通信モジュール38は、例えばIEEE802.11.b/gの規格に準拠した方式により、無線LANに接続する機能を有する。また、ローカル通信モジュール39は、所定の通信方式により同種のゲーム装置との間で無線通信を行う機能を有する。無線通信モジュール38およびローカル通信モジュール39は、CPU31に接続される。CPU31は、無線通信モジュール38を用いてインターネットを介して他の機器との間でデータを送受信したり、ローカル通信モジュール39を用いて同種の他のゲーム装置との間でデータを送受信したりすることができる。
The wireless communication module 38 is, for example, IEEE 802.11. It has a function of connecting to a wireless LAN by a method compliant with the b / g standard. Further, the
また、CPU31には、RTC40および電源回路41が接続される。RTC40は、時間をカウントしてCPU31に出力する。例えば、CPU31は、RTC40によって計時された時間に基づいて、現在時刻(日付)等を計算することもできる。電源回路41は、ゲーム装置1が有する電源(典型的には電池であり、下側ハウジング11に収納される)から供給される電力を制御し、ゲーム装置1の各部品に電力を供給する。
Further, the
また、ゲーム装置1は、マイク43およびアンプ44を備えている。マイク43およびアンプ44は、それぞれI/F回路42に接続される。マイク43は、ゲーム装置1に向かって発声されたユーザの音声を検知して、当該音声を示す音声信号をI/F回路42に出力する。アンプ44は、I/F回路42から音声信号を増幅してスピーカ(図示せず)から出力させる。I/F回路42は、CPU31に接続される。
Further, the
また、タッチパネル13は、I/F回路42に接続される。I/F回路42は、マイク43およびアンプ44(スピーカ)の制御を行う音声制御回路と、タッチパネル13の制御を行うタッチパネル制御回路とを含む。音声制御回路は、音声信号に対するA/D変換およびD/A変換を行ったり、音声信号を所定の形式の音声データに変換したりする。タッチパネル制御回路は、タッチパネル13からの信号に基づいて所定の形式のタッチ位置データを生成してCPU31に出力する。例えば、タッチ位置データは、タッチパネル13の入力面に対して入力が行われた位置の座標を示すデータである。なお、タッチパネル制御回路は、タッチパネル13からの信号の読み込み、および、タッチ位置データの生成を所定時間に1回の割合で行う。CPU31は、I/F回路42を介して、タッチ位置データを取得することにより、タッチパネル13に対して入力が行われた位置を知ることができる。
The
操作ボタン14は、上記各操作ボタン14A〜14Kから構成され、CPU31に接続される。操作ボタン14からCPU31へは、各操作ボタン14A〜14Kに対する入力状況(押下されたか否か)を示す操作データが出力される。CPU31は、操作ボタン14から操作データを取得することによって、操作ボタン14に対する入力に応じた処理を実行する。
The
内側カメラ23および外側カメラ25は、それぞれCPU31に接続される。内側カメラ23および外側カメラ25は、CPU31の指示に応じて画像を撮像し、撮像した画像データをCPU31に出力する。例えば、CPU31は、内側カメラ23および外側カメラ25のいずれか一方に対して撮像指示を行い、撮像指示を受けたカメラが画像を撮像して画像データをCPU31に送る。
The
また、下側LCD12および上側LCD22は、それぞれCPU31に接続される。下側LCD12および上側LCD22は、それぞれCPU31の指示に従って画像を表示する。一例として、CPU31は、内側カメラ23および外側カメラ25のいずれかから取得した画像を、下側LCD12および上側LCD22の一方に表示させ、所定の処理によって生成した操作説明画面を下側LCD12および上側LCD22の他方に表示させる。
Further, the
次に、ゲーム装置1で実行される画像処理プログラムによる具体的な処理動作を説明する前に、図3〜図8を参照して当該処理動作によって下側LCD12に表示される表示形態例等について説明する。なお、図3は、下側LCD12に表示される手書き文字Ihwの一例を示す図である。図4は、ユーザが手書き文字Ihwを全消去する操作をした場合に下側LCD12で表現される演出例の第1段階を示す図である。図5は、ユーザが手書き文字Ihwを全消去する操作をした場合に下側LCD12で表現される演出例の第2段階を示す図である。図6は、ユーザが手書き文字Ihwを全消去する操作をした場合に下側LCD12で表現される演出例の第3段階を示す図である。図7は、下側LCD12に表示される手書きスタンプIstの一例を示す図である。図8は、ユーザが手書きスタンプIstを全消去する操作をした場合に下側LCD12で表現される演出例を示す図である。
Next, before describing specific processing operations by the image processing program executed on the
図3において、下側LCD12には、ユーザがタッチペン27を用いてタッチパネル13をタッチ操作した軌跡に沿って、手書き文字や手書きスタンプ(標号)等を描くことができる。例えば、下側LCD12には手書き線描画ボタンBhw、部分消去ボタンBpe、手書きスタンプ描画ボタンBst、および全消去ボタンBae等が表示されている。そして、ユーザが所望するボタンがタッチ操作によって選択されることによって、当該選択されたボタンに応じて全消去やタッチ操作に対する描画や部分消去が行われる。
In FIG. 3, handwritten characters, handwritten stamps (standard marks), and the like can be drawn on the
図3では、ユーザが手書き線描画ボタンBhwを選択しており、タッチ操作の軌跡に沿った自由線が下側LCD12に描画される。したがって、ユーザが所望する文字を描くようにタッチパネル13をタッチ操作することによって、当該タッチ操作に応じた文字を下側LCD12に描画することができる。例えば、図3の例では、ユーザがタッチペン27を用いてタッチパネル13をタッチ操作した軌跡に沿って描かれる手書き文字Ihwが表示されている。具体的には、ユーザがタッチパネル13をタッチ操作して文字「hello」を手書き入力している一例を示しており、最後の文字「o」まで描かれた手書き文字Ihwが下側LCD12に表示されている。
In FIG. 3, the user has selected the handwriting line drawing button Bhw, and a free line along the locus of the touch operation is drawn on the
図4において、手書き文字Ihwが下側LCD12に描画された後、ユーザが全消去ボタンBaeをタッチ操作する。この操作によって、タッチパネル13を介して手書き入力された画像(図4の例では、手書き文字Ihw)が下側LCD12から全て消去される。このとき、本実施例では、全消去の対象となっている手書き画像(手書き文字Ihw)が下側LCD12から消去されるまでの間に、当該手書き画像が分解されて分解された画像毎に所定の演出が施される。
In FIG. 4, after the handwritten character Ihw is drawn on the
例えば、図4に示した一例では、手書き文字Ihwが5つの手書き文字Ihw1〜Ihw5に分解され、それぞれが異なる方向に移動したり、異なる速度で移動したりしている。図4の例では、手書き文字Ihwが1文字ずつ分解されている。具体的には、手書き文字Ihwは、1文字目の文字「h」を示す手書き文字Ihw1、2文字目の文字「e」を示す手書き文字Ihw2、3文字目の文字「l」を示す手書き文字Ihw3、4文字目の文字「l」を示す手書き文字Ihw4、および5文字目の文字「o」を示す手書き文字Ihw5にそれぞれ分解される。 For example, in the example shown in FIG. 4, the handwritten character Ihw is broken down into five handwritten characters Ihw1 to Ihw5, each moving in a different direction or moving at a different speed. In the example of FIG. 4, the handwritten character Ihw is decomposed character by character. Specifically, the handwritten character Ihw is the handwritten character Ihw indicating the first character “h”, the handwritten character Ihw2 indicating the first character “e”, and the handwritten character indicating the third character “l”. Ihw3 is divided into a handwritten character Ihw4 indicating the fourth character “l” and a handwritten character Ihw5 indicating the fifth character “o”.
分解された手書き文字Ihw1〜Ihw5は、やがて下側LCD12の下方に自由落下するようにそれぞれ移動する(図5)。そして、手書き文字Ihw1〜Ihw5は、それぞれ下側LCD12の表示領域外まで移動することによって下側LCD12から全て消去される(図6)。
The decomposed handwritten characters Ihw1 to Ihw5 each move so as to freely fall below the lower LCD 12 (FIG. 5). The handwritten characters Ihw1 to Ihw5 are all erased from the
図7では、ユーザが手書きスタンプ描画ボタンBstを選択しており、スタンプ群(標号群)がタッチ操作の軌跡に沿って下側LCD12に描画される。例えば、図7の例では、ユーザがタッチペン27を用いてタッチパネル13をタッチ操作した軌跡に沿って描かれる手書きスタンプIstが表示されている。具体的には、ユーザがタッチパネル13をタッチ操作して2つの葉型画像を一対としたスタンプを手書き入力している一例を示している。そして、ユーザがタッチ操作した軌跡に沿った所定時間間隔毎または所定距離間隔毎に、上記一対のスタンプが下側LCD12に順次追加されて描画され、結果的にタッチ操作した軌跡に沿ったスタンプ群が手書きスタンプIstとして下側LCD12に表示される。
In FIG. 7, the user has selected the handwritten stamp drawing button Bst, and the stamp group (signature group) is drawn on the
図8において、手書きスタンプIstが下側LCD12に描画された後、ユーザが全消去ボタンBaeをタッチ操作する。この操作によって、タッチパネル13を介して手書き入力された画像(図8の例では、手書きスタンプIst)が下側LCD12から全て消去される。この場合も、本実施例では、全消去の対象となっている手書き画像(手書きスタンプIst)が下側LCD12から消去されるまでの間に、当該手書き画像が分解されて分解された画像毎に所定の演出が施される。
In FIG. 8, after the handwritten stamp Ist is drawn on the
例えば、図8に示した一例では、手書きスタンプIstがn個の手書きスタンプIstnに分解され、それぞれが異なる方向に移動したり、異なる速度で移動したりしている。図8の例では、スタンプ群として描画されていた手書きスタンプIstが、2つの葉型画像を一対としたスタンプ毎に分解されると共に、一対のスタンプもさらに葉型画像毎に分解される。 For example, in the example shown in FIG. 8, the handwritten stamp Ist is decomposed into n handwritten stamps Istn, each of which moves in different directions or at different speeds. In the example of FIG. 8, the handwritten stamp Ist drawn as a stamp group is decomposed for each pair of stamps including two leaf images, and the pair of stamps is further decomposed for each leaf image.
分解された手書きスタンプIstnも、やがて下側LCD12の下方に自由落下するようにそれぞれ移動する。そして、手書きスタンプIstnは、それぞれ下側LCD12の表示領域外まで移動することによって下側LCD12から全て消去される。
The disassembled handwritten stamp Istn also moves so as to freely fall below the
なお、下側LCD12の背景画像には、内側カメラ23または外側カメラ25によって撮像されたリアルタイムの画像(撮像画像)を表示してもかまわない。この場合、上述した手書き画像(手書き文字Ihw、手書きスタンプIst)は、上記撮像画像の上に描画されることになる。つまり、ユーザは、内側カメラ23または外側カメラ25によって撮像された撮像画像に、ユーザが所望する手書き画像を加えるような操作(落書き)が可能となる。
Note that a real-time image (captured image) captured by the
次に、図9〜図16を参照して、ゲーム装置1で実行される画像処理プログラムによる具体的な処理動作について説明する。なお、図9は、画像処理プログラムを実行することに応じて、メインメモリ32に記憶される各種データの一例を示す図である。図10は、メインメモリ32に記憶されるブロックデータDbの一例を示す図である。図11は、当該画像処理プログラムを実行することによってゲーム装置1が画像処理を行うフローチャートである。図12は、図11のステップ56で行われる画像分解処理の詳細な動作を示すサブルーチンである。図13は、図12のステップ81等で行われる右側ブロック確認処理の詳細な動作を示すサブルーチンである。図14は、図12のステップ82等で行われる上側ブロック確認処理の詳細な動作を示すサブルーチンである。図15は、図12のステップ83等で行われる左側ブロック確認処理の詳細な動作を示すサブルーチンである。図16は、図12のステップ84等で行われる下側ブロック確認処理の詳細な動作を示すサブルーチンである。なお、これらの処理を実行するためのプログラムは、ゲーム装置1に内蔵されるメモリ(例えば、保存用データメモリ34)やメモリカード28またはメモリカード29に含まれており、ゲーム装置1の電源がオンになったときに、メモリカードI/F36を介してメモリカード28やメモリカード29から、または内蔵メモリからメインメモリ32に読み出されて、CPU31によって実行される。
Next, with reference to FIGS. 9 to 16, a specific processing operation by the image processing program executed in the
図9において、メインメモリ32には、内蔵メモリ、メモリカード28、またはメモリカード29から読み出されたプログラムや画像処理において生成される一時的なデータが記憶される。図9において、メインメモリ32のデータ記憶領域には、操作データDa、ブロックデータDb、ブロック移動データDc、および画像データDd等が格納される。また、メインメモリ32のプログラム記憶領域には、画像処理プログラムを構成する各種プログラム群Paが記憶される。
In FIG. 9, the
操作データDaは、ユーザがゲーム装置1を操作しているデータが格納される。操作データDaは、タッチパネル13をユーザがタッチしている画面座標系のタッチ位置を示すタッチ座標のデータを含んでいる。例えば、タッチ座標は、ゲーム装置1がゲーム処理する時間単位(例えば、1/60秒)毎に取得され、当該取得に応じて操作データDaに格納されて更新される。
As the operation data Da, data indicating that the user is operating the
ブロックデータDbは、上述した手書き画像を表示する表示画面を複数の領域に区分したブロック毎のデータが格納される。図10に示すように、ブロックデータDbは、上記ブロック毎に、ブロック番号Bn、画像有無フラグ、グループ番号Gn、および接続フラグをそれぞれ示すデータが格納される。ブロック番号Bnは、上記ブロック毎にそれぞれ付番される番号である。画像有無フラグは、上記ブロック毎に手書き画像の少なくとも一部が含まれているか否かを示すデータである。グループ番号Gnは、手書き画像の分割処理によって区分されるグループ毎にそれぞれ付番される番号である。接続フラグは、処理対象となっているブロックを基準として、当該ブロックと隣接するブロックとが手書き画像によって接続されているか否かを示すデータである。例えば、接続フラグは、隣接する右側のブロックと接続されているか否かを示すフラグ、隣接する上側のブロックと接続されているか否かを示すフラグ、隣接する左側のブロックと接続されているか否かを示すフラグ、および隣接する下側のブロックと接続されているか否かを示すフラグを含んでいる。 The block data Db stores data for each block obtained by dividing the display screen displaying the handwritten image described above into a plurality of regions. As shown in FIG. 10, the block data Db stores data indicating a block number Bn, an image presence / absence flag, a group number Gn, and a connection flag for each block. The block number Bn is a number assigned to each block. The image presence / absence flag is data indicating whether or not at least a part of the handwritten image is included for each block. The group number Gn is a number assigned to each group divided by handwritten image division processing. The connection flag is data indicating whether or not the block and the adjacent block are connected by a handwritten image on the basis of the block to be processed. For example, the connection flag is a flag indicating whether or not it is connected to the adjacent right block, a flag that indicates whether or not it is connected to the adjacent upper block, and whether or not it is connected to the adjacent left block. And a flag indicating whether or not it is connected to the adjacent lower block.
図9に戻り、ブロック移動データDcは、上記ブロック毎に設定され、当該ブロックが仮想世界を移動するためのデータ(移動方向、移動速度等)が格納される。画像データDdは、上述した手書き画像や操作ボタン画像等をゲーム装置1に表示するための画像データが格納される。
Returning to FIG. 9, the block movement data Dc is set for each block, and data (movement direction, movement speed, etc.) for the block to move in the virtual world is stored. The image data Dd stores image data for displaying the above-described handwritten image, operation button image, and the like on the
次に、図11を参照して、ゲーム装置1の動作について説明する。まず、ゲーム装置1の電源(電源ボタン14F)がONされると、CPU31によってブートプログラム(図示せず)が実行され、これにより内蔵メモリまたはメモリカード28やメモリカード29に格納されている画像処理プログラムがメインメモリ32にロードされる。そして、当該ロードされた画像処理プログラムがCPU31で実行されることによって、図11に示すステップ(図11〜図16では「S」と略称する)が実行される。
Next, the operation of the
図9において、CPU31は、画像処理の初期設定を行って(ステップ51)、処理を次のステップに進める。例えば、CPU31がステップ51で行う初期設定として、メインメモリ32に格納されている各パラメータを所定の数値に初期化する。例えば、ブロックデータDbに格納されている画像有無フラグおよび接続フラグを全てオフ(OFF)に設定し、グループ番号Gnを全て「0」に設定する。
In FIG. 9, the
次に、CPU31は、ユーザが操作ボタン14やタッチパネル13を操作することによって出力される操作データを取得して操作データDaを更新し(ステップ52)、処理を次のステップに進める。例えば、CPU31は、タッチパネル13をタッチしている画面座標系のタッチ位置を示すタッチ座標を取得して、操作データDaに記憶されたタッチ座標を更新する。
Next, the
次に、CPU31は、上記ステップ52で取得した操作データが、ユーザによる手書き入力を示すデータか否か(ステップ53)、全消去を示すデータか否か(ステップ55)をそれぞれ判断する。例えば、CPU31は、上記操作データが、手書き線描画ボタンBhwや手書きスタンプ描画ボタンBst(図3等参照)を選択した後のタッチ操作を示すデータである場合、手書き入力を示すデータであると判断して(ステップ53でYes)、次のステップ54に処理を進める。また、CPU31は、上記操作データが、全消去ボタンBaeを選択するデータである場合、全消去を示すデータであると判断して(ステップ55でYes)、次のステップ56に処理を進める。一方、CPU31は、上記操作データが、手書き入力や全消去を示すデータでない場合(ステップ53およびステップ55が何れもNo)、次のステップ59に処理を進める。
Next, the
ステップ54において、CPU31は、上記ステップ52で取得した操作データ(タッチ座標データ)に応じて、手書き画像を生成して下側LCD12に描画し、次のステップ60に処理を進める。
In
例えば、CPUコア31は、上記ステップ52で取得されたタッチ座標に応じた仮想世界における位置を算出する。ここで、上記位置は、タッチ座標を仮想世界に透視変換することによって得られる。一例として、上記位置は、タッチ座標と重なって下側LCD12に表示される仮想世界の2次元平面上の位置を算出することによって得られる。そして、CPU31は、手書き線描画ボタンBhwが選択され、かつ、前回の処理で上記位置が算出されている場合、前回の処理で算出された上記位置から今回の処理で算出された上記位置まで所定の太さの線で結ぶ線分を生成して下側LCD12に表示する。また、CPU31は、手書きスタンプ描画ボタンBstが選択され、かつ、前回の処理で上記位置が算出されている場合、下側LCD12に表示された最後のスタンプの位置から今回の処理で算出された上記位置までの仮想世界における距離が閾値に到達していれば、新たなスタンプ(例えば、2つの葉型画像を一対としたスタンプ)を今回の処理で算出された上記位置に表示する。なお、CPU31は、手書きスタンプ描画ボタンBstが選択され、かつ、前回の処理で上記位置が算出されている場合、最後のスタンプが下側LCD12に表示されてからの時間が閾値以上経過しているときに、新たなスタンプを今回の処理で算出された上記位置に表示してもかまわない。また、CPU31は、手書きスタンプ描画ボタンBstが選択され、かつ、前回の処理で上記位置が算出されている場合、下側LCD12に表示された最後のスタンプの位置から今回の処理で算出された上記位置までの仮想世界における変位量(すなわち、タッチ座標が変位した累計)の累計が閾値に到達していれば、新たなスタンプを今回の処理で算出された上記位置に表示してもかまわない。また、CPU31は、既に表示された自由線またはスタンプ上に新たな手書き入力が行われた場合、後からの入力に応じて生成された自由線またはスタンプを、既に表示された自由線またはスタンプに重畳して表示する。
For example, the
一方、全消去操作が行われた場合(ステップ55でYes)、CPU31は、画像分解処理を行って(ステップ56)、次のステップに処理を進める。以下、図12を参照して、画像分解処理の詳細な動作について説明する。
On the other hand, when the all erasing operation has been performed (Yes in step 55), the
図12において、CPU31は、下側LCD12に表示される表示画面DAを複数のブロックに分割して(ステップ71)、ブロック毎に手書き画像が含まれているか否かを選別し(ステップ72)、次のステップ73に処理を進める。
In FIG. 12, the
例えば、図17に示すように、表示画面DAは、横m個×縦n個のブロックで格子状に分割される。好ましくは、各ブロックの大きさは同じであり、例えばブロックがそれぞれ横8画素×縦8画素のサイズで設定される。そして、CPU31は、ブロック毎にブロック番号Bnを付与する。図17に示すブロック内の数値は、付与されたブロック番号Bnの一例を示しており、左上のブロックから右へブロック番号Bnが1、2、3…と順次付与され、右下の最終ブロックのブロック番号Bnがm×n(最大値Bnmax)となる。 For example, as shown in FIG. 17, the display screen DA is divided into a grid pattern with m blocks in the horizontal direction and n blocks in the vertical direction. Preferably, the size of each block is the same. For example, each block is set to have a size of horizontal 8 pixels × vertical 8 pixels. And CPU31 gives block number Bn for every block. The numerical value in the block shown in FIG. 17 shows an example of the assigned block number Bn, and the block number Bn is sequentially assigned 1, 2, 3,... From the upper left block to the right. The block number Bn is m × n (maximum value Bnmax).
そして、CPU31は、ブロック毎に手書き画像の少なくとも一部が描画されているか否かを判定し、手書き画像が描画されていると判定されたブロックに対応する画像有無フラグ(図10参照)をそれぞれオン(ON)に設定する。例えば、ブロックに対応する横8画素×縦8画素に、上記手書き画像またはスタンプに含まれる画素が、少なくとも1つ以上存在する場合に、当該ブロックに入力画像の少なくとも一部が描画されていると判定し、ブロックに対応する画像有無フラグをオンに設定する。
Then, the
ステップ73において、CPU31は、処理対象とするブロック番号iを1および処理対象とするグループ番号jを1にそれぞれ設定し、次のステップに処理を進める。
In
次に、CPU31は、現在処理対象となっているブロック番号iのブロックに手書き画像が描画されているか否かを判断する(ステップ74)。例えば、CPU31は、現在処理対象となっているブロック番号iに対応するブロックデータDbの画像有無フラグを参照し、当該画像有無フラグがオン(ON)である場合に手書き画像が描画されていると判断する。そして、CPU31は、現在処理対象となっているブロック番号iのブロックに手書き画像が描画されている場合、次のステップ75に処理を進める。一方、CPU31は、現在処理対象となっているブロック番号iのブロックに手書き画像が描画されていない場合、次のステップ86に処理を進める。
Next, the
ステップ75において、CPU31は、現在処理対象となっているブロック番号iのブロックが、何れかのグループに設定されているか否かを判断する。例えば、CPU31は、現在処理対象となっているブロック番号iに対応するブロックデータDbのグループ番号Gnを参照し、当該グループ番号に0以外の数値が設定されている場合にグループ設定済であると判断する。そして、CPU31は、現在処理対象となっているブロック番号iのブロックがグループに設定されていない場合、次のステップ76に処理を進める。一方、CPU31は、現在処理対象となっているブロック番号iのブロックが既に何れかのグループに設定されている場合、次のステップ86に処理を進める。
In
ステップ76において、CPU31は、現在処理対象となっているブロック番号iのブロックを、現在処理対象となっているグループ番号jのグループに属するブロックに設定して、次のステップに処理を進める。例えば、CPU31は、現在処理対象となっているブロック番号iに対応するブロックデータDbのグループ番号に、現在処理対象となっているグループ番号jを記述してブロックデータDbを更新する。
In step 76, the
次に、CPU31は、現在処理対象となっているブロック番号iのブロックの右端列画素に手書き画像が含まれるか否か(ステップ77)、上端行画素に手書き画像が含まれるか否か(ステップ78)、左端列画素に手書き画像が含まれるか否か(ステップ79)、および下端行画素に手書き画像が含まれるか否か(ステップ80)を、それぞれ順次判断する。
Next, the
例えば、図18に示すように、ブロックAが現在の処理対象ブロックであるとする。このとき、ブロックAには、右側のブロック、上側のブロック、左側のブロック、および下側のブロックがそれぞれ隣接している。そして、CPU31は、ブロックAが手書き画像によってこれらの隣接ブロックと接続されているか否かを判断する。例えば、手書き文字「h」の一部は、ブロックAおよびブロックAの下側ブロックに描画されており、ブロックAと下側ブロックとを手書き文字「h」によって接続されていると判断する。一方、ブロックAと左側ブロック、上側ブロック、および右側ブロックとは、何れも共通する手書き文字が存在しないため、ブロックAとこれらのブロックとは、未接続であると判断する。
For example, as shown in FIG. 18, it is assumed that block A is the current processing target block. At this time, the block A is adjacent to the right block, the upper block, the left block, and the lower block. Then, the
このようなブロック間の接続関係を判断するために、本実施例では処理対象となっているブロック番号iのブロックの最端画素における手書き画像の有無を判断基準としている。例えば、図19に示すように、処理対象ブロックと右側ブロックとの接続関係を考える場合、処理対象ブロックにおける最も右端となる右端列RAに配置されている画素(例えば、ブロックが横8画素×縦8画素のサイズの場合、右端列の8画素)に、手書き画像が含まれるか否かを判断する。そして、右端列RAの少なくとも一部に手書き画像が含まれる場合、処理対象ブロックと右側ブロックとが接続されていると判断する(判断基準A)。 In order to determine such a connection relationship between blocks, in this embodiment, the presence / absence of a handwritten image in the endmost pixel of the block of block number i that is the processing target is used as a determination criterion. For example, as shown in FIG. 19, when considering the connection relationship between the processing target block and the right block, the pixels (for example, the block is 8 horizontal pixels × vertical) arranged in the rightmost column RA which is the rightmost edge in the processing target block. In the case of the size of 8 pixels, it is determined whether or not a handwritten image is included in the rightmost column (8 pixels). When a handwritten image is included in at least a part of the right end row RA, it is determined that the processing target block and the right block are connected (determination criterion A).
なお、ブロック間の接続関係を判断するために、他の画素を用いてもかまわない。例えば、右側ブロックとの接続関係を判断する際、図19に示すように右端列RAの画素に加えて右側ブロックの最も左端に配置されている左端列LAの画素も用いて、ブロック間の接続関係を判断してもかまわない。具体的には、処理対象ブロックと右側ブロックとの接続関係を考える場合、処理対象ブロックの右端列RAに配置されている画素および右側ブロックの左端列LAに配置されている画素に対して、両者共に手書き画像が含まれる場合に処理対象ブロックと右側ブロックとが接続されていると判断する(判断基準B)。さらに、処理対象ブロックの右端列RAのうちの手書き画像が含まれている画素と、右側ブロックの左端列LAのうちの手書き画像が含まれている画素とが隣接している場合にのみ、処理対象ブロックと右側ブロックとが接続されていると判断してもかまわない(判断基準C)。この場合、処理対象ブロックの右端列RAの画素および右側ブロックの左端列LAの画素の何れにも手書き画像が含まれていても、両者間で手書き画像の画素に隣接しているものがなければ、処理対象ブロックと右側ブロックとが未接続であると判断される。 Note that other pixels may be used to determine the connection relationship between the blocks. For example, when determining the connection relationship with the right block, as shown in FIG. 19, in addition to the pixel in the right end column RA, the pixel in the left end column LA arranged at the left end of the right block is also used. You may judge the relationship. Specifically, when considering the connection relationship between the processing target block and the right block, both the pixel arranged in the right end column RA of the processing target block and the pixel arranged in the left end column LA of the right block are both When both handwritten images are included, it is determined that the processing target block and the right block are connected (determination criterion B). Furthermore, the processing is performed only when the pixel including the handwritten image in the right end row RA of the processing target block is adjacent to the pixel including the handwritten image in the left end row LA of the right block. It may be determined that the target block and the right block are connected (determination criterion C). In this case, even if a handwritten image is included in any of the pixels in the right end row RA of the processing target block and the pixels in the left end row LA of the right block, there is no one adjacent to the pixel of the handwritten image between them. , It is determined that the processing target block and the right block are not connected.
上述した判断基準A〜Cによるブロック間の接続関係の判断結果をまとめると、図20のようになる。例えば、図20に示すように、処理対象ブロックの右端列RAおよび右側ブロックの左端列LAに注目して、例1〜例3を考える。図20に示す例1のように、処理対象ブロックの右端列RAにのみに手書き画像(図20では塗りつぶし画素で示す)が含まれる場合、判断基準Aではブロック間が接続されていると判断されるが、判断基準BおよびCではブロック間が未接続であると判断される。また、図20に示す例2のように、処理対象ブロックの右端列RAおよび右側ブロックの左端列LA共に手書き画像が含まれるが、手書き画像の画素に両者間で隣接しているものがない場合、判断基準AおよびBではブロック間が接続されていると判断されるが、判断基準Cではブロック間が未接続であると判断される。さらに、図20に示す例3のように、処理対象ブロックの右端列RAおよび右側ブロックの左端列LA共に手書き画像が含まれ、かつ、手書き画像の画素に両者間で隣接しているものを含む場合、全ての判断基準A〜Cでブロック間が接続されていると判断される。このように、判断基準の設定によって判断結果が変化するため、処理負荷や後述する分解精度に応じて適切な判断基準を選択すればよい。本実施例においては、判断基準Aでブロック間の接続関係を判断する例を用いて説明する。 FIG. 20 summarizes the determination results of the connection relationship between blocks based on the determination criteria A to C described above. For example, as illustrated in FIG. 20, Examples 1 to 3 are considered by paying attention to the right end row RA of the processing target block and the left end row LA of the right block. As in Example 1 shown in FIG. 20, when a handwritten image (indicated by a filled pixel in FIG. 20) is included only in the right end row RA of the processing target block, it is determined that the blocks are connected according to the criterion A. However, the determination criteria B and C determine that the blocks are not connected. In addition, as in Example 2 illustrated in FIG. 20, both the right end row RA of the processing target block and the left end row LA of the right block include a handwritten image, but there are no pixels adjacent to the handwritten image. The determination criteria A and B determine that the blocks are connected, but the determination criteria C determines that the blocks are not connected. Furthermore, as in Example 3 shown in FIG. 20, both the right end row RA of the processing target block and the left end row LA of the right block include a handwritten image and include pixels adjacent to the pixels of the handwritten image. In this case, it is determined that the blocks are connected by all the determination criteria A to C. As described above, since the determination result changes depending on the setting of the determination criterion, an appropriate determination criterion may be selected according to the processing load and the resolution accuracy described later. In the present embodiment, description will be made using an example in which the connection relationship between blocks is determined based on the determination criterion A.
図12に戻り、CPU31は、現在処理対象となっているブロック番号iのブロックの右端列画素に手書き画像が含まれるか否かを判断する(ステップ77)。そして、CPU31は、現在処理対象となっているブロック番号iのブロックの右端列画素に手書き画像が含まれる場合、すなわち処理対象ブロックと右側ブロックとが接続されていると判断した場合(ステップ77でYes)、当該ブロック番号iの接続フラグ(右)(図10参照)をオン(ON)に設定して右側ブロック確認処理を行い(ステップ81)、次のステップ78に処理を進める。一方、CPU31は、現在処理対象となっているブロック番号iのブロックの右端列画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと右側ブロックとが接続されていないと判断した場合(ステップ77でNo)、そのまま次のステップ78に処理を進める。なお、右側ブロック確認処理の詳細な動作については後述する。
Returning to FIG. 12, the
ステップ78において、CPU31は、現在処理対象となっているブロック番号iのブロックの上端行画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、現在処理対象となっているブロック番号iのブロックの上端行画素に手書き画像が含まれる場合、すなわち処理対象ブロックと上側ブロックとが接続されていると判断した場合(ステップ78でYes)、当該ブロック番号iの接続フラグ(上)をオン(ON)に設定して上側ブロック確認処理を行い(ステップ82)、次のステップ79に処理を進める。一方、CPU31は、現在処理対象となっているブロック番号iのブロックの上端行画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと上側ブロックとが接続されていないと判断した場合(ステップ78でNo)、そのまま次のステップ79に処理を進める。なお、上側ブロック確認処理の詳細な動作については後述する。
In step 78, the
ステップ79において、CPU31は、現在処理対象となっているブロック番号iのブロックの左端列画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、現在処理対象となっているブロック番号iのブロックの左端列画素に手書き画像が含まれる場合、すなわち処理対象ブロックと左側ブロックとが接続されていると判断した場合(ステップ79でYes)、当該ブロック番号iの接続フラグ(左)をオン(ON)に設定して左側ブロック確認処理を行い(ステップ83)、次のステップ80に処理を進める。一方、CPU31は、現在処理対象となっているブロック番号iのブロックの左端列画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと左側ブロックとが接続されていないと判断した場合(ステップ79でNo)、そのまま次のステップ80に処理を進める。なお、左側ブロック確認処理の詳細な動作については後述する。
In
ステップ80において、CPU31は、現在処理対象となっているブロック番号iのブロックの下端行画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、現在処理対象となっているブロック番号iのブロックの下端行画素に手書き画像が含まれる場合、すなわち処理対象ブロックと下側ブロックとが接続されていると判断した場合(ステップ80でYes)、当該ブロック番号iの接続フラグ(下)をオン(ON)に設定して下側ブロック確認処理を行い(ステップ84)、次のステップ85に処理を進める。一方、CPU31は、現在処理対象となっているブロック番号iのブロックの下端行画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと下側ブロックとが接続されていないと判断した場合(ステップ80でNo)、そのまま次のステップ85に処理を進める。なお、下側ブロック確認処理の詳細な動作については後述する。
In step 80, the
ステップ85において、CPU31は、現在処理対象としているグループ番号jに1を加算して、新たに処理対象のグループ番号jを設定し、次のステップ86に処理を進める。
In
ステップ86において、CPU31は、現在処理対象としているブロック番号iに1を加算して、新たに処理対象のブロック番号iを設定し、次のステップに処理を進める。
In
次に、CPU31は、現在処理対象としているブロック番号iがブロック番号の最大値Bnmaxより大きいか否かを判断する(ステップ87)。ここで、最大値Bnmaxは、上記ステップ71で表示画面DAをブロックに分割してブロック番号を付与した際の、ブロック番号最大値である。そして、CPU31は、現在処理対象としているブロック番号iがブロック番号の最大値Bnmax以下の場合、上記ステップ74に戻って処理を繰り返す。一方、CPU31は、現在処理対象としているブロック番号iがブロック番号の最大値Bnmaxより大きい場合、当該サブルーチンによる処理を終了して、ステップ57(図11)に処理を進める。
Next, the
以下、図13を参照して、上記ステップ81や後述するステップ98、ステップ118、およびステップ158で行う右側ブロック確認処理について説明する。
Hereinafter, with reference to FIG. 13, the right block confirmation process performed in step 81 and
図13において、CPU31は、現在処理対象となっているブロック(処理対象ブロック)の右側に隣接している右側ブロックを、新たな処理対象ブロックに設定し(ステップ91)、次のステップに処理を進める。例えば、図17に示すブロック番号m+2のブロックが処理対象ブロックとなっている場合、当該ブロックの右側に隣接しているブロック番号m+3のブロックが新たな処理対象ブロックに設定される。
In FIG. 13, the
次に、CPU31は、処理対象ブロックに手書き画像が描画されているか否かを判断する(ステップ92)。例えば、CPU31は、現在の処理対象ブロックに対応するブロックデータDbの画像有無フラグを参照し、当該画像有無フラグがオン(ON)である場合に手書き画像が描画されていると判断する。そして、CPU31は、処理対象ブロックに手書き画像が描画されている場合、次のステップ93に処理を進める。一方、CPU31は、処理対象ブロックに手書き画像が描画されていない場合、次のステップ101に処理を進める。
Next, the
ステップ93において、CPU31は、処理対象ブロックが、何れかのグループに設定されているか否かを判断する。例えば、CPU31は、処理対象ブロックに対応するブロックデータDbのグループ番号Gnを参照し、当該グループ番号に0以外の数値が設定されている場合にグループ設定済であると判断する。そして、CPU31は、処理対象ブロックがグループに設定されていない場合、次のステップ94に処理を進める。一方、CPU31は、処理対象ブロックが既に何れかのグループに設定されている場合、次のステップ101に処理を進める。
In step 93, the
ステップ94において、CPU31は、処理対象ブロックを、現在処理対象となっているグループ番号jのグループに属するブロックに設定して、次のステップに処理を進める。例えば、CPU31は、処理対象ブロックに対応するブロックデータDbのグループ番号に、現在処理対象となっているグループ番号jを記述してブロックデータDbを更新する。つまり、上記ステップ94の処理によって、処理対象ブロックは、当該右側ブロック確認処理を行う前に処理対象に設定されていたブロック(すなわち、処理対象ブロックから見て左側のブロック)と同じグループ番号のグループに属することになる。
In step 94, the
次に、CPU31は、処理対象ブロックの右端列画素に手書き画像が含まれるか否かを判断する(ステップ95)。そして、CPU31は、処理対象ブロックの右端列画素に手書き画像が含まれる場合、すなわち処理対象ブロックと右側ブロックとが接続されていると判断した場合(ステップ95でYes)、当該処理対象ブロックの接続フラグ(右)をオン(ON)に設定して上記ステップ91から右側ブロック確認処理を新たに開始し(ステップ98)、当該右側ブロック確認処理が終わった後にステップ96に処理を進める。一方、CPU31は、処理対象ブロックの右端列画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと右側ブロックとが接続されていないと判断した場合(ステップ95でNo)、そのまま次のステップ96に処理を進める。
Next, the
ステップ96において、CPU31は、処理対象ブロックの上端行画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、処理対象ブロックの上端行画素に手書き画像が含まれる場合、すなわち処理対象ブロックと上側ブロックとが接続されていると判断した場合(ステップ96でYes)、当該処理対象ブロックの接続フラグ(上)をオン(ON)に設定して上側ブロック確認処理を行い(ステップ99)、次のステップ97に処理を進める。一方、CPU31は、処理対象ブロックの上端行画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと上側ブロックとが接続されていないと判断した場合(ステップ96でNo)、そのまま次のステップ97に処理を進める。
In step 96, the
ステップ97において、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれる場合、すなわち処理対象ブロックと下側ブロックとが接続されていると判断した場合(ステップ97でYes)、当該処理対象ブロックの接続フラグ(下)をオン(ON)に設定して下側ブロック確認処理を行い(ステップ100)、次のステップ101に処理を進める。一方、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと下側ブロックとが接続されていないと判断した場合(ステップ97でNo)、そのまま次のステップ101に処理を進める。
In step 97, the
ステップ101において、CPU31は、処理対象ブロックの左側に隣接している左側ブロックを、新たな処理対象ブロックに設定し、当該サブルーチンによる処理を終了する。例えば、図17に示すブロック番号m+3のブロックが処理対象ブロックとなっている場合、当該ブロックの左側に隣接しているブロック番号m+2のブロックが新たな処理対象ブロックに設定される。
In step 101, the
以下、図14を参照して、上記ステップ82および上記ステップ99や後述するステップ119およびステップ138で行う上側ブロック確認処理について説明する。
Hereinafter, with reference to FIG. 14, the upper block confirmation processing performed in step 82 and
図14において、CPU31は、現在処理対象に設定されている処理対象ブロックの上側に隣接している上側ブロックを、新たな処理対象ブロックに設定し(ステップ111)、次のステップに処理を進める。例えば、図17に示すブロック番号m+2のブロックが処理対象ブロックとなっている場合、当該ブロックの上側に隣接しているブロック番号2のブロックが新たな処理対象ブロックに設定される。
In FIG. 14, the
次に、CPU31は、処理対象ブロックに手書き画像が描画されているか否かを判断する(ステップ112)。なお、ステップ112の動作例は、上記ステップ92と同様であるため、詳細な説明を省略する。そして、CPU31は、処理対象ブロックに手書き画像が描画されている場合、次のステップ113に処理を進める。一方、CPU31は、処理対象ブロックに手書き画像が描画されていない場合、次のステップ121に処理を進める。
Next, the
ステップ113において、CPU31は、処理対象ブロックが、何れかのグループに設定されているか否かを判断する。なお、ステップ113の動作例は、上記ステップ93と同様であるため、詳細な説明を省略する。そして、CPU31は、処理対象ブロックがグループに設定されていない場合、次のステップ114に処理を進める。一方、CPU31は、処理対象ブロックが既に何れかのグループに設定されている場合、次のステップ121に処理を進める。
In step 113, the
ステップ114において、CPU31は、処理対象ブロックを、現在処理対象となっているグループ番号jのグループに属するブロックに設定して、次のステップに処理を進める。なお、ステップ114の動作例は、上記ステップ94と同様であるため、詳細な説明を省略する。上記ステップ114の処理によって、処理対象ブロックは、当該上側ブロック確認処理を行う前に処理対象に設定されていたブロック(すなわち、処理対象ブロックから見て下側のブロック)と同じグループ番号のグループに属することになる。
In
次に、CPU31は、処理対象ブロックの右端列画素に手書き画像が含まれるか否かを判断する(ステップ115)。そして、CPU31は、処理対象ブロックの右端列画素に手書き画像が含まれる場合、すなわち処理対象ブロックと右側ブロックとが接続されていると判断した場合(ステップ115でYes)、当該処理対象ブロックの接続フラグ(右)をオン(ON)に設定して上述した右側ブロック確認処理を行い(ステップ118)、次のステップ116に処理を進める。一方、CPU31は、処理対象ブロックの右端列画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと右側ブロックとが接続されていないと判断した場合(ステップ115でNo)、そのまま次のステップ116に処理を進める。
Next, the
ステップ116において、CPU31は、処理対象ブロックの上端行画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、処理対象ブロックの上端行画素に手書き画像が含まれる場合、すなわち処理対象ブロックと上側ブロックとが接続されていると判断した場合(ステップ116でYes)、当該処理対象ブロックの接続フラグ(上)をオン(ON)に設定して上記ステップ111から上側ブロック確認処理を新たに開始し(ステップ119)、当該上側ブロック確認処理が終わった後にステップ117に処理を進める。一方、CPU31は、処理対象ブロックの上端行画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと上側ブロックとが接続されていないと判断した場合(ステップ116でNo)、そのまま次のステップ117に処理を進める。
In
ステップ117において、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれる場合、すなわち処理対象ブロックと下側ブロックとが接続されていると判断した場合(ステップ117でYes)、当該処理対象ブロックの接続フラグ(下)をオン(ON)に設定して下側ブロック確認処理を行い(ステップ120)、次のステップ121に処理を進める。一方、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと下側ブロックとが接続されていないと判断した場合(ステップ117でNo)、そのまま次のステップ121に処理を進める。
In step 117, the
ステップ121において、CPU31は、処理対象ブロックの下側に隣接している下側ブロックを、新たな処理対象ブロックに設定し、当該サブルーチンによる処理を終了する。例えば、図17に示すブロック番号2のブロックが処理対象ブロックとなっている場合、当該ブロックの下側に隣接しているブロック番号m+2のブロックが新たな処理対象ブロックに設定される。
In step 121, the
以下、図15を参照して、上記ステップ83および上記ステップ120や後述するステップ139およびステップ159で行う左側ブロック確認処理について説明する。 Hereinafter, with reference to FIG. 15, the left block confirmation process performed in step 83 and step 120 and steps 139 and 159 described later will be described.
図15において、CPU31は、現在処理対象に設定されている処理対象ブロックの左側に隣接している左側ブロックを、新たな処理対象ブロックに設定し(ステップ131)、次のステップに処理を進める。例えば、図17に示すブロック番号m+2のブロックが処理対象ブロックとなっている場合、当該ブロックの左側に隣接しているブロック番号m+1のブロックが新たな処理対象ブロックに設定される。
In FIG. 15, the
次に、CPU31は、処理対象ブロックに手書き画像が描画されているか否かを判断する(ステップ132)。なお、ステップ132の動作例は、上記ステップ92と同様であるため、詳細な説明を省略する。そして、CPU31は、処理対象ブロックに手書き画像が描画されている場合、次のステップ133に処理を進める。一方、CPU31は、処理対象ブロックに手書き画像が描画されていない場合、次のステップ141に処理を進める。
Next, the
ステップ133において、CPU31は、処理対象ブロックが、何れかのグループに設定されているか否かを判断する。なお、ステップ133の動作例は、上記ステップ93と同様であるため、詳細な説明を省略する。そして、CPU31は、処理対象ブロックがグループに設定されていない場合、次のステップ134に処理を進める。一方、CPU31は、処理対象ブロックが既に何れかのグループに設定されている場合、次のステップ141に処理を進める。
In step 133, the
ステップ134において、CPU31は、処理対象ブロックを、現在処理対象となっているグループ番号jのグループに属するブロックに設定して、次のステップに処理を進める。なお、ステップ134の動作例は、上記ステップ94と同様であるため、詳細な説明を省略する。上記ステップ134の処理によって、処理対象ブロックは、当該左側ブロック確認処理を行う前に処理対象に設定されていたブロック(すなわち、処理対象ブロックから見て右側のブロック)と同じグループ番号のグループに属することになる。
In step 134, the
次に、CPU31は、処理対象ブロックの上端行画素に手書き画像が含まれるか否かを判断する(ステップ135)。そして、CPU31は、処理対象ブロックの上端行画素に手書き画像が含まれる場合、すなわち処理対象ブロックと上側ブロックとが接続されていると判断した場合(ステップ135でYes)、当該処理対象ブロックの接続フラグ(上)をオン(ON)に設定して上述した上側ブロック確認処理を行い(ステップ138)、次のステップ136に処理を進める。一方、CPU31は、処理対象ブロックの上端行画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと上側ブロックとが接続されていないと判断した場合(ステップ135でNo)、そのまま次のステップ136に処理を進める。
Next, the
ステップ136において、CPU31は、処理対象ブロックの左端列画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、処理対象ブロックの左端列画素に手書き画像が含まれる場合、すなわち処理対象ブロックと左側ブロックとが接続されていると判断した場合(ステップ136でYes)、当該処理対象ブロックの接続フラグ(左)をオン(ON)に設定して上記ステップ131から左側ブロック確認処理を新たに開始し(ステップ139)、当該左側ブロック確認処理が終わった後にステップ137に処理を進める。一方、CPU31は、処理対象ブロックの左端列画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと左側ブロックとが接続されていないと判断した場合(ステップ136でNo)、そのまま次のステップ137に処理を進める。
In
ステップ137において、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれる場合、すなわち処理対象ブロックと下側ブロックとが接続されていると判断した場合(ステップ137でYes)、当該処理対象ブロックの接続フラグ(下)をオン(ON)に設定して下側ブロック確認処理を行い(ステップ140)、次のステップ141に処理を進める。一方、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと下側ブロックとが接続されていないと判断した場合(ステップ137でNo)、そのまま次のステップ141に処理を進める。
In
ステップ141において、CPU31は、処理対象ブロックの右側に隣接している右側ブロックを、新たな処理対象ブロックに設定し、当該サブルーチンによる処理を終了する。例えば、図17に示すブロック番号m+1のブロックが処理対象ブロックとなっている場合、当該ブロックの右側に隣接しているブロック番号m+2のブロックが新たな処理対象ブロックに設定される。
In step 141, the
以下、図16を参照して、上記ステップ84、上記ステップ100、および上記ステップ140や後述するステップ160で行う下側ブロック確認処理について説明する。
Hereinafter, with reference to FIG. 16, the lower block confirmation process performed in step 84, step 100,
図16において、CPU31は、現在処理対象に設定されている処理対象ブロックの下側に隣接している下側ブロックを、新たな処理対象ブロックに設定し(ステップ151)、次のステップに処理を進める。例えば、図17に示すブロック番号m+2のブロックが処理対象ブロックとなっている場合、当該ブロックの下側に隣接しているブロック番号2m+2のブロックが新たな処理対象ブロックに設定される。
In FIG. 16, the
次に、CPU31は、処理対象ブロックに手書き画像が描画されているか否かを判断する(ステップ152)。なお、ステップ152の動作例は、上記ステップ92と同様であるため、詳細な説明を省略する。そして、CPU31は、処理対象ブロックに手書き画像が描画されている場合、次のステップ153に処理を進める。一方、CPU31は、処理対象ブロックに手書き画像が描画されていない場合、次のステップ161に処理を進める。
Next, the
ステップ153において、CPU31は、処理対象ブロックが、何れかのグループに設定されているか否かを判断する。なお、ステップ153の動作例は、上記ステップ93と同様であるため、詳細な説明を省略する。そして、CPU31は、処理対象ブロックがグループに設定されていない場合、次のステップ154に処理を進める。一方、CPU31は、処理対象ブロックが既に何れかのグループに設定されている場合、次のステップ161に処理を進める。
In step 153, the
ステップ154において、CPU31は、処理対象ブロックを、現在処理対象となっているグループ番号jのグループに属するブロックに設定して、次のステップに処理を進める。なお、ステップ154の動作例は、上記ステップ94と同様であるため、詳細な説明を省略する。上記ステップ154の処理によって、処理対象ブロックは、当該下側ブロック確認処理を行う前に処理対象に設定されていたブロック(すなわち、処理対象ブロックから見て上側のブロック)と同じグループ番号のグループに属することになる。
In step 154, the
次に、CPU31は、処理対象ブロックの右端列画素に手書き画像が含まれるか否かを判断する(ステップ155)。そして、CPU31は、処理対象ブロックの右端列画素に手書き画像が含まれる場合、すなわち処理対象ブロックと右側ブロックとが接続されていると判断した場合(ステップ155でYes)、当該処理対象ブロックの接続フラグ(右)をオン(ON)に設定して上述した右側ブロック確認処理を行い(ステップ158)、次のステップ156に処理を進める。一方、CPU31は、処理対象ブロックの右端列画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと右側ブロックとが接続されていないと判断した場合(ステップ155でNo)、そのまま次のステップ156に処理を進める。
Next, the
ステップ156において、CPU31は、処理対象ブロックの左端列画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、処理対象ブロックの左端列画素に手書き画像が含まれる場合、すなわち処理対象ブロックと左側ブロックとが接続されていると判断した場合(ステップ156でYes)、当該処理対象ブロックの接続フラグ(左)をオン(ON)に設定して上述した左側ブロック確認処理を行い(ステップ159)、次のステップ157に処理を進める。一方、CPU31は、処理対象ブロックの左端列画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと左側ブロックとが接続されていないと判断した場合(ステップ156でNo)、そのまま次のステップ157に処理を進める。
In step 156, the
ステップ157において、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれるか否かを判断する。そして、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれる場合、すなわち処理対象ブロックと下側ブロックとが接続されていると判断した場合(ステップ157でYes)、当該処理対象ブロックの接続フラグ(下)をオン(ON)に設定して上記ステップ151から下側ブロック確認処理を新たに開始し(ステップ160)、当該下側ブロック確認処理が終わった後にステップ161に処理を進める。一方、CPU31は、処理対象ブロックの下端行画素に手書き画像が含まれていない場合、すなわち処理対象ブロックと下側ブロックとが接続されていないと判断した場合(ステップ157でNo)、そのまま次のステップ161に処理を進める。
In step 157, the
ステップ161において、CPU31は、処理対象ブロックの上側に隣接している上側ブロックを、新たな処理対象ブロックに設定し、当該サブルーチンによる処理を終了する。例えば、図17に示すブロック番号2m+2のブロックが処理対象ブロックとなっている場合、当該ブロックの上側に隣接しているブロック番号m+2のブロックが新たな処理対象ブロックに設定される。
In
図21を用いて、上述した画像分解処理によって手書き画像が分解される例を説明する。なお、図21において、A〜Cはブロック番号を示し、矢印内の数値はブロック間の接続関係を判断した順番を示し、矢印内の記号はその判断結果を示している。 An example in which a handwritten image is decomposed by the above-described image decomposition processing will be described with reference to FIG. In FIG. 21, A to C indicate block numbers, the numerical values in the arrows indicate the order in which the connection relationship between the blocks is determined, and the symbols in the arrows indicate the determination results.
図21において、ブロック番号Aのブロック(以下、ブロックAと記載する)が処理対象となって、上記ステップ74〜ステップ87(図12参照)の処理が行われる場合を考える。ブロックAは、手書き文字「h」の一部を含んでいるため、何れかのグループ(例えば、グループ番号1のグループ;以下グループ1と記載する)に設定される(ステップ74〜ステップ76)。
In FIG. 21, a case is considered where the block of block number A (hereinafter referred to as block A) is the processing target, and the processing from
ブロックAに隣接する左右および上側ブロックに注目すると、これらのブロックとブロックAとは共通する手書き画像を含んでいないため、ブロックAと左右および上側ブロックとの間は未接続(×1〜×3)であると判断される(ステップ77〜ステップ79)。一方、ブロックAに隣接する下側ブロック(ブロックB)に注目すると、ブロックBはブロックAと同じ手書き文字「h」の一部を含んでいるため、ブロックAとブロックBとの間は接続(○4)されていると判断される(ステップ80)。そして、ブロックBを処理対象ブロックとした確認処理(下側ブロック確認処理;ステップ84)が実行される。当該確認処理によって、ブロックBは、手書き文字「h」の一部を含んでいるため、ブロックAと同じグループ1に設定される(ステップ151〜ステップ154)。
When attention is paid to the left and right and upper blocks adjacent to the block A, these blocks and the block A do not include a common handwritten image. Therefore, the block A is not connected to the left and right and upper blocks (× 1 to × 3). ) (Step 77 to step 79). On the other hand, when attention is paid to the lower block (block B) adjacent to the block A, since the block B includes a part of the same handwritten character “h” as the block A, the connection between the block A and the block B ( (4) It is judged that it has been done (step 80). And the confirmation process (lower block confirmation process; step 84) which made the block B a process target block is performed. By the confirmation process, the block B includes a part of the handwritten character “h”, and thus is set to the
次に、ブロックBに隣接する右側ブロック(ブロックC)に注目すると、ブロックCもブロックAおよびBと同じ手書き文字「h」の一部を含んでいるため、ブロックBとブロックCとの間は接続(○5)されていると判断される(ステップ155)。そして、ブロックCを処理対象ブロックとした確認処理(右側ブロック確認処理;ステップ158)が実行される。当該確認処理によって、ブロックCは、手書き文字「h」の一部を含んでいるため、ブロックAおよびBと同じグループ1に設定される(ステップ91〜ステップ94)。
Next, when attention is paid to the right block (block C) adjacent to the block B, the block C also includes a part of the same handwritten character “h” as the blocks A and B. It is determined that the connection ((5) is established (step 155). And the confirmation process (right side block confirmation process; step 158) which made the block C a process target block is performed. Since the block C includes a part of the handwritten character “h” by the confirmation process, the
次に、ブロックCに隣接する右および上下側ブロックに注目すると、これらのブロックとブロックCとは共通する手書き画像を含んでいないため、ブロックCと右および上下側ブロックとの間は未接続(×6〜×8)であると判断される(ステップ95〜ステップ97)。そして、ブロックCを処理対象ブロックとした確認処理(右側ブロック確認処理;ステップ158)が終了し、ブロックBを処理対象ブロックとした確認処理(ステップ156)に戻る。
Next, focusing on the right and upper and lower blocks adjacent to the block C, these blocks and the block C do not include a common handwritten image, so the block C and the right and upper and lower blocks are not connected ( X6 to x8) (
次に、ブロックBに隣接する左および下側ブロックに注目すると、これらのブロックとブロックBとは共通する手書き画像を含んでいないため、ブロックBと左および下側ブロックとの間は未接続(×9および×10)であると判断される(ステップ156およびステップ157)。そして、ブロックBを処理対象ブロックとした確認処理(下側ブロック確認処理;ステップ84)が終了し、ブロックAを処理対象ブロックとした確認処理(ステップ85)に戻る。 Next, when attention is paid to the left and lower blocks adjacent to the block B, since these blocks and the block B do not include a common handwritten image, the block B and the left and lower blocks are not connected ( X9 and x10) (steps 156 and 157). And the confirmation process (lower block confirmation process; step 84) which used the block B as a process target block is complete | finished, and returns to the confirmation process (step 85) which used the block A as a process target block.
このように、上述した画像分解処理では、ブロックの接続判定処理をブロック各辺に対して行い、接続判定された他のブロックにおいても同様の接続判定処理を再帰的に行うことによって、手書き画像が連続している範囲を判定している。例えば、図21に示すように、このような接続判定処理によって、手書き文字「h」が連続している範囲がブロックA〜ブロックBであることが判定され、当該ブロックA〜ブロックCが同じグループに設定される。そして、同様の画像分解処理を繰り返すことによって、手書き文字は、連続している部分毎で異なるグループに設定されていく。これは、手書き文字に限らず、手書きスタンプや自由線等でも同様であり、手書き画像が連続している部分毎に異なるグループに設定されていくことになる。 In this way, in the image decomposition process described above, the block connection determination process is performed on each side of the block, and the same connection determination process is recursively performed in other blocks for which connection determination has been performed, so that a handwritten image is obtained. Judging the continuous range. For example, as shown in FIG. 21, it is determined by such connection determination processing that the range in which the handwritten character “h” is continuous is block A to block B, and the block A to block C are in the same group. Set to Then, by repeating the same image decomposition process, handwritten characters are set in different groups for each continuous portion. This applies not only to handwritten characters but also to handwritten stamps and free lines, and is set to different groups for each portion where handwritten images are continuous.
図11に戻り、上記ステップ56の画像分解処理の後、CPU31は、演出表示処理を行い(ステップ57)、次のステップに処理を進める。以下、図22を参照して、上記ステップ57で行う演出表示処理について説明する。
Returning to FIG. 11, after the image decomposition process in
図22において、下側LCD12に表示される画面は、複数のレイヤーによって構成されている。具体的には、上記画面は、内側カメラ23または外側カメラ25によって撮像されたリアルタイムの画像(撮像画像)やゲーム装置1やメモリカード28に画像データとして記憶された画像(撮影画像)等を載せて表示するライブレイヤーLlive、上述した手書き画像を載せて表示するペイントレイヤーLpaint、および画面上を移動するオブジェクト等を載せて表示する3DテクスチャーレイヤーL3D等によって構成されている。
In FIG. 22, the screen displayed on the
タッチパネル13を介して、ユーザが手書き文字や手書きスタンプ等を入力した場合、当該入力に応じた手書き画像がペイントレイヤーLpaintに載せられる(図22上段図)。その後、ユーザが全消去操作を行った場合、ペイントレイヤーLpaint上の表示画像のうち、上記画像分解処理によって分類されたグループに属するブロック(具体的には、1以上のグループ番号Gnが設定されたブロック)のみが3DテクスチャーレイヤーL3D上にコピーされて、ペイントレイヤーLpaintに載せられた手書き画像が全て消去される(図22下段図)。
When the user inputs a handwritten character, a handwritten stamp, or the like via the
上記演出表示処理においては、3DテクスチャーレイヤーL3Dに載せられた各ブロックに対してそれぞれ所定の初速度が与えられ、ブロック移動データDcに記述される。このとき、各グループに与えられる移動速度および移動方向がランダムに決められ、同じグループ番号Gnのグループに属するブロックについては、同じ移動速度および同じ移動方向の初速度がそれぞれ与えられる。 In the effect display process, a predetermined initial speed is given to each block placed on the 3D texture layer L3D, and is described in the block movement data Dc. At this time, the moving speed and the moving direction given to each group are determined at random, and the same moving speed and the initial speed in the same moving direction are given to the blocks belonging to the group of the same group number Gn.
例えば、図23Aの左図に示すように、ブロックA〜Cが同じグループに属する場合、ブロックA〜Cそれぞれの中心位置Pba〜Pbcに対して同じ移動ベクトルVba〜Vbcがそれぞれ与えられるため、ブロックA〜Cに対して同じ移動速度および同じ移動方向の初速度がそれぞれ与えられることになる。そして、CPU31は、ブロック移動データDcに記述された各ブロックの移動データ(移動速度、移動方向)に応じて、3DテクスチャーレイヤーL3D上で各ブロックをそれぞれに記述された手書き画像と共に移動させる。その後、各ブロックが所定方向(例えば、下側LCD12の下方向)に自由落下するように、処理単位時間毎に各ブロックに対して加速度が与えられて、ブロック移動データDcが更新されていく。
For example, as shown in the left diagram of FIG. 23A, when the blocks A to C belong to the same group, the same movement vectors Vba to Vbc are given to the center positions Pba to Pbc of the blocks A to C, respectively. The same moving speed and the initial speed in the same moving direction are given to A to C, respectively. Then, the
このように、各ブロックに対して移動速度を与えることによって、各ブロックに記述された手書き画像を移動させて下側LCD12に表示することができる。ここで、同じグループに属するブロックについては、同じ移動速度および同じ移動方向が常に与えられ、異なるグループ間では異なる移動速度や異なる移動方向が与えられるため、ブロックがグループ毎に一体となって移動することになり、あたかもグループ単位に分割された手書き画像(手書き文字Ihw1)がその分割単位で移動するように表現される(図23Aの右図参照)。そして、各ブロックには所定方向の加速度が作用しているため、各ブロックは、やがて下側LCD12の表示範囲外まで移動し、各ブロックに記述された手書き画像が下側LCD12から消去されることになる(図3〜図6参照)。
Thus, by giving a moving speed to each block, the handwritten image described in each block can be moved and displayed on the
なお、上述した説明では、各ブロックが所定方向に自由落下するように、各ブロックに対して加速度が与えられる例を用いたが、当該加速度が与えられなくてもかまわない。この場合、各ブロックに与えられた初速度によって各ブロックが移動することになるため、グループ単位に分割された手書き画像が四方八方に飛び散って移動するように表現される。 In the above description, an example in which acceleration is given to each block so that each block freely falls in a predetermined direction is used. However, the acceleration may not be given. In this case, each block moves according to the initial speed given to each block, so that the handwritten image divided into groups is expressed as being scattered in all directions.
図11に戻り、上記ステップ57の演出表示処理の後、CPU31は、当該演出表示処理が終了したか否かを判断する(ステップ58)。そして、CPU31は、上記演出表示処理が終了していない場合、上記ステップ57の処理を継続する。一方、CPU31は、上記演出表示処理が終了した場合、次のステップ60に処理を進める。
Returning to FIG. 11, after the effect display process of
一方、上記ステップ52で取得した操作データが、手書き入力や全消去を示すデータでない場合(ステップ53およびステップ55が何れもNo)、CPU31は、当該操作データに応じたその他の処理を行い(ステップ59)、次のステップ60に処理を進める。
On the other hand, when the operation data acquired in
ステップ60において、CPU31は、画像処理を終了するか否かを判断する。画像処理を終了する条件としては、例えば、画像処理が終了する条件が満たされたことや、ユーザが画像処理を終了する操作を行ったこと等がある。CPU31は、画像処理を終了しない場合に上記ステップ52に戻って処理を繰り返し、画像処理を終了する場合に当該フローチャートによる処理を終了する。
In
このように、本実施形態に係るゲーム装置1は、ユーザ操作による手書き入力によって表示された手書き画像を、ユーザ操作によって全消去する際、手書き画像が分解され、当該分解されたグループ毎に異なる移動をする。したがって、ユーザが手書き入力によって落書きしてその落書きを消すような全消去操作に対して、新たな演出効果が加えられるため、ユーザにとって面白みを感じる操作となる。
As described above, when the
なお、上述した手書き画像の分解処理は、ユーザが手書き入力した画像に対して連続している部分毎にグループに分解しているが、他の態様で画像を分解してもかまわない。例えば、全消去の対象となる画像の色毎に分解したり、全消去の対象となる画像を入力したユーザの入力ストローク(例えば、タッチパネル13がタッチオンされてからタッチオフされるまでの間に入力された自由線)毎に分解したり、全消去の対象となる画像のエッジを抽出して当該エッジで分解したり、表示画面を予め設定された形状(例えば、所定形状の網の目状)に分割して全消去の対象となる画像を当該形状で分解したりしてもかまわない。ユーザの入力ストローク毎に分解する場合、ユーザが手書き入力した履歴(例えば、タッチパネル13に入力したタッチ位置の履歴)を記憶しておけば、手書き画像を入力ストローク毎に分解することが可能となる。
Note that the handwriting image decomposition process described above is divided into groups for each continuous portion of the image handwritten by the user, but the image may be decomposed in another manner. For example, an input stroke of a user who has decomposed each color of an image to be erased or has input an image to be erased (for example, input from
また、上述した手書き画像の分解処理は、当該手書き画像を所定の分割領域(ブロック)に分割し、当該分割領域を当該手書き画像に基づいてグループ化しているため、分解処理の処理負荷が軽減される効果がある。しかしながら、このような効果を期待しない場合、他の方式で手書き画像を分解してもかまわない。例えば、手書き画像を示す画素群に対して、互いに隣接している画素を同じグループに設定するようにそれぞれの画素をグループ化してもかまわない。 Moreover, since the handwritten image decomposition process described above divides the handwritten image into predetermined divided areas (blocks) and groups the divided areas based on the handwritten image, the processing load of the decomposition process is reduced. There is an effect. However, when such an effect is not expected, the handwritten image may be decomposed by another method. For example, each pixel may be grouped so that pixels adjacent to each other are set in the same group with respect to the pixel group indicating the handwritten image.
また、上述した実施形態では、ユーザ操作による手書き入力によって表示された手書き文字、手書き線、手書きスタンプ等の手書き画像を全消去操作の対象としたが、他の画像を本発明の全消去操作の対象としてもかまわない。例えば、ユーザが内側カメラ23または外側カメラ25によって取り込んだ画像データに基づいた撮像画像や、撮像画像を所定の記憶媒体に一旦記憶した画像データに基づいた撮影画像等、ゲーム装置1の下側LCD12および/または上側LCD22に表示可能な画像を上記全消去対象としてもかまわない。具体的には、ユーザは、ゲーム装置1の操作ボタン14Gまたは操作ボタン14Hを押下することによって、内側カメラ23または外側カメラ25を用いた撮影指示を行うことができる。そして、上記撮影処理によって、内側カメラ23または外側カメラ25で撮像されている画像を、保存用データメモリ34やメモリカード28に記憶(保存)することができる。このような撮影処理によって得られた画像やリアルタイムに撮像されている画像を、CPU31が上記分解処理の対象画像として用いればよい。この場合、上述した色毎に対象画像を分解したり、エッジ抽出によって対象画像をエッジで分解したり、予め設定された形状で対称画像を分解したりすることによって、上記手書き画像と同様の全消去処理時の演出が可能となる。
Further, in the above-described embodiment, handwritten images such as handwritten characters, handwritten lines, and handwritten stamps displayed by handwriting input by a user operation are targeted for all erasing operations, but other images are subjected to all erasing operations of the present invention. It does not matter as a target. For example, the
また、上述した演出表示処理では、分解された手書き画像を異なる方向へそれぞれ移動させて消去する演出例を用いたが、分解された画像単位で当該画像が移動したり表示角度が変化したり変形したりする他のアニメーション演出処理を行ってもかまわない。例えば、分解された手書き画像を、それぞれ回転移動させて消去したり、それぞれ縮小して消去したり、それぞれ拡大させながら透明度を変化させて消去したりしてもかまわない。 Further, in the above-described effect display processing, an example of an effect in which the decomposed handwritten image is moved and deleted in different directions is used, but the image is moved or the display angle is changed or deformed in units of decomposed images. You may perform other animation production processing. For example, the disassembled handwritten image may be erased by rotating and erasing, erasing by reducing each, or erasing by changing the transparency while enlarging each.
ここで、上述した演出表示処理では、図23Aに示したように同じグループに属するブロックそれぞれに対して同じ移動ベクトルを与えることによって、当該グループを一体的に移動している。しかしながら、上述したように当該グループを回転させる場合は、当該グループに属するブロックそれぞれに異なる移動ベクトルを与えることになる。 Here, in the effect display process described above, the group is moved integrally by giving the same movement vector to each block belonging to the same group as shown in FIG. 23A. However, when the group is rotated as described above, different movement vectors are given to the blocks belonging to the group.
例えば、図23Bに示すように、ブロックA〜Cが同じグループに属し、ブロックA〜Cを一体的に回転させる場合を想定する。この場合、ブロックA〜Cの重心Pg1からブロックA〜Cそれぞれの中心位置Pba〜Pbcまでの距離に応じて、重心Pg1を中心にそれぞれのブロックA〜Cを同じ回転方向へ移動させる移動ベクトルVra〜Vrcを算出する。そして、重心Pg1を中心にブロックA〜Cがそれぞれ移動した移動角度θだけ、中心位置Pba〜Pbcを中心にブロックA〜Cを角度θ回転させる。これによって、グループ単位に分割された手書き画像(手書き文字Ihw1)がその分割単位で回転するように表現される(図23Bの右図参照)。このような回転のための移動ベクトルVra〜Vrcに、上述した移動のための移動ベクトルVba〜Vbcを加えることによって、表示画面内を分割された手書き画像が回転しながら移動するような演出表示も可能となることは言うまでもない。 For example, as shown in FIG. 23B, it is assumed that the blocks A to C belong to the same group and the blocks A to C are rotated together. In this case, according to the distance from the center of gravity Pg1 of the blocks A to C to the center positions Pba to Pbc of the blocks A to C, the movement vector Vra that moves each of the blocks A to C around the center of gravity Pg1 in the same rotational direction. Calculate ~ Vrc. Then, the blocks A to C are rotated by the angle θ about the center positions Pba to Pbc by the movement angle θ that the blocks A to C have moved about the center of gravity Pg1. As a result, the handwritten image (handwritten character Ihw1) divided into groups is represented so as to rotate in the divided units (see the right figure in FIG. 23B). By adding the above-described movement vectors Vba to Vbc to the movement vectors Vra to Vrc for such rotation, there is also an effect display in which the handwritten image divided in the display screen moves while rotating. It goes without saying that it will be possible.
また、上述した画像処理では、ユーザが全消去操作を行った場合に分割された手書き画像がそれぞれ演出表示される例を用いたが、ユーザが部分消去操作を行った場合にも同様の演出表示を行ってもかまわない。例えば、ユーザが消去する範囲を指定する操作を行った場合、当該範囲内に含まれるブロックにのみ上述した画像分解処理を行って演出表示処理を行い、当該範囲外のブロックに記述された手書き画像をペイントレイヤーLpaint(図22参照)に載せたままに保持すれば、部分消去であっても本発明を適用することが可能となる。 Further, in the above-described image processing, an example is used in which the handwritten image divided when the user performs a complete erasure operation is displayed as an effect. However, the same effect display is also performed when the user performs a partial erasure operation. You can go. For example, when the user performs an operation for designating a range to be erased, the above-described image decomposition process is performed only on the blocks included in the range, the effect display process is performed, and the handwritten image described in the block outside the range Is held on the paint layer Lpaint (see FIG. 22), the present invention can be applied even to partial erasure.
また、上述した演出表示処理では、ユーザが行う全消去操作に応じて、分割された手書き画像がそれぞれ下側LCD12の表示範囲外まで移動し、各手書き画像が下側LCD12から消去される例を示したが、本発明は各手書き画像の表示位置または表示態様がそれぞれ変更されれば表示画面から消去されなくても適用可能である。ここで、分解された手書き画像の表示態様を変更するとは、分解された手書き画像毎に形状(拡大、縮小等)を変化させる、分解された手書き画像毎に表示方向を変化(回転)させる、分解された手書き画像毎に色を変化させる、分解された手書き画像毎に点滅させる、分解された手書き画像毎に透明度を変化させる等の処理を含んでいる。例えば、ユーザが行う全消去操作に応じて、分割された手書き画像がそれぞれ下側LCD12の所定位置で重なり合って集合するように各手書き画像が移動するようにしてもかまわない。また、ユーザが行う所定操作(この場合、全消去操作でなくてもよい)に応じて、分割された手書き画像がそれぞれ下側LCD12内を浮遊して移動するように各手書き画像が移動するようにしてもかまわない。さらに、ユーザが行う所定操作(この場合、全消去操作でなくてもよい)に応じて、分割された手書き画像をそれぞれ異なる色に変化させたり、それぞれ異なるタイミングで点滅させたりして、下側LCD12に表示してもかまわない。
Further, in the above-described effect display process, an example in which the divided handwritten images are moved out of the display range of the
また、図22を用いて説明したように、ユーザが手書き文字や手書きスタンプ等を入力した場合、当該入力に応じた手書き画像がペイントレイヤーLpaintに載せられる例を用いたが、手書き画像を他のレイヤーに載せて表示してもかまわない。例えば、ユーザが手書き文字や手書きスタンプ等を入力した場合、当該入力に応じた手書き画像を3DテクスチャーレイヤーL3Dに載せて当該手書き画像を表示してもかまわない。 In addition, as described with reference to FIG. 22, when a user inputs a handwritten character, a handwritten stamp, or the like, an example in which a handwritten image corresponding to the input is placed on the paint layer Lpaint is used. You can display it on a layer. For example, when a user inputs a handwritten character or a handwritten stamp, the handwritten image corresponding to the input may be displayed on the 3D texture layer L3D to display the handwritten image.
また、上述した実施形態では、2画面分の液晶表示部の一例として、物理的に分離された下側LCD12および上側LCD22を互いに上下に配置した場合(上下2画面の場合)を説明した。しかしながら、2画面分の表示画面の構成は、他の構成でもかまわない。例えば、下側ハウジング11の一方主面に下側LCD12および上側LCD22を左右に配置してもかまわない。また、下側LCD12と横幅が同じで縦の長さが2倍のサイズからなる縦長サイズのLCD(すなわち、物理的には1つで、表示サイズが縦に2画面分あるLCD)を下側ハウジング11の一方主面に配設して、2つの画像(例えば、撮像画像と操作説明画面を示す画像等)を上下に表示(すなわち上下の境界部分無しに隣接して表示)するように構成してもよい。また、下側LCD12と縦幅が同じで横の長さが2倍のサイズからなる横長サイズのLCDを下側ハウジング11の一方主面に配設して、横方向に2つの画像を左右に表示(すなわち左右の境界部分無しに隣接して表示)するように構成してもよい。すなわち、物理的に1つの画面を2つに分割して使用することにより2つの画像を表示してもかまわない。いずれの画像の形態に対しても、上述した下側LCD12に表示していたまた、物理的に1つの画面を2つに分割して使用することにより上記2つの画像を表示する場合、当該画面全面にタッチパネル13を配設してもかまわない。
In the above-described embodiment, the case where the physically separated
また、上述した実施例では、ゲーム装置1にタッチパネル13が一体的に設けられているが、ゲーム装置とタッチパネルとを別体にして構成しても、本発明を実現できることは言うまでもない。また、上側LCD22の上面にタッチパネル13を設けて上側LCD22に上述した下側LCD12に表示していた表示画像を表示しても良い。さらに、上記実施例では表示画面を2つ(下側LCD12、上側LCD22)を設けたが、表示画面は1つであってもかまわない。すなわち、上記実施例において、上側LCD22を設けず単に下側LCD12のみを表示画面としてタッチパネル13を設けるように構成してもよい。また、上記実施例において、下側LCD12を設けずに上側LCD22の上面にタッチパネル13を設けて、上述した下側LCD12に表示していた表示画像を上側LCD22に表示しても良い。
In the above-described embodiment, the
また、上記実施例では、座標入力を実現するゲーム装置1の入力手段としてタッチパネル13を用いたが、他のポインティングデバイスを用いてもかまわない。ここで、ポインティングデバイスは、画面上での入力位置や座標を指定する入力装置であり、例えば、マウス、トラックパッド、トラックボール、ペンタブレット、ジョイスティック等を入力手段として使用し、入力手段から出力される出力値から計算された画面座標系の位置情報を用いれば、本発明を同様に実現することができる。
Moreover, in the said Example, although the
また、ゲームコントローラをプレイヤが把持してゲームを楽しむ据置型のゲーム装置の場合、他の態様のポインティングデバイスも考えられる。例えば、ゲームコントローラのハウジングに固設されたカメラを、上記ポインティングデバイスとして利用することも可能である。この場合、ゲームコントローラのハウジングで指し示した位置の変化に応じてカメラが撮像する撮像画像が変化する。したがって、この撮像画像を解析することにより、表示画面に対して上記ハウジングで指し示した座標を算出することができる。 In addition, in the case of a stationary game device in which a player holds a game controller and enjoys a game, a pointing device of another aspect is also conceivable. For example, a camera fixed to the housing of the game controller can be used as the pointing device. In this case, the captured image captured by the camera changes in accordance with the change in position indicated by the housing of the game controller. Therefore, by analyzing this captured image, it is possible to calculate the coordinates indicated by the housing with respect to the display screen.
この場合、上記ハウジングで指し示した位置を示す座標を、上述した処理におけるタッチ座標として取り扱えば本発明を実現することが可能である。ただし、タッチパネル入力におけるタッチオンまたはタッチオフ等の入力有無判定については、上記座標入力とは異なった上記ゲームコントローラからの他の入力の有無や変化によって代用する。第1の例として、上記ゲームコントローラに設けられた操作ボタンの押下(例えば、Aボタンを押下しているときタッチオン)しているか否かによって、上記タッチオンまたはタッチオフの判定を代用する。第2の例では、上記ゲームコントローラが2つのハウジングで構成されている。そして、これら2つのハウジングは、上記カメラが搭載されている一方ハウジングと、他方のハウジングの動きに応じた信号を出力する加速度センサ等の検出部が固設された当該他方のハウジングとで構成される。この場合、他方のハウジングの動き(例えば、ハウジングを所定方向に傾けているときにタッチオン)に応じて、上記タッチオンまたはタッチオフの判定を代用する。第3の例では、上記ゲームコントローラのハウジングにマイク等の音声入力手段が設けられている。この場合、プレイヤが所定の音声を発したときにタッチオンおよびタッチオフが切り替わる判定で代用する。 In this case, the present invention can be realized by handling the coordinates indicating the position indicated by the housing as the touch coordinates in the above-described processing. However, the input presence / absence determination such as touch-on or touch-off in the touch panel input is substituted by the presence / absence or change of another input from the game controller different from the coordinate input. As a first example, the touch-on or touch-off determination is substituted depending on whether an operation button provided in the game controller is pressed (for example, touch-on when the A button is pressed). In the second example, the game controller is composed of two housings. These two housings are composed of one housing on which the camera is mounted and the other housing on which a detection unit such as an acceleration sensor that outputs a signal corresponding to the movement of the other housing is fixed. The In this case, the touch-on or touch-off determination is substituted according to the movement of the other housing (for example, touch-on when the housing is tilted in a predetermined direction). In the third example, voice input means such as a microphone is provided in the housing of the game controller. In this case, a determination that the touch-on and the touch-off are switched when the player makes a predetermined sound is substituted.
また、上記実施例では、携帯型のゲーム装置1や据置型のゲーム装置を用いて説明したが、一般的なパーソナルコンピュータ等の情報処理装置で本発明の画像処理プログラムを実行して、本発明を実現してもかまわない。
In the above embodiments, the
また、上述したゲーム装置1の形状や、それに設けられている各種操作ボタン14やタッチパネル13の形状、数、および設置位置等は、単なる一例に過ぎず他の形状、数、および設置位置であっても、本発明を実現できることは言うまでもない。また、上述した画像処理で用いられる処理順序等は、単なる一例に過ぎず他の順序であっても、本発明を実現できることは言うまでもない。例えば、上述した処理順序では、ブロック間の接続関係を判定する順序が右側ブロック、上側ブロック、左側ブロック、下側ブロックの順になっているが、他の順序でブロック間の接続関係を判定してもかまわない。
In addition, the shape of the
以上、本発明を詳細に説明してきたが、前述の説明はあらゆる点において本発明の例示にすぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。 Although the present invention has been described in detail above, the above description is merely illustrative of the present invention in all respects and is not intended to limit the scope thereof. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention.
本発明の画像処理プログラムおよび画像処理装置は、ユーザ操作によって表示された画像を、ユーザ操作に応じて処理する際、新たな演出効果を加えて当該画像を処理することができ、ユーザ操作に応じた手書き画像を表示する装置等に有用であり、これらの装置で実行されるプログラム等としても有用である。 When the image processing program and the image processing apparatus of the present invention process an image displayed by a user operation according to the user operation, the image processing program and the image processing apparatus can process the image with a new effect. It is useful for devices that display handwritten images, and is also useful as a program that is executed by these devices.
1…ゲーム装置
11…下側ハウジング
12…下側LCD
13…タッチパネル
14…操作ボタン
15、26…LED
16…マイクロフォン用孔
21…上側ハウジング
22…上側LCD
23…内側カメラ
24…音抜き孔
25…外側カメラ
27…タッチペン
28、29…メモリカード
31…CPU
32…メインメモリ
33…メモリ制御回路
34…保存用データメモリ
35…プリセットデータ用メモリ
36、37…メモリカードI/F
38…無線通信モジュール
39…ローカル通信モジュール
40…RTC
41…電源回路
42…I/F回路
43…マイク
44…アンプ
1 ...
13 ...
16 ...
23 ...
32 ... Main memory 33 ...
38 ...
41 ...
Claims (28)
前記コンピュータを、
前記ポインティングデバイスの出力に基づいて、入力画像を生成する画像生成手段と、
前記画像生成手段が生成した入力画像を表示手段に表示する画像表示制御手段と、
前記画像生成手段が生成した入力画像を複数の部分画像に分解し、当該部分画像ごとに、表示位置および表示態様の少なくとも一方を変更する処理を実行する画像変更制御手段として機能させる、画像処理プログラム。 An image processing program executed by a computer of an apparatus that performs predetermined processing on an image generated in response to an output from a pointing device,
The computer,
Image generating means for generating an input image based on the output of the pointing device;
Image display control means for displaying on the display means the input image generated by the image generation means;
An image processing program that decomposes an input image generated by the image generation unit into a plurality of partial images and functions as an image change control unit that executes a process of changing at least one of a display position and a display mode for each partial image .
前記画像変更制御手段は、前記連続判定手段による判定に基づいて、連続している部分が同じ部分画像に属するように、前記入力画像を複数の部分画像に分解する、請求項1または2に記載の画像処理プログラム。 Causing the computer to further function as continuous determination means for determining a continuous portion of the input image;
3. The image change control unit according to claim 1, wherein the image change control unit decomposes the input image into a plurality of partial images so that consecutive portions belong to the same partial image based on the determination by the continuous determination unit. Image processing program.
前記連続判定手段は、前記入力画像がまたがるブロックを連続していると判定し、
前記画像変更制御手段は、さらに、前記連続判定手段による判定に基づいて、連続しているブロックが同じ部分画像に属するように、前記入力画像を複数の部分画像に分解する、請求項4に記載の画像処理プログラム。 The image change control means divides the display area of the input image into blocks each composed of a plurality of pixels, decomposes the input image into a plurality of partial images in units of the block,
The continuity determining means determines that a block spanning the input image is continuous,
The said image change control means is further decomposed | disassembled into the some partial image so that the block which continues may belong to the same partial image based on the determination by the said continuous determination means. Image processing program.
前記画像表示制御手段は、前記撮像手段で撮像された撮像画像をリアルタイムで前記表示手段に表示して、前記画像生成手段が生成した入力画像を当該撮像画像に重畳して前記表示手段に表示する、請求項1または2に記載の画像処理プログラム。 The apparatus includes an imaging unit that images the periphery of the apparatus,
The image display control unit displays the captured image captured by the imaging unit on the display unit in real time, and displays the input image generated by the image generation unit superimposed on the captured image on the display unit. The image processing program according to claim 1 or 2.
前記画像表示制御手段は、前記第1の入力画像と前記第2の入力画像を合成して表示し、
前記画像変更制御手段は、前記第1の入力画像および前記第2の入力画像を合成した画像を1つの画像として当該画像を分解する、請求項1または2に記載の画像処理プログラム。 The image generation means generates the second input image based on the output of the pointing device after the first input image is generated,
The image display control means combines and displays the first input image and the second input image,
The image processing program according to claim 1, wherein the image change control unit decomposes the image by combining an image obtained by combining the first input image and the second input image into one image.
前記画像変更制御手段は、前記入力位置の履歴に基づいて、前記画像生成手段が入力画像の生成に用いた入力位置のうち、当該入力位置の出力が途切れずに連続した入力位置群から生成された入力画像毎に、前記画像生成手段が生成した入力画像を分解する、請求項1または2に記載の画像処理プログラム。 As an input position history storage control means for storing a history of input positions output from the pointing device in a memory, the computer is further functioned,
The image change control means is generated based on the history of the input positions from among the input positions that the image generation means used for generating the input images, and the output of the input positions is continuous without interruption. The image processing program according to claim 1, wherein the input image generated by the image generation unit is decomposed for each input image.
前記ポインティングデバイスの出力に基づいて、入力画像を生成する画像生成手段と、
前記画像生成手段が生成した入力画像を表示手段に表示する画像表示制御手段と、
前記画像生成手段が生成した入力画像を複数の部分画像に分解し、当該部分画像ごとに、表示位置および表示態様の少なくとも一方を変更する処理を実行する画像変更制御手段とを備える、画像処理装置。 An image processing apparatus that performs predetermined processing on an image generated according to an output from a pointing device,
Image generating means for generating an input image based on the output of the pointing device;
Image display control means for displaying on the display means the input image generated by the image generation means;
An image processing apparatus comprising: an image change control unit that decomposes the input image generated by the image generation unit into a plurality of partial images and executes a process of changing at least one of a display position and a display mode for each partial image. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013080616A JP2013175209A (en) | 2013-04-08 | 2013-04-08 | Image processing program, image processing device, image processing method, and image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013080616A JP2013175209A (en) | 2013-04-08 | 2013-04-08 | Image processing program, image processing device, image processing method, and image processing system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008227515A Division JP5415730B2 (en) | 2008-09-04 | 2008-09-04 | Image processing program, image processing apparatus, image processing method, and image processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013175209A true JP2013175209A (en) | 2013-09-05 |
Family
ID=49267993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013080616A Pending JP2013175209A (en) | 2013-04-08 | 2013-04-08 | Image processing program, image processing device, image processing method, and image processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013175209A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009207730A (en) * | 2008-03-05 | 2009-09-17 | Sega Toys:Kk | Display toy |
-
2013
- 2013-04-08 JP JP2013080616A patent/JP2013175209A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009207730A (en) * | 2008-03-05 | 2009-09-17 | Sega Toys:Kk | Display toy |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5415730B2 (en) | Image processing program, image processing apparatus, image processing method, and image processing system | |
JP4326568B2 (en) | Information processing apparatus and information processing program | |
JP6074170B2 (en) | Short range motion tracking system and method | |
US9454834B2 (en) | Storage medium storing image processing program for implementing controlled image display according to input coordinate, and information processing device | |
JP5170771B2 (en) | Drawing processing program, information processing apparatus, information processing system, and information processing control method | |
JP5274187B2 (en) | Image processing program, information processing apparatus, image processing method, and image processing system | |
JP2013037675A5 (en) | ||
KR20140005141A (en) | Three dimensional user interface effects on a display by using properties of motion | |
TW201214199A (en) | A system for portable tangible interaction | |
JP5457768B2 (en) | Object moving game program and object moving game apparatus | |
EP3814876B1 (en) | Placement and manipulation of objects in augmented reality environment | |
JP5437726B2 (en) | Information processing program, information processing apparatus, information processing system, and coordinate calculation method | |
US8643679B2 (en) | Storage medium storing image conversion program and image conversion apparatus | |
JP5378742B2 (en) | Image processing program and image processing apparatus | |
JP5350003B2 (en) | Information processing apparatus, information processing program, information processing system, and information processing method | |
JP5725519B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
JP2013175209A (en) | Image processing program, image processing device, image processing method, and image processing system | |
JP2010079589A (en) | Image processing program and image processor | |
JP2011186869A (en) | Image processing program, image processing device, image processing method and image processing system | |
JP5738372B2 (en) | Information processing apparatus, information processing program, information processing system, and information processing method | |
JP5738351B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
JP5483654B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
CN115494992A (en) | Region division method, device and equipment for virtual scene | |
JP5740700B2 (en) | GAME DEVICE AND GAME PROGRAM | |
JP5570633B2 (en) | Image processing program, image processing apparatus, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A132 Effective date: 20140205 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140604 |