JP2010157192A - Drawing processing program and information processor - Google Patents
Drawing processing program and information processor Download PDFInfo
- Publication number
- JP2010157192A JP2010157192A JP2009000443A JP2009000443A JP2010157192A JP 2010157192 A JP2010157192 A JP 2010157192A JP 2009000443 A JP2009000443 A JP 2009000443A JP 2009000443 A JP2009000443 A JP 2009000443A JP 2010157192 A JP2010157192 A JP 2010157192A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- processing program
- voice
- related process
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims description 168
- 230000008569 process Effects 0.000 claims description 161
- 238000001514 detection method Methods 0.000 claims description 29
- 230000000694 effects Effects 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 10
- 230000010365 information processing Effects 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 claims description 3
- 239000007921 spray Substances 0.000 description 99
- 238000003860 storage Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 17
- 238000007664 blowing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 239000003086 colorant Substances 0.000 description 9
- 238000003780 insertion Methods 0.000 description 7
- 230000037431 insertion Effects 0.000 description 7
- 238000013500 data storage Methods 0.000 description 4
- 230000029058 respiratory gaseous exchange Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 230000008929 regeneration Effects 0.000 description 3
- 238000011069 regeneration method Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000004308 accommodation Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- A63F13/10—
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/424—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/426—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1068—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6063—Methods for processing data by generating or executing the game program for sound processing
- A63F2300/6072—Methods for processing data by generating or executing the game program for sound processing of an input signal, e.g. pitch and rhythm extraction, voice recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、プレイヤが所望の絵を描画することができる描画処理プログラムに関し、より特定的には、タッチパネル等のポインティングデバイスを用いてプレイヤが所望の絵を描画することが可能な描画処理プログラムに関する。 The present invention relates to a drawing processing program that allows a player to draw a desired picture, and more specifically to a drawing processing program that allows a player to draw a desired picture using a pointing device such as a touch panel. .
従来から、ユーザがタッチペンを操作してタッチパネルに入力することで、画像の編集を行う装置が知られている(例えば、特許文献1,2)。これらの装置では、被写体(ユーザ)自身を撮影した画像に対して、タッチペンを用いて画像の編集(落書き等)を施すことができる。また、このとき、ペンの太さや線種を選択することも可能である。
2. Description of the Related Art Conventionally, there is known an apparatus that edits an image by a user operating a touch pen to input to a touch panel (for example,
しかしながら、上述したような装置においては、以下に示す問題点があった。上記の装置では、タッチパネルに対してタッチペンで入力している間に描画が行われている。そのため、ユーザが紙に対してペンを使って描画するような感覚で操作が可能であった。その反面、このような操作は一般的な操作であるため、ユーザにとって新鮮味に欠けるものであった。 However, the apparatus as described above has the following problems. In the above apparatus, drawing is performed while inputting with the touch pen on the touch panel. For this reason, the operation can be performed as if the user was drawing on paper using a pen. On the other hand, since such an operation is a general operation, it is not fresh for the user.
それ故に、本発明の目的は、従来に無かった新規な操作性で描画が可能な描画処理プログラム、および、情報処理装置を提供することである。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a drawing processing program and an information processing apparatus capable of drawing with a novel operability that has not existed before.
本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施形態との対応関係の一例を示したものであって、本発明を何ら限定するものではない。 The present invention employs the following configuration in order to solve the above problems. Note that the reference numerals in parentheses, supplementary explanations, and the like are examples of the correspondence with the embodiments described later in order to help understanding of the present invention, and do not limit the present invention.
第1の発明は、表示画面上の位置を指示するためのポインティングデバイスと音声入力手段とを利用可能な情報処理装置のコンピュータに実行させる描画処理プログラムであって、コンピュータを、指示位置検出手段(S22)と、音声検出手段(S51)と、描画関連処理実行手段(S56)として機能させる。指示位置入力座標検出手段は、ポインティングデバイスによる指示に基づいて表示画面上の指示位置を連続的に取得する。ここで、指示位置の取得について、例えば、ポインティングデバイスがタッチパネルであれば、当該タッチパネルへのタッチ操作が指示操作となる。また、ポインティングデバイスが、撮像対象を撮像するための撮像手段を備える操作装置であり、当該撮像手段によって得られる撮像情報に基づいて、画面上の任意の位置をポインティング可能な装置の場合は、ポインティングした状態で当該操作装置に備えられている所定のボタンを押下したときが、指示操作となる。音声検出手段は、音声入力手段へ所定の条件を満たす音声が入力されたことを検出する。ここで、所定の条件については、所定の閾値を用いて判別する場合も含む。すなわち、ある程度の大きさの音声が入力されたときに、音声入力が有ったと判別する場合を含み、また、後述する特定音声判定手段によって、所定の音声であると判定されることを条件とする場合も含む。描画関連処理実行手段は、音声検出手段によって当該所定の条件を満たす音声の入力が有ることが検出されている間、指示位置検出手段が取得した指示位置に基づく位置に所定の描画関連処理を実行する。ここで、描画関連処理とは、表示画面に線(直線、曲線)、点、これらの集合による画像を描画する処理の他、既に描
画されている画像等を加工(編集)する処理、既に表示されている画像等を消去する処理も含む。
A first invention is a drawing processing program for causing a computer of an information processing apparatus that can use a pointing device for indicating a position on a display screen and a voice input unit to execute the computer. S22), voice detection means (S51), and drawing-related process execution means (S56). The designated position input coordinate detecting means continuously obtains the designated position on the display screen based on the instruction from the pointing device. Here, regarding acquisition of the designated position, for example, if the pointing device is a touch panel, a touch operation on the touch panel is an instruction operation. In addition, in the case where the pointing device is an operation device including an imaging unit for imaging an imaging target and can be pointed at an arbitrary position on the screen based on imaging information obtained by the imaging unit, the pointing device The instruction operation is performed when a predetermined button provided in the operation device is pressed in the state where the operation is performed. The voice detection unit detects that voice satisfying a predetermined condition is input to the voice input unit. Here, the predetermined condition includes a case where determination is performed using a predetermined threshold. That is, it includes a case where it is determined that there is a voice input when a sound of a certain level is input, and that it is determined by the specific voice determination means described later that the voice is a predetermined voice. This includes cases where The drawing related process executing means executes the predetermined drawing related processing at a position based on the designated position acquired by the designated position detecting means while the voice detecting means detects that there is an input of sound satisfying the predetermined condition. To do. Here, the drawing-related processing is processing for drawing (drawing) an image by lines (straight lines, curved lines), points, and a set of these on the display screen, processing for editing (editing) an already drawn image, etc. It also includes a process of deleting the image or the like.
第1の発明によれば、新規な操作性を有するお絵かきプログラムを提供することが可能となる。 According to the first invention, it is possible to provide a drawing program having novel operability.
第2の発明は、第1の発明において、描画関連処理実行手段は、音声検出手段で検出された音声に基づいて、当該音声の特性に応じて、実行する描画関連処理の内容を変更する。ここで、音声の特性とは、例えば、音量、周波数、音色等が該当する。 In a second aspect based on the first aspect, the drawing-related process execution means changes the content of the drawing-related process to be executed based on the sound detected by the sound detection means according to the characteristics of the sound. Here, the sound characteristics correspond to, for example, volume, frequency, timbre, and the like.
第2の発明によれば、入力する音声の内容によって、実行される描画関連処理の内容が変わるため、新規な楽しみ方をプレイヤに提供する事が可能となる。 According to the second aspect, since the content of the drawing-related processing to be executed changes depending on the content of the input voice, it is possible to provide a new way of enjoying to the player.
第3の発明は、第2の発明において、描画関連処理実行手段は、音声検出手段によって繰り返し検出される音声の特性の時系列に従った変化に連動させて、実行する描画関連処理の内容を逐次変更する。 In a third aspect based on the second aspect, the drawing-related process execution means determines the contents of the drawing-related process to be executed in conjunction with a time-series change in the sound characteristics repeatedly detected by the sound detection means. Change sequentially.
第3の発明によれば、入力する音声の変化に応じてリアルタイムに描画関連処理の内容が変化するため、新規な楽しみ方をプレイヤに提供する事が可能となる。さらに、指示位置検出手段によって検出される位置に基づいて描画を行いながら、別の手段である音声入力手段からの入力に応じて描画関連処理の内容を変化させるため、プレイヤは描画のための位置指示を継続しながら描画関連処理の内容を変化させることができる。 According to the third aspect, since the content of the drawing related process changes in real time according to the change of the input voice, it is possible to provide a new way of enjoying to the player. Furthermore, while drawing based on the position detected by the indicated position detection means, the player changes the content of the drawing related processing in accordance with the input from the voice input means, which is another means. The contents of the drawing related process can be changed while continuing the instruction.
第4の発明は、第2の発明において、音声分析手段は、入力された音声の音量が所定の閾値以上のときにのみ、所定の描画関連処理を実行する。 In a fourth aspect based on the second aspect, the voice analysis means executes the predetermined drawing-related process only when the volume of the input voice is equal to or higher than a predetermined threshold.
第4の発明によれば、入力する音声の音量がある程度大きいときにのみ描画関連処理が実行されるため、新規な楽しみ方をプレイヤに提供する事が可能となる。 According to the fourth aspect, since the drawing-related process is executed only when the volume of the input voice is somewhat high, it is possible to provide a new way of enjoying to the player.
第5の発明は、第2の発明において、描画関連処理実行手段は、入力座標検出手段で連続的に取得された指示位置に基づく位置を時系列で結ぶ線を描画する処理を描画関連処理として実行する。 In a fifth aspect based on the second aspect, the drawing-related processing execution means includes processing for drawing a line connecting the positions based on the designated positions continuously acquired by the input coordinate detecting means in time series as drawing-related processing. Execute.
第5の発明によれば、新規な操作性で表示画面上に手書き画像を描かせることが可能となり、プレイヤに新規な楽しみ方を提供する事ができる。 According to the fifth aspect, it becomes possible to draw a handwritten image on the display screen with new operability, and a new way of enjoying can be provided to the player.
第6の発明は、第5の発明において、音声分析手段は、入力された音声の音量に応じて、線の太さ、および、当該線の描画色の濃さの少なくとも一つを変化させる。 In a sixth aspect based on the fifth aspect, the voice analyzing means changes at least one of the thickness of the line and the density of the drawing color of the line according to the volume of the input voice.
第6の発明によれば、入力する音量に応じて描画される線の太さ、濃さが変化するため、新規な楽しみ方をプレイヤに提供できる。 According to the sixth aspect, since the thickness and the density of the drawn line change according to the input volume, a new way of enjoying can be provided to the player.
第7の発明は、第2の発明において、描画関連処理実行手段は、指示位置に基づく位置を含む所定の範囲である描画範囲内に1つ以上の点を描画する処理を描画関連処理として実行する。 In a seventh aspect based on the second aspect, the drawing related process execution means executes a process of drawing one or more points in a drawing range which is a predetermined range including a position based on the designated position as a drawing related process. To do.
第7の発明によれば、例えばスプレーを用いて描画するような描画感覚を、新規な操作性と共にプレイヤに提供することができる。 According to the seventh invention, it is possible to provide a player with a drawing feeling such as drawing using a spray together with a novel operability.
第8の発明は、第7の発明において、音声分析手段は、入力された音声の音量に応じて
、描画範囲の大きさ、および、描画範囲内に描画する点の数のうち少なくとも一つを変化させる。
In an eighth aspect based on the seventh aspect, the voice analyzing means calculates at least one of the size of the drawing range and the number of points to be drawn in the drawing range in accordance with the volume of the input voice. Change.
第9の発明は、第8の発明において、描画関連処理実行手段は、指示位置に基づく位置に近いほど複数の点の数の面密度が高くなるように点を描画し、指示位置に基づく位置から遠ざかるにつれて当該複数の点の数の面密度が低くなるように点を描画する。 In a ninth aspect based on the eighth aspect, the drawing-related processing execution means draws a point so that the surface density of the number of points increases as the position is closer to the designated position, and the position based on the designated position. The points are drawn so that the surface density of the number of the plurality of points decreases with increasing distance from the point.
第10の発明は、第8の発明において、描画関連処理実行手段は、複数の点を描画範囲内のランダムな位置に描画する。 In a tenth aspect based on the eighth aspect, the drawing related processing execution means draws a plurality of points at random positions within the drawing range.
第8乃至第10の発明によれば、入力する音声の音量に応じて多様な描画を行うことが可能となる。 According to the eighth to tenth aspects, various drawing can be performed according to the volume of the input voice.
第11の発明は、第7の発明において、描画関連処理実行手段は、表示画面に描画されている点を、指示位置に基づく位置と音声検出手段で検出された音声入力とに基づいて所定の方向に移動させる処理を描画関連処理として実行する。 In an eleventh aspect based on the seventh aspect, the drawing-related processing execution means determines a point drawn on the display screen based on the position based on the designated position and the voice input detected by the voice detection means. The process of moving in the direction is executed as a drawing related process.
第12の発明は、第11の発明において、描画関連処理実行手段は、指示位置に基づく位置を基準点とし、当該基準点と表示画面に表示されている点を結ぶ線の方向、および、当該基準点から当該表示画面に表示されている点までの距離を算出する移動内容算出手段を含む。そして、描画関連処理実行手段は、移動内容算出手段で算出された方向および距離に基づいて、画面に表示されている点を移動させる。 In a twelfth aspect based on the eleventh aspect, the drawing related process execution means uses the position based on the indicated position as a reference point, and the direction of the line connecting the reference point and the point displayed on the display screen, and Movement content calculation means for calculating the distance from the reference point to the point displayed on the display screen is included. Then, the drawing-related process execution unit moves the point displayed on the screen based on the direction and distance calculated by the movement content calculation unit.
第11乃至第12の発明によれば、既に描画されている複数の点を、音声入力によって移動させることができ、新規な楽しみをプレイヤに与えることができる。 According to the eleventh to twelfth inventions, a plurality of already drawn points can be moved by voice input, and new enjoyment can be given to the player.
第13の発明は、第1の発明において、描画処理プログラムは、前記コンピュータを、前記描画関連処理実行手段が前記所定の描画関連処理を実行しているとき、所定の音声出力手段に所定の効果音を出力させる効果音再生手段(S60)として更に機能させる。 In a thirteenth aspect based on the first aspect, the drawing processing program causes the computer to perform a predetermined effect on the predetermined sound output means when the drawing related process execution means executes the predetermined drawing related processing. It further functions as sound effect reproducing means (S60) for outputting sound.
第14の発明は、第13の発明において、効果音再生手段は、音声検出手段で検出された音声の特性に応じて効果音の再生音量を変化させる。 In a fourteenth aspect based on the thirteenth aspect, the sound effect reproducing means changes the reproduction volume of the sound effect according to the characteristics of the sound detected by the sound detecting means.
第13乃至第14の発明によれば、描画関連処理が実行されているか否かをプレイヤに直感的に把握させることができる。 According to the thirteenth to fourteenth aspects, the player can intuitively grasp whether or not the drawing-related processing is being executed.
第15の発明は、第1の発明において、描画処理プログラムは、コンピュータを、カーソル表示手段(S57)と、アニメーション表示手段(S57)として更に機能させる。カーソル表示手段は、指示位置に所定のカーソル画像を表示する。アニメーション表示手段は、描画関連処理実行手段が所定の描画関連処理を実行しているとき、カーソルをアニメーションさせる。 In a fifteenth aspect based on the first aspect, the drawing processing program causes the computer to further function as cursor display means (S57) and animation display means (S57). The cursor display means displays a predetermined cursor image at the indicated position. The animation display means animates the cursor when the drawing related process executing means is executing a predetermined drawing related process.
第16の発明は、第15の発明において、アニメーション表示手段は、音声検出手段で検出された音声の特性に応じてアニメーションの速度を変化させる。 In a sixteenth aspect based on the fifteenth aspect, the animation display means changes the speed of the animation in accordance with the characteristics of the sound detected by the sound detection means.
第15乃至第16の発明によれば、描画関連処理が実行されているか否かをプレイヤに視覚的に把握させることができる。 According to the fifteenth to sixteenth aspects, it is possible to cause the player to visually grasp whether or not drawing-related processing is being executed.
第17の発明は、第1の発明において、ポインティングデバイスはタッチパネルである。 In a seventeenth aspect based on the first aspect, the pointing device is a touch panel.
第17の発明によれば、プレイヤに直感的な操作性を提供する事ができる。 According to the seventeenth aspect, intuitive operability can be provided to the player.
第18の発明は、第1の発明において、描画処理プログラムは、コンピュータを、撮影画像取得手段(S1)と、撮影画像表示手段(S21)として更に機能させる。撮影画像取得手段は、所定の撮影手段で撮影された画像データを取得する。撮影画像表示手段は、撮影画像を表示画面に表示する。そして、描画関連処理実行手段は、撮影画像に対して描画関連処理を実行する。 In an eighteenth aspect based on the first aspect, the drawing processing program causes the computer to further function as a captured image acquisition means (S1) and a captured image display means (S21). The captured image acquisition unit acquires image data captured by a predetermined imaging unit. The captured image display means displays the captured image on the display screen. Then, the drawing related process execution means executes a drawing related process on the captured image.
第18の発明によれば、撮影画像に対しての画像の編集等を、新規な操作性と共に提供することができる。 According to the eighteenth aspect, it is possible to provide editing of a captured image with a new operability.
第19の発明は、第1の発明において、描画処理プログラムは、コンピュータを、音声検出手段で検出された音声が所定の音声であるいか否かを判定する特定音声判定手段として更に機能させる。そして、描画関連処理実行手段は、特定音声判定手段によって音声検出手段で検出された音声が所定の音声であると判定されたときにのみ、描画関連処理を実行する。 In a nineteenth aspect based on the first aspect, the drawing processing program causes the computer to further function as specific sound determination means for determining whether or not the sound detected by the sound detection means is a predetermined sound. Then, the drawing related process execution unit executes the drawing related process only when the specific voice determination unit determines that the sound detected by the sound detection unit is a predetermined sound.
第19の発明によれば、例えば、プレイヤが息を吹きかける音のような、特定の音を識別して描画関連処理を実行させることが可能となり、新規な楽しみ方をプレイヤに提供することができる。また、プレイヤが特定の音を発したときのみ描画関連処理を実行させることが可能となるため、意図しない音に反応して描画関連処理が実行されてしまうことを防止できる。 According to the nineteenth invention, for example, it is possible to identify a specific sound such as a sound that the player blows and execute the drawing-related processing, and to provide a new way of enjoying the player. . In addition, since the drawing related process can be executed only when the player emits a specific sound, it is possible to prevent the drawing related process from being executed in response to an unintended sound.
第20の発明は、表示画面(12)上の位置を指示するためのポインティングデバイス(13)と音声入力手段(42)とを利用可能な情報処理装置であって、入力座標検出手段(31)と、音声検出手段(31)と、描画関連処理実行手段(31)とを備える。入力座標検出手段は、ポインティングデバイスによる指示に基づいて表示画面上の指示位置を連続的に取得する。音声検出手段は、音声入力手段へ所定の条件を満たす音声が入力されたことを検出する。描画関連処理実行手段は、音声検出手段によって音声入力が有ることが検出されている間、前記指示位置に基づく位置に所定の描画関連処理を実行する。 A twentieth invention is an information processing apparatus that can use a pointing device (13) for indicating a position on the display screen (12) and a voice input means (42), and an input coordinate detection means (31). And a voice detection means (31) and a drawing related process execution means (31). The input coordinate detection means continuously acquires the indicated position on the display screen based on the instruction from the pointing device. The voice detection unit detects that voice satisfying a predetermined condition is input to the voice input unit. The drawing-related process execution means executes a predetermined drawing-related process at a position based on the designated position while the voice detection means detects that there is a voice input.
第20の発明によれば、上述した本発明の描画処理プログラムと同様の効果を得ることができる。 According to the twentieth invention, an effect similar to that of the drawing processing program of the present invention described above can be obtained.
第21の発明は、第20の発明において、音声検出手段は、表示画面の近傍に配置されている。 In a twenty-first aspect based on the twentieth aspect, the sound detecting means is arranged in the vicinity of the display screen.
第21の発明によれば、表示画面と音声検出手段とが近い位置に配置されるため、画面に向かって音を発生させたときに、当該音に反応して表示画面上で描画が行われる等の、直感的な演出効果を生じさせることが可能となる。 According to the twenty-first aspect, since the display screen and the sound detection means are arranged at close positions, when sound is generated toward the screen, drawing is performed on the display screen in response to the sound. It is possible to produce an intuitive production effect such as.
本発明によれば、新規な操作性でプレイヤに描画を楽しませることが可能なお絵かきプログラムやお絵かきゲームを提供する事ができる。 ADVANTAGE OF THE INVENTION According to this invention, the drawing program and drawing game which can make a player enjoy drawing with novel operativity can be provided.
以下、本発明の実施の形態について、図面を参照して説明する。尚、この実施例により本発明が限定されるものではない。 Embodiments of the present invention will be described below with reference to the drawings. In addition, this invention is not limited by this Example.
図1は、本発明の色変換プログラムを実行するゲーム装置1の外観図である。ここでは、ゲーム装置1の一例として、携帯ゲーム装置を示す。なお、ゲーム装置1は、カメラを内蔵しており、当該カメラによって画像を撮影し、撮影した画像を画面に表示したり、撮影した画像のデータを保存したりする撮影装置としても機能する。
FIG. 1 is an external view of a
図1において、ゲーム装置1は、折り畳み型の携帯ゲーム装置であり、開いた状態(開状態)のゲーム装置1を示している。ゲーム装置1は、開いた状態においてもユーザが両手または片手で把持することができるようなサイズで構成される。
In FIG. 1, a
ゲーム装置1は、下側ハウジング11および上側ハウジング21を有する。下側ハウジング11と上側ハウジング21とは、開閉可能(折り畳み可能)に連結されている。図1の例では、下側ハウジング11および上側ハウジング21は、それぞれ横長の長方形の板状で形成され、互いの長辺部分で回転可能に連結されている。通常、ユーザは、開状態でゲーム装置1を使用する。また、ユーザは、ゲーム装置1を使用しない場合には閉状態としてゲーム装置1を保管する。また、図1に示した例では、ゲーム装置1は、上記閉状態および開状態のみでなく、下側ハウジング11と上側ハウジング21とのなす角度が閉状態と開状態との間の任意の角度において、連結部分に発生する摩擦力などによってその開閉角度を維持することができる。つまり、上側ハウジング21を下側ハウジング11に対して任意の角度で静止させることができる。
The
下側ハウジング11には、下側LCD(Liquid Crystal Display:液晶表示装置)12が設けられる。下側LCD12は横長形状であり、長辺方向が下側ハウジング11の長辺方向に一致するように配置される。なお、本実施形態では、ゲーム装置1に内蔵されている表示装置としてLCDを用いているが、例えばEL(Electro Luminescence:電界発光)を利用した表示装置等、他の任意の表示装置を利用してもよい。また、ゲーム装置1は、任意の解像度の表示装置を利用することができる。なお、詳細は後述するが、下側LCD12は、主に、内側カメラ23または外側カメラ25で撮影されている画像をリアルタイムに表示するために用いられる。
The
下側ハウジング11には、入力装置として、各操作ボタン14A〜14Kおよびタッチパネル13が設けられる。図1に示されるように、各操作ボタン14A〜14Kのうち、方向入力ボタン14A、操作ボタン14B、操作ボタン14C、操作ボタン14D、操作ボタン14E、電源ボタン14F、スタートボタン14G、およびセレクトボタン14Hは、上側ハウジング21と下側ハウジング11とを折りたたんだときに内側となる、下側ハウジング11の内側主面上に設けられる。方向入力ボタン14Aは、例えば選択操作等に用いられる。各操作ボタン14B〜14Eは、例えば決定操作やキャンセル操作等に用いられる。電源ボタン14Fは、ゲーム装置1の電源をオン/オフするために用いられる。図1に示す例では、方向入力ボタン14Aおよび電源ボタン14Fは、下側ハウジング11の内側主面中央付近に設けられる下側LCD12に対して、左右一方側(図1では左側)の当該主面上に設けられる。また、操作ボタン14B〜14E、スタートボタン14G、およびセレクトボタン14Hは、下側LCD12に対して左右他方側(図1では右側)となる下側ハウジング11の内側主面上に設けられる。方向入力ボタン14A、操作ボタン14B〜14E、スタートボタン14G、およびセレクトボタン14Hは、ゲーム装置1に対する各種操作を行うために用いられる。
The
なお、図1においては、操作ボタン14I〜14Kの図示を省略している。例えば、Lボタン14Iは、下側ハウジング11の上側面の左端部に設けられ、Rボタン14Jは、下側ハウジング11の上側面の右端部に設けられる。Lボタン14IおよびRボタン14Jは、ゲーム装置1に対して、例えば撮影指示操作(シャッター操作)を行うために用いられる。さらに、音量ボタン14Kは、下側ハウジング11の左側面に設けられる。音量
ボタン14Kは、ゲーム装置1が備えるスピーカの音量を調整するために用いられる。
In FIG. 1, the operation buttons 14I to 14K are not shown. For example, the L button 14I is provided at the left end portion of the upper side surface of the
また、ゲーム装置1は、各操作ボタン14A〜14Kとは別の入力装置として、さらにタッチパネル13を備えている。タッチパネル13は、下側LCD12の画面上を覆うように装着されている。なお、本実施形態では、タッチパネル13は、例えば抵抗膜方式のタッチパネルが用いられる。ただし、タッチパネル13は、抵抗膜方式に限らず、任意の押圧式のタッチパネルを用いることができる。また、本実施形態では、タッチパネル13として、例えば下側LCD12の解像度と同解像度(検出精度)のものを利用する。ただし、必ずしもタッチパネル13の解像度と下側LCD12の解像度とが一致している必要はない。また、下側ハウジング11の右側面には、挿入口(図1に示す破線)が設けられている。挿入口は、タッチパネル13に対する操作を行うために用いられるタッチペン27を収納することができる。なお、タッチパネル13に対する入力は、通常タッチペン27を用いて行われるが、タッチペン27に限らずユーザの指でタッチパネル13を操作することも可能である。
In addition, the
また、下側ハウジング11の右側面には、メモリカード28を収納するための挿入口(図1では、二点鎖線で示している)が設けられている。この挿入口の内側には、ゲーム装置1とメモリカード28とを電気的に接続するためのコネクタ(図示せず)が設けられる。メモリカード28は、例えばSD(Secure Digital)メモリカードであり、コネクタに着脱自在に装着される。メモリカード28は、例えば、ゲーム装置1によって撮影された画像を記憶(保存)したり、他の装置で生成された画像をゲーム装置1に読み込んだりするために用いられる。
Further, on the right side surface of the
さらに、下側ハウジング11の上側面には、カートリッジ29を収納するための挿入口(図1では、一点鎖線で示している)が設けられている。この挿入口の内側にも、ゲーム装置1とカートリッジ29とを電気的に接続するためのコネクタ(図示せず)が設けられる。カートリッジ29は、色変換プログラムやゲームプログラム等を記録した記録媒体であり、下側ハウジング11に設けられた挿入口に着脱自在に装着される。
Further, an insertion port (indicated by a one-dot chain line in FIG. 1) for housing the
下側ハウジング11と上側ハウジング21との連結部の左側部分には、3つのLED15A〜15Cが取り付けられる。ここで、ゲーム装置1は、他の機器との間で無線通信を行うことが可能であり、第1LED15Aは、ゲーム装置1の電源がオンである場合に点灯する。第2LED15Bは、ゲーム装置1の充電中に点灯する。第3LED15Cは、無線通信が確立している場合に点灯する。したがって、3つのLED15A〜15Cによって、ゲーム装置1の電源のオン/オフ状況、充電状況、および、通信確立状況をユーザに通知することができる。
Three LEDs 15 </ b> A to 15 </ b> C are attached to the left portion of the connecting portion between the
一方、上側ハウジング21には、上側LCD22が設けられる。上側LCD22は横長形状であり、長辺方向が上側ハウジング21の長辺方向に一致するように配置される。なお、下側LCD12と同様、上側LCD22に代えて、他の任意の方式および任意の解像度の表示装置を利用してもよい。なお、上側LCD22上を覆うように、タッチパネルを設けてもかまわない。例えば、上側LCD22には、ユーザに各操作ボタン14A〜14Kやタッチパネル13の役割を教えるための、操作説明画面が表示される。
On the other hand, the upper housing 21 is provided with an
また、上側ハウジング21には、2つのカメラ(内側カメラ23および外側カメラ25)が設けられる。図1に示されるように、内側カメラ23は、上側ハウジング21の連結部付近の内側主面に取り付けられる。一方、外側カメラ25は、内側カメラ23が取り付けられる内側主面の反対側の面、すなわち、上側ハウジング21の外側主面(ゲーム装置1が閉状態となった場合に外側となる面であり、図1に示す上側ハウジング21の背面)に取り付けられる。なお、図1においては、外側カメラ25を破線で示している。これに
よって、内側カメラ23は、上側ハウジング21の内側主面が向く方向を撮影することが可能であり、外側カメラ25は、内側カメラ23の撮影方向の逆方向、すなわち、上側ハウジング21の外側主面が向く方向を撮影することが可能である。このように、本実施形態では、2つの内側カメラ23および外側カメラ25の撮影方向が互いに逆方向となるように設けられる。例えば、ユーザは、ゲーム装置1からユーザの方を見た景色を内側カメラ23で撮影することができるとともに、ゲーム装置1からユーザの反対側の方向を見た景色を外側カメラ25で撮影することができる。
The upper housing 21 is provided with two cameras (an
なお、上記連結部付近の内側主面には、音声入力装置としてマイク(図2に示すマイク42)が収納されている。そして、上記連結部付近の内側主面には、マイク42がゲーム装置1外部の音を検知できるように、マイクロフォン用孔16が形成される。マイク42を収納する位置およびマイクロフォン用孔16の位置は必ずしも上記連結部である必要はなく、例えば下側ハウジング11にマイク42を収納し、マイク42を収納位置に対応させて下側ハウジング11にマイクロフォン用孔16を設けるようにしても良い。
Note that a microphone (a microphone 42 shown in FIG. 2) is housed as an audio input device on the inner main surface in the vicinity of the connecting portion. A
また、上側ハウジング21の外側主面には、第4LED26(図1では、破線で示す)が取り付けられる。第4LED26は、外側カメラ25によって撮影が行われた(シャッターボタンが押下された)時点で点灯する。また、外側カメラ25によって動画が撮影される間点灯する。第4LED26によって、ゲーム装置1による撮影が行われた(行われている)ことを撮影対象者や周囲に通知することができる。
A fourth LED 26 (shown by a broken line in FIG. 1) is attached to the outer main surface of the upper housing 21. The
また、上側ハウジング21の内側主面中央付近に設けられる上側LCD22に対して、左右両側の当該主面に音抜き孔24がそれぞれ形成される。音抜き孔24の奥の上側ハウジング21内にはスピーカが収納されている。音抜き孔24は、スピーカからの音をゲーム装置1の外部に放出するための孔である。
In addition, sound release holes 24 are formed in the main surfaces on both the left and right sides of the
以上に説明したように、上側ハウジング21には、画像を撮影するための構成である内側カメラ23および外側カメラ25と、例えば撮影の際に操作説明画面を表示する表示手段である上側LCD22とが設けられる。一方、下側ハウジング11には、ゲーム装置1に対する操作入力を行うための入力装置(タッチパネル13および各ボタン14A〜14K)と、ゲーム画面を表示するための表示手段である下側LCD12とが設けられる。したがって、ゲーム装置1を使用する際には、ユーザは、下側LCD12に表示される撮影画像(カメラによって撮影された画像)を見ながら、下側ハウジング11を把持して入力装置に対する入力を行うことができる。
As described above, the upper housing 21 includes the
次に、図2を参照して、ゲーム装置1の内部構成を説明する。なお、図2は、ゲーム装置1の内部構成の一例を示すブロック図である。
Next, the internal configuration of the
図2において、ゲーム装置1は、CPU31、メインメモリ32、メモリ制御回路33、保存用データメモリ34、プリセットデータ用メモリ35、メモリカードインターフェース(メモリカードI/F)36およびカートリッジI/F44、無線通信モジュール37、ローカル通信モジュール38、リアルタイムクロック(RTC)39、電源回路40、およびインターフェース回路(I/F回路)41等の電子部品を備えている。これらの電子部品は、電子回路基板上に実装されて、下側ハウジング11(または上側ハウジング21でもよい)内に収納される。
2, the
CPU31は、所定のプログラムを実行するための情報処理手段である。本実施形態では、所定のプログラムがゲーム装置1内のメモリ(例えば保存用データメモリ34)やメモリカード28および/または29に記憶されており、CPU31は、当該所定のプログラムを実行することによって、後述する落書き処理を実行する。なお、CPU31によっ
て実行されるプログラムは、ゲーム装置1内のメモリに予め記憶されていてもよいし、メモリカード28および/またはカートリッジ29から取得されてもよいし、他の機器との通信によって他の機器から取得されてもよい。例えば、インターネットを経由して所定のサーバからダウンロードすることで取得しても良いし、据置型ゲーム装置と通信を行うことで、当該据置型ゲーム装置に記憶されている所定のプログラムをダウンロードすることで取得しても良い。
The
CPU31には、メインメモリ32、メモリ制御回路33、およびプリセットデータ用メモリ35が接続される。また、メモリ制御回路33には、保存用データメモリ34が接続される。メインメモリ32は、CPU31のワーク領域やバッファ領域として用いられる記憶手段である。すなわち、メインメモリ32は、上記落書き処理に用いられる各種データを記憶したり、外部(メモリカード28および29や他の機器等)から取得されるプログラムを記憶したりする。本実施形態では、メインメモリ32として、例えばPSRAM(Pseudo−SRAM)を用いる。保存用データメモリ34は、CPU31によって実行されるプログラムや内側カメラ23および外側カメラ25によって撮影された画像のデータ等を記憶するための記憶手段である。保存用データメモリ34は、不揮発性の記憶媒体によって構成されており、例えば本実施例ではNAND型フラッシュメモリで構成される。メモリ制御回路33は、CPU31の指示に従って、保存用データメモリ34に対するデータの読み出しおよび書き込みを制御する回路である。プリセットデータ用メモリ35は、ゲーム装置1において予め設定される各種パラメータ等のデータ(プリセットデータ)を記憶するための記憶手段である。プリセットデータ用メモリ35としては、SPI(Serial Peripheral Interface)バスによってCPU31と接続されるフラッシュメモリを用いることができる。
A
メモリカードI/F36は、CPU31に接続される。メモリカードI/F36は、コネクタに装着されたメモリカード28に対するデータの読み出しおよび書き込みを、CPU31の指示に応じて行う。本実施形態では、外側カメラ25によって撮像された画像データがメモリカード28に書き込まれたり、メモリカード28に記憶された画像データがメモリカード28から読み出されて保存用データメモリ34に記憶されたりする。
The memory card I /
カートリッジI/F44はCPU31に接続される。カートリッジI/F44は、コネクタに装着されたカートリッジ29に対するデータの読み出しおよび書き込みをCPU31の指示に従って行う。本実施形態では、情報処理装置10が実行することが可能なアプリケーションプログラムがカートリッジ29から読み出されてCPU31によって実行されたり、当該アプリケーションプログラムに関するデータ(例えばゲームのセーブデータ等)がカートリッジ29に書き込まれたりする。
The cartridge I /
なお、本発明の落書きゲームプログラムは、カートリッジ29等の外部記憶媒体を通じてコンピュータシステムに供給されるだけでなく、有線または無線の通信回線を通じてコンピュータシステムに供給されてもよい。また、落書きゲームプログラムは、コンピュータシステム内部の不揮発性記憶装置に予め記録されていてもよい。なお、色変換プログラムを記憶する情報記憶媒体としては、上記不揮発性記憶装置に限らず、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体でもよい。
The graffiti game program of the present invention may be supplied not only to the computer system through an external storage medium such as the
無線通信モジュール37は、例えばIEEE802.11.b/gの規格に準拠した方式により、無線LANに接続する機能を有する。また、ローカル通信モジュール38は、所定の通信方式により同種のゲーム装置との間で無線通信を行う機能を有する。無線通信モジュール37およびローカル通信モジュール38は、CPU31に接続される。CPU31は、無線通信モジュール37を用いてインターネットを介して他の機器との間でデータを送受信したり、ローカル通信モジュール38を用いて同種の他のゲーム装置との間で
データを送受信したりすることができる。
The
また、CPU31には、RTC39および電源回路40が接続される。RTC39は、時間をカウントしてCPU31に出力する。例えば、CPU31は、RTC39によって計時された時間に基づいて、現在時刻(日付)等を計算することもできる。電源回路40は、ゲーム装置1が有する電源(典型的には電池であり、下側ハウジング11に収納される)から供給される電力を制御し、ゲーム装置1の各部品に電力を供給する。
Further, the
また、ゲーム装置1は、マイク42およびアンプ43を備えている。マイク42およびアンプ43は、それぞれI/F回路41に接続される。マイク42は、ゲーム装置1に向かって発声されたユーザの音声を検知して、当該音声を示す音声信号をI/F回路41に出力する。アンプ43は、I/F回路41から音声信号を増幅してスピーカ(図示せず)から出力させる。I/F回路41は、CPU31に接続される。
In addition, the
また、タッチパネル13は、I/F回路41に接続される。I/F回路41は、マイク42およびアンプ43(スピーカ)の制御を行う音声制御回路と、タッチパネル13の制御を行うタッチパネル制御回路とを含む。音声制御回路は、音声信号に対するA/D変換およびD/A変換を行ったり、音声信号を所定の形式の音声データに変換したりする。タッチパネル制御回路は、タッチパネル13からの信号に基づいて所定の形式のタッチ位置データを生成してCPU31に出力する。例えば、タッチ位置データは、タッチパネル13の入力面に対して入力が行われた位置の座標を示すデータである。なお、タッチパネル制御回路は、タッチパネル13からの信号の読み込み、および、タッチ位置データの生成を所定時間に1回の割合で行う。CPU31は、I/F回路41を介して、タッチ位置データを取得することにより、タッチパネル13に対して入力が行われた位置を知ることができる。
The
操作ボタン14は、上記各操作ボタン14A〜14Kから構成され、CPU31に接続される。操作ボタン14からCPU31へは、各操作ボタン14A〜14Kに対する入力状況(押下されたか否か)を示す操作データが出力される。CPU31は、操作ボタン14から操作データを取得することによって、操作ボタン14に対する入力に応じた処理を実行する。
The operation button 14 includes the
内側カメラ23および外側カメラ25は、それぞれCPU31に接続される。内側カメラ23および外側カメラ25は、CPU31の指示に応じて画像を撮影し、撮影した画像データをCPU31に出力する。本実施形態では、CPU31は、内側カメラ23および外側カメラ25のいずれか一方に対して撮影指示を行い、撮影指示を受けたカメラが画像を撮影して画像データをCPU31に送る。
The
また、下側LCD12および上側LCD22は、それぞれCPU31に接続される。下側LCD12および上側LCD22は、それぞれCPU31の指示に従って画像を表示する。
Further, the
次に、図3〜図12を用いて、本実施形態で想定するアプリケーションの概要について説明する。本実施形態で想定するゲームは、タッチペン27を用いてプレイヤが絵を描くことができる、お絵かきアプリケーションである。図3は、本実施形態で想定するゲームの画面の一例である。図3において、下側LCD12にゲーム画面が表示されている、ゲーム画面には、その上部にツールバー103が表示され、その下方に、ゲーム画面の大半を占めるキャンバス101が表示されている。ツールバーには、描画道具アイコン111、線種アイコン112等が表示されている。また、図3では、キャンバス101をタッチペン27でタッチしている状態を示しており、当該タッチしている位置にはカーソル10
2が表示されている。本アプリケーションでは、プレイヤがこのキャンバス101上でタッチペン27を動かす事で、キャンバス101上に絵を描くことが可能だが、本発明は、当該描画の操作について、後述するような新規な操作性を提供する。
Next, an outline of an application assumed in the present embodiment will be described with reference to FIGS. The game assumed in this embodiment is a drawing application in which a player can draw a picture using the
2 is displayed. In this application, the player can draw a picture on the
また、本アプリケーションでは、上記ゲーム装置1の外側カメラ25で撮影した画像(内側カメラ23で撮影した画像でも良い)に対して落書きをして楽しむことができる。例えば、外側カメラ25で図4に示すような画像を撮影した場合、当該撮影画像をキャンバス101の領域に「下絵」的に重ねて配置し、図5に示すように、当該撮影画像に落書きをして楽しむことが可能である。
In addition, in this application, it is possible to enjoy graffiti on an image captured by the
図6は、上記撮影画像とキャンバス101との配置関係を示す模式図である。本アプリケーションでは、下絵レイヤー105と手書きレイヤー106の2つの層の概念を用いており、上記撮影画像は下絵レイヤー105に相当する。そして、上記キャンバス101が手書きレイヤー106に相当する。手書きレイヤー106は、いわば、透明のシートであり、撮影画像に透明なシートを重ね、当該シートに対して落書きを書き込むような概念の処理を行っている。換言すれば、本実施形態では、撮影画像に対して直接編集する(直接落書きする)ような処理は行っていない。
FIG. 6 is a schematic diagram showing an arrangement relationship between the photographed image and the
次に、本アプリケーションにおけるキャンバス101への描画操作に関して説明する。上記のように、本アプリケーションは、キャンバス101上でタッチペン27を動かす事で絵を描くことができる。ここで、描画の際に用いるゲーム内での描画道具の種類として、本アプリケーションでは、「ペン」「消しゴム」の2種類を利用可能である。「ペン」は、キャンバスに何かを描画するための道具であり、「消しゴム」は、キャンバス101に描画されている内容を消去するための道具である。そして、当該「ペン」あるいは「消しゴム」を用いる際に、描く線の種類(線種)として、均一の太さの線、または「スプレー」を選択することが可能となっている。本アプリケーションでは、これら描画道具の選択については、上記ツールバー103の描画道具アイコン111を操作することで「ペン」あるいは「消しゴム」を選択することが可能である。そして、その線種を上記線種アイコン112を操作して選択することができる。具体的には、上記均一の太さの線を用いるか、「スプレー」を用いるかを選択することが可能である。このとき、均一の太さの線については、その線の太さについても指定可能であり、上記線種アイコン112では、4つあるアイコンの内の左の3つのアイコンがそれぞれの太さを示している。また、当該4つのアイコンの内、一番右のプロペラの絵が表示されているアイコンが「スプレー」を示している。また、描画道具として「ペン」を選んだときは、その描画色(線やスプレーの色)を指定することも可能である。
Next, a drawing operation on the
次に、描画道具として「ペン」を用いた際の操作に関して説明する。上記「ペン」を選択し、上記線種に上記均一の太さの線を選んだ場合は、上記図3および図5に示したように、タッチした位置に上記均一の太さの線を描画することができるものである。ここで、ペンは、タッチすると同時に、線が描画される。具体的には、上記ツールバーを操作し「ペン」を選択し、線種として均一の線を選択した後、プレイヤがタッチペン27をキャンバス101(タッチパネル13)に接触させると、タッチ入力が検出されると同時に、点(タッチペン27を動かしていないとき)あるいは線分(タッチペン27をキャンバス101上で動かしているとき)がタッチ位置に描画される。
Next, an operation when using a “pen” as a drawing tool will be described. When the “pen” is selected and the uniform line is selected as the line type, the uniform line is drawn at the touched position as shown in FIGS. Is something that can be done. Here, a line is drawn at the same time that the pen touches. Specifically, the touch input is detected when the player touches the canvas 101 (touch panel 13) after operating the toolbar to select “pen” and selecting a uniform line as the line type. At the same time, a point (when the
一方、線種として「スプレー」を選んだとき、タッチしている位置に後述するような「スプレー線」を描画できるが、上記均一の太さの線の場合とは異なり、タッチしただけでは描画は行われない。以下、図7〜図10を用いて、線種として「スプレー」を選択したときの描画操作について説明する。まず、プレイヤは、ツールバー103を操作して描画道具として「ペン」を選ぶ。具体的には、プレイヤが上記描画道具アイコン111をタッ
チする度に、描画道具が「ペン」→「消しゴム」→「ペン」・・・と切り替わる(このとき、描画道具アイコン111の画像内容も、ペン先の画像と消しゴムの画像との間で切り替わる)。そして、「ペン」を選択した後、プレイヤは、線種アイコン112の4つのアイコンから一番右のプロペラ画像のアイコンをタッチすることで、線種として「スプレー」を選択することができる。その後、プレイヤがキャンバス101上の所望の位置をタッチすると、図7に示すように、プロペラを模した画像のカーソル102が当該タッチ位置に表示される。しかし、この時点では、キャンバス101には、何も描画されない(上記「ペン」の場合は、この時点で少なくともタッチ位置への「点」の描画は行われる)。そのため、この状態でキャンバス101をタッチしたままタッチペン27を移動させたとしても、キャンバス101には、何も描画されない。
On the other hand, when “Spray” is selected as the line type, “Spray line” as described later can be drawn at the touched position. However, unlike the case of the line with the uniform thickness, it can be drawn only by touching. Is not done. Hereinafter, a drawing operation when “spray” is selected as the line type will be described with reference to FIGS. First, the player operates the
この状態で、キャンバス101に描画するためには、プレイヤは、図8に示すように、当該カーソル102に向かって息を吹きかける、という動作を行う。すると、上記カーソル102が、プロペラが回転するアニメーションで表示され、タッチ位置には、図9に示すような、インクを吹きかけたような画像(多数の点が集合した画像)が表示される。そして、カーソル102に息を吹きかけながらタッチペン27を動かす事で、図10に示すように、多数の点が集合した、いわばスプレーで描いたような線(以下、スプレー線と呼ぶ)がタッチペン27の移動軌跡上に描画される。このように、「スプレー」の場合は、プロペラ型のカーソル102に息を吹きかける操作を行い、キャンバス101にインクを吹き付けるような感覚で描画を行うことができる。
In this state, in order to draw on the
更に、本アプリケーションでは、プレイヤの息を吹く強さに応じて、スプレー線の太さや濃さが変化する。例えば、息を吹く強さが弱いときは、図11に示すような細く薄い(点の数が少ない)スプレー線を描画することができる。また、強く息を吹きかけたときは、図12のように、太く濃い(点の数が多い)スプレー線を描画することができる。また、当該息を吹く強さの強弱はリアルタイムにスプレー線に反映される。例えば、一本のスプレー線を描く場合、描き始めのときは息を強く吹きく、その後、徐々に息を吹く強さが弱まっていけば、描かれるスプレー線も、描き始めの部分は図12のように点の数が多くなり、描き進むに連れて徐々に点の数が少なくなっていくようなスプレー線が描画される。また、本アプリケーションでは、このようなスプレー線が描画されるときは、効果音として、スプレーを噴射する音も再生される。 Furthermore, in this application, the thickness and the density of the spray line change according to the strength of the player's breath. For example, when the strength of blowing is weak, it is possible to draw a thin and thin (small number of dots) spray line as shown in FIG. When a strong breath is blown, a thick and dark spray line (having many dots) can be drawn as shown in FIG. In addition, the strength of blowing is reflected on the spray line in real time. For example, when drawing a single spray line, blow hard at the beginning of drawing, and then gradually reduce the strength of blowing, and the spray line that is drawn will also be drawn at the beginning of FIG. A spray line is drawn in which the number of points increases and the number of points gradually decreases as the drawing progresses. Moreover, in this application, when such a spray line is drawn, the sound which sprays a spray is also reproduced as a sound effect.
ここで、本実施形態における上記スプレー線の描画処理の概要(原理)を説明する。上記図8で示したように、プレイヤがタッチペン27でキャンバス101をタッチした状態でカーソル102(タッチパネル13)に向けて息を吹きかけると、息を吹きかけている音がマイク42に入力される。本アプリケーションでは、このマイク42に入力された音(以下、マイク入力音と呼ぶ)の音量を検出し、当該検出された音量の大きさに応じて、スプレー線の太さ等を決定してキャンバス101に描画している。すなわち、本実施形態では、「スプレー」を用いるときは、タッチパネル13への「タッチ入力」とマイク42への「音声入力」の2つの種類の入力が揃ったときに、上記スプレー線の描画処理を実行する。また、上記スプレー線の描画時の効果音についても、上記検出されたマイク入力音の大きさに応じて、その再生音量を変化させている。
Here, an outline (principle) of the spray line drawing process in the present embodiment will be described. As shown in FIG. 8, when the player blows toward the cursor 102 (touch panel 13) while touching the
次に、上記描画道具のうちの、「消しゴム」について説明する。上記ツールバー103を操作して描画道具消しゴムを選び、「線種」として均一の太さの線を選んだ場合について説明する。この場合、プレイヤがキャンバス101上の任意の位置をタッチすると、消しゴム型のカーソル102が表示される。このときの操作は、上記「ペン」で均一の太さの線を選択した場合に準じ、タッチした位置に描画されている線(均一の線およびスプレー線)を消去することが可能である。次に、「線種」として「スプレー」を選んだ場合を説明する。この場合は、プレイヤがキャンバス101上の任意の位置をタッチすると、上
記「ペン」で線種として「スプレー」を用いたときと同様に、プロペラ型のカーソル102が表示される。そして、プレイヤが当該カーソル102に向かって息を吹きかければ、その息の強さ(すなわち、マイク入力音の大きさ)、および、タッチ位置に応じて、所定の範囲内のスプレー線あるいは均一の太さの線を消去することができる。
Next, the “eraser” among the drawing tools will be described. A case will be described in which a drawing tool eraser is selected by operating the
このように、本実施形態では、上記「スプレー」のような、タッチ入力に加えて息を吹きかけるという操作(マイク42への音声入力)を行って初めてキャンバス101に描画できるという処理を行っている。これにより、従来にはなかった新規な操作性を有するお絵かきアプリケーションを提供する事が可能となる。
As described above, in the present embodiment, a process of drawing on the
次に、ゲーム装置1によって実行されるアプリケーション処理の詳細を説明する。まず、アプリケーション処理の際にメインメモリ32に記憶されるデータについて説明する。図13は、図2に示したメインメモリ32のメモリマップを示す図解図である。図13において、メインメモリ32は、プログラム記憶領域321およびデータ記憶領域325を含む。プログラム記憶領域321のデータおよびデータ記憶領域325の一部のデータは、カートリッジ29のROMに予め記憶されたものが、メインメモリ32にコピーされたものである。なお、これらプログラムおよびデータは、カートリッジ29に限らず、例えば、カートリッジ29の代わりに保存用データメモリ37に記憶するようにしておき、プログラムの実行に際して、当該保存用データメモリ37からメインメモリ32にコピーするようにしても良い。本実施例では、タッチ位置データ3262としては、最新の入力座標と1つ前の入力座標とを保存しておくことが可能である。ゲーム装置1は、タッチパネル13への入力を単位時間おきに繰り返し検出する。入力を検出したときには、それまで最新の入力座標として保存されていたデータを1つ前の入力座標として保存する。そして、プレイヤがタッチパネル13にタッチしている場合、タッチ位置の座標を示すデータが、最新の入力座標としてタッチ位置データ3262に保存される。プレイヤがタッチパネル13にタッチしていない場合、最新の入力座標はNULLとなり、タッチ位置データ3262に保存される。
Next, details of application processing executed by the
プログラム記憶領域321は、CPU31によって実行されるプログラムを記憶し、このプログラムは、メイン処理プログラム322と、カメラ処理プログラム323と、落書き処理プログラム324などによって構成される。
The
メイン処理プログラム322は、後述する図17のフローチャートの処理に対応するプログラムである。カメラ処理プログラム323は、外側カメラ25で撮影画像を得るための処理をCPU31に実行させるためのプログラムであり、落書き処理プログラム324は、上記図5等で示した、撮影画像に落書きするための処理をCPU31に実行させるためのプログラムである。
The
データ記憶領域325には、操作データ326、描画道具マスタ327、描画色データ328、撮影画像データ329、現在道具データ330、効果音データ331、スプレーテーブル332、音声特性データ333などのデータが記憶される。
The data storage area 325
操作データ326は、プレイヤが行ったゲーム装置1への操作内容を示すデータであり、操作ボタンデータ3261およびタッチ位置データ3262を含む。操作ボタンデータ3261は、各操作ボタン14A〜14Kに対する入力状態を示すデータである。タッチ位置データ3262は、タッチパネル13へ入力されたタッチ位置の座標(入力座標)を示すデータである。本実施例では、プレイヤがタッチパネル13にタッチしている間、繰り返し入力座標が取得され、タッチ位置データ3262として保存される。なお、本実施例では、タッチ位置データ3262としては、最新の入力座標と1つ前の入力座標とが保存しておくことが可能である。
The
描画道具マスタ327は、上述したような描画道具に関するテーブルである。図14は、描画道具マスタ327のテーブル構造の一例を示した図である。描画道具マスタ327は、種類3271と線種3272とカーソル画像データ3273の図14は、描画道具マスタ327のデータ構成の一例を示す図である。図14に示された描画道具マスタ327は、種類3271と線種3272とカーソル画像データ3273を有する構造になっている。種類3271は、描画道具を示すデータであり、本実施形態では、「ペン」と「消しゴム」である。線種3272は、上記線種を示すデータであり、本実施形態では均一の太さの線(以下、均一線と呼ぶ)と上記「スプレー」である。また、カーソル画像データは、カーソル102として表示するための画像データである。本実施形態では、種類3271が「ペン」で線種3272が「均一線」のときは、ペン先の画像を示す画像データが格納されている。また、種類3271が「ペン」で線種3272が「スプレー」のときは、上記のようなプロペラの画像データが格納されている。また、種類3271が「消しゴム」で線種3272が「均一線」のときは、消しゴムの画像データが格納されており、線種3272が「スプレー」のときは、プロペラの画像が格納されている。
The
描画色データ328は、上記描画道具の種類が「ペン」の場合に、上記キャンバス101に描く線等の色を示すデータである。撮影画像データ329は、外部カメラ25で撮影された画像を示すデータである。現在道具データ330は、現在選択されている描画道具の種類(ペンあるいは消しゴム)および線種(均一線あるいはスポプレー)を示すためのデータである。効果音データ331は、描画時に再生される効果音のデータである。
The drawing
スプレーテーブル332は、上述の、マイク入力音の音量と対応づけて、描画する領域の大きさ、および描画する点の数とを定義したテーブルである。図15は、スプレーテーブル332のデータ構成の一例を示す図である。図15に示されたスプレーテーブルは、音量3321と領域サイズ3322と点の数3323とを有する構造になっている。音量3321は、マイク入力音の音量の大きさの範囲を示すものである。なお、本実施例では、音量の大きさを0〜100の値で表すものとする。領域サイズ3322は、一回の描画処理で描かれるスプレー線の描画領域を示すものである。本実施形態では、描画領域の形状は円状であるとし、当該領域サイズ3322の値には、描画領域の半径を示す値が定義されているものとする。点の数3323は、上記描画領域内に描画する点の数を定義したものである。図15の例では、例えば、音量3321が”11〜30”のときは、図16(a)に示すような大きさの円形領域201内に、点の数3323に示される数の点が描画される。また、音量3321が”31〜50”であれば、図16(b)に示すような、より大きなサイズの円形領域201内で、より多くの数の点が描画される(なお、図16で円形領域201を示す点線は便宜上表記しているだけであり、画面上には表示されない)。
The spray table 332 is a table that defines the size of the area to be drawn and the number of points to be drawn in association with the volume of the microphone input sound described above. FIG. 15 is a diagram illustrating an example of a data configuration of the spray table 332. The spray table shown in FIG. 15 has a structure having a
図13に戻り、音声特性データ333は、マイク42に入力された音声の特性、具体的には、音量や周波数、音色等を示すデータである。なお、本実施形態では、マイク入力音の音量を示すデータが格納される。
Returning to FIG. 13, the sound
データ記憶領域325には、その他、後述する処理において、効果音の再生が行われているか否かを示すために用いられる再生フラグ等の各種フラグや、各種画像データ等も記憶される。 In addition, the data storage area 325 also stores various flags such as a reproduction flag used to indicate whether or not sound effects are being reproduced in processing described later, various image data, and the like.
次に、ゲーム装置1において実行されるアプリケーション処理(以下、落書きゲーム処理と呼ぶ)の流れを図17〜図21を用いて説明する。図17は、ゲーム装置1において実行される落書きゲーム処理の流れを示すフローチャートである。ゲーム装置1の電源が投入されると、ゲーム装置1のCPU31は、図示しないブートROMに記憶されている
起動プログラムを実行し、メインメモリ32等の各ユニットが初期化される。そして、カートリッジ29に格納されたゲームプログラムがメインメモリ32に読み込まれ、当該アプリケーションプログラムの実行が開始される。その結果、下側LCD12にゲーム画像が表示されることによって、アプリケーションが開始される。
Next, the flow of application processing (hereinafter referred to as graffiti game processing) executed in the
図17において、まず、CPU31は、カメラ処理を実行するか否かの問い合わせ画面を表示する(ステップS1)。すなわち、本処理では、カメラによる撮像を行わずに、後述する落書き処理を実行することも可能である。つまり、図5等に示したような下絵を用いず、図3に示した用に、無地のキャンバス101に対して描画処理を行うことも可能である。
In FIG. 17, first, the
次に、CPU31は、メインメモリ32から操作データ326を取得する(ステップS2)。次に、操作データで示される内容が、カメラ処理の実行指示であるか否かを判定する(ステップS3)。その結果、カメラ処理の実行指示ではないときは(ステップS3でNO)、CPU31は、後述するステップS5の処理に進む。一方、カメラ処理の実行指示のときは(ステップS3でYES)CPU31は、カメラ処理を実行する(ステップS4)。この処理では、外側カメラ25で、上記下絵となる画像を撮影し、保存するための処理が実行される。次に、CPU31は、落書き処理を実行する(ステップS5)。この処理では、上記図5で示したような画面を表示し、カメラで撮影した画像に落書きすることを可能とするための処理が実行される。
Next, the
図18は、上記ステップS4で示したカメラ処理の詳細を示すフローチャートである。図18において、まず、CPU31は、初期化処理を行う(ステップS11)。この処理では、予め初期値として定義されている撮影用の各種パラメータ(撮影倍率や露光時間等)が設定される。
FIG. 18 is a flowchart showing details of the camera process shown in step S4. In FIG. 18, first, the
次に、CPU31は、外側カメラ25で撮影している映像を下側LCD12に表示する(ステップ12)。
Next, the
次に、CPU31は、メインメモリ32から操作データ326を取得する(ステップS13)。続いて、CPU31は、操作データ326で示されるプレイヤの操作内容が、シャッターボタンの押下であるか否かを判定する(ステップS14)。当該判定の結果、シャッターが押されたときは(ステップS14でYES)、CPU31は、外側カメラ25で撮影した画像を記録する処理を行う。すなわち、外側カメラ25で撮影された画像を撮影画像データ329として、メインメモリ32に記憶する(ステップS15)。その後、上記ステップS12の処理に戻り、処理を繰り返す。
Next, the
一方、ステップS14の判定の結果、シャッターが押されていないときは(ステップS14でNO)、次に、CPU31は、操作データ326で示される操作内容がカメラ処理の終了を指示する操作であるか否かを判定する(ステップS16)。その結果、カメラ処理の終了指示のときは(ステップS16でYES)、CPU31は、当該カメラ処理を終了する。一方、カメラ処理の終了指示でないときは(ステップS16でNO)、CPU31は、操作データ326に基づくその他の処理を実行する(ステップS17)。例えば、ズーム倍率の制御や露光制御の設定等を実行する。その後、上記ステップS12に戻って処理を繰り返す。以上でカメラ処理の説明を終了する。
On the other hand, if the result of determination in step S <b> 14 is that the shutter has not been pressed (NO in step S <b> 14), then the
次に、上記ステップS2で示した落書き処理について説明する。図19は、上記ステップS2で示した落書き処理の詳細を示すフローチャートである。図19において、まず、CPU31は、落書き処理に関する初期処理を実行する(ステップS21。)具体的には、上記図3等に示したようなゲーム画面を生成して表示する。また、CPU31は、撮影
画像データ329をメインメモリ32から読み出し、上記カメラ処理で撮影された撮影画像をキャンバス101の部分に「下絵」として表示する。このとき、上記カメラ処理が行われていなければ、撮影画像データ329には何も格納されていないため、この場合は、CPU31は、キャンバス101には何も表示しない。つまり、無地のキャンバス101のままで表示されることになる。また、CPU31は、初期値として現在道具データ330に描画道具が「ペン」、線種が「均一線」であることを示すデータを設定する。つまり、落書き処理開始時は、線種が「均一線」の「ペン」が描画道具として選択されていることになる。
Next, the graffiti process shown in step S2 will be described. FIG. 19 is a flowchart showing details of the graffiti process shown in step S2. In FIG. 19, first, the
初期処理が終われば、次に、CPU31は、メインメモリ32から操作データ326を取得する(ステップS22)。続いて、CPU31は、操作データ326で示される操作内容が落書き処理の終了指示であるか否かを判定する(ステップS23)。当該判定の結果、落書き処理の終了指示のときは(ステップS23でYES)、CPU31は、当該落書き処理を終了する。
When the initial process is completed, the
一方、落書き処理の終了指示ではないときは(ステップS23でNO)、次に、CPU31は、操作内容が描画道具の種類を選択する操作であるか否かを判定する(ステップS24)。その結果、描画道具の選択操作であるときは(ステップS24でYES)、操作データ326の内容に基づいて、描画道具の選択処理を実行する(ステップS25)。ここで、選択操作の一例について説明すると、まず、プレイヤは、上記図3等で示したような画面において、上記描画道具アイコン111をタッチする。この操作を検出する度に、CPU31は、現在道具データ330に描画道具として「ペン」と「消しゴム」を交互に設定する。つまり、プレイヤが描画道具アイコン111をタッチする度に、描画道具が「ペン」と「消しゴム」の間で切り替わる。更に、プレイヤは上記線種アイコン112の4つのアイコンのうちいずれか一つをタッチする。このタッチされたアイコン(より正確にはその表示座標)を検出し、そのアイコンの内容に応じた線種を現在道具データ330に設定する。当該4つのアイコンの内、一番右のアイコンがタッチされたときは、線種として「スプレー」が現在道具データ330に設定される。また、その他のアイコンがタッチされたときは、線種として「均一線」が設定され、タッチされたアイコンに応じて、線の太さを示すデータも併せて現在道具データ330に設定される。図3の例では、3種類の線の太さを選択することが可能であり、一番右のアイコンが均一線の太さとしては一番細く、左から3つめのアイコンが一番太い均一線となる。このように、CPU31は、操作データに基づいて描画道具を示すデータを現在道具データ330に設定する処理を実行した後、CPU31は、上記ステップS22に戻り、処理を繰り返す。
On the other hand, if it is not an instruction to end the graffiti process (NO in step S23), the
一方、ステップS24の判定の結果、操作内容が描画道具の選択操作ではないときは(ステップS24でNO)、次に、CPU31は、操作データ326を参照してキャンバス101へのタッチ入力(より正確には、キャンバス101の表示領域に対応するタッチパネル13の領域内へのタッチ入力)が行われているか否かを判定する(ステップS26)。具体的には、CPU31は、タッチ位置データ3262に保存されている最新の入力座標を参照して、入力座標がキャンバス101の表示領域に対応する座標であるか否かを判定する。その結果、キャンバス101へのタッチ入力が行われているときは(ステップS26でYES)、CPU31は、タッチ入力されている位置にカーソル102を表示する処理を実行する(ステップS27)。より具体的には、CPU31は、まず、描画道具マスタ327を参照し、現在選択されている描画道具に対応するカーソル画像データ3272を取得する。そして、タッチ位置データ3262を参照し、タッチ入力されている位置に上記カーソル画像データ3272に基づく画像をカーソル102として表示する。
On the other hand, if the result of determination in step S24 is that the operation content is not a drawing tool selection operation (NO in step S24), the
カーソル102の表示の次に、CPU31は、現在選択されている描画道具、すなわち、現在道具データ330で示される描画道具が「ペン」か否かを判定する(ステップS2
8)。その結果、「ペン」であるときは、CPU31は、ペン処理を実行する(ステップS29)。図20は、当該ペン処理の詳細を示すフローチャートである。図20において、まず、CPU31は、現在道具データ330で示される線種が「スプレー」か否かを判定する(ステップS41)。その結果、「スプレー」ではないときは(ステップS41でNO)、CPU31は、ペン描画処理を実行する(ステップS42)。すなわち、タッチ位置に基づいて、現在選択されている線の太さで均一線を描画する処理を実行する。その後、CPU31は、ペン処理を終了する。
After the display of the
8). As a result, when it is “pen”, the
一方、上記ステップS41の判定の結果、線種が「スプレー」のときは(ステップS41でYES)、CPU31は、図10等を用いて上述したような、スプレー線の描画を行うためのスプレー描画処理を実行し(ステップS43)、その後、ペン処理を終了する。
On the other hand, if the result of determination in step S41 is that the line type is “spray” (YES in step S41), the
図21は、上記ステップS43で示したスプレー描画処理の詳細を示すフローチャートである。図21において、まず、CPU31は、マイク42に入力された音(マイク入力音)の音量を検出し、音声特性データ333として記憶する(ステップS51)。
FIG. 21 is a flowchart showing details of the spray drawing process shown in step S43. In FIG. 21, first, the
次に、CPU31は、当該音声特性データ333で示される音量が、予め定められている所定の閾値以上であるか否かを判定する(ステップS52)。当該判定の結果、マイク入力音の音量が所定の閾値以上のときは(ステップS52でYES)、CPU31は、上記スプレーテーブル332を参照し、当該音量の大きさに応じて、スプレー線の描画領域の大きさや描画する点の数を決定する(ステップS53)。
Next, the
次に、CPU31は、上記音声特性データ333で示される音量の大きさに応じて、スプレー線描画時に再生する効果音の再生音量を決定する(ステップS54)。
Next, the
次に、CPU31は、上記音声特性データ333で示される音量の大きさに応じて、カーソル102のアニメーション表示の再生速度を設定する(ステップS55)。上述のように、本実施形態では、スプレー線の描画時は、上記プロペラ型のカーソル102について、当該プロペラが回転するアニメーションが表示される。このプロペラの回転速度を、上記マイク入力音の音量の大きさに応じて設定する処理が実行される。例えば、マイク入力音の音量が大きいときほど、プロペラが速く回転するようにアニメーションの再生速度を設定する。例えば、プロペラの回転アニメーションが3コマで構成される場合を例とすると、マイク入力音の音量が大きいときは、1フレームごとにコマを書き換えるような設定を行い、マイク入力音の音量が大きくないときは、10フレームごとにコマを書き換えるような設定を行うことが考えられる。
Next, the
次に、CPU31は、タッチ位置が中心となるように上記描画領域を配置し、上記ステップS53における決定内容に従って、スプレー線を構成する点をキャンバス101(描画領域内)に描画する(ステップS56)。ここで、スプレー線を構成する各点の配置については、描画領域内でランダムに配置しても良いし、タッチ位置を中心として、当該タッチ位置が点の密度が一番濃く、タッチ位置から離れるほど徐々に点の密度が薄くなるように描画してもよい。
Next, the
次に、CPU31は、上記ステップS55で設定されたアニメーションの再生速度に従って、カーソル102のアニメーション表示(プロペラが回転するアニメーション)を行う(ステップS57)。
Next, the
次に、CPU31は、再生フラグの設定がオフであるか否かを判定する(ステップS58)。当該再生フラグは、効果音が再生されている最中であるか否かを示すためのフラグであり、効果音が再生されていないときはオフに設定されている。当該判定の結果、再生
フラグがオフのときは(ステップS58でYES)、CPU31は、再生フラグにオンを設定する(ステップS59)。そして、CPU31は、効果音データ331を参照し、スプレー線描画時の効果音(スプレー噴射音)を、上記ステップS54で設定された音量で再生開始する(ステップS60)。その後、CPU31は、当該スプレー処理を終了する。
Next, the
一方、上記ステップS58の判定の結果、再生フラグがオフではないと判定されたときは(ステップS58でNO)、効果音が再生されている最中であると考えられるため、上記ステップS59およびS60の処理は実行せずに、当該スプレー処理を終了する。 On the other hand, as a result of the determination in step S58, when it is determined that the reproduction flag is not OFF (NO in step S58), it is considered that the sound effect is being reproduced. Therefore, steps S59 and S60 are performed. The spray process is terminated without executing the process.
次に、上記ステップS52の判定の結果、音声特性データ333で示される音量が所定の閾値未満のときの処理(ステップS52でNO)を説明する。このときは、CPU31は、次に、上記再生フラグがオンに設定されているか否かを判定する(ステップS61)。その結果、再生フラグがオンのときは(ステップS61でYES)、CPU31は、上記ステップS60で再生開始した効果音の再生を停止する。そして、CPU31は、再生フラグにオフを設定する(ステップS63)。
Next, processing when the sound volume indicated by the sound
一方、上記ステップS61の判定の結果、再生フラグがオンではないときは(ステップS61でNO)、CPU31は、上記ステップS62およびS63の処理は実行せずに、当該スプレー描画処理を終了する。以上で、スプレー描画処理の説明を終了する。
On the other hand, if the result of determination in step S61 is that the regeneration flag is not on (NO in step S61), the
図19に戻り、上記ステップS28の判定の結果、現在道具データ330が「ペン」ではないときは(ステップS28でNO)、次に、CPU31は、現在道具データ330で示される描画道具が「消しゴム」か否かを判定する(ステップS30)。当該判定の結果、「消しゴム」ではないときは(ステップS30でNO)、CPU31は、上記ステップS22に戻って処理を繰り返す。
Returning to FIG. 19, if the result of the determination in step S <b> 28 is that the
一方、上記ステップS30の判定の結果、現在道具データ330が「消しゴム」のときは(ステップS30でYES)、CPU31は、消しゴム処理を実行する(ステップS31)。この処理では、所定値以上の音量のマイク入力音が入力されたときに、タッチ位置に描画されているスプレー線等を消去する処理が実行される。図22は、当該消しゴム処理の詳細を示すフローチャートである。図22において、まず、CPU31は、現在道具データ330で示される線種が「スプレー」か否かを判定する(ステップS71)。その結果、「スプレー」ではないときは(ステップS71でNO)、CPU31は、ペン消しゴム処理を実行する(ステップS42)。すなわち、タッチ位置に基づいて、現在選択されている線の太さで均一線あるいはスプレー線を消去する処理を実行する。その後、CPU31は、消しゴム処理を終了する。
On the other hand, if the result of the determination in step S30 is that the
一方、上記ステップS71の判定の結果、線種が「スプレー」のときは、CPU31は、スプレー消しゴム処理を実行する(ステップS73)。図23は、上記ステップS73で示したスプレー消しゴム処理の詳細を示すフローチャートである。図23において、ステップS51からステップS52までの処理、および、ステップS57からステップS63までの処理は、図21を用いて上述した各ステップの処理と同様であるため、ここでは詳細な説明を省略し、それ以外の処理を中心に説明する。
On the other hand, if the result of determination in step S71 is that the line type is “spray”, the
図23において、ステップS52で、マイク入力音の音量が所定の閾値以上か否かが判定され、その結果、所定の閾値以上のときは(ステップS52でYES)、CPU31は、音量の大きさに応じて、消去する領域(以下、消去領域と呼ぶ)の大きさを決定する(ステップS81)。当該消去領域の大きさの決定方法は、上記スプレー線の描画領域の決定の場合に準じる。すなわち、上記スプレーテーブル332を参照し、音量の大きさに応
じた領域サイズ3322を取得する。そして、この大きさに基づいて、消去領域の大きさを決定する。なお、消去領域の形状は、上記描画領域と同様に、円状であるとする。
In FIG. 23, in step S52, it is determined whether or not the volume of the microphone input sound is equal to or higher than a predetermined threshold value. If the result is equal to or higher than the predetermined threshold value (YES in step S52), the
次に、CPU31は、上記音量の大きさに応じて、スプレー線等を消去する際の効果音の再生音量を決定する(ステップS82)。
Next, the
次に、CPU31は、上記消去時のカーソルアニメーションの再生速度を設定する(ステップS83)。すなわち、上記ステップS55と同様に、マイク入力音の音量の大きさに応じてプロペラの回転速度を設定する。
Next, the
次に、CPU31は、タッチ位置が中心となる位置に上記消去領域を配置し、当該消去領域内のスプレー線等を消去する(ステップS84)。
Next, the
その後、CPU31は、カーソルアニメーションの表示を実行し(ステップS57)、再生フラグがオフであるか否かの判定に進む(ステップS58)。これ以降の処理は、図21を用いて上述した各ステップの処理と同様であるため、詳細な説明を省略する。以上で、スプレー消しゴム処理の説明は終了する。
Thereafter, the
図19に戻り、次に、上記ステップS26の判定の結果、タッチ入力がなかったときの処理(ステップS26でNO)について説明する。このときは、次に、CPU31は、操作データ326に基づいて、タッチオフされたか否かを判定する(ステップS33)。つまり、タッチ入力が継続していた状態(タッチし続けていた状態)が途切れたのか、タッチされていない状態が継続しているのかを判定する。当該判定の結果、タッチオフされたときは(ステップS33でYES)、CPU31は、カーソル102を消去する(ステップS34)。その後、上記ステップS22に戻り、処理を繰り返す。一方、タッチオフではないときは(ステップS33でNO)、そのまま上記ステップS22に戻って処理を繰り返す。以上で、落書き処理の説明を終了する。具体的には、タッチ位置データ3262として、最新の入力座標がNULLであり、1つ前の入力座標がタッチ位置の座標を示すデータであった場合には、タッチオフと判定し、最新の入力座標がNULLであり、1つ前の入力座標もNULLであった場合には、タッチされていない状態が継続していると判定する。
Returning to FIG. 19, the process when there is no touch input as a result of the determination in step S26 (NO in step S26) will be described. At this time, next, the
このように、本実施形態では、プレイヤが「スプレー」を用いて描画を行うときは、キャンバス101へのタッチ入力とマイク42への音声入力という2種類の入力があったときに、キャンバス101への描画を可能としている。これにより、従来にはなかった新たな操作感を有する新規なゲームを提供することができる。
As described above, in this embodiment, when the player performs drawing using “spray”, when there are two types of input, that is, touch input to the
また、本実施形態では、タッチ入力およびマイク42への音声入力が継続して行われている(息を吹きかけ続けている)間、上記スプレー線の描画が行われる。そのため、息を吹く強さを変化させることで、リアルタイムにスプレー線の太さを変えることができる。これにより、プレイヤの息の吹きかけ方でスプレー線の太さ(いわゆる筆圧に相当)を変化させる、つまり、描画される内容を変化させることができるという、新規な楽しみ方を提供する事が可能となる。 In the present embodiment, the spray line is drawn while the touch input and the voice input to the microphone 42 are continuously performed (the breath is continuously blown). Therefore, the thickness of the spray line can be changed in real time by changing the strength of blowing. As a result, it is possible to provide a new way of enjoying that the thickness of the spray line (corresponding to so-called writing pressure) can be changed depending on how the player blows, that is, the drawn content can be changed. It becomes.
なお、上述の消しゴム処理において、タッチした位置のスプレー線を消去する処理を行っていたが、この他、タッチした位置周辺のスプレー線を構成している各点が、タッチパネルへの息の吹きかけに応じて吹き飛ぶような処理(以下、吹き飛ばし処理と呼ぶ)を実行しても良い。以下、吹き飛ばし処理の概要を説明する。例えば、タッチ位置と点との位置関係が図24に示すような関係にあるとする。図24においては、タッチ位置210の上方に5つの点211a〜211eがある状態を例としている。この状態で、プレイヤが
タッチ位置210に向かって息を吹きかける(すなわち、マイク42への音声入力が行われる)と、まず、図25に示すように、タッチ位置210と、各点211a〜211eとを結ぶ直線212a〜212eが算出される。そして、図26に示すように、各直線212の長さと向きに応じて、各点211を移動する処理が実行される。図26の例では、各直線212に沿った方向であって、タッチ位置210から外側に向けて各点211を移動させている。移動距離は、各直線の長さに反比例するように移動させている。つまり、タッチ位置210に近い点ほど、移動距離が長く、タッチ位置210から遠い位置にある点は、移動距離が短い。つまり、息を吹きかけた位置(この場合、タッチ位置210)に近い点ほど、より強い息が吹きかかった結果、より遠くに吹き飛ばされるような処理を行っている。
In addition, in the above-described eraser process, the process of erasing the spray line at the touched position was performed, but in addition to this, each point constituting the spray line around the touched position is used for blowing the breath on the touch panel. In response to this, processing that blows away (hereinafter referred to as blow-off processing) may be executed. Hereinafter, an outline of the blow-off process will be described. For example, it is assumed that the positional relationship between the touch position and the point is as shown in FIG. In FIG. 24, a state where there are five
次に、図27を用いて、上記吹き飛ばし処理の詳細を説明する。図27は、吹き飛ばし処理の詳細を示すフローチャートである。本処理は、ここでは、上記図19を用いて説明した落書き処理のフローチャートにおいて、ステップS73のスプレー消しゴム処理の代わりに実行される場合を例にして説明する。もちろん、スプレー消しゴム処理の代わりではなく、当該スプレー消しゴム処理と併用して処理するようにしてもよい。 Next, the details of the blowing process will be described with reference to FIG. FIG. 27 is a flowchart showing details of the blow-off process. This process will be described by taking as an example a case where the process is executed instead of the spray eraser process in step S73 in the flowchart of the graffiti process described with reference to FIG. Of course, instead of the spray eraser process, the spray eraser process may be used in combination.
図27において、まず、CPU31は、音量検出を行い(ステップS51)、検出した音量が所定の閾値以上であるか否かを判定する(ステップS52)。これらの処理は、上記図23のステップS51〜S52の処理と同様であるため、詳細な説明は省略する。
In FIG. 27, first, the
ステップS52の判定の結果、音量が所定の閾値以上ではないときは(ステップS52でNO)、CPU31は、ステップS61の処理に進む。このときの処理についても、上記図23のステップS61以降の処理と同様であるため、説明は省略する。
If the result of determination in step S52 is that the volume is not greater than or equal to a predetermined threshold (NO in step S52), the
一方、ステップS52の判定の結果、音量が所定の閾値以上と判定されたときは(ステップS52でYES)、CPU31は、音量の大きさに応じて、吹き飛ばし処理の対象となる領域(以下、吹き飛ばし領域と呼ぶ)の大きさを設定する(ステップS81)。当該領域の大きさ決定については、上記ステップS53と同様、スプレーテーブル332を参照し、音量の大きさに応じた領域サイズ3322を取得することで決定する。
On the other hand, if the result of determination in step S52 is that the volume is determined to be greater than or equal to a predetermined threshold (YES in step S52), the
次に、CPU31は、当該吹き飛ばし領域内に存在するスプレー線を構成する各点と、タッチ位置とを結ぶ直線(上記図25参照)を算出する(ステップS83)。
Next, the
次に、CPU31は、当該吹き飛ばし領域内の各点を、上記算出した各直線の向きおよび長さに応じて移動させる(上記図26参照)。なお、このとき、ある点を移動させた結果、他の点と重なる位置となる場合は、移動前はタッチ位置に近いほうにあった点が上に重なるように描画する。
Next, the
上記のような処理で各点を移動させれば、その後、CPU31は、ステップS58の処理へ進む。当該ステップS58以降の処理は、図21で上述した処理と同様であるため、説明は省略する。
If each point is moved by the process as described above, then the
このように、タッチした位置にプレイヤが息を吹きかけると、砂が吹き飛ぶかのように点を移動させる処理を行うことで、プレイヤに新規な楽しみ方を提供する事が可能となる。 As described above, when the player blows on the touched position, the point is moved as if the sand is blown off, thereby providing the player with a new way of enjoying.
また、上述した実施形態では、タッチパネル13にプレイヤが息を吹きかけたときの音を検出し、その音量に基づいて処理を行っていたが、このときの音についてはどのような音でもよかった(例えば、手を叩く音でもよかった)。すなわち、音の種類・内容につい
ては識別していなかったが、これに限らず、「息を吹きかける」音を識別するようにしてもよい。「息を吹きかける音」の検出・識別方法はどのようなものであってもよいが、例えば、息を吹きかける音(息の音声)についての音声素片の波形パターンを予め記憶しておき、記憶しておいた音声素片と入力された音声の音声素片とを比較して、プレイヤが息を吹きかけたかどうかを判断する方法が考えられる。また、高速フーリエ変換処理(FFT)により、入力された音声のスペクトラムを算出して、算出したスペクトラムと予め記憶しておいた息の音声についてのスペクトラムとを比較して、プレイヤが息を吹きかけたかどうかを判断する方法を用いても良い。
Further, in the above-described embodiment, the sound when the player blows on the
また、上記のような音量や、特定の音の種類・内容に限らず、音色、周波数等、入力された音声の特性を算出あるいは識別して、当該音声の特性に応じて描画処理の内容を変化させても良い。 In addition, the characteristics of the input sound such as timbre, frequency, etc. are calculated or identified, and the content of the drawing process is determined according to the characteristics of the sound, not limited to the volume and the type and content of the specific sound as described above. It may be changed.
また、上記効果音の再生に関して、効果音の再生開始および再生終了時は、フェードイン/フェードアウト効果を利用した再生を実行しても良い。これにより、再生開始時のノイズ(例えば「プツッ」という音のノイズ)の発生を抑えることができる。 Regarding the reproduction of the sound effect, reproduction using the fade-in / fade-out effect may be executed at the start and end of the reproduction of the sound effect. As a result, it is possible to suppress the occurrence of noise at the start of reproduction (for example, noise of a “sound” sound).
また、描画の際に用いられる描画色については、1色だけ用いるようにしても良いし、複数の色を同時に用いるようにしても良い。複数の色を同時に用いる場合の例としては、例えば、描画道具に「ペン」を用いる場合は、縁取り線(縁の色と中の色とで異なった色を用いる)が該当する。また、「スプレー」の場合は、スプレー線を構成する各点について、異なる色の点を用いるようにすればよい。例えば、描画色に「灰色」と「黒色」を指定したときは、灰色の点と黒色の点の双方で構成されるスプレー線を描画するようにすればよい(図28参照)。 As for the drawing color used for drawing, only one color may be used, or a plurality of colors may be used simultaneously. As an example of using a plurality of colors at the same time, for example, when a “pen” is used as a drawing tool, a border line (a different color is used for the edge color and the middle color) is applicable. In the case of “spray”, a different color point may be used for each point constituting the spray line. For example, when “gray” and “black” are designated as the drawing colors, a spray line composed of both a gray point and a black point may be drawn (see FIG. 28).
また、複数の描画色を用いる場合で、上述の吹き飛ばし処理を実行した場合、点の移動の結果、異なる色の点が重なる場合は、これらの色を混色した1つの点として表示するようにしても良い。これにより、多数の描画色を用いてスプレー線を描画したときに、上記吹き飛ばし処理によって、様々な色が混じり合った、プレイヤが予測不能なスプレー線を表示することができ、吹き飛ばし処理による新しい楽しみ方をプレイヤに提供する事ができる。 In addition, when a plurality of drawing colors are used and the above-described blow-off process is executed, if dots of different colors overlap as a result of the movement of the points, these colors are displayed as one mixed color point. Also good. As a result, when a spray line is drawn using a large number of drawing colors, the player can display a spray line that is unpredictable by the player with various colors mixed by the blow-off process. Can be provided to the player.
また、上記スプレー消しゴム処理において、スプレー線等を消去する際に、半透明効果を用いるようにしても良い。つまり、息を吹きかけるとすぐにスプレー線等が消去されるのではなく、スプレー線等が徐々に薄くなって、最後には綺麗に消去されるような処理を実行するようにしてもよい。 In the above-mentioned spray eraser process, a translucent effect may be used when erasing spray lines or the like. That is, instead of erasing the spray line or the like as soon as the air is blown, a process may be executed in which the spray line or the like is gradually thinned and finally erased cleanly.
また、上記のような、多数の点で構成される「スプレー線」の他、上述した「均一線」による描画処理についても、マイク入力音があるときにのみ実行されるように構成しても良い。更に、この場合、マイク入力音の大きさによって筆圧が変化するようにしてもよい。例えば、マイク入力音の大きさが小さいとき(息を吹く強さが弱いとき)は「かすれた線」や「色が薄い線」となり、マイク入力音の大きさが大きいとき(息を吹く強さが強いとき)は「はっきりとした線」や「色が濃い線」が描画されるようにしてもよい。また、その他、「ペン」による「均一線」の描画そのものは、マイク入力音がなくても実行されるが、当該「ペン」を用いて「均一線」を引いているときに、タッチパネル13に息を吹きかけることで、線の太さがリアルタイムに変更されるようにしてもよい。
In addition to the “spray line” composed of a large number of points as described above, the above-described drawing process using the “uniform line” may be executed only when there is a microphone input sound. good. Further, in this case, the writing pressure may be changed depending on the magnitude of the microphone input sound. For example, when the volume of the microphone input sound is low (when the intensity of breathing is weak), it becomes a “shaded line” or “light line”, and when the volume of the microphone input sound is large (the intensity of blowing) When the image is strong), a “clear line” or a “dark line” may be drawn. In addition, the drawing of the “uniform line” by the “pen” itself is executed even when there is no microphone input sound. However, when the “pen” is used to draw the “uniform line”, the drawing on the
また、上記スプレー処理における描画に関して、タッチ入力は継続して検出されているが、マイク入力音の音量が所定の閾値未満となった時(つまり、息を吹きかけるのをやめたとき)に、すぐにスプレー線の描画を停止せず、例えば1秒〜2秒程度はスプレー線の
描画を継続させるようにしてもよい。すなわち、プレイヤが息を吹きかけるのを止めたとしても、少しの間はプロペラの回転が継続し、その間はスプレー線が描画されるような処理を行っても良い。
Regarding the drawing in the spray process, touch input is continuously detected, but immediately when the volume of the microphone input sound falls below a predetermined threshold (that is, when you stop blowing) For example, the spray line drawing may be continued for about 1 to 2 seconds without stopping the drawing of the spray line. That is, even if the player stops breathing, the propeller may continue to rotate for a while and a spray line may be drawn during that time.
また、上記実施形態で作成した落書き後の画像を保存できるようにしてもよいことは言うまでもない。この場合は、上述した手書きレイヤー106(図6参照)に相当するデータだけを保存するようにしても良いし、撮影画像に手書きレイヤー106のデータを合成した、合成画像として保存するようにしても良い。
Needless to say, the image after graffiti created in the above embodiment may be stored. In this case, only the data corresponding to the handwriting layer 106 (see FIG. 6) described above may be stored, or the data of the
また、上記実施形態では、外側カメラ25で撮影した画像に対して落書きする場合を例としたが、これに限らず、外部カメラ25を用いない、つまり、撮影画像等に落書きをするのではない、一般的なペイントソフトに適用してもよい。
In the above-described embodiment, the case where an image photographed by the
また、本実施例では、2つの表示装置を備えた携帯型ゲーム装置を例に説明したが、単一の表示装置を備え当該表示装置の画面上にタッチパネルを備えた携帯端末であってもよい。また、本実施例では、操作領域に対するプレイヤの指示位置を検出する装置としてタッチパネルを例に上げたが、プレイヤが所定領域内の位置を指示できるいわゆるポインティングデバイスであればよく、例えば、画面上の任意位置を指示可能なマウス、表示画面を持たない操作面上の任意位置を指示するタブレット、遠隔から表示画面や表示画面周囲に配置されたマーカ等を撮影するための撮影手段を備えたデバイスによって、表示画面方向を指し示すことにより得られる撮影画像における表示画面やマーカの位置から、表示画面上の指し示された位置に相当する表示画面上の座標を算出するポインティングデバイスなどでもよい。 In this embodiment, the portable game device including two display devices has been described as an example. However, a portable terminal including a single display device and a touch panel on the screen of the display device may be used. . In the present embodiment, the touch panel is taken as an example of a device for detecting the player's designated position with respect to the operation area. However, a so-called pointing device that allows the player to designate a position in the predetermined area may be used. By a device equipped with a mouse that can indicate an arbitrary position, a tablet that indicates an arbitrary position on the operation surface that does not have a display screen, and a shooting means for shooting a display screen or markers placed around the display screen from a remote location A pointing device that calculates coordinates on the display screen corresponding to the indicated position on the display screen from the position of the display screen or marker in the captured image obtained by pointing the display screen direction may be used.
本発明にかかる描画処理プログラムおよび情報処理装置は、新規な操作性でプレイヤに描画を楽しませることができ、ゲーム装置等に有用である。 The drawing processing program and the information processing apparatus according to the present invention can make a player enjoy drawing with a novel operability, and are useful for a game apparatus or the like.
1…ゲーム装置
11…下側ハウジング
12…下側LCD
13…タッチパネル
14…操作ボタン
15、26…LED
16…マイクロフォン用孔
21…上側ハウジング
22…上側LCD
23…内側カメラ
24…音抜き孔
25…外側カメラ
27…タッチペン
28、29…メモリカード
31…CPU
32…メインメモリ
33…メモリ制御回路
34…保存用データメモリ
35…プリセットデータ用メモリ
36…メモリカードI/F
37…無線通信モジュール
38…ローカル通信モジュール
39…RTC
40…電源回路
41…I/F回路
42…マイク
43…アンプ
44…カートリッジI/F
1 ...
13 ... Touch panel 14 ...
16 ... Microphone hole 21 ...
23 ...
32 ... Main memory 33 ...
37 ...
40 ...
Claims (21)
前記コンピュータを、
前記ポインティングデバイスによる指示に基づいて前記表示画面上の指示位置を連続的に取得する指示位置検出手段と、
前記音声入力手段へ所定の条件を満たす音声が入力されたことを検出する音声検出手段と、
前記音声検出手段によって前記音声入力が有ることが検出されている間、前記指示位置検出手段が取得した指示位置に基づく位置に所定の描画関連処理を実行する描画関連処理実行手段として機能させる、描画処理プログラム。 A drawing processing program for causing a computer of an information processing apparatus that can use a pointing device and voice input means for indicating a position on a display screen to execute the processing,
The computer,
An indicated position detecting means for continuously obtaining an indicated position on the display screen based on an instruction by the pointing device;
Voice detecting means for detecting that voice satisfying a predetermined condition is input to the voice input means;
While the presence of the voice input is detected by the voice detection unit, the drawing is caused to function as a drawing-related process execution unit that executes a predetermined drawing-related process at a position based on the designated position acquired by the designated position detection unit. Processing program.
処理を前記描画関連処理として実行する、請求項7に記載の描画処理プログラム。 The drawing-related process execution means performs a process of moving a point drawn on the display screen in a predetermined direction based on a position based on the designated position and a voice input detected by the voice detection means. The drawing processing program according to claim 7, which is executed as related processing.
前記指示位置に基づく位置を基準点とし、当該基準点と前記表示画面に表示されている点を結ぶ線の方向、および、当該基準点から当該表示画面に表示されている点までの距離を算出する移動内容算出手段を含み、
前記移動内容算出手段で算出された方向および距離に基づいて、前記画面に表示されている点を移動させる、請求項11に記載の描画処理プログラム。 The drawing related process execution means includes:
Using the position based on the indicated position as a reference point, calculate the direction of the line connecting the reference point and the point displayed on the display screen, and the distance from the reference point to the point displayed on the display screen Including movement content calculation means for
The drawing processing program according to claim 11, wherein a point displayed on the screen is moved based on the direction and distance calculated by the movement content calculation unit.
前記指示位置に所定のカーソル画像を表示するカーソル表示手段と、
前記描画関連処理実行手段が前記所定の描画関連処理を実行しているとき、前記カーソルをアニメーションさせるアニメーション表示手段として更に機能させる、請求項1に記載の描画処理プログラム。 The drawing processing program causes the computer to
Cursor display means for displaying a predetermined cursor image at the indicated position;
The drawing processing program according to claim 1, further causing the cursor to animate the cursor when the drawing related process executing means is executing the predetermined drawing related process.
所定の撮影手段で撮影された画像データを取得する撮影画像取得手段と、
前記画像データに基づく撮影画像を前記表示画面に表示する撮影画像表示手段として更に機能させ、
前記描画関連処理実行手段は、前記撮影画像に対して描画関連処理を実行する、請求項1に記載の描画処理プログラム。 The drawing processing program causes the computer to
Captured image acquisition means for acquiring image data captured by a predetermined imaging means;
Further functioning as a captured image display means for displaying a captured image based on the image data on the display screen,
The drawing processing program according to claim 1, wherein the drawing related process execution unit executes a drawing related process on the captured image.
前記描画関連処理実行手段は、前記特定音声判定手段によって前記音声検出手段で検出された音声が所定の音声であると判定されたときにのみ、前記描画関連処理を実行する、請求項1に記載の描画処理プログラム。 The drawing processing program causes the computer to further function as specific sound determination means for determining whether or not the sound detected by the sound detection means is a predetermined sound,
The drawing-related process execution unit executes the drawing-related process only when it is determined by the specific sound determination unit that the sound detected by the sound detection unit is a predetermined sound. Drawing processing program.
前記ポインティングデバイスによる指示に基づいて前記表示画面上の指示位置を連続的に取得する指示位置検出手段と、
前記音声入力手段へ所定の条件を満たす音声が入力されたことを検出する音声検出手段と、
前記音声検出手段によって前記音声入力が有ることが検出されている間、前記指示位置に基づく位置に所定の描画関連処理を実行する描画関連処理実行手段とを備える、情報処理装置。 An information processing apparatus capable of using a pointing device and voice input means for indicating a position on a display screen,
An indicated position detecting means for continuously obtaining an indicated position on the display screen based on an instruction by the pointing device;
Voice detecting means for detecting that voice satisfying a predetermined condition is input to the voice input means;
An information processing apparatus comprising: a drawing-related process execution unit that executes a predetermined drawing-related process at a position based on the designated position while the voice detection unit detects that the voice input is present.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009000443A JP5170771B2 (en) | 2009-01-05 | 2009-01-05 | Drawing processing program, information processing apparatus, information processing system, and information processing control method |
US12/646,306 US20100210332A1 (en) | 2009-01-05 | 2009-12-23 | Computer-readable storage medium having stored therein drawing processing program, and information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009000443A JP5170771B2 (en) | 2009-01-05 | 2009-01-05 | Drawing processing program, information processing apparatus, information processing system, and information processing control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010157192A true JP2010157192A (en) | 2010-07-15 |
JP5170771B2 JP5170771B2 (en) | 2013-03-27 |
Family
ID=42560413
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009000443A Active JP5170771B2 (en) | 2009-01-05 | 2009-01-05 | Drawing processing program, information processing apparatus, information processing system, and information processing control method |
Country Status (2)
Country | Link |
---|---|
US (1) | US20100210332A1 (en) |
JP (1) | JP5170771B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012103840A (en) * | 2010-11-09 | 2012-05-31 | Sony Corp | Information processor, program and command generation method |
KR20140003875A (en) * | 2012-06-29 | 2014-01-10 | 삼성전자주식회사 | Method and apparatus for processing multiple inputs |
JP2018092681A (en) * | 2018-03-19 | 2018-06-14 | グリー株式会社 | Control program, control method, and information processing apparatus |
JP2019109579A (en) * | 2017-12-15 | 2019-07-04 | フリュー株式会社 | Photograph making game machine, editing method and program |
KR20200109548A (en) * | 2019-03-13 | 2020-09-23 | (주)피플인사이드 | System and program for providing drawing service using speech recognition |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120293555A1 (en) * | 2010-01-15 | 2012-11-22 | Akihiro Okano | Information-processing device, method thereof and display device |
EP2355472B1 (en) * | 2010-01-22 | 2020-03-04 | Samsung Electronics Co., Ltd. | Apparatus and method for transmitting and receiving handwriting animation message |
US20110291964A1 (en) | 2010-06-01 | 2011-12-01 | Kno, Inc. | Apparatus and Method for Gesture Control of a Dual Panel Electronic Device |
KR20120075845A (en) * | 2010-12-29 | 2012-07-09 | 삼성전자주식회사 | Method for inputting memo in touch screen terminal and device thereof |
US20130063367A1 (en) * | 2011-09-13 | 2013-03-14 | Changsoo Jang | Air actuated device |
JP6051521B2 (en) * | 2011-12-27 | 2016-12-27 | 株式会社リコー | Image composition system |
WO2013116937A1 (en) * | 2012-02-09 | 2013-08-15 | Flixel Photos Inc. | Systems and methods for creation and sharing of selectively animated digital photos |
CN103780738B (en) * | 2012-10-17 | 2017-08-29 | 腾讯科技(深圳)有限公司 | Mobile terminal image processing method and mobile terminal |
JP6202345B2 (en) | 2012-11-02 | 2017-09-27 | ソニー株式会社 | Display control apparatus, display control method, and program |
JP5809202B2 (en) * | 2013-06-21 | 2015-11-10 | シャープ株式会社 | Image display device capable of screen operation and operation method thereof |
US20150228201A1 (en) * | 2014-02-13 | 2015-08-13 | Crayola, Llc | Photo Strings |
US20170236318A1 (en) * | 2016-02-15 | 2017-08-17 | Microsoft Technology Licensing, Llc | Animated Digital Ink |
JP6646731B2 (en) * | 2016-03-28 | 2020-02-14 | アイシン・エィ・ダブリュ株式会社 | Server device, communication terminal, route search system, and computer program |
US20180075657A1 (en) | 2016-09-15 | 2018-03-15 | Microsoft Technology Licensing, Llc | Attribute modification tools for mixed reality |
US10895954B2 (en) * | 2017-06-02 | 2021-01-19 | Apple Inc. | Providing a graphical canvas for handwritten input |
CN113920226A (en) * | 2021-09-30 | 2022-01-11 | 北京有竹居网络技术有限公司 | User interaction method and device, storage medium and electronic equipment |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03196212A (en) * | 1989-12-25 | 1991-08-27 | Pfu Ltd | Mouse cursor display control method |
JPH087121A (en) * | 1994-06-22 | 1996-01-12 | Hitachi Ltd | Information processor and attribute changing method |
JPH09297858A (en) * | 1996-05-07 | 1997-11-18 | Sharp Corp | Plotting device |
JPH10261099A (en) * | 1997-03-17 | 1998-09-29 | Casio Comput Co Ltd | Image processor |
JP2003263308A (en) * | 2002-12-27 | 2003-09-19 | Nec Infrontia Corp | Screen control device and method |
JP2008125749A (en) * | 2006-11-20 | 2008-06-05 | Copcom Co Ltd | Game device, program for achieving the game device and recording medium |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5969830A (en) * | 1982-10-14 | 1984-04-20 | Toshiba Corp | Document/voice processor |
US5613056A (en) * | 1991-02-19 | 1997-03-18 | Bright Star Technology, Inc. | Advanced tools for speech synchronized animation |
US5420607A (en) * | 1992-09-02 | 1995-05-30 | Miller; Robert F. | Electronic paintbrush and color palette |
JP2953267B2 (en) * | 1992-10-13 | 1999-09-27 | コナミ株式会社 | External memory control device in image creation device |
JPH06131437A (en) * | 1992-10-20 | 1994-05-13 | Hitachi Ltd | Method for instructing operation in composite form |
US5831615A (en) * | 1994-09-30 | 1998-11-03 | Intel Corporation | Method and apparatus for redrawing transparent windows |
JP2985697B2 (en) * | 1994-12-16 | 1999-12-06 | 株式会社日立製作所 | Sound output method of image information |
US5838313A (en) * | 1995-11-20 | 1998-11-17 | Siemens Corporate Research, Inc. | Multimedia-based reporting system with recording and playback of dynamic annotation |
JPH10124689A (en) * | 1996-10-15 | 1998-05-15 | Nikon Corp | Image recorder/reproducer |
JPH1186015A (en) * | 1997-09-09 | 1999-03-30 | Canon Inc | Method and apparatus for information processing and storage medium therefor |
US6297818B1 (en) * | 1998-05-08 | 2001-10-02 | Apple Computer, Inc. | Graphical user interface having sound effects for operating control elements and dragging objects |
US7458013B2 (en) * | 1999-05-12 | 2008-11-25 | The Board Of Trustees Of The Leland Stanford Junior University | Concurrent voice to text and sketch processing with synchronized replay |
US6724918B1 (en) * | 1999-05-12 | 2004-04-20 | The Board Of Trustees Of The Leland Stanford Junior University | System and method for indexing, accessing and retrieving audio/video with concurrent sketch activity |
US20080104503A1 (en) * | 2006-10-27 | 2008-05-01 | Qlikkit, Inc. | System and Method for Creating and Transmitting Multimedia Compilation Data |
US8180073B1 (en) * | 2008-02-08 | 2012-05-15 | Mark J. Grote | System for creating and manipulating digital media |
US20110099476A1 (en) * | 2009-10-23 | 2011-04-28 | Microsoft Corporation | Decorating a display environment |
-
2009
- 2009-01-05 JP JP2009000443A patent/JP5170771B2/en active Active
- 2009-12-23 US US12/646,306 patent/US20100210332A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03196212A (en) * | 1989-12-25 | 1991-08-27 | Pfu Ltd | Mouse cursor display control method |
JPH087121A (en) * | 1994-06-22 | 1996-01-12 | Hitachi Ltd | Information processor and attribute changing method |
JPH09297858A (en) * | 1996-05-07 | 1997-11-18 | Sharp Corp | Plotting device |
JPH10261099A (en) * | 1997-03-17 | 1998-09-29 | Casio Comput Co Ltd | Image processor |
JP2003263308A (en) * | 2002-12-27 | 2003-09-19 | Nec Infrontia Corp | Screen control device and method |
JP2008125749A (en) * | 2006-11-20 | 2008-06-05 | Copcom Co Ltd | Game device, program for achieving the game device and recording medium |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012103840A (en) * | 2010-11-09 | 2012-05-31 | Sony Corp | Information processor, program and command generation method |
KR20140003875A (en) * | 2012-06-29 | 2014-01-10 | 삼성전자주식회사 | Method and apparatus for processing multiple inputs |
KR102003255B1 (en) * | 2012-06-29 | 2019-07-24 | 삼성전자 주식회사 | Method and apparatus for processing multiple inputs |
JP2019109579A (en) * | 2017-12-15 | 2019-07-04 | フリュー株式会社 | Photograph making game machine, editing method and program |
JP2018092681A (en) * | 2018-03-19 | 2018-06-14 | グリー株式会社 | Control program, control method, and information processing apparatus |
KR20200109548A (en) * | 2019-03-13 | 2020-09-23 | (주)피플인사이드 | System and program for providing drawing service using speech recognition |
KR102203573B1 (en) * | 2019-03-13 | 2021-01-15 | (주)피플인사이드 | System and program for providing drawing service using speech recognition |
Also Published As
Publication number | Publication date |
---|---|
US20100210332A1 (en) | 2010-08-19 |
JP5170771B2 (en) | 2013-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5170771B2 (en) | Drawing processing program, information processing apparatus, information processing system, and information processing control method | |
JP5527215B2 (en) | Handwriting input / output system, handwriting input sheet, information input system, information input auxiliary sheet | |
JP5415730B2 (en) | Image processing program, image processing apparatus, image processing method, and image processing system | |
JP5806469B2 (en) | Image processing program, image processing apparatus, image processing system, and image processing method | |
US9454834B2 (en) | Storage medium storing image processing program for implementing controlled image display according to input coordinate, and information processing device | |
JP5274187B2 (en) | Image processing program, information processing apparatus, image processing method, and image processing system | |
JP5295839B2 (en) | Information processing apparatus, focus movement control method, and focus movement control program | |
US8167721B2 (en) | Program for object movement stored in a non-transitory computer readable storage medium and object movement game apparatus | |
WO2015025442A1 (en) | Information processing device and information processing method | |
JP5437726B2 (en) | Information processing program, information processing apparatus, information processing system, and coordinate calculation method | |
US20100304859A1 (en) | Storage medium having game program stored therein and game apparatus | |
JP5649809B2 (en) | Multimedia sticky note device | |
JP2011138355A (en) | Information processing program, information processor, and information processing method | |
JP5508032B2 (en) | GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD | |
JP5848230B2 (en) | Handwriting input / output system, handwriting input sheet, information input system, information input auxiliary sheet | |
JP5544609B2 (en) | Handwriting input / output system | |
KR102594106B1 (en) | Control method of application for recording data and recording medium thereof | |
JP5358759B2 (en) | Optical reader | |
JP2014220006A (en) | Handwriting input/output system and optical reading device | |
JP6267074B2 (en) | Handwriting input / output system and optical reader | |
JP2019036324A (en) | Handwriting input sheet | |
US9230293B2 (en) | Display controlling program and display controlling apparatus | |
JP2004295441A (en) | Automatic photograph preparing device and method | |
JP5389876B2 (en) | Voice control device, voice control method, and voice control program | |
JP2016181311A (en) | Handwriting input sheet |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110902 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121010 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5170771 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |