JP2010157192A - Drawing processing program and information processor - Google Patents

Drawing processing program and information processor Download PDF

Info

Publication number
JP2010157192A
JP2010157192A JP2009000443A JP2009000443A JP2010157192A JP 2010157192 A JP2010157192 A JP 2010157192A JP 2009000443 A JP2009000443 A JP 2009000443A JP 2009000443 A JP2009000443 A JP 2009000443A JP 2010157192 A JP2010157192 A JP 2010157192A
Authority
JP
Japan
Prior art keywords
sound
processing program
voice
related process
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009000443A
Other languages
Japanese (ja)
Other versions
JP5170771B2 (en
Inventor
Daiji Imai
大二 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2009000443A priority Critical patent/JP5170771B2/en
Priority to US12/646,306 priority patent/US20100210332A1/en
Publication of JP2010157192A publication Critical patent/JP2010157192A/en
Application granted granted Critical
Publication of JP5170771B2 publication Critical patent/JP5170771B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6072Methods for processing data by generating or executing the game program for sound processing of an input signal, e.g. pitch and rhythm extraction, voice recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a drawing processing program and an information processor, allowing drawing with unprecedented new operability. <P>SOLUTION: This information processor continuously acquires an indication position on a display screen based on indication by a pointing device. Next, the information processor detects that voice satisfying a prescribed condition is inputted to a voice input means. The information processor executes prescribed drawing-related processing to a position based on the acquired indication position while it is detected that the voice input satisfying the prescribed condition is present. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、プレイヤが所望の絵を描画することができる描画処理プログラムに関し、より特定的には、タッチパネル等のポインティングデバイスを用いてプレイヤが所望の絵を描画することが可能な描画処理プログラムに関する。   The present invention relates to a drawing processing program that allows a player to draw a desired picture, and more specifically to a drawing processing program that allows a player to draw a desired picture using a pointing device such as a touch panel. .

従来から、ユーザがタッチペンを操作してタッチパネルに入力することで、画像の編集を行う装置が知られている(例えば、特許文献1,2)。これらの装置では、被写体(ユーザ)自身を撮影した画像に対して、タッチペンを用いて画像の編集(落書き等)を施すことができる。また、このとき、ペンの太さや線種を選択することも可能である。   2. Description of the Related Art Conventionally, there is known an apparatus that edits an image by a user operating a touch pen to input to a touch panel (for example, Patent Documents 1 and 2). In these apparatuses, it is possible to perform image editing (such as graffiti) on an image of a subject (user) itself using a touch pen. At this time, it is also possible to select the thickness and line type of the pen.

特開2003−191567号公報JP 2003-191567 A 特開2006−129257号公報JP 2006-129257 A

しかしながら、上述したような装置においては、以下に示す問題点があった。上記の装置では、タッチパネルに対してタッチペンで入力している間に描画が行われている。そのため、ユーザが紙に対してペンを使って描画するような感覚で操作が可能であった。その反面、このような操作は一般的な操作であるため、ユーザにとって新鮮味に欠けるものであった。   However, the apparatus as described above has the following problems. In the above apparatus, drawing is performed while inputting with the touch pen on the touch panel. For this reason, the operation can be performed as if the user was drawing on paper using a pen. On the other hand, since such an operation is a general operation, it is not fresh for the user.

それ故に、本発明の目的は、従来に無かった新規な操作性で描画が可能な描画処理プログラム、および、情報処理装置を提供することである。   SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a drawing processing program and an information processing apparatus capable of drawing with a novel operability that has not existed before.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施形態との対応関係の一例を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. Note that the reference numerals in parentheses, supplementary explanations, and the like are examples of the correspondence with the embodiments described later in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、表示画面上の位置を指示するためのポインティングデバイスと音声入力手段とを利用可能な情報処理装置のコンピュータに実行させる描画処理プログラムであって、コンピュータを、指示位置検出手段(S22)と、音声検出手段(S51)と、描画関連処理実行手段(S56)として機能させる。指示位置入力座標検出手段は、ポインティングデバイスによる指示に基づいて表示画面上の指示位置を連続的に取得する。ここで、指示位置の取得について、例えば、ポインティングデバイスがタッチパネルであれば、当該タッチパネルへのタッチ操作が指示操作となる。また、ポインティングデバイスが、撮像対象を撮像するための撮像手段を備える操作装置であり、当該撮像手段によって得られる撮像情報に基づいて、画面上の任意の位置をポインティング可能な装置の場合は、ポインティングした状態で当該操作装置に備えられている所定のボタンを押下したときが、指示操作となる。音声検出手段は、音声入力手段へ所定の条件を満たす音声が入力されたことを検出する。ここで、所定の条件については、所定の閾値を用いて判別する場合も含む。すなわち、ある程度の大きさの音声が入力されたときに、音声入力が有ったと判別する場合を含み、また、後述する特定音声判定手段によって、所定の音声であると判定されることを条件とする場合も含む。描画関連処理実行手段は、音声検出手段によって当該所定の条件を満たす音声の入力が有ることが検出されている間、指示位置検出手段が取得した指示位置に基づく位置に所定の描画関連処理を実行する。ここで、描画関連処理とは、表示画面に線(直線、曲線)、点、これらの集合による画像を描画する処理の他、既に描
画されている画像等を加工(編集)する処理、既に表示されている画像等を消去する処理も含む。
A first invention is a drawing processing program for causing a computer of an information processing apparatus that can use a pointing device for indicating a position on a display screen and a voice input unit to execute the computer. S22), voice detection means (S51), and drawing-related process execution means (S56). The designated position input coordinate detecting means continuously obtains the designated position on the display screen based on the instruction from the pointing device. Here, regarding acquisition of the designated position, for example, if the pointing device is a touch panel, a touch operation on the touch panel is an instruction operation. In addition, in the case where the pointing device is an operation device including an imaging unit for imaging an imaging target and can be pointed at an arbitrary position on the screen based on imaging information obtained by the imaging unit, the pointing device The instruction operation is performed when a predetermined button provided in the operation device is pressed in the state where the operation is performed. The voice detection unit detects that voice satisfying a predetermined condition is input to the voice input unit. Here, the predetermined condition includes a case where determination is performed using a predetermined threshold. That is, it includes a case where it is determined that there is a voice input when a sound of a certain level is input, and that it is determined by the specific voice determination means described later that the voice is a predetermined voice. This includes cases where The drawing related process executing means executes the predetermined drawing related processing at a position based on the designated position acquired by the designated position detecting means while the voice detecting means detects that there is an input of sound satisfying the predetermined condition. To do. Here, the drawing-related processing is processing for drawing (drawing) an image by lines (straight lines, curved lines), points, and a set of these on the display screen, processing for editing (editing) an already drawn image, etc. It also includes a process of deleting the image or the like.

第1の発明によれば、新規な操作性を有するお絵かきプログラムを提供することが可能となる。   According to the first invention, it is possible to provide a drawing program having novel operability.

第2の発明は、第1の発明において、描画関連処理実行手段は、音声検出手段で検出された音声に基づいて、当該音声の特性に応じて、実行する描画関連処理の内容を変更する。ここで、音声の特性とは、例えば、音量、周波数、音色等が該当する。   In a second aspect based on the first aspect, the drawing-related process execution means changes the content of the drawing-related process to be executed based on the sound detected by the sound detection means according to the characteristics of the sound. Here, the sound characteristics correspond to, for example, volume, frequency, timbre, and the like.

第2の発明によれば、入力する音声の内容によって、実行される描画関連処理の内容が変わるため、新規な楽しみ方をプレイヤに提供する事が可能となる。   According to the second aspect, since the content of the drawing-related processing to be executed changes depending on the content of the input voice, it is possible to provide a new way of enjoying to the player.

第3の発明は、第2の発明において、描画関連処理実行手段は、音声検出手段によって繰り返し検出される音声の特性の時系列に従った変化に連動させて、実行する描画関連処理の内容を逐次変更する。   In a third aspect based on the second aspect, the drawing-related process execution means determines the contents of the drawing-related process to be executed in conjunction with a time-series change in the sound characteristics repeatedly detected by the sound detection means. Change sequentially.

第3の発明によれば、入力する音声の変化に応じてリアルタイムに描画関連処理の内容が変化するため、新規な楽しみ方をプレイヤに提供する事が可能となる。さらに、指示位置検出手段によって検出される位置に基づいて描画を行いながら、別の手段である音声入力手段からの入力に応じて描画関連処理の内容を変化させるため、プレイヤは描画のための位置指示を継続しながら描画関連処理の内容を変化させることができる。   According to the third aspect, since the content of the drawing related process changes in real time according to the change of the input voice, it is possible to provide a new way of enjoying to the player. Furthermore, while drawing based on the position detected by the indicated position detection means, the player changes the content of the drawing related processing in accordance with the input from the voice input means, which is another means. The contents of the drawing related process can be changed while continuing the instruction.

第4の発明は、第2の発明において、音声分析手段は、入力された音声の音量が所定の閾値以上のときにのみ、所定の描画関連処理を実行する。   In a fourth aspect based on the second aspect, the voice analysis means executes the predetermined drawing-related process only when the volume of the input voice is equal to or higher than a predetermined threshold.

第4の発明によれば、入力する音声の音量がある程度大きいときにのみ描画関連処理が実行されるため、新規な楽しみ方をプレイヤに提供する事が可能となる。   According to the fourth aspect, since the drawing-related process is executed only when the volume of the input voice is somewhat high, it is possible to provide a new way of enjoying to the player.

第5の発明は、第2の発明において、描画関連処理実行手段は、入力座標検出手段で連続的に取得された指示位置に基づく位置を時系列で結ぶ線を描画する処理を描画関連処理として実行する。   In a fifth aspect based on the second aspect, the drawing-related processing execution means includes processing for drawing a line connecting the positions based on the designated positions continuously acquired by the input coordinate detecting means in time series as drawing-related processing. Execute.

第5の発明によれば、新規な操作性で表示画面上に手書き画像を描かせることが可能となり、プレイヤに新規な楽しみ方を提供する事ができる。   According to the fifth aspect, it becomes possible to draw a handwritten image on the display screen with new operability, and a new way of enjoying can be provided to the player.

第6の発明は、第5の発明において、音声分析手段は、入力された音声の音量に応じて、線の太さ、および、当該線の描画色の濃さの少なくとも一つを変化させる。   In a sixth aspect based on the fifth aspect, the voice analyzing means changes at least one of the thickness of the line and the density of the drawing color of the line according to the volume of the input voice.

第6の発明によれば、入力する音量に応じて描画される線の太さ、濃さが変化するため、新規な楽しみ方をプレイヤに提供できる。   According to the sixth aspect, since the thickness and the density of the drawn line change according to the input volume, a new way of enjoying can be provided to the player.

第7の発明は、第2の発明において、描画関連処理実行手段は、指示位置に基づく位置を含む所定の範囲である描画範囲内に1つ以上の点を描画する処理を描画関連処理として実行する。   In a seventh aspect based on the second aspect, the drawing related process execution means executes a process of drawing one or more points in a drawing range which is a predetermined range including a position based on the designated position as a drawing related process. To do.

第7の発明によれば、例えばスプレーを用いて描画するような描画感覚を、新規な操作性と共にプレイヤに提供することができる。   According to the seventh invention, it is possible to provide a player with a drawing feeling such as drawing using a spray together with a novel operability.

第8の発明は、第7の発明において、音声分析手段は、入力された音声の音量に応じて
、描画範囲の大きさ、および、描画範囲内に描画する点の数のうち少なくとも一つを変化させる。
In an eighth aspect based on the seventh aspect, the voice analyzing means calculates at least one of the size of the drawing range and the number of points to be drawn in the drawing range in accordance with the volume of the input voice. Change.

第9の発明は、第8の発明において、描画関連処理実行手段は、指示位置に基づく位置に近いほど複数の点の数の面密度が高くなるように点を描画し、指示位置に基づく位置から遠ざかるにつれて当該複数の点の数の面密度が低くなるように点を描画する。   In a ninth aspect based on the eighth aspect, the drawing-related processing execution means draws a point so that the surface density of the number of points increases as the position is closer to the designated position, and the position based on the designated position. The points are drawn so that the surface density of the number of the plurality of points decreases with increasing distance from the point.

第10の発明は、第8の発明において、描画関連処理実行手段は、複数の点を描画範囲内のランダムな位置に描画する。   In a tenth aspect based on the eighth aspect, the drawing related processing execution means draws a plurality of points at random positions within the drawing range.

第8乃至第10の発明によれば、入力する音声の音量に応じて多様な描画を行うことが可能となる。   According to the eighth to tenth aspects, various drawing can be performed according to the volume of the input voice.

第11の発明は、第7の発明において、描画関連処理実行手段は、表示画面に描画されている点を、指示位置に基づく位置と音声検出手段で検出された音声入力とに基づいて所定の方向に移動させる処理を描画関連処理として実行する。   In an eleventh aspect based on the seventh aspect, the drawing-related processing execution means determines a point drawn on the display screen based on the position based on the designated position and the voice input detected by the voice detection means. The process of moving in the direction is executed as a drawing related process.

第12の発明は、第11の発明において、描画関連処理実行手段は、指示位置に基づく位置を基準点とし、当該基準点と表示画面に表示されている点を結ぶ線の方向、および、当該基準点から当該表示画面に表示されている点までの距離を算出する移動内容算出手段を含む。そして、描画関連処理実行手段は、移動内容算出手段で算出された方向および距離に基づいて、画面に表示されている点を移動させる。   In a twelfth aspect based on the eleventh aspect, the drawing related process execution means uses the position based on the indicated position as a reference point, and the direction of the line connecting the reference point and the point displayed on the display screen, and Movement content calculation means for calculating the distance from the reference point to the point displayed on the display screen is included. Then, the drawing-related process execution unit moves the point displayed on the screen based on the direction and distance calculated by the movement content calculation unit.

第11乃至第12の発明によれば、既に描画されている複数の点を、音声入力によって移動させることができ、新規な楽しみをプレイヤに与えることができる。   According to the eleventh to twelfth inventions, a plurality of already drawn points can be moved by voice input, and new enjoyment can be given to the player.

第13の発明は、第1の発明において、描画処理プログラムは、前記コンピュータを、前記描画関連処理実行手段が前記所定の描画関連処理を実行しているとき、所定の音声出力手段に所定の効果音を出力させる効果音再生手段(S60)として更に機能させる。   In a thirteenth aspect based on the first aspect, the drawing processing program causes the computer to perform a predetermined effect on the predetermined sound output means when the drawing related process execution means executes the predetermined drawing related processing. It further functions as sound effect reproducing means (S60) for outputting sound.

第14の発明は、第13の発明において、効果音再生手段は、音声検出手段で検出された音声の特性に応じて効果音の再生音量を変化させる。   In a fourteenth aspect based on the thirteenth aspect, the sound effect reproducing means changes the reproduction volume of the sound effect according to the characteristics of the sound detected by the sound detecting means.

第13乃至第14の発明によれば、描画関連処理が実行されているか否かをプレイヤに直感的に把握させることができる。   According to the thirteenth to fourteenth aspects, the player can intuitively grasp whether or not the drawing-related processing is being executed.

第15の発明は、第1の発明において、描画処理プログラムは、コンピュータを、カーソル表示手段(S57)と、アニメーション表示手段(S57)として更に機能させる。カーソル表示手段は、指示位置に所定のカーソル画像を表示する。アニメーション表示手段は、描画関連処理実行手段が所定の描画関連処理を実行しているとき、カーソルをアニメーションさせる。   In a fifteenth aspect based on the first aspect, the drawing processing program causes the computer to further function as cursor display means (S57) and animation display means (S57). The cursor display means displays a predetermined cursor image at the indicated position. The animation display means animates the cursor when the drawing related process executing means is executing a predetermined drawing related process.

第16の発明は、第15の発明において、アニメーション表示手段は、音声検出手段で検出された音声の特性に応じてアニメーションの速度を変化させる。   In a sixteenth aspect based on the fifteenth aspect, the animation display means changes the speed of the animation in accordance with the characteristics of the sound detected by the sound detection means.

第15乃至第16の発明によれば、描画関連処理が実行されているか否かをプレイヤに視覚的に把握させることができる。   According to the fifteenth to sixteenth aspects, it is possible to cause the player to visually grasp whether or not drawing-related processing is being executed.

第17の発明は、第1の発明において、ポインティングデバイスはタッチパネルである。   In a seventeenth aspect based on the first aspect, the pointing device is a touch panel.

第17の発明によれば、プレイヤに直感的な操作性を提供する事ができる。   According to the seventeenth aspect, intuitive operability can be provided to the player.

第18の発明は、第1の発明において、描画処理プログラムは、コンピュータを、撮影画像取得手段(S1)と、撮影画像表示手段(S21)として更に機能させる。撮影画像取得手段は、所定の撮影手段で撮影された画像データを取得する。撮影画像表示手段は、撮影画像を表示画面に表示する。そして、描画関連処理実行手段は、撮影画像に対して描画関連処理を実行する。   In an eighteenth aspect based on the first aspect, the drawing processing program causes the computer to further function as a captured image acquisition means (S1) and a captured image display means (S21). The captured image acquisition unit acquires image data captured by a predetermined imaging unit. The captured image display means displays the captured image on the display screen. Then, the drawing related process execution means executes a drawing related process on the captured image.

第18の発明によれば、撮影画像に対しての画像の編集等を、新規な操作性と共に提供することができる。   According to the eighteenth aspect, it is possible to provide editing of a captured image with a new operability.

第19の発明は、第1の発明において、描画処理プログラムは、コンピュータを、音声検出手段で検出された音声が所定の音声であるいか否かを判定する特定音声判定手段として更に機能させる。そして、描画関連処理実行手段は、特定音声判定手段によって音声検出手段で検出された音声が所定の音声であると判定されたときにのみ、描画関連処理を実行する。   In a nineteenth aspect based on the first aspect, the drawing processing program causes the computer to further function as specific sound determination means for determining whether or not the sound detected by the sound detection means is a predetermined sound. Then, the drawing related process execution unit executes the drawing related process only when the specific voice determination unit determines that the sound detected by the sound detection unit is a predetermined sound.

第19の発明によれば、例えば、プレイヤが息を吹きかける音のような、特定の音を識別して描画関連処理を実行させることが可能となり、新規な楽しみ方をプレイヤに提供することができる。また、プレイヤが特定の音を発したときのみ描画関連処理を実行させることが可能となるため、意図しない音に反応して描画関連処理が実行されてしまうことを防止できる。   According to the nineteenth invention, for example, it is possible to identify a specific sound such as a sound that the player blows and execute the drawing-related processing, and to provide a new way of enjoying the player. . In addition, since the drawing related process can be executed only when the player emits a specific sound, it is possible to prevent the drawing related process from being executed in response to an unintended sound.

第20の発明は、表示画面(12)上の位置を指示するためのポインティングデバイス(13)と音声入力手段(42)とを利用可能な情報処理装置であって、入力座標検出手段(31)と、音声検出手段(31)と、描画関連処理実行手段(31)とを備える。入力座標検出手段は、ポインティングデバイスによる指示に基づいて表示画面上の指示位置を連続的に取得する。音声検出手段は、音声入力手段へ所定の条件を満たす音声が入力されたことを検出する。描画関連処理実行手段は、音声検出手段によって音声入力が有ることが検出されている間、前記指示位置に基づく位置に所定の描画関連処理を実行する。   A twentieth invention is an information processing apparatus that can use a pointing device (13) for indicating a position on the display screen (12) and a voice input means (42), and an input coordinate detection means (31). And a voice detection means (31) and a drawing related process execution means (31). The input coordinate detection means continuously acquires the indicated position on the display screen based on the instruction from the pointing device. The voice detection unit detects that voice satisfying a predetermined condition is input to the voice input unit. The drawing-related process execution means executes a predetermined drawing-related process at a position based on the designated position while the voice detection means detects that there is a voice input.

第20の発明によれば、上述した本発明の描画処理プログラムと同様の効果を得ることができる。   According to the twentieth invention, an effect similar to that of the drawing processing program of the present invention described above can be obtained.

第21の発明は、第20の発明において、音声検出手段は、表示画面の近傍に配置されている。   In a twenty-first aspect based on the twentieth aspect, the sound detecting means is arranged in the vicinity of the display screen.

第21の発明によれば、表示画面と音声検出手段とが近い位置に配置されるため、画面に向かって音を発生させたときに、当該音に反応して表示画面上で描画が行われる等の、直感的な演出効果を生じさせることが可能となる。   According to the twenty-first aspect, since the display screen and the sound detection means are arranged at close positions, when sound is generated toward the screen, drawing is performed on the display screen in response to the sound. It is possible to produce an intuitive production effect such as.

本発明によれば、新規な操作性でプレイヤに描画を楽しませることが可能なお絵かきプログラムやお絵かきゲームを提供する事ができる。   ADVANTAGE OF THE INVENTION According to this invention, the drawing program and drawing game which can make a player enjoy drawing with novel operativity can be provided.

本発明の第1の実施形態に係る携帯ゲーム装置10の外観図1 is an external view of a portable game device 10 according to the first embodiment of the present invention. 本発明の第1の実施形態に係る携帯ゲーム装置10のブロック図1 is a block diagram of a portable game device 10 according to a first embodiment of the present invention. 本実施形態において想定するゲームの画面の一例An example of a game screen assumed in the present embodiment 撮影画像の一例Example of captured image 本実施形態において想定するゲームの画面の一例An example of a game screen assumed in the present embodiment 撮影画像とキャンバスとの関係を示す図Diagram showing the relationship between the shot image and the canvas 本実施形態において想定するゲームの画面の一例An example of a game screen assumed in the present embodiment 本実施形態において想定するゲームの操作を説明するための図The figure for demonstrating operation of the game assumed in this embodiment 本実施形態において想定するゲームで描画される画像の一例An example of an image rendered in the game assumed in the present embodiment 本実施形態において想定するゲームの画面の一例An example of a game screen assumed in the present embodiment 本実施形態において想定するゲームの画面の一例An example of a game screen assumed in the present embodiment 本実施形態において想定するゲームの画面の一例An example of a game screen assumed in the present embodiment 図2に示したメインメモリ32のメモリマップを示す図解図An illustrative view showing a memory map of the main memory 32 shown in FIG. 描画道具マスタ327のデータ構造の一例を示した図The figure which showed an example of the data structure of the drawing tool master 327 スプレーテーブル332のデータ構成の一例を示す図The figure which shows an example of the data structure of the spray table 332 描画領域について説明するための図Diagram for explaining the drawing area 本発明の実施形態に係る落書きゲーム処理を示すフローチャートThe flowchart which shows the doodle game process which concerns on embodiment of this invention 図17のステップS1で示したカメラ処理の詳細を示したフローチャートThe flowchart which showed the detail of the camera process shown by step S1 of FIG. 図17のステップS2で示した落書き処理の詳細を示したフローチャートThe flowchart which showed the detail of the graffiti process shown by step S2 of FIG. 図19のステップS29で示したペン処理の詳細を示したフローチャートThe flowchart which showed the detail of the pen process shown by step S29 of FIG. 図20のステップS43で示したスプレー描画処理の詳細を示したフローチャートThe flowchart which showed the detail of the spray drawing process shown by step S43 of FIG. 図19のステップS31で示した消しゴム処理の詳細を示したフローチャートThe flowchart which showed the detail of the eraser process shown by step S31 of FIG. 図22のステップS73で示したスプレー消しゴム処理の詳細を示したフローチャートThe flowchart which showed the detail of the spray eraser process shown by step S73 of FIG. 吹き飛ばし処理の処理概要を説明するための図Diagram for explaining the outline of the blow-off process 吹き飛ばし処理の処理概要を説明するための図Diagram for explaining the outline of the blow-off process 吹き飛ばし処理の処理概要を説明するための図Diagram for explaining the outline of the blow-off process 吹き飛ばし処理の詳細を示したフローチャートFlowchart showing details of blow-off processing 複数の色を用いたスプレー線の一例An example of spray lines using multiple colors

以下、本発明の実施の形態について、図面を参照して説明する。尚、この実施例により本発明が限定されるものではない。   Embodiments of the present invention will be described below with reference to the drawings. In addition, this invention is not limited by this Example.

図1は、本発明の色変換プログラムを実行するゲーム装置1の外観図である。ここでは、ゲーム装置1の一例として、携帯ゲーム装置を示す。なお、ゲーム装置1は、カメラを内蔵しており、当該カメラによって画像を撮影し、撮影した画像を画面に表示したり、撮影した画像のデータを保存したりする撮影装置としても機能する。   FIG. 1 is an external view of a game apparatus 1 that executes a color conversion program of the present invention. Here, a portable game device is shown as an example of the game device 1. Note that the game apparatus 1 has a built-in camera, and also functions as a photographing apparatus that captures an image with the camera, displays the captured image on a screen, and stores data of the captured image.

図1において、ゲーム装置1は、折り畳み型の携帯ゲーム装置であり、開いた状態(開状態)のゲーム装置1を示している。ゲーム装置1は、開いた状態においてもユーザが両手または片手で把持することができるようなサイズで構成される。   In FIG. 1, a game apparatus 1 is a foldable portable game apparatus, and shows the game apparatus 1 in an open state (open state). The game apparatus 1 is configured in such a size that the user can hold it with both hands or one hand even in an open state.

ゲーム装置1は、下側ハウジング11および上側ハウジング21を有する。下側ハウジング11と上側ハウジング21とは、開閉可能(折り畳み可能)に連結されている。図1の例では、下側ハウジング11および上側ハウジング21は、それぞれ横長の長方形の板状で形成され、互いの長辺部分で回転可能に連結されている。通常、ユーザは、開状態でゲーム装置1を使用する。また、ユーザは、ゲーム装置1を使用しない場合には閉状態としてゲーム装置1を保管する。また、図1に示した例では、ゲーム装置1は、上記閉状態および開状態のみでなく、下側ハウジング11と上側ハウジング21とのなす角度が閉状態と開状態との間の任意の角度において、連結部分に発生する摩擦力などによってその開閉角度を維持することができる。つまり、上側ハウジング21を下側ハウジング11に対して任意の角度で静止させることができる。   The game apparatus 1 includes a lower housing 11 and an upper housing 21. The lower housing 11 and the upper housing 21 are connected so as to be openable and closable (foldable). In the example of FIG. 1, the lower housing 11 and the upper housing 21 are each formed in a horizontally-long rectangular plate shape, and are coupled so as to be rotatable at their long side portions. Normally, the user uses the game apparatus 1 in the open state. Further, when the user does not use the game apparatus 1, the user stores the game apparatus 1 in a closed state. In the example shown in FIG. 1, the game apparatus 1 is not limited to the closed state and the open state, and the angle formed by the lower housing 11 and the upper housing 21 is an arbitrary angle between the closed state and the open state. The opening / closing angle can be maintained by a frictional force or the like generated at the connecting portion. That is, the upper housing 21 can be made stationary with respect to the lower housing 11 at an arbitrary angle.

下側ハウジング11には、下側LCD(Liquid Crystal Display:液晶表示装置)12が設けられる。下側LCD12は横長形状であり、長辺方向が下側ハウジング11の長辺方向に一致するように配置される。なお、本実施形態では、ゲーム装置1に内蔵されている表示装置としてLCDを用いているが、例えばEL(Electro Luminescence:電界発光)を利用した表示装置等、他の任意の表示装置を利用してもよい。また、ゲーム装置1は、任意の解像度の表示装置を利用することができる。なお、詳細は後述するが、下側LCD12は、主に、内側カメラ23または外側カメラ25で撮影されている画像をリアルタイムに表示するために用いられる。   The lower housing 11 is provided with a lower LCD (Liquid Crystal Display) 12. The lower LCD 12 has a horizontally long shape, and is arranged such that the long side direction coincides with the long side direction of the lower housing 11. In the present embodiment, an LCD is used as the display device built in the game apparatus 1, but other arbitrary display devices such as a display device using EL (Electro Luminescence) are used. May be. The game apparatus 1 can use a display device having an arbitrary resolution. Although details will be described later, the lower LCD 12 is mainly used to display an image taken by the inner camera 23 or the outer camera 25 in real time.

下側ハウジング11には、入力装置として、各操作ボタン14A〜14Kおよびタッチパネル13が設けられる。図1に示されるように、各操作ボタン14A〜14Kのうち、方向入力ボタン14A、操作ボタン14B、操作ボタン14C、操作ボタン14D、操作ボタン14E、電源ボタン14F、スタートボタン14G、およびセレクトボタン14Hは、上側ハウジング21と下側ハウジング11とを折りたたんだときに内側となる、下側ハウジング11の内側主面上に設けられる。方向入力ボタン14Aは、例えば選択操作等に用いられる。各操作ボタン14B〜14Eは、例えば決定操作やキャンセル操作等に用いられる。電源ボタン14Fは、ゲーム装置1の電源をオン/オフするために用いられる。図1に示す例では、方向入力ボタン14Aおよび電源ボタン14Fは、下側ハウジング11の内側主面中央付近に設けられる下側LCD12に対して、左右一方側(図1では左側)の当該主面上に設けられる。また、操作ボタン14B〜14E、スタートボタン14G、およびセレクトボタン14Hは、下側LCD12に対して左右他方側(図1では右側)となる下側ハウジング11の内側主面上に設けられる。方向入力ボタン14A、操作ボタン14B〜14E、スタートボタン14G、およびセレクトボタン14Hは、ゲーム装置1に対する各種操作を行うために用いられる。   The lower housing 11 is provided with operation buttons 14A to 14K and a touch panel 13 as input devices. As shown in FIG. 1, among the operation buttons 14A to 14K, a direction input button 14A, an operation button 14B, an operation button 14C, an operation button 14D, an operation button 14E, a power button 14F, a start button 14G, and a select button 14H. Is provided on the inner main surface of the lower housing 11 which is the inner side when the upper housing 21 and the lower housing 11 are folded. The direction input button 14A is used for, for example, a selection operation. The operation buttons 14B to 14E are used for, for example, a determination operation or a cancel operation. The power button 14F is used for turning on / off the power of the game apparatus 1. In the example shown in FIG. 1, the direction input button 14 </ b> A and the power button 14 </ b> F are on the main surface on one of the left and right sides (left side in FIG. 1) with respect to the lower LCD 12 provided near the center of the inner main surface of the lower housing 11. Provided on top. Further, the operation buttons 14B to 14E, the start button 14G, and the select button 14H are provided on the inner main surface of the lower housing 11 that is on the other left and right sides (right side in FIG. 1) with respect to the lower LCD 12. The direction input button 14A, the operation buttons 14B to 14E, the start button 14G, and the select button 14H are used for performing various operations on the game apparatus 1.

なお、図1においては、操作ボタン14I〜14Kの図示を省略している。例えば、Lボタン14Iは、下側ハウジング11の上側面の左端部に設けられ、Rボタン14Jは、下側ハウジング11の上側面の右端部に設けられる。Lボタン14IおよびRボタン14Jは、ゲーム装置1に対して、例えば撮影指示操作(シャッター操作)を行うために用いられる。さらに、音量ボタン14Kは、下側ハウジング11の左側面に設けられる。音量
ボタン14Kは、ゲーム装置1が備えるスピーカの音量を調整するために用いられる。
In FIG. 1, the operation buttons 14I to 14K are not shown. For example, the L button 14I is provided at the left end portion of the upper side surface of the lower housing 11, and the R button 14J is provided at the right end portion of the upper side surface of the lower housing 11. The L button 14I and the R button 14J are used to perform, for example, a shooting instruction operation (shutter operation) on the game apparatus 1. Furthermore, the volume button 14K is provided on the left side surface of the lower housing 11. The volume button 14K is used to adjust the volume of the speaker provided in the game apparatus 1.

また、ゲーム装置1は、各操作ボタン14A〜14Kとは別の入力装置として、さらにタッチパネル13を備えている。タッチパネル13は、下側LCD12の画面上を覆うように装着されている。なお、本実施形態では、タッチパネル13は、例えば抵抗膜方式のタッチパネルが用いられる。ただし、タッチパネル13は、抵抗膜方式に限らず、任意の押圧式のタッチパネルを用いることができる。また、本実施形態では、タッチパネル13として、例えば下側LCD12の解像度と同解像度(検出精度)のものを利用する。ただし、必ずしもタッチパネル13の解像度と下側LCD12の解像度とが一致している必要はない。また、下側ハウジング11の右側面には、挿入口(図1に示す破線)が設けられている。挿入口は、タッチパネル13に対する操作を行うために用いられるタッチペン27を収納することができる。なお、タッチパネル13に対する入力は、通常タッチペン27を用いて行われるが、タッチペン27に限らずユーザの指でタッチパネル13を操作することも可能である。   In addition, the game apparatus 1 further includes a touch panel 13 as an input device different from the operation buttons 14A to 14K. The touch panel 13 is mounted so as to cover the screen of the lower LCD 12. In the present embodiment, for example, a resistive film type touch panel is used as the touch panel 13. However, the touch panel 13 is not limited to the resistive film type, and any pressing type touch panel can be used. In the present embodiment, as the touch panel 13, for example, a touch panel having the same resolution (detection accuracy) as that of the lower LCD 12 is used. However, the resolution of the touch panel 13 and the resolution of the lower LCD 12 are not necessarily matched. Further, an insertion port (broken line shown in FIG. 1) is provided on the right side surface of the lower housing 11. The insertion opening can accommodate a touch pen 27 used for performing an operation on the touch panel 13. In addition, although the input with respect to the touch panel 13 is normally performed using the touch pen 27, it is also possible to operate the touch panel 13 not only with the touch pen 27 but with a user's finger | toe.

また、下側ハウジング11の右側面には、メモリカード28を収納するための挿入口(図1では、二点鎖線で示している)が設けられている。この挿入口の内側には、ゲーム装置1とメモリカード28とを電気的に接続するためのコネクタ(図示せず)が設けられる。メモリカード28は、例えばSD(Secure Digital)メモリカードであり、コネクタに着脱自在に装着される。メモリカード28は、例えば、ゲーム装置1によって撮影された画像を記憶(保存)したり、他の装置で生成された画像をゲーム装置1に読み込んだりするために用いられる。   Further, on the right side surface of the lower housing 11, an insertion slot (indicated by a two-dot chain line in FIG. 1) for storing the memory card 28 is provided. A connector (not shown) for electrically connecting the game apparatus 1 and the memory card 28 is provided inside the insertion slot. The memory card 28 is, for example, an SD (Secure Digital) memory card, and is detachably attached to the connector. The memory card 28 is used, for example, for storing (saving) an image photographed by the game apparatus 1 or reading an image generated by another apparatus into the game apparatus 1.

さらに、下側ハウジング11の上側面には、カートリッジ29を収納するための挿入口(図1では、一点鎖線で示している)が設けられている。この挿入口の内側にも、ゲーム装置1とカートリッジ29とを電気的に接続するためのコネクタ(図示せず)が設けられる。カートリッジ29は、色変換プログラムやゲームプログラム等を記録した記録媒体であり、下側ハウジング11に設けられた挿入口に着脱自在に装着される。   Further, an insertion port (indicated by a one-dot chain line in FIG. 1) for housing the cartridge 29 is provided on the upper side surface of the lower housing 11. A connector (not shown) for electrically connecting the game apparatus 1 and the cartridge 29 is also provided inside the insertion slot. The cartridge 29 is a recording medium that records a color conversion program, a game program, and the like, and is detachably attached to an insertion port provided in the lower housing 11.

下側ハウジング11と上側ハウジング21との連結部の左側部分には、3つのLED15A〜15Cが取り付けられる。ここで、ゲーム装置1は、他の機器との間で無線通信を行うことが可能であり、第1LED15Aは、ゲーム装置1の電源がオンである場合に点灯する。第2LED15Bは、ゲーム装置1の充電中に点灯する。第3LED15Cは、無線通信が確立している場合に点灯する。したがって、3つのLED15A〜15Cによって、ゲーム装置1の電源のオン/オフ状況、充電状況、および、通信確立状況をユーザに通知することができる。   Three LEDs 15 </ b> A to 15 </ b> C are attached to the left portion of the connecting portion between the lower housing 11 and the upper housing 21. Here, the game apparatus 1 can perform wireless communication with other devices, and the first LED 15A is lit when the power of the game apparatus 1 is on. The second LED 15B is lit while the game apparatus 1 is being charged. The third LED 15C is lit when wireless communication is established. Therefore, the three LEDs 15A to 15C can notify the user of the power on / off status of the game apparatus 1, the charging status, and the communication establishment status.

一方、上側ハウジング21には、上側LCD22が設けられる。上側LCD22は横長形状であり、長辺方向が上側ハウジング21の長辺方向に一致するように配置される。なお、下側LCD12と同様、上側LCD22に代えて、他の任意の方式および任意の解像度の表示装置を利用してもよい。なお、上側LCD22上を覆うように、タッチパネルを設けてもかまわない。例えば、上側LCD22には、ユーザに各操作ボタン14A〜14Kやタッチパネル13の役割を教えるための、操作説明画面が表示される。   On the other hand, the upper housing 21 is provided with an upper LCD 22. The upper LCD 22 has a horizontally long shape and is arranged such that the long side direction coincides with the long side direction of the upper housing 21. As in the case of the lower LCD 12, instead of the upper LCD 22, a display device having any other method and any resolution may be used. A touch panel may be provided so as to cover the upper LCD 22. For example, the upper LCD 22 displays an operation explanation screen for teaching the user the roles of the operation buttons 14 </ b> A to 14 </ b> K and the touch panel 13.

また、上側ハウジング21には、2つのカメラ(内側カメラ23および外側カメラ25)が設けられる。図1に示されるように、内側カメラ23は、上側ハウジング21の連結部付近の内側主面に取り付けられる。一方、外側カメラ25は、内側カメラ23が取り付けられる内側主面の反対側の面、すなわち、上側ハウジング21の外側主面(ゲーム装置1が閉状態となった場合に外側となる面であり、図1に示す上側ハウジング21の背面)に取り付けられる。なお、図1においては、外側カメラ25を破線で示している。これに
よって、内側カメラ23は、上側ハウジング21の内側主面が向く方向を撮影することが可能であり、外側カメラ25は、内側カメラ23の撮影方向の逆方向、すなわち、上側ハウジング21の外側主面が向く方向を撮影することが可能である。このように、本実施形態では、2つの内側カメラ23および外側カメラ25の撮影方向が互いに逆方向となるように設けられる。例えば、ユーザは、ゲーム装置1からユーザの方を見た景色を内側カメラ23で撮影することができるとともに、ゲーム装置1からユーザの反対側の方向を見た景色を外側カメラ25で撮影することができる。
The upper housing 21 is provided with two cameras (an inner camera 23 and an outer camera 25). As shown in FIG. 1, the inner camera 23 is attached to the inner main surface near the connecting portion of the upper housing 21. On the other hand, the outer camera 25 is a surface on the opposite side of the inner main surface to which the inner camera 23 is attached, that is, the outer main surface of the upper housing 21 (the outer surface when the game apparatus 1 is in a closed state, It is attached to the rear surface of the upper housing 21 shown in FIG. In FIG. 1, the outer camera 25 is indicated by a broken line. As a result, the inner camera 23 can shoot in the direction in which the inner main surface of the upper housing 21 faces, and the outer camera 25 can rotate in the opposite direction of the shooting direction of the inner camera 23, that is, the outer main It is possible to photograph the direction in which the surface faces. As described above, in the present embodiment, the two inner cameras 23 and the outer cameras 25 are provided so that the shooting directions are opposite to each other. For example, the user can shoot a scene viewed from the game apparatus 1 with the inner camera 23 and shoot a scene viewed from the game apparatus 1 in the direction opposite to the user with the outer camera 25. Can do.

なお、上記連結部付近の内側主面には、音声入力装置としてマイク(図2に示すマイク42)が収納されている。そして、上記連結部付近の内側主面には、マイク42がゲーム装置1外部の音を検知できるように、マイクロフォン用孔16が形成される。マイク42を収納する位置およびマイクロフォン用孔16の位置は必ずしも上記連結部である必要はなく、例えば下側ハウジング11にマイク42を収納し、マイク42を収納位置に対応させて下側ハウジング11にマイクロフォン用孔16を設けるようにしても良い。   Note that a microphone (a microphone 42 shown in FIG. 2) is housed as an audio input device on the inner main surface in the vicinity of the connecting portion. A microphone hole 16 is formed on the inner main surface near the connecting portion so that the microphone 42 can detect the sound outside the game apparatus 1. The position where the microphone 42 is accommodated and the position of the microphone hole 16 do not necessarily have to be the connecting portion. For example, the microphone 42 is accommodated in the lower housing 11, and the microphone 42 corresponds to the accommodation position in the lower housing 11. A microphone hole 16 may be provided.

また、上側ハウジング21の外側主面には、第4LED26(図1では、破線で示す)が取り付けられる。第4LED26は、外側カメラ25によって撮影が行われた(シャッターボタンが押下された)時点で点灯する。また、外側カメラ25によって動画が撮影される間点灯する。第4LED26によって、ゲーム装置1による撮影が行われた(行われている)ことを撮影対象者や周囲に通知することができる。   A fourth LED 26 (shown by a broken line in FIG. 1) is attached to the outer main surface of the upper housing 21. The fourth LED 26 is lit when the outer camera 25 has taken a picture (the shutter button has been pressed). Further, it is lit while a moving image is shot by the outer camera 25. The fourth LED 26 can notify the subject to be photographed and the surroundings that photographing by the game apparatus 1 has been performed (performed).

また、上側ハウジング21の内側主面中央付近に設けられる上側LCD22に対して、左右両側の当該主面に音抜き孔24がそれぞれ形成される。音抜き孔24の奥の上側ハウジング21内にはスピーカが収納されている。音抜き孔24は、スピーカからの音をゲーム装置1の外部に放出するための孔である。   In addition, sound release holes 24 are formed in the main surfaces on both the left and right sides of the upper LCD 22 provided near the center of the inner main surface of the upper housing 21. A speaker is housed in the upper housing 21 behind the sound release hole 24. The sound release hole 24 is a hole for releasing sound from the speaker to the outside of the game apparatus 1.

以上に説明したように、上側ハウジング21には、画像を撮影するための構成である内側カメラ23および外側カメラ25と、例えば撮影の際に操作説明画面を表示する表示手段である上側LCD22とが設けられる。一方、下側ハウジング11には、ゲーム装置1に対する操作入力を行うための入力装置(タッチパネル13および各ボタン14A〜14K)と、ゲーム画面を表示するための表示手段である下側LCD12とが設けられる。したがって、ゲーム装置1を使用する際には、ユーザは、下側LCD12に表示される撮影画像(カメラによって撮影された画像)を見ながら、下側ハウジング11を把持して入力装置に対する入力を行うことができる。   As described above, the upper housing 21 includes the inner camera 23 and the outer camera 25 that are configured to capture an image, and the upper LCD 22 that is a display unit that displays an operation explanation screen at the time of shooting, for example. Provided. On the other hand, the lower housing 11 is provided with an input device (touch panel 13 and buttons 14A to 14K) for performing an operation input to the game apparatus 1 and a lower LCD 12 which is a display means for displaying a game screen. It is done. Therefore, when using the game apparatus 1, the user grasps the lower housing 11 and performs input to the input device while viewing a captured image (image captured by the camera) displayed on the lower LCD 12. be able to.

次に、図2を参照して、ゲーム装置1の内部構成を説明する。なお、図2は、ゲーム装置1の内部構成の一例を示すブロック図である。   Next, the internal configuration of the game apparatus 1 will be described with reference to FIG. FIG. 2 is a block diagram illustrating an example of the internal configuration of the game apparatus 1.

図2において、ゲーム装置1は、CPU31、メインメモリ32、メモリ制御回路33、保存用データメモリ34、プリセットデータ用メモリ35、メモリカードインターフェース(メモリカードI/F)36およびカートリッジI/F44、無線通信モジュール37、ローカル通信モジュール38、リアルタイムクロック(RTC)39、電源回路40、およびインターフェース回路(I/F回路)41等の電子部品を備えている。これらの電子部品は、電子回路基板上に実装されて、下側ハウジング11(または上側ハウジング21でもよい)内に収納される。   2, the game apparatus 1 includes a CPU 31, a main memory 32, a memory control circuit 33, a storage data memory 34, a preset data memory 35, a memory card interface (memory card I / F) 36 and a cartridge I / F 44, wireless Electronic components such as a communication module 37, a local communication module 38, a real-time clock (RTC) 39, a power supply circuit 40, and an interface circuit (I / F circuit) 41 are provided. These electronic components are mounted on an electronic circuit board and housed in the lower housing 11 (or the upper housing 21).

CPU31は、所定のプログラムを実行するための情報処理手段である。本実施形態では、所定のプログラムがゲーム装置1内のメモリ(例えば保存用データメモリ34)やメモリカード28および/または29に記憶されており、CPU31は、当該所定のプログラムを実行することによって、後述する落書き処理を実行する。なお、CPU31によっ
て実行されるプログラムは、ゲーム装置1内のメモリに予め記憶されていてもよいし、メモリカード28および/またはカートリッジ29から取得されてもよいし、他の機器との通信によって他の機器から取得されてもよい。例えば、インターネットを経由して所定のサーバからダウンロードすることで取得しても良いし、据置型ゲーム装置と通信を行うことで、当該据置型ゲーム装置に記憶されている所定のプログラムをダウンロードすることで取得しても良い。
The CPU 31 is information processing means for executing a predetermined program. In the present embodiment, a predetermined program is stored in a memory (for example, the storage data memory 34) or the memory card 28 and / or 29 in the game apparatus 1, and the CPU 31 executes the predetermined program, thereby The graffiti process described later is executed. Note that the program executed by the CPU 31 may be stored in advance in the memory in the game apparatus 1, may be acquired from the memory card 28 and / or the cartridge 29, or may be obtained by communication with other devices. May be obtained from other devices. For example, it may be obtained by downloading from a predetermined server via the Internet, or by downloading a predetermined program stored in the stationary game device by communicating with the stationary game device. You may get at.

CPU31には、メインメモリ32、メモリ制御回路33、およびプリセットデータ用メモリ35が接続される。また、メモリ制御回路33には、保存用データメモリ34が接続される。メインメモリ32は、CPU31のワーク領域やバッファ領域として用いられる記憶手段である。すなわち、メインメモリ32は、上記落書き処理に用いられる各種データを記憶したり、外部(メモリカード28および29や他の機器等)から取得されるプログラムを記憶したりする。本実施形態では、メインメモリ32として、例えばPSRAM(Pseudo−SRAM)を用いる。保存用データメモリ34は、CPU31によって実行されるプログラムや内側カメラ23および外側カメラ25によって撮影された画像のデータ等を記憶するための記憶手段である。保存用データメモリ34は、不揮発性の記憶媒体によって構成されており、例えば本実施例ではNAND型フラッシュメモリで構成される。メモリ制御回路33は、CPU31の指示に従って、保存用データメモリ34に対するデータの読み出しおよび書き込みを制御する回路である。プリセットデータ用メモリ35は、ゲーム装置1において予め設定される各種パラメータ等のデータ(プリセットデータ)を記憶するための記憶手段である。プリセットデータ用メモリ35としては、SPI(Serial Peripheral Interface)バスによってCPU31と接続されるフラッシュメモリを用いることができる。   A main memory 32, a memory control circuit 33, and a preset data memory 35 are connected to the CPU 31. In addition, a storage data memory 34 is connected to the memory control circuit 33. The main memory 32 is a storage means used as a work area or buffer area for the CPU 31. That is, the main memory 32 stores various data used for the graffiti process and stores programs acquired from the outside (such as the memory cards 28 and 29 and other devices). In the present embodiment, for example, a PSRAM (Pseudo-SRAM) is used as the main memory 32. The storage data memory 34 is a storage unit for storing a program executed by the CPU 31, data of images taken by the inner camera 23 and the outer camera 25, and the like. The storage data memory 34 is configured by a nonvolatile storage medium, and is configured by, for example, a NAND flash memory in this embodiment. The memory control circuit 33 is a circuit that controls reading and writing of data with respect to the storage data memory 34 in accordance with instructions from the CPU 31. The preset data memory 35 is storage means for storing data (preset data) such as various parameters set in advance in the game apparatus 1. As the preset data memory 35, a flash memory connected to the CPU 31 via an SPI (Serial Peripheral Interface) bus can be used.

メモリカードI/F36は、CPU31に接続される。メモリカードI/F36は、コネクタに装着されたメモリカード28に対するデータの読み出しおよび書き込みを、CPU31の指示に応じて行う。本実施形態では、外側カメラ25によって撮像された画像データがメモリカード28に書き込まれたり、メモリカード28に記憶された画像データがメモリカード28から読み出されて保存用データメモリ34に記憶されたりする。   The memory card I / F 36 is connected to the CPU 31. The memory card I / F 36 reads and writes data to and from the memory card 28 attached to the connector according to instructions from the CPU 31. In the present embodiment, image data captured by the outer camera 25 is written to the memory card 28, or image data stored in the memory card 28 is read from the memory card 28 and stored in the storage data memory 34. To do.

カートリッジI/F44はCPU31に接続される。カートリッジI/F44は、コネクタに装着されたカートリッジ29に対するデータの読み出しおよび書き込みをCPU31の指示に従って行う。本実施形態では、情報処理装置10が実行することが可能なアプリケーションプログラムがカートリッジ29から読み出されてCPU31によって実行されたり、当該アプリケーションプログラムに関するデータ(例えばゲームのセーブデータ等)がカートリッジ29に書き込まれたりする。   The cartridge I / F 44 is connected to the CPU 31. The cartridge I / F 44 reads and writes data to and from the cartridge 29 attached to the connector according to instructions from the CPU 31. In the present embodiment, an application program that can be executed by the information processing apparatus 10 is read from the cartridge 29 and executed by the CPU 31, or data related to the application program (for example, game save data) is written to the cartridge 29. Or

なお、本発明の落書きゲームプログラムは、カートリッジ29等の外部記憶媒体を通じてコンピュータシステムに供給されるだけでなく、有線または無線の通信回線を通じてコンピュータシステムに供給されてもよい。また、落書きゲームプログラムは、コンピュータシステム内部の不揮発性記憶装置に予め記録されていてもよい。なお、色変換プログラムを記憶する情報記憶媒体としては、上記不揮発性記憶装置に限らず、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体でもよい。   The graffiti game program of the present invention may be supplied not only to the computer system through an external storage medium such as the cartridge 29 but also to the computer system through a wired or wireless communication line. The graffiti game program may be recorded in advance in a nonvolatile storage device inside the computer system. The information storage medium for storing the color conversion program is not limited to the nonvolatile storage device, but may be a CD-ROM, a DVD, or an optical disk storage medium similar to them.

無線通信モジュール37は、例えばIEEE802.11.b/gの規格に準拠した方式により、無線LANに接続する機能を有する。また、ローカル通信モジュール38は、所定の通信方式により同種のゲーム装置との間で無線通信を行う機能を有する。無線通信モジュール37およびローカル通信モジュール38は、CPU31に接続される。CPU31は、無線通信モジュール37を用いてインターネットを介して他の機器との間でデータを送受信したり、ローカル通信モジュール38を用いて同種の他のゲーム装置との間で
データを送受信したりすることができる。
The wireless communication module 37 is, for example, IEEE 802.11. It has a function of connecting to a wireless LAN by a method compliant with the b / g standard. The local communication module 38 has a function of performing wireless communication with the same type of game device by a predetermined communication method. The wireless communication module 37 and the local communication module 38 are connected to the CPU 31. The CPU 31 transmits / receives data to / from other devices via the Internet using the wireless communication module 37, and transmits / receives data to / from other game devices of the same type using the local communication module 38. be able to.

また、CPU31には、RTC39および電源回路40が接続される。RTC39は、時間をカウントしてCPU31に出力する。例えば、CPU31は、RTC39によって計時された時間に基づいて、現在時刻(日付)等を計算することもできる。電源回路40は、ゲーム装置1が有する電源(典型的には電池であり、下側ハウジング11に収納される)から供給される電力を制御し、ゲーム装置1の各部品に電力を供給する。   Further, the RTC 39 and the power supply circuit 40 are connected to the CPU 31. The RTC 39 counts the time and outputs it to the CPU 31. For example, the CPU 31 can calculate the current time (date) based on the time counted by the RTC 39. The power supply circuit 40 controls power supplied from a power supply (typically a battery, which is stored in the lower housing 11) of the game apparatus 1, and supplies power to each component of the game apparatus 1.

また、ゲーム装置1は、マイク42およびアンプ43を備えている。マイク42およびアンプ43は、それぞれI/F回路41に接続される。マイク42は、ゲーム装置1に向かって発声されたユーザの音声を検知して、当該音声を示す音声信号をI/F回路41に出力する。アンプ43は、I/F回路41から音声信号を増幅してスピーカ(図示せず)から出力させる。I/F回路41は、CPU31に接続される。   In addition, the game apparatus 1 includes a microphone 42 and an amplifier 43. The microphone 42 and the amplifier 43 are each connected to the I / F circuit 41. The microphone 42 detects the voice of the user uttered toward the game apparatus 1 and outputs a voice signal indicating the voice to the I / F circuit 41. The amplifier 43 amplifies the audio signal from the I / F circuit 41 and outputs it from a speaker (not shown). The I / F circuit 41 is connected to the CPU 31.

また、タッチパネル13は、I/F回路41に接続される。I/F回路41は、マイク42およびアンプ43(スピーカ)の制御を行う音声制御回路と、タッチパネル13の制御を行うタッチパネル制御回路とを含む。音声制御回路は、音声信号に対するA/D変換およびD/A変換を行ったり、音声信号を所定の形式の音声データに変換したりする。タッチパネル制御回路は、タッチパネル13からの信号に基づいて所定の形式のタッチ位置データを生成してCPU31に出力する。例えば、タッチ位置データは、タッチパネル13の入力面に対して入力が行われた位置の座標を示すデータである。なお、タッチパネル制御回路は、タッチパネル13からの信号の読み込み、および、タッチ位置データの生成を所定時間に1回の割合で行う。CPU31は、I/F回路41を介して、タッチ位置データを取得することにより、タッチパネル13に対して入力が行われた位置を知ることができる。   The touch panel 13 is connected to the I / F circuit 41. The I / F circuit 41 includes a voice control circuit that controls the microphone 42 and the amplifier 43 (speaker), and a touch panel control circuit that controls the touch panel 13. The voice control circuit performs A / D conversion and D / A conversion on the voice signal, or converts the voice signal into voice data of a predetermined format. The touch panel control circuit generates touch position data in a predetermined format based on a signal from the touch panel 13 and outputs it to the CPU 31. For example, the touch position data is data indicating coordinates of a position where an input is performed on the input surface of the touch panel 13. The touch panel control circuit reads signals from the touch panel 13 and generates touch position data at a rate of once per predetermined time. The CPU 31 can know the position where the input is performed on the touch panel 13 by acquiring the touch position data via the I / F circuit 41.

操作ボタン14は、上記各操作ボタン14A〜14Kから構成され、CPU31に接続される。操作ボタン14からCPU31へは、各操作ボタン14A〜14Kに対する入力状況(押下されたか否か)を示す操作データが出力される。CPU31は、操作ボタン14から操作データを取得することによって、操作ボタン14に対する入力に応じた処理を実行する。   The operation button 14 includes the operation buttons 14A to 14K and is connected to the CPU 31. From the operation button 14 to the CPU 31, operation data indicating an input status (whether or not the button is pressed) for each of the operation buttons 14A to 14K is output. The CPU 31 obtains operation data from the operation button 14 to execute processing corresponding to the input to the operation button 14.

内側カメラ23および外側カメラ25は、それぞれCPU31に接続される。内側カメラ23および外側カメラ25は、CPU31の指示に応じて画像を撮影し、撮影した画像データをCPU31に出力する。本実施形態では、CPU31は、内側カメラ23および外側カメラ25のいずれか一方に対して撮影指示を行い、撮影指示を受けたカメラが画像を撮影して画像データをCPU31に送る。   The inner camera 23 and the outer camera 25 are each connected to the CPU 31. The inner camera 23 and the outer camera 25 capture an image in accordance with an instruction from the CPU 31 and output the captured image data to the CPU 31. In the present embodiment, the CPU 31 issues a shooting instruction to one of the inner camera 23 and the outer camera 25, and the camera that has received the shooting instruction takes an image and sends the image data to the CPU 31.

また、下側LCD12および上側LCD22は、それぞれCPU31に接続される。下側LCD12および上側LCD22は、それぞれCPU31の指示に従って画像を表示する。   Further, the lower LCD 12 and the upper LCD 22 are each connected to the CPU 31. The lower LCD 12 and the upper LCD 22 display images according to instructions from the CPU 31, respectively.

次に、図3〜図12を用いて、本実施形態で想定するアプリケーションの概要について説明する。本実施形態で想定するゲームは、タッチペン27を用いてプレイヤが絵を描くことができる、お絵かきアプリケーションである。図3は、本実施形態で想定するゲームの画面の一例である。図3において、下側LCD12にゲーム画面が表示されている、ゲーム画面には、その上部にツールバー103が表示され、その下方に、ゲーム画面の大半を占めるキャンバス101が表示されている。ツールバーには、描画道具アイコン111、線種アイコン112等が表示されている。また、図3では、キャンバス101をタッチペン27でタッチしている状態を示しており、当該タッチしている位置にはカーソル10
2が表示されている。本アプリケーションでは、プレイヤがこのキャンバス101上でタッチペン27を動かす事で、キャンバス101上に絵を描くことが可能だが、本発明は、当該描画の操作について、後述するような新規な操作性を提供する。
Next, an outline of an application assumed in the present embodiment will be described with reference to FIGS. The game assumed in this embodiment is a drawing application in which a player can draw a picture using the touch pen 27. FIG. 3 is an example of a game screen assumed in this embodiment. In FIG. 3, a game screen is displayed on the lower LCD 12. A toolbar 103 is displayed on the upper part of the game screen, and a canvas 101 occupying most of the game screen is displayed on the lower side. On the toolbar, a drawing tool icon 111, a line type icon 112, and the like are displayed. 3 shows a state in which the canvas 101 is touched with the touch pen 27, and the cursor 10 is located at the touched position.
2 is displayed. In this application, the player can draw a picture on the canvas 101 by moving the touch pen 27 on the canvas 101. However, the present invention provides a novel operability as described later for the drawing operation. To do.

また、本アプリケーションでは、上記ゲーム装置1の外側カメラ25で撮影した画像(内側カメラ23で撮影した画像でも良い)に対して落書きをして楽しむことができる。例えば、外側カメラ25で図4に示すような画像を撮影した場合、当該撮影画像をキャンバス101の領域に「下絵」的に重ねて配置し、図5に示すように、当該撮影画像に落書きをして楽しむことが可能である。   In addition, in this application, it is possible to enjoy graffiti on an image captured by the outer camera 25 of the game apparatus 1 (or an image captured by the inner camera 23). For example, when an image as shown in FIG. 4 is shot by the outer camera 25, the shot image is arranged in a “rough sketch” manner on the area of the canvas 101, and a graffiti is added to the shot image as shown in FIG. It is possible to enjoy it.

図6は、上記撮影画像とキャンバス101との配置関係を示す模式図である。本アプリケーションでは、下絵レイヤー105と手書きレイヤー106の2つの層の概念を用いており、上記撮影画像は下絵レイヤー105に相当する。そして、上記キャンバス101が手書きレイヤー106に相当する。手書きレイヤー106は、いわば、透明のシートであり、撮影画像に透明なシートを重ね、当該シートに対して落書きを書き込むような概念の処理を行っている。換言すれば、本実施形態では、撮影画像に対して直接編集する(直接落書きする)ような処理は行っていない。   FIG. 6 is a schematic diagram showing an arrangement relationship between the photographed image and the canvas 101. In this application, the concept of two layers of the sketch layer 105 and the handwriting layer 106 is used, and the photographed image corresponds to the sketch layer 105. The canvas 101 corresponds to the handwriting layer 106. The handwriting layer 106 is a so-called transparent sheet, and performs a conceptual process of superimposing a transparent sheet on the photographed image and writing graffiti on the sheet. In other words, in the present embodiment, processing for directly editing (directly graffitiing) the captured image is not performed.

次に、本アプリケーションにおけるキャンバス101への描画操作に関して説明する。上記のように、本アプリケーションは、キャンバス101上でタッチペン27を動かす事で絵を描くことができる。ここで、描画の際に用いるゲーム内での描画道具の種類として、本アプリケーションでは、「ペン」「消しゴム」の2種類を利用可能である。「ペン」は、キャンバスに何かを描画するための道具であり、「消しゴム」は、キャンバス101に描画されている内容を消去するための道具である。そして、当該「ペン」あるいは「消しゴム」を用いる際に、描く線の種類(線種)として、均一の太さの線、または「スプレー」を選択することが可能となっている。本アプリケーションでは、これら描画道具の選択については、上記ツールバー103の描画道具アイコン111を操作することで「ペン」あるいは「消しゴム」を選択することが可能である。そして、その線種を上記線種アイコン112を操作して選択することができる。具体的には、上記均一の太さの線を用いるか、「スプレー」を用いるかを選択することが可能である。このとき、均一の太さの線については、その線の太さについても指定可能であり、上記線種アイコン112では、4つあるアイコンの内の左の3つのアイコンがそれぞれの太さを示している。また、当該4つのアイコンの内、一番右のプロペラの絵が表示されているアイコンが「スプレー」を示している。また、描画道具として「ペン」を選んだときは、その描画色(線やスプレーの色)を指定することも可能である。   Next, a drawing operation on the canvas 101 in this application will be described. As described above, this application can draw a picture by moving the touch pen 27 on the canvas 101. Here, in this application, two types of “pen” and “eraser” can be used as the types of drawing tools in the game used for drawing. “Pen” is a tool for drawing something on the canvas, and “Eraser” is a tool for erasing the content drawn on the canvas 101. When using the “pen” or “eraser”, it is possible to select a line of uniform thickness or “spray” as the type of line to be drawn (line type). In this application, regarding the selection of these drawing tools, it is possible to select “pen” or “eraser” by operating the drawing tool icon 111 on the toolbar 103. The line type can be selected by operating the line type icon 112. Specifically, it is possible to select whether to use the uniform thickness line or “spray”. At this time, the line thickness of the uniform thickness can also be specified, and in the line type icon 112, the left three icons among the four icons indicate the respective thicknesses. ing. Of the four icons, the icon displaying the rightmost propeller picture indicates “spray”. When “Pen” is selected as the drawing tool, the drawing color (line or spray color) can be designated.

次に、描画道具として「ペン」を用いた際の操作に関して説明する。上記「ペン」を選択し、上記線種に上記均一の太さの線を選んだ場合は、上記図3および図5に示したように、タッチした位置に上記均一の太さの線を描画することができるものである。ここで、ペンは、タッチすると同時に、線が描画される。具体的には、上記ツールバーを操作し「ペン」を選択し、線種として均一の線を選択した後、プレイヤがタッチペン27をキャンバス101(タッチパネル13)に接触させると、タッチ入力が検出されると同時に、点(タッチペン27を動かしていないとき)あるいは線分(タッチペン27をキャンバス101上で動かしているとき)がタッチ位置に描画される。   Next, an operation when using a “pen” as a drawing tool will be described. When the “pen” is selected and the uniform line is selected as the line type, the uniform line is drawn at the touched position as shown in FIGS. Is something that can be done. Here, a line is drawn at the same time that the pen touches. Specifically, the touch input is detected when the player touches the canvas 101 (touch panel 13) after operating the toolbar to select “pen” and selecting a uniform line as the line type. At the same time, a point (when the touch pen 27 is not moved) or a line segment (when the touch pen 27 is moved on the canvas 101) is drawn at the touch position.

一方、線種として「スプレー」を選んだとき、タッチしている位置に後述するような「スプレー線」を描画できるが、上記均一の太さの線の場合とは異なり、タッチしただけでは描画は行われない。以下、図7〜図10を用いて、線種として「スプレー」を選択したときの描画操作について説明する。まず、プレイヤは、ツールバー103を操作して描画道具として「ペン」を選ぶ。具体的には、プレイヤが上記描画道具アイコン111をタッ
チする度に、描画道具が「ペン」→「消しゴム」→「ペン」・・・と切り替わる(このとき、描画道具アイコン111の画像内容も、ペン先の画像と消しゴムの画像との間で切り替わる)。そして、「ペン」を選択した後、プレイヤは、線種アイコン112の4つのアイコンから一番右のプロペラ画像のアイコンをタッチすることで、線種として「スプレー」を選択することができる。その後、プレイヤがキャンバス101上の所望の位置をタッチすると、図7に示すように、プロペラを模した画像のカーソル102が当該タッチ位置に表示される。しかし、この時点では、キャンバス101には、何も描画されない(上記「ペン」の場合は、この時点で少なくともタッチ位置への「点」の描画は行われる)。そのため、この状態でキャンバス101をタッチしたままタッチペン27を移動させたとしても、キャンバス101には、何も描画されない。
On the other hand, when “Spray” is selected as the line type, “Spray line” as described later can be drawn at the touched position. However, unlike the case of the line with the uniform thickness, it can be drawn only by touching. Is not done. Hereinafter, a drawing operation when “spray” is selected as the line type will be described with reference to FIGS. First, the player operates the toolbar 103 to select “pen” as a drawing tool. Specifically, every time the player touches the drawing tool icon 111, the drawing tool is switched from “pen” → “eraser” → “pen” (the image content of the drawing tool icon 111 is also Switch between the nib image and the eraser image). After selecting “Pen”, the player can select “Spray” as the line type by touching the rightmost propeller image icon from the four icons of the line type icon 112. Thereafter, when the player touches a desired position on the canvas 101, as shown in FIG. 7, a cursor 102 of an image imitating a propeller is displayed at the touch position. However, at this point, nothing is drawn on the canvas 101 (in the case of the “pen”, at least the “point” is drawn at the touch position at this point). Therefore, even if the touch pen 27 is moved while touching the canvas 101 in this state, nothing is drawn on the canvas 101.

この状態で、キャンバス101に描画するためには、プレイヤは、図8に示すように、当該カーソル102に向かって息を吹きかける、という動作を行う。すると、上記カーソル102が、プロペラが回転するアニメーションで表示され、タッチ位置には、図9に示すような、インクを吹きかけたような画像(多数の点が集合した画像)が表示される。そして、カーソル102に息を吹きかけながらタッチペン27を動かす事で、図10に示すように、多数の点が集合した、いわばスプレーで描いたような線(以下、スプレー線と呼ぶ)がタッチペン27の移動軌跡上に描画される。このように、「スプレー」の場合は、プロペラ型のカーソル102に息を吹きかける操作を行い、キャンバス101にインクを吹き付けるような感覚で描画を行うことができる。   In this state, in order to draw on the canvas 101, the player performs an action of blowing toward the cursor 102 as shown in FIG. Then, the cursor 102 is displayed as an animation in which the propeller rotates, and an image (an image in which a large number of points are gathered) as shown in FIG. 9 is displayed at the touch position. Then, by moving the touch pen 27 while breathing on the cursor 102, as shown in FIG. 10, as shown in FIG. It is drawn on the movement trajectory. As described above, in the case of “spray”, it is possible to perform drawing in such a manner that an operation of blowing the propeller-type cursor 102 and blowing ink onto the canvas 101 is performed.

更に、本アプリケーションでは、プレイヤの息を吹く強さに応じて、スプレー線の太さや濃さが変化する。例えば、息を吹く強さが弱いときは、図11に示すような細く薄い(点の数が少ない)スプレー線を描画することができる。また、強く息を吹きかけたときは、図12のように、太く濃い(点の数が多い)スプレー線を描画することができる。また、当該息を吹く強さの強弱はリアルタイムにスプレー線に反映される。例えば、一本のスプレー線を描く場合、描き始めのときは息を強く吹きく、その後、徐々に息を吹く強さが弱まっていけば、描かれるスプレー線も、描き始めの部分は図12のように点の数が多くなり、描き進むに連れて徐々に点の数が少なくなっていくようなスプレー線が描画される。また、本アプリケーションでは、このようなスプレー線が描画されるときは、効果音として、スプレーを噴射する音も再生される。   Furthermore, in this application, the thickness and the density of the spray line change according to the strength of the player's breath. For example, when the strength of blowing is weak, it is possible to draw a thin and thin (small number of dots) spray line as shown in FIG. When a strong breath is blown, a thick and dark spray line (having many dots) can be drawn as shown in FIG. In addition, the strength of blowing is reflected on the spray line in real time. For example, when drawing a single spray line, blow hard at the beginning of drawing, and then gradually reduce the strength of blowing, and the spray line that is drawn will also be drawn at the beginning of FIG. A spray line is drawn in which the number of points increases and the number of points gradually decreases as the drawing progresses. Moreover, in this application, when such a spray line is drawn, the sound which sprays a spray is also reproduced as a sound effect.

ここで、本実施形態における上記スプレー線の描画処理の概要(原理)を説明する。上記図8で示したように、プレイヤがタッチペン27でキャンバス101をタッチした状態でカーソル102(タッチパネル13)に向けて息を吹きかけると、息を吹きかけている音がマイク42に入力される。本アプリケーションでは、このマイク42に入力された音(以下、マイク入力音と呼ぶ)の音量を検出し、当該検出された音量の大きさに応じて、スプレー線の太さ等を決定してキャンバス101に描画している。すなわち、本実施形態では、「スプレー」を用いるときは、タッチパネル13への「タッチ入力」とマイク42への「音声入力」の2つの種類の入力が揃ったときに、上記スプレー線の描画処理を実行する。また、上記スプレー線の描画時の効果音についても、上記検出されたマイク入力音の大きさに応じて、その再生音量を変化させている。   Here, an outline (principle) of the spray line drawing process in the present embodiment will be described. As shown in FIG. 8, when the player blows toward the cursor 102 (touch panel 13) while touching the canvas 101 with the touch pen 27, the blowing sound is input to the microphone 42. In this application, the volume of sound input to the microphone 42 (hereinafter referred to as microphone input sound) is detected, the thickness of the spray line is determined according to the detected volume, and the canvas. 101 is drawn. That is, in the present embodiment, when “spray” is used, when the two types of inputs “touch input” to the touch panel 13 and “voice input” to the microphone 42 are prepared, the above-mentioned spray line drawing process is performed. Execute. Further, the sound volume at the time of drawing the spray line is also changed in reproduction volume according to the detected microphone input sound level.

次に、上記描画道具のうちの、「消しゴム」について説明する。上記ツールバー103を操作して描画道具消しゴムを選び、「線種」として均一の太さの線を選んだ場合について説明する。この場合、プレイヤがキャンバス101上の任意の位置をタッチすると、消しゴム型のカーソル102が表示される。このときの操作は、上記「ペン」で均一の太さの線を選択した場合に準じ、タッチした位置に描画されている線(均一の線およびスプレー線)を消去することが可能である。次に、「線種」として「スプレー」を選んだ場合を説明する。この場合は、プレイヤがキャンバス101上の任意の位置をタッチすると、上
記「ペン」で線種として「スプレー」を用いたときと同様に、プロペラ型のカーソル102が表示される。そして、プレイヤが当該カーソル102に向かって息を吹きかければ、その息の強さ(すなわち、マイク入力音の大きさ)、および、タッチ位置に応じて、所定の範囲内のスプレー線あるいは均一の太さの線を消去することができる。
Next, the “eraser” among the drawing tools will be described. A case will be described in which a drawing tool eraser is selected by operating the toolbar 103 and a line having a uniform thickness is selected as the “line type”. In this case, when the player touches an arbitrary position on the canvas 101, an eraser-type cursor 102 is displayed. The operation at this time can erase lines (uniform lines and spray lines) drawn at the touched position in accordance with the case where a line having a uniform thickness is selected with the “pen”. Next, a case where “spray” is selected as the “line type” will be described. In this case, when the player touches an arbitrary position on the canvas 101, the propeller-type cursor 102 is displayed as in the case where “spray” is used as the line type with the “pen”. If the player blows toward the cursor 102, a spray line or a uniform line within a predetermined range depends on the strength of the breath (that is, the magnitude of the microphone input sound) and the touch position. The thickness line can be erased.

このように、本実施形態では、上記「スプレー」のような、タッチ入力に加えて息を吹きかけるという操作(マイク42への音声入力)を行って初めてキャンバス101に描画できるという処理を行っている。これにより、従来にはなかった新規な操作性を有するお絵かきアプリケーションを提供する事が可能となる。   As described above, in the present embodiment, a process of drawing on the canvas 101 is performed only after performing an operation (speech input to the microphone 42) of blowing in addition to the touch input, such as the “spray”. . As a result, it is possible to provide a drawing application having a new operability that has not existed before.

次に、ゲーム装置1によって実行されるアプリケーション処理の詳細を説明する。まず、アプリケーション処理の際にメインメモリ32に記憶されるデータについて説明する。図13は、図2に示したメインメモリ32のメモリマップを示す図解図である。図13において、メインメモリ32は、プログラム記憶領域321およびデータ記憶領域325を含む。プログラム記憶領域321のデータおよびデータ記憶領域325の一部のデータは、カートリッジ29のROMに予め記憶されたものが、メインメモリ32にコピーされたものである。なお、これらプログラムおよびデータは、カートリッジ29に限らず、例えば、カートリッジ29の代わりに保存用データメモリ37に記憶するようにしておき、プログラムの実行に際して、当該保存用データメモリ37からメインメモリ32にコピーするようにしても良い。本実施例では、タッチ位置データ3262としては、最新の入力座標と1つ前の入力座標とを保存しておくことが可能である。ゲーム装置1は、タッチパネル13への入力を単位時間おきに繰り返し検出する。入力を検出したときには、それまで最新の入力座標として保存されていたデータを1つ前の入力座標として保存する。そして、プレイヤがタッチパネル13にタッチしている場合、タッチ位置の座標を示すデータが、最新の入力座標としてタッチ位置データ3262に保存される。プレイヤがタッチパネル13にタッチしていない場合、最新の入力座標はNULLとなり、タッチ位置データ3262に保存される。   Next, details of application processing executed by the game apparatus 1 will be described. First, data stored in the main memory 32 during application processing will be described. FIG. 13 is an illustrative view showing a memory map of the main memory 32 shown in FIG. In FIG. 13, the main memory 32 includes a program storage area 321 and a data storage area 325. The data stored in the program storage area 321 and the data stored in the data storage area 325 are stored in advance in the ROM of the cartridge 29 and copied to the main memory 32. These programs and data are not limited to the cartridge 29, but are stored in the storage data memory 37 in place of the cartridge 29, for example, and when the program is executed, the storage data memory 37 stores the main memory 32. You may make it copy. In the present embodiment, as the touch position data 3262, the latest input coordinate and the previous input coordinate can be stored. The game apparatus 1 repeatedly detects input to the touch panel 13 every unit time. When an input is detected, the data stored as the latest input coordinates until then is stored as the previous input coordinates. When the player is touching the touch panel 13, data indicating the coordinates of the touch position is stored in the touch position data 3262 as the latest input coordinates. When the player has not touched the touch panel 13, the latest input coordinates are NULL and stored in the touch position data 3262.

プログラム記憶領域321は、CPU31によって実行されるプログラムを記憶し、このプログラムは、メイン処理プログラム322と、カメラ処理プログラム323と、落書き処理プログラム324などによって構成される。   The program storage area 321 stores a program executed by the CPU 31, and this program includes a main processing program 322, a camera processing program 323, a graffiti processing program 324, and the like.

メイン処理プログラム322は、後述する図17のフローチャートの処理に対応するプログラムである。カメラ処理プログラム323は、外側カメラ25で撮影画像を得るための処理をCPU31に実行させるためのプログラムであり、落書き処理プログラム324は、上記図5等で示した、撮影画像に落書きするための処理をCPU31に実行させるためのプログラムである。   The main processing program 322 is a program corresponding to the processing of the flowchart of FIG. The camera processing program 323 is a program for causing the CPU 31 to execute a process for obtaining a photographed image by the outer camera 25, and the graffiti processing program 324 is a process for scribbling a photographed image as shown in FIG. Is a program for causing the CPU 31 to execute.

データ記憶領域325には、操作データ326、描画道具マスタ327、描画色データ328、撮影画像データ329、現在道具データ330、効果音データ331、スプレーテーブル332、音声特性データ333などのデータが記憶される。   The data storage area 325 stores operation data 326, drawing tool master 327, drawing color data 328, photographed image data 329, current tool data 330, sound effect data 331, spray table 332, sound characteristic data 333, and the like. The

操作データ326は、プレイヤが行ったゲーム装置1への操作内容を示すデータであり、操作ボタンデータ3261およびタッチ位置データ3262を含む。操作ボタンデータ3261は、各操作ボタン14A〜14Kに対する入力状態を示すデータである。タッチ位置データ3262は、タッチパネル13へ入力されたタッチ位置の座標(入力座標)を示すデータである。本実施例では、プレイヤがタッチパネル13にタッチしている間、繰り返し入力座標が取得され、タッチ位置データ3262として保存される。なお、本実施例では、タッチ位置データ3262としては、最新の入力座標と1つ前の入力座標とが保存しておくことが可能である。   The operation data 326 is data indicating the operation content of the game apparatus 1 performed by the player, and includes operation button data 3261 and touch position data 3262. The operation button data 3261 is data indicating an input state for each of the operation buttons 14A to 14K. The touch position data 3262 is data indicating the coordinates (input coordinates) of the touch position input to the touch panel 13. In this embodiment, while the player touches the touch panel 13, repeated input coordinates are acquired and stored as touch position data 3262. In the present embodiment, as the touch position data 3262, the latest input coordinates and the previous input coordinates can be stored.

描画道具マスタ327は、上述したような描画道具に関するテーブルである。図14は、描画道具マスタ327のテーブル構造の一例を示した図である。描画道具マスタ327は、種類3271と線種3272とカーソル画像データ3273の図14は、描画道具マスタ327のデータ構成の一例を示す図である。図14に示された描画道具マスタ327は、種類3271と線種3272とカーソル画像データ3273を有する構造になっている。種類3271は、描画道具を示すデータであり、本実施形態では、「ペン」と「消しゴム」である。線種3272は、上記線種を示すデータであり、本実施形態では均一の太さの線(以下、均一線と呼ぶ)と上記「スプレー」である。また、カーソル画像データは、カーソル102として表示するための画像データである。本実施形態では、種類3271が「ペン」で線種3272が「均一線」のときは、ペン先の画像を示す画像データが格納されている。また、種類3271が「ペン」で線種3272が「スプレー」のときは、上記のようなプロペラの画像データが格納されている。また、種類3271が「消しゴム」で線種3272が「均一線」のときは、消しゴムの画像データが格納されており、線種3272が「スプレー」のときは、プロペラの画像が格納されている。   The drawing tool master 327 is a table related to the drawing tool as described above. FIG. 14 is a diagram showing an example of the table structure of the drawing tool master 327. The drawing tool master 327 has a type 3271, a line type 3272, and cursor image data 3273. FIG. 14 shows an example of the data structure of the drawing tool master 327. The drawing tool master 327 shown in FIG. 14 has a structure having a type 3271, a line type 3272, and cursor image data 3273. The type 3271 is data indicating a drawing tool, and is “pen” and “eraser” in the present embodiment. The line type 3272 is data indicating the line type. In the present embodiment, the line type 3272 is a line having a uniform thickness (hereinafter referred to as a uniform line) and the “spray”. The cursor image data is image data to be displayed as the cursor 102. In this embodiment, when the type 3271 is “pen” and the line type 3272 is “uniform line”, image data indicating the image of the pen tip is stored. When the type 3271 is “pen” and the line type 3272 is “spray”, the image data of the propeller as described above is stored. When the type 3271 is “eraser” and the line type 3272 is “uniform line”, the image data of the eraser is stored, and when the line type 3272 is “spray”, the image of the propeller is stored. .

描画色データ328は、上記描画道具の種類が「ペン」の場合に、上記キャンバス101に描く線等の色を示すデータである。撮影画像データ329は、外部カメラ25で撮影された画像を示すデータである。現在道具データ330は、現在選択されている描画道具の種類(ペンあるいは消しゴム)および線種(均一線あるいはスポプレー)を示すためのデータである。効果音データ331は、描画時に再生される効果音のデータである。   The drawing color data 328 is data indicating the color of a line or the like drawn on the canvas 101 when the type of the drawing tool is “pen”. The captured image data 329 is data indicating an image captured by the external camera 25. The current tool data 330 is data for indicating the type (pen or eraser) and line type (uniform line or spot play) of the currently selected drawing tool. The sound effect data 331 is sound effect data reproduced at the time of drawing.

スプレーテーブル332は、上述の、マイク入力音の音量と対応づけて、描画する領域の大きさ、および描画する点の数とを定義したテーブルである。図15は、スプレーテーブル332のデータ構成の一例を示す図である。図15に示されたスプレーテーブルは、音量3321と領域サイズ3322と点の数3323とを有する構造になっている。音量3321は、マイク入力音の音量の大きさの範囲を示すものである。なお、本実施例では、音量の大きさを0〜100の値で表すものとする。領域サイズ3322は、一回の描画処理で描かれるスプレー線の描画領域を示すものである。本実施形態では、描画領域の形状は円状であるとし、当該領域サイズ3322の値には、描画領域の半径を示す値が定義されているものとする。点の数3323は、上記描画領域内に描画する点の数を定義したものである。図15の例では、例えば、音量3321が”11〜30”のときは、図16(a)に示すような大きさの円形領域201内に、点の数3323に示される数の点が描画される。また、音量3321が”31〜50”であれば、図16(b)に示すような、より大きなサイズの円形領域201内で、より多くの数の点が描画される(なお、図16で円形領域201を示す点線は便宜上表記しているだけであり、画面上には表示されない)。   The spray table 332 is a table that defines the size of the area to be drawn and the number of points to be drawn in association with the volume of the microphone input sound described above. FIG. 15 is a diagram illustrating an example of a data configuration of the spray table 332. The spray table shown in FIG. 15 has a structure having a volume 3321, a region size 3322, and a number of points 3323. The volume 3321 indicates the range of the volume level of the microphone input sound. In this embodiment, the volume level is represented by a value from 0 to 100. The area size 3322 indicates a drawing area of a spray line drawn by one drawing process. In the present embodiment, it is assumed that the shape of the drawing area is circular, and a value indicating the radius of the drawing area is defined as the value of the area size 3322. The number of points 3323 defines the number of points to be drawn in the drawing area. In the example of FIG. 15, for example, when the volume 3321 is “11 to 30”, the number of points indicated by the number of points 3323 is drawn in the circular area 201 having the size as shown in FIG. Is done. If the volume 3321 is “31 to 50”, a larger number of points are drawn in a larger circular area 201 as shown in FIG. 16B (in FIG. 16). The dotted line indicating the circular area 201 is shown for convenience only and is not displayed on the screen).

図13に戻り、音声特性データ333は、マイク42に入力された音声の特性、具体的には、音量や周波数、音色等を示すデータである。なお、本実施形態では、マイク入力音の音量を示すデータが格納される。   Returning to FIG. 13, the sound characteristic data 333 is data indicating characteristics of the sound input to the microphone 42, specifically, volume, frequency, tone color, and the like. In the present embodiment, data indicating the volume of the microphone input sound is stored.

データ記憶領域325には、その他、後述する処理において、効果音の再生が行われているか否かを示すために用いられる再生フラグ等の各種フラグや、各種画像データ等も記憶される。   In addition, the data storage area 325 also stores various flags such as a reproduction flag used to indicate whether or not sound effects are being reproduced in processing described later, various image data, and the like.

次に、ゲーム装置1において実行されるアプリケーション処理(以下、落書きゲーム処理と呼ぶ)の流れを図17〜図21を用いて説明する。図17は、ゲーム装置1において実行される落書きゲーム処理の流れを示すフローチャートである。ゲーム装置1の電源が投入されると、ゲーム装置1のCPU31は、図示しないブートROMに記憶されている
起動プログラムを実行し、メインメモリ32等の各ユニットが初期化される。そして、カートリッジ29に格納されたゲームプログラムがメインメモリ32に読み込まれ、当該アプリケーションプログラムの実行が開始される。その結果、下側LCD12にゲーム画像が表示されることによって、アプリケーションが開始される。
Next, the flow of application processing (hereinafter referred to as graffiti game processing) executed in the game apparatus 1 will be described with reference to FIGS. FIG. 17 is a flowchart showing the flow of the graffiti game process executed in the game apparatus 1. When the power of the game apparatus 1 is turned on, the CPU 31 of the game apparatus 1 executes a startup program stored in a boot ROM (not shown), and each unit such as the main memory 32 is initialized. Then, the game program stored in the cartridge 29 is read into the main memory 32, and execution of the application program is started. As a result, the game image is displayed on the lower LCD 12 to start the application.

図17において、まず、CPU31は、カメラ処理を実行するか否かの問い合わせ画面を表示する(ステップS1)。すなわち、本処理では、カメラによる撮像を行わずに、後述する落書き処理を実行することも可能である。つまり、図5等に示したような下絵を用いず、図3に示した用に、無地のキャンバス101に対して描画処理を行うことも可能である。   In FIG. 17, first, the CPU 31 displays an inquiry screen as to whether or not to execute camera processing (step S1). That is, in this process, it is also possible to execute a graffiti process, which will be described later, without performing imaging by the camera. That is, it is also possible to perform the drawing process on the plain canvas 101 as shown in FIG. 3 without using the sketch as shown in FIG.

次に、CPU31は、メインメモリ32から操作データ326を取得する(ステップS2)。次に、操作データで示される内容が、カメラ処理の実行指示であるか否かを判定する(ステップS3)。その結果、カメラ処理の実行指示ではないときは(ステップS3でNO)、CPU31は、後述するステップS5の処理に進む。一方、カメラ処理の実行指示のときは(ステップS3でYES)CPU31は、カメラ処理を実行する(ステップS4)。この処理では、外側カメラ25で、上記下絵となる画像を撮影し、保存するための処理が実行される。次に、CPU31は、落書き処理を実行する(ステップS5)。この処理では、上記図5で示したような画面を表示し、カメラで撮影した画像に落書きすることを可能とするための処理が実行される。   Next, the CPU 31 acquires operation data 326 from the main memory 32 (step S2). Next, it is determined whether or not the content indicated by the operation data is an instruction to execute camera processing (step S3). As a result, when it is not an instruction to execute camera processing (NO in step S3), the CPU 31 proceeds to processing in step S5 described later. On the other hand, when an instruction to execute camera processing is given (YES in step S3), the CPU 31 executes camera processing (step S4). In this process, the outer camera 25 performs a process for capturing and storing the above-described background image. Next, the CPU 31 executes graffiti processing (step S5). In this process, a screen as shown in FIG. 5 is displayed, and a process for enabling graffiti on an image captured by the camera is executed.

図18は、上記ステップS4で示したカメラ処理の詳細を示すフローチャートである。図18において、まず、CPU31は、初期化処理を行う(ステップS11)。この処理では、予め初期値として定義されている撮影用の各種パラメータ(撮影倍率や露光時間等)が設定される。   FIG. 18 is a flowchart showing details of the camera process shown in step S4. In FIG. 18, first, the CPU 31 performs an initialization process (step S11). In this process, various shooting parameters (such as shooting magnification and exposure time) defined in advance as initial values are set.

次に、CPU31は、外側カメラ25で撮影している映像を下側LCD12に表示する(ステップ12)。   Next, the CPU 31 displays an image captured by the outer camera 25 on the lower LCD 12 (step 12).

次に、CPU31は、メインメモリ32から操作データ326を取得する(ステップS13)。続いて、CPU31は、操作データ326で示されるプレイヤの操作内容が、シャッターボタンの押下であるか否かを判定する(ステップS14)。当該判定の結果、シャッターが押されたときは(ステップS14でYES)、CPU31は、外側カメラ25で撮影した画像を記録する処理を行う。すなわち、外側カメラ25で撮影された画像を撮影画像データ329として、メインメモリ32に記憶する(ステップS15)。その後、上記ステップS12の処理に戻り、処理を繰り返す。   Next, the CPU 31 acquires operation data 326 from the main memory 32 (step S13). Subsequently, the CPU 31 determines whether or not the operation content of the player indicated by the operation data 326 is a press of the shutter button (step S14). If the result of this determination is that the shutter has been pressed (YES in step S14), the CPU 31 performs processing for recording an image taken by the outer camera 25. That is, an image photographed by the outer camera 25 is stored in the main memory 32 as photographed image data 329 (step S15). Thereafter, the process returns to step S12 to repeat the process.

一方、ステップS14の判定の結果、シャッターが押されていないときは(ステップS14でNO)、次に、CPU31は、操作データ326で示される操作内容がカメラ処理の終了を指示する操作であるか否かを判定する(ステップS16)。その結果、カメラ処理の終了指示のときは(ステップS16でYES)、CPU31は、当該カメラ処理を終了する。一方、カメラ処理の終了指示でないときは(ステップS16でNO)、CPU31は、操作データ326に基づくその他の処理を実行する(ステップS17)。例えば、ズーム倍率の制御や露光制御の設定等を実行する。その後、上記ステップS12に戻って処理を繰り返す。以上でカメラ処理の説明を終了する。   On the other hand, if the result of determination in step S <b> 14 is that the shutter has not been pressed (NO in step S <b> 14), then the CPU 31 determines whether the operation content indicated by the operation data 326 is an operation for instructing the end of camera processing. It is determined whether or not (step S16). As a result, when an instruction to end camera processing is given (YES in step S16), the CPU 31 ends the camera processing. On the other hand, when it is not an instruction to end the camera process (NO in step S16), the CPU 31 executes another process based on the operation data 326 (step S17). For example, zoom magnification control, exposure control setting, and the like are executed. Then, it returns to said step S12 and repeats a process. This is the end of the description of the camera process.

次に、上記ステップS2で示した落書き処理について説明する。図19は、上記ステップS2で示した落書き処理の詳細を示すフローチャートである。図19において、まず、CPU31は、落書き処理に関する初期処理を実行する(ステップS21。)具体的には、上記図3等に示したようなゲーム画面を生成して表示する。また、CPU31は、撮影
画像データ329をメインメモリ32から読み出し、上記カメラ処理で撮影された撮影画像をキャンバス101の部分に「下絵」として表示する。このとき、上記カメラ処理が行われていなければ、撮影画像データ329には何も格納されていないため、この場合は、CPU31は、キャンバス101には何も表示しない。つまり、無地のキャンバス101のままで表示されることになる。また、CPU31は、初期値として現在道具データ330に描画道具が「ペン」、線種が「均一線」であることを示すデータを設定する。つまり、落書き処理開始時は、線種が「均一線」の「ペン」が描画道具として選択されていることになる。
Next, the graffiti process shown in step S2 will be described. FIG. 19 is a flowchart showing details of the graffiti process shown in step S2. In FIG. 19, first, the CPU 31 executes an initial process related to the graffiti process (step S21). Specifically, a game screen as shown in FIG. 3 and the like is generated and displayed. In addition, the CPU 31 reads the captured image data 329 from the main memory 32 and displays the captured image captured by the camera process as a “background image” on the canvas 101. At this time, if the camera process has not been performed, nothing is stored in the captured image data 329, and in this case, the CPU 31 displays nothing on the canvas 101. That is, the blank canvas 101 is displayed as it is. Further, the CPU 31 sets data indicating that the drawing tool is “pen” and the line type is “uniform line” in the current tool data 330 as an initial value. That is, when the graffiti process is started, the “pen” whose line type is “uniform line” is selected as the drawing tool.

初期処理が終われば、次に、CPU31は、メインメモリ32から操作データ326を取得する(ステップS22)。続いて、CPU31は、操作データ326で示される操作内容が落書き処理の終了指示であるか否かを判定する(ステップS23)。当該判定の結果、落書き処理の終了指示のときは(ステップS23でYES)、CPU31は、当該落書き処理を終了する。   When the initial process is completed, the CPU 31 then acquires operation data 326 from the main memory 32 (step S22). Subsequently, the CPU 31 determines whether or not the operation content indicated by the operation data 326 is an instruction to end the graffiti process (step S23). As a result of the determination, when the instruction to end the graffiti process is given (YES in step S23), the CPU 31 ends the graffiti process.

一方、落書き処理の終了指示ではないときは(ステップS23でNO)、次に、CPU31は、操作内容が描画道具の種類を選択する操作であるか否かを判定する(ステップS24)。その結果、描画道具の選択操作であるときは(ステップS24でYES)、操作データ326の内容に基づいて、描画道具の選択処理を実行する(ステップS25)。ここで、選択操作の一例について説明すると、まず、プレイヤは、上記図3等で示したような画面において、上記描画道具アイコン111をタッチする。この操作を検出する度に、CPU31は、現在道具データ330に描画道具として「ペン」と「消しゴム」を交互に設定する。つまり、プレイヤが描画道具アイコン111をタッチする度に、描画道具が「ペン」と「消しゴム」の間で切り替わる。更に、プレイヤは上記線種アイコン112の4つのアイコンのうちいずれか一つをタッチする。このタッチされたアイコン(より正確にはその表示座標)を検出し、そのアイコンの内容に応じた線種を現在道具データ330に設定する。当該4つのアイコンの内、一番右のアイコンがタッチされたときは、線種として「スプレー」が現在道具データ330に設定される。また、その他のアイコンがタッチされたときは、線種として「均一線」が設定され、タッチされたアイコンに応じて、線の太さを示すデータも併せて現在道具データ330に設定される。図3の例では、3種類の線の太さを選択することが可能であり、一番右のアイコンが均一線の太さとしては一番細く、左から3つめのアイコンが一番太い均一線となる。このように、CPU31は、操作データに基づいて描画道具を示すデータを現在道具データ330に設定する処理を実行した後、CPU31は、上記ステップS22に戻り、処理を繰り返す。   On the other hand, if it is not an instruction to end the graffiti process (NO in step S23), the CPU 31 next determines whether or not the operation content is an operation for selecting the type of drawing tool (step S24). If the result is a drawing tool selection operation (YES in step S24), a drawing tool selection process is executed based on the contents of the operation data 326 (step S25). Here, an example of the selection operation will be described. First, the player touches the drawing tool icon 111 on the screen as shown in FIG. Each time this operation is detected, the CPU 31 alternately sets “pen” and “eraser” as drawing tools in the current tool data 330. That is, every time the player touches the drawing tool icon 111, the drawing tool is switched between “pen” and “eraser”. Further, the player touches one of the four icons of the line type icon 112. The touched icon (more precisely, its display coordinates) is detected, and a line type corresponding to the content of the icon is set in the current tool data 330. When the rightmost icon of the four icons is touched, “spray” is set in the current tool data 330 as the line type. When another icon is touched, “uniform line” is set as the line type, and data indicating the thickness of the line is also set in the current tool data 330 according to the touched icon. In the example of FIG. 3, it is possible to select the thickness of three types of lines. The rightmost icon is the thinnest uniform line thickness, and the third icon from the left is the thickest uniform. Become a line. As described above, after executing the process of setting the data indicating the drawing tool in the current tool data 330 based on the operation data, the CPU 31 returns to step S22 and repeats the process.

一方、ステップS24の判定の結果、操作内容が描画道具の選択操作ではないときは(ステップS24でNO)、次に、CPU31は、操作データ326を参照してキャンバス101へのタッチ入力(より正確には、キャンバス101の表示領域に対応するタッチパネル13の領域内へのタッチ入力)が行われているか否かを判定する(ステップS26)。具体的には、CPU31は、タッチ位置データ3262に保存されている最新の入力座標を参照して、入力座標がキャンバス101の表示領域に対応する座標であるか否かを判定する。その結果、キャンバス101へのタッチ入力が行われているときは(ステップS26でYES)、CPU31は、タッチ入力されている位置にカーソル102を表示する処理を実行する(ステップS27)。より具体的には、CPU31は、まず、描画道具マスタ327を参照し、現在選択されている描画道具に対応するカーソル画像データ3272を取得する。そして、タッチ位置データ3262を参照し、タッチ入力されている位置に上記カーソル画像データ3272に基づく画像をカーソル102として表示する。   On the other hand, if the result of determination in step S24 is that the operation content is not a drawing tool selection operation (NO in step S24), the CPU 31 then refers to the operation data 326 and makes a touch input (more accurately) In step S26, it is determined whether or not a touch input to the area of the touch panel 13 corresponding to the display area of the canvas 101 has been performed. Specifically, the CPU 31 refers to the latest input coordinates stored in the touch position data 3262 and determines whether or not the input coordinates are coordinates corresponding to the display area of the canvas 101. As a result, when the touch input is performed on the canvas 101 (YES in step S26), the CPU 31 executes a process of displaying the cursor 102 at the position where the touch input is performed (step S27). More specifically, the CPU 31 first refers to the drawing tool master 327 and obtains cursor image data 3272 corresponding to the currently selected drawing tool. Then, the touch position data 3262 is referred to, and an image based on the cursor image data 3272 is displayed as the cursor 102 at the position where the touch is input.

カーソル102の表示の次に、CPU31は、現在選択されている描画道具、すなわち、現在道具データ330で示される描画道具が「ペン」か否かを判定する(ステップS2
8)。その結果、「ペン」であるときは、CPU31は、ペン処理を実行する(ステップS29)。図20は、当該ペン処理の詳細を示すフローチャートである。図20において、まず、CPU31は、現在道具データ330で示される線種が「スプレー」か否かを判定する(ステップS41)。その結果、「スプレー」ではないときは(ステップS41でNO)、CPU31は、ペン描画処理を実行する(ステップS42)。すなわち、タッチ位置に基づいて、現在選択されている線の太さで均一線を描画する処理を実行する。その後、CPU31は、ペン処理を終了する。
After the display of the cursor 102, the CPU 31 determines whether or not the drawing tool currently selected, that is, the drawing tool indicated by the current tool data 330 is “pen” (step S2).
8). As a result, when it is “pen”, the CPU 31 executes pen processing (step S29). FIG. 20 is a flowchart showing details of the pen processing. 20, first, the CPU 31 determines whether or not the line type indicated by the current tool data 330 is “spray” (step S41). As a result, when it is not “spray” (NO in step S41), the CPU 31 executes a pen drawing process (step S42). That is, based on the touch position, a process of drawing a uniform line with the currently selected line thickness is executed. Thereafter, the CPU 31 ends the pen process.

一方、上記ステップS41の判定の結果、線種が「スプレー」のときは(ステップS41でYES)、CPU31は、図10等を用いて上述したような、スプレー線の描画を行うためのスプレー描画処理を実行し(ステップS43)、その後、ペン処理を終了する。   On the other hand, if the result of determination in step S41 is that the line type is “spray” (YES in step S41), the CPU 31 performs spray drawing for drawing the spray line as described above with reference to FIG. The process is executed (step S43), and then the pen process is terminated.

図21は、上記ステップS43で示したスプレー描画処理の詳細を示すフローチャートである。図21において、まず、CPU31は、マイク42に入力された音(マイク入力音)の音量を検出し、音声特性データ333として記憶する(ステップS51)。   FIG. 21 is a flowchart showing details of the spray drawing process shown in step S43. In FIG. 21, first, the CPU 31 detects the volume of the sound (microphone input sound) input to the microphone 42 and stores it as the audio characteristic data 333 (step S51).

次に、CPU31は、当該音声特性データ333で示される音量が、予め定められている所定の閾値以上であるか否かを判定する(ステップS52)。当該判定の結果、マイク入力音の音量が所定の閾値以上のときは(ステップS52でYES)、CPU31は、上記スプレーテーブル332を参照し、当該音量の大きさに応じて、スプレー線の描画領域の大きさや描画する点の数を決定する(ステップS53)。   Next, the CPU 31 determines whether or not the volume indicated by the audio characteristic data 333 is equal to or greater than a predetermined threshold value (step S52). As a result of the determination, when the volume of the microphone input sound is equal to or higher than the predetermined threshold (YES in step S52), the CPU 31 refers to the spray table 332 and displays the spray line drawing area according to the volume. And the number of points to be drawn are determined (step S53).

次に、CPU31は、上記音声特性データ333で示される音量の大きさに応じて、スプレー線描画時に再生する効果音の再生音量を決定する(ステップS54)。   Next, the CPU 31 determines the reproduction volume of the sound effect reproduced at the time of spray line drawing in accordance with the volume level indicated by the audio characteristic data 333 (step S54).

次に、CPU31は、上記音声特性データ333で示される音量の大きさに応じて、カーソル102のアニメーション表示の再生速度を設定する(ステップS55)。上述のように、本実施形態では、スプレー線の描画時は、上記プロペラ型のカーソル102について、当該プロペラが回転するアニメーションが表示される。このプロペラの回転速度を、上記マイク入力音の音量の大きさに応じて設定する処理が実行される。例えば、マイク入力音の音量が大きいときほど、プロペラが速く回転するようにアニメーションの再生速度を設定する。例えば、プロペラの回転アニメーションが3コマで構成される場合を例とすると、マイク入力音の音量が大きいときは、1フレームごとにコマを書き換えるような設定を行い、マイク入力音の音量が大きくないときは、10フレームごとにコマを書き換えるような設定を行うことが考えられる。   Next, the CPU 31 sets the reproduction speed of the animation display of the cursor 102 according to the volume level indicated by the audio characteristic data 333 (step S55). As described above, in the present embodiment, when the spray line is drawn, an animation of rotating the propeller is displayed for the propeller-type cursor 102. A process of setting the rotation speed of the propeller according to the volume of the microphone input sound is executed. For example, the animation playback speed is set so that the propeller rotates faster as the volume of the microphone input sound increases. For example, in the case where the rotation animation of the propeller is composed of 3 frames, when the volume of the microphone input sound is high, the setting is made such that the frame is rewritten every frame, and the volume of the microphone input sound is not high. In some cases, it is conceivable to perform a setting to rewrite a frame every 10 frames.

次に、CPU31は、タッチ位置が中心となるように上記描画領域を配置し、上記ステップS53における決定内容に従って、スプレー線を構成する点をキャンバス101(描画領域内)に描画する(ステップS56)。ここで、スプレー線を構成する各点の配置については、描画領域内でランダムに配置しても良いし、タッチ位置を中心として、当該タッチ位置が点の密度が一番濃く、タッチ位置から離れるほど徐々に点の密度が薄くなるように描画してもよい。   Next, the CPU 31 arranges the drawing area so that the touch position is at the center, and draws the points constituting the spray line on the canvas 101 (within the drawing area) according to the determination in step S53 (step S56). . Here, the arrangement of each point constituting the spray line may be arranged randomly in the drawing area, or the touch position has the highest density of points with the touch position as the center, and is away from the touch position. You may draw so that the density of points gradually decreases.

次に、CPU31は、上記ステップS55で設定されたアニメーションの再生速度に従って、カーソル102のアニメーション表示(プロペラが回転するアニメーション)を行う(ステップS57)。   Next, the CPU 31 performs animation display of the cursor 102 (animation in which the propeller rotates) according to the animation reproduction speed set in step S55 (step S57).

次に、CPU31は、再生フラグの設定がオフであるか否かを判定する(ステップS58)。当該再生フラグは、効果音が再生されている最中であるか否かを示すためのフラグであり、効果音が再生されていないときはオフに設定されている。当該判定の結果、再生
フラグがオフのときは(ステップS58でYES)、CPU31は、再生フラグにオンを設定する(ステップS59)。そして、CPU31は、効果音データ331を参照し、スプレー線描画時の効果音(スプレー噴射音)を、上記ステップS54で設定された音量で再生開始する(ステップS60)。その後、CPU31は、当該スプレー処理を終了する。
Next, the CPU 31 determines whether or not the setting of the reproduction flag is off (step S58). The reproduction flag is a flag for indicating whether or not the sound effect is being reproduced, and is set to off when the sound effect is not being reproduced. If the result of this determination is that the regeneration flag is off (YES in step S58), the CPU 31 sets the regeneration flag to on (step S59). Then, the CPU 31 refers to the sound effect data 331 and starts to reproduce the sound effect (spray spray sound) at the time of spray line drawing at the volume set in step S54 (step S60). Thereafter, the CPU 31 ends the spray process.

一方、上記ステップS58の判定の結果、再生フラグがオフではないと判定されたときは(ステップS58でNO)、効果音が再生されている最中であると考えられるため、上記ステップS59およびS60の処理は実行せずに、当該スプレー処理を終了する。   On the other hand, as a result of the determination in step S58, when it is determined that the reproduction flag is not OFF (NO in step S58), it is considered that the sound effect is being reproduced. Therefore, steps S59 and S60 are performed. The spray process is terminated without executing the process.

次に、上記ステップS52の判定の結果、音声特性データ333で示される音量が所定の閾値未満のときの処理(ステップS52でNO)を説明する。このときは、CPU31は、次に、上記再生フラグがオンに設定されているか否かを判定する(ステップS61)。その結果、再生フラグがオンのときは(ステップS61でYES)、CPU31は、上記ステップS60で再生開始した効果音の再生を停止する。そして、CPU31は、再生フラグにオフを設定する(ステップS63)。   Next, processing when the sound volume indicated by the sound characteristic data 333 is less than a predetermined threshold as a result of the determination in step S52 (NO in step S52) will be described. At this time, the CPU 31 next determines whether or not the reproduction flag is set to ON (step S61). As a result, when the reproduction flag is on (YES in step S61), the CPU 31 stops the reproduction of the sound effect that has been reproduced in step S60. Then, the CPU 31 sets the reproduction flag to OFF (step S63).

一方、上記ステップS61の判定の結果、再生フラグがオンではないときは(ステップS61でNO)、CPU31は、上記ステップS62およびS63の処理は実行せずに、当該スプレー描画処理を終了する。以上で、スプレー描画処理の説明を終了する。   On the other hand, if the result of determination in step S61 is that the regeneration flag is not on (NO in step S61), the CPU 31 ends the spray drawing process without executing the processes in steps S62 and S63. This is the end of the description of the spray drawing process.

図19に戻り、上記ステップS28の判定の結果、現在道具データ330が「ペン」ではないときは(ステップS28でNO)、次に、CPU31は、現在道具データ330で示される描画道具が「消しゴム」か否かを判定する(ステップS30)。当該判定の結果、「消しゴム」ではないときは(ステップS30でNO)、CPU31は、上記ステップS22に戻って処理を繰り返す。   Returning to FIG. 19, if the result of the determination in step S <b> 28 is that the current tool data 330 is not “pen” (NO in step S <b> 28), then the CPU 31 determines that the drawing tool indicated by the current tool data 330 is “eraser”. Is determined (step S30). As a result of the determination, if it is not “eraser” (NO in step S30), the CPU 31 returns to step S22 and repeats the process.

一方、上記ステップS30の判定の結果、現在道具データ330が「消しゴム」のときは(ステップS30でYES)、CPU31は、消しゴム処理を実行する(ステップS31)。この処理では、所定値以上の音量のマイク入力音が入力されたときに、タッチ位置に描画されているスプレー線等を消去する処理が実行される。図22は、当該消しゴム処理の詳細を示すフローチャートである。図22において、まず、CPU31は、現在道具データ330で示される線種が「スプレー」か否かを判定する(ステップS71)。その結果、「スプレー」ではないときは(ステップS71でNO)、CPU31は、ペン消しゴム処理を実行する(ステップS42)。すなわち、タッチ位置に基づいて、現在選択されている線の太さで均一線あるいはスプレー線を消去する処理を実行する。その後、CPU31は、消しゴム処理を終了する。   On the other hand, if the result of the determination in step S30 is that the current tool data 330 is “eraser” (YES in step S30), the CPU 31 executes an eraser process (step S31). In this process, when a microphone input sound having a volume equal to or higher than a predetermined value is input, a process of deleting a spray line or the like drawn at the touch position is executed. FIG. 22 is a flowchart showing details of the eraser process. In FIG. 22, first, the CPU 31 determines whether or not the line type indicated by the current tool data 330 is “spray” (step S <b> 71). As a result, when it is not “spray” (NO in step S71), the CPU 31 executes a pen eraser process (step S42). That is, based on the touch position, a process of erasing the uniform line or the spray line with the currently selected line thickness is executed. Thereafter, the CPU 31 ends the eraser process.

一方、上記ステップS71の判定の結果、線種が「スプレー」のときは、CPU31は、スプレー消しゴム処理を実行する(ステップS73)。図23は、上記ステップS73で示したスプレー消しゴム処理の詳細を示すフローチャートである。図23において、ステップS51からステップS52までの処理、および、ステップS57からステップS63までの処理は、図21を用いて上述した各ステップの処理と同様であるため、ここでは詳細な説明を省略し、それ以外の処理を中心に説明する。   On the other hand, if the result of determination in step S71 is that the line type is “spray”, the CPU 31 executes a spray eraser process (step S73). FIG. 23 is a flowchart showing details of the spray eraser process shown in step S73. In FIG. 23, the processing from step S51 to step S52 and the processing from step S57 to step S63 are the same as the processing of each step described above with reference to FIG. The other processing will be mainly described.

図23において、ステップS52で、マイク入力音の音量が所定の閾値以上か否かが判定され、その結果、所定の閾値以上のときは(ステップS52でYES)、CPU31は、音量の大きさに応じて、消去する領域(以下、消去領域と呼ぶ)の大きさを決定する(ステップS81)。当該消去領域の大きさの決定方法は、上記スプレー線の描画領域の決定の場合に準じる。すなわち、上記スプレーテーブル332を参照し、音量の大きさに応
じた領域サイズ3322を取得する。そして、この大きさに基づいて、消去領域の大きさを決定する。なお、消去領域の形状は、上記描画領域と同様に、円状であるとする。
In FIG. 23, in step S52, it is determined whether or not the volume of the microphone input sound is equal to or higher than a predetermined threshold value. If the result is equal to or higher than the predetermined threshold value (YES in step S52), the CPU 31 increases the volume level. Accordingly, the size of the area to be erased (hereinafter referred to as the erase area) is determined (step S81). The method for determining the size of the erase area is the same as that for determining the spray line drawing area. That is, referring to the spray table 332, an area size 3322 corresponding to the volume level is acquired. Based on this size, the size of the erase area is determined. It is assumed that the erase area has a circular shape as in the drawing area.

次に、CPU31は、上記音量の大きさに応じて、スプレー線等を消去する際の効果音の再生音量を決定する(ステップS82)。   Next, the CPU 31 determines the reproduction volume of the sound effect when erasing the spray line or the like according to the volume level (step S82).

次に、CPU31は、上記消去時のカーソルアニメーションの再生速度を設定する(ステップS83)。すなわち、上記ステップS55と同様に、マイク入力音の音量の大きさに応じてプロペラの回転速度を設定する。   Next, the CPU 31 sets the playback speed of the cursor animation at the time of erasure (step S83). That is, similarly to step S55, the rotation speed of the propeller is set according to the volume of the microphone input sound.

次に、CPU31は、タッチ位置が中心となる位置に上記消去領域を配置し、当該消去領域内のスプレー線等を消去する(ステップS84)。   Next, the CPU 31 arranges the erasing area at a position where the touch position is the center, and erases the spray lines and the like in the erasing area (step S84).

その後、CPU31は、カーソルアニメーションの表示を実行し(ステップS57)、再生フラグがオフであるか否かの判定に進む(ステップS58)。これ以降の処理は、図21を用いて上述した各ステップの処理と同様であるため、詳細な説明を省略する。以上で、スプレー消しゴム処理の説明は終了する。   Thereafter, the CPU 31 displays a cursor animation (step S57), and proceeds to determine whether or not the reproduction flag is off (step S58). Since the subsequent processing is the same as the processing of each step described above with reference to FIG. 21, detailed description thereof is omitted. This is the end of the description of the spray eraser process.

図19に戻り、次に、上記ステップS26の判定の結果、タッチ入力がなかったときの処理(ステップS26でNO)について説明する。このときは、次に、CPU31は、操作データ326に基づいて、タッチオフされたか否かを判定する(ステップS33)。つまり、タッチ入力が継続していた状態(タッチし続けていた状態)が途切れたのか、タッチされていない状態が継続しているのかを判定する。当該判定の結果、タッチオフされたときは(ステップS33でYES)、CPU31は、カーソル102を消去する(ステップS34)。その後、上記ステップS22に戻り、処理を繰り返す。一方、タッチオフではないときは(ステップS33でNO)、そのまま上記ステップS22に戻って処理を繰り返す。以上で、落書き処理の説明を終了する。具体的には、タッチ位置データ3262として、最新の入力座標がNULLであり、1つ前の入力座標がタッチ位置の座標を示すデータであった場合には、タッチオフと判定し、最新の入力座標がNULLであり、1つ前の入力座標もNULLであった場合には、タッチされていない状態が継続していると判定する。   Returning to FIG. 19, the process when there is no touch input as a result of the determination in step S26 (NO in step S26) will be described. At this time, next, the CPU 31 determines whether or not the touch-off is performed based on the operation data 326 (step S33). That is, it is determined whether the state in which the touch input has been continued (the state in which the touch has been kept) has been interrupted or the state in which the touch has not been touched has been continued. As a result of the determination, when the touch-off is made (YES in step S33), the CPU 31 deletes the cursor 102 (step S34). Then, it returns to said step S22 and repeats a process. On the other hand, when it is not touch-off (NO in step S33), the process returns to step S22 as it is and the process is repeated. This is the end of the description of the graffiti process. Specifically, as the touch position data 3262, when the latest input coordinate is NULL and the previous input coordinate is data indicating the coordinate of the touch position, it is determined as touch-off, and the latest input coordinate. Is NULL, and the previous input coordinate is also NULL, it is determined that the state of not being touched continues.

このように、本実施形態では、プレイヤが「スプレー」を用いて描画を行うときは、キャンバス101へのタッチ入力とマイク42への音声入力という2種類の入力があったときに、キャンバス101への描画を可能としている。これにより、従来にはなかった新たな操作感を有する新規なゲームを提供することができる。   As described above, in this embodiment, when the player performs drawing using “spray”, when there are two types of input, that is, touch input to the canvas 101 and voice input to the microphone 42, the canvas 101 is displayed. It is possible to draw. Thereby, it is possible to provide a new game having a new feeling of operation that has not existed before.

また、本実施形態では、タッチ入力およびマイク42への音声入力が継続して行われている(息を吹きかけ続けている)間、上記スプレー線の描画が行われる。そのため、息を吹く強さを変化させることで、リアルタイムにスプレー線の太さを変えることができる。これにより、プレイヤの息の吹きかけ方でスプレー線の太さ(いわゆる筆圧に相当)を変化させる、つまり、描画される内容を変化させることができるという、新規な楽しみ方を提供する事が可能となる。   In the present embodiment, the spray line is drawn while the touch input and the voice input to the microphone 42 are continuously performed (the breath is continuously blown). Therefore, the thickness of the spray line can be changed in real time by changing the strength of blowing. As a result, it is possible to provide a new way of enjoying that the thickness of the spray line (corresponding to so-called writing pressure) can be changed depending on how the player blows, that is, the drawn content can be changed. It becomes.

なお、上述の消しゴム処理において、タッチした位置のスプレー線を消去する処理を行っていたが、この他、タッチした位置周辺のスプレー線を構成している各点が、タッチパネルへの息の吹きかけに応じて吹き飛ぶような処理(以下、吹き飛ばし処理と呼ぶ)を実行しても良い。以下、吹き飛ばし処理の概要を説明する。例えば、タッチ位置と点との位置関係が図24に示すような関係にあるとする。図24においては、タッチ位置210の上方に5つの点211a〜211eがある状態を例としている。この状態で、プレイヤが
タッチ位置210に向かって息を吹きかける(すなわち、マイク42への音声入力が行われる)と、まず、図25に示すように、タッチ位置210と、各点211a〜211eとを結ぶ直線212a〜212eが算出される。そして、図26に示すように、各直線212の長さと向きに応じて、各点211を移動する処理が実行される。図26の例では、各直線212に沿った方向であって、タッチ位置210から外側に向けて各点211を移動させている。移動距離は、各直線の長さに反比例するように移動させている。つまり、タッチ位置210に近い点ほど、移動距離が長く、タッチ位置210から遠い位置にある点は、移動距離が短い。つまり、息を吹きかけた位置(この場合、タッチ位置210)に近い点ほど、より強い息が吹きかかった結果、より遠くに吹き飛ばされるような処理を行っている。
In addition, in the above-described eraser process, the process of erasing the spray line at the touched position was performed, but in addition to this, each point constituting the spray line around the touched position is used for blowing the breath on the touch panel. In response to this, processing that blows away (hereinafter referred to as blow-off processing) may be executed. Hereinafter, an outline of the blow-off process will be described. For example, it is assumed that the positional relationship between the touch position and the point is as shown in FIG. In FIG. 24, a state where there are five points 211a to 211e above the touch position 210 is taken as an example. In this state, when the player blows toward the touch position 210 (ie, voice input to the microphone 42 is performed), first, as shown in FIG. 25, the touch position 210 and the points 211a to 211e Straight lines 212a to 212e are calculated. Then, as shown in FIG. 26, a process of moving each point 211 is executed according to the length and direction of each straight line 212. In the example of FIG. 26, each point 211 is moved outward from the touch position 210 in the direction along each straight line 212. The movement distance is moved so as to be inversely proportional to the length of each straight line. That is, a point closer to the touch position 210 has a longer moving distance, and a point far from the touch position 210 has a shorter moving distance. That is, processing is performed such that the closer to the position where the breath is blown (in this case, the touch position 210), the stronger the breath is blown, and the longer the blow is done.

次に、図27を用いて、上記吹き飛ばし処理の詳細を説明する。図27は、吹き飛ばし処理の詳細を示すフローチャートである。本処理は、ここでは、上記図19を用いて説明した落書き処理のフローチャートにおいて、ステップS73のスプレー消しゴム処理の代わりに実行される場合を例にして説明する。もちろん、スプレー消しゴム処理の代わりではなく、当該スプレー消しゴム処理と併用して処理するようにしてもよい。   Next, the details of the blowing process will be described with reference to FIG. FIG. 27 is a flowchart showing details of the blow-off process. This process will be described by taking as an example a case where the process is executed instead of the spray eraser process in step S73 in the flowchart of the graffiti process described with reference to FIG. Of course, instead of the spray eraser process, the spray eraser process may be used in combination.

図27において、まず、CPU31は、音量検出を行い(ステップS51)、検出した音量が所定の閾値以上であるか否かを判定する(ステップS52)。これらの処理は、上記図23のステップS51〜S52の処理と同様であるため、詳細な説明は省略する。   In FIG. 27, first, the CPU 31 performs volume detection (step S51), and determines whether or not the detected volume is equal to or higher than a predetermined threshold (step S52). Since these processes are the same as the processes of steps S51 to S52 in FIG. 23, detailed description thereof is omitted.

ステップS52の判定の結果、音量が所定の閾値以上ではないときは(ステップS52でNO)、CPU31は、ステップS61の処理に進む。このときの処理についても、上記図23のステップS61以降の処理と同様であるため、説明は省略する。   If the result of determination in step S52 is that the volume is not greater than or equal to a predetermined threshold (NO in step S52), the CPU 31 proceeds to the process of step S61. The processing at this time is also the same as the processing after step S61 in FIG.

一方、ステップS52の判定の結果、音量が所定の閾値以上と判定されたときは(ステップS52でYES)、CPU31は、音量の大きさに応じて、吹き飛ばし処理の対象となる領域(以下、吹き飛ばし領域と呼ぶ)の大きさを設定する(ステップS81)。当該領域の大きさ決定については、上記ステップS53と同様、スプレーテーブル332を参照し、音量の大きさに応じた領域サイズ3322を取得することで決定する。   On the other hand, if the result of determination in step S52 is that the volume is determined to be greater than or equal to a predetermined threshold (YES in step S52), the CPU 31 determines the area to be blown out (hereinafter referred to as “blow off”) according to the volume level. The size of the area is called (step S81). The size of the area is determined by referring to the spray table 332 and acquiring the area size 3322 according to the volume level, as in step S53.

次に、CPU31は、当該吹き飛ばし領域内に存在するスプレー線を構成する各点と、タッチ位置とを結ぶ直線(上記図25参照)を算出する(ステップS83)。   Next, the CPU 31 calculates a straight line (see FIG. 25) connecting each point constituting the spray line existing in the blow-off area and the touch position (step S83).

次に、CPU31は、当該吹き飛ばし領域内の各点を、上記算出した各直線の向きおよび長さに応じて移動させる(上記図26参照)。なお、このとき、ある点を移動させた結果、他の点と重なる位置となる場合は、移動前はタッチ位置に近いほうにあった点が上に重なるように描画する。   Next, the CPU 31 moves each point in the blowing area according to the calculated direction and length of each straight line (see FIG. 26). At this time, if a position that overlaps with another point as a result of moving a certain point is drawn such that the point that is closer to the touch position before the movement overlaps.

上記のような処理で各点を移動させれば、その後、CPU31は、ステップS58の処理へ進む。当該ステップS58以降の処理は、図21で上述した処理と同様であるため、説明は省略する。   If each point is moved by the process as described above, then the CPU 31 proceeds to the process of step S58. The processing after step S58 is the same as the processing described above with reference to FIG.

このように、タッチした位置にプレイヤが息を吹きかけると、砂が吹き飛ぶかのように点を移動させる処理を行うことで、プレイヤに新規な楽しみ方を提供する事が可能となる。   As described above, when the player blows on the touched position, the point is moved as if the sand is blown off, thereby providing the player with a new way of enjoying.

また、上述した実施形態では、タッチパネル13にプレイヤが息を吹きかけたときの音を検出し、その音量に基づいて処理を行っていたが、このときの音についてはどのような音でもよかった(例えば、手を叩く音でもよかった)。すなわち、音の種類・内容につい
ては識別していなかったが、これに限らず、「息を吹きかける」音を識別するようにしてもよい。「息を吹きかける音」の検出・識別方法はどのようなものであってもよいが、例えば、息を吹きかける音(息の音声)についての音声素片の波形パターンを予め記憶しておき、記憶しておいた音声素片と入力された音声の音声素片とを比較して、プレイヤが息を吹きかけたかどうかを判断する方法が考えられる。また、高速フーリエ変換処理(FFT)により、入力された音声のスペクトラムを算出して、算出したスペクトラムと予め記憶しておいた息の音声についてのスペクトラムとを比較して、プレイヤが息を吹きかけたかどうかを判断する方法を用いても良い。
Further, in the above-described embodiment, the sound when the player blows on the touch panel 13 is detected and processing is performed based on the sound volume. However, any sound may be used at this time (for example, It could have been a clapping sound.) That is, although the type and content of the sound have not been identified, the present invention is not limited to this, and a “breathing” sound may be identified. Any method for detecting and identifying the “sound that blows” may be used. For example, the waveform pattern of the speech unit for the sound that blows (breath speech) is stored in advance and stored. A method of determining whether or not the player has blown a breath by comparing the previously generated speech unit and the speech unit of the input speech can be considered. In addition, the spectrum of the input voice is calculated by fast Fourier transform processing (FFT), and the calculated spectrum is compared with the spectrum of the breath voice stored in advance, and whether the player blows. You may use the method of judging whether.

また、上記のような音量や、特定の音の種類・内容に限らず、音色、周波数等、入力された音声の特性を算出あるいは識別して、当該音声の特性に応じて描画処理の内容を変化させても良い。   In addition, the characteristics of the input sound such as timbre, frequency, etc. are calculated or identified, and the content of the drawing process is determined according to the characteristics of the sound, not limited to the volume and the type and content of the specific sound as described above. It may be changed.

また、上記効果音の再生に関して、効果音の再生開始および再生終了時は、フェードイン/フェードアウト効果を利用した再生を実行しても良い。これにより、再生開始時のノイズ(例えば「プツッ」という音のノイズ)の発生を抑えることができる。   Regarding the reproduction of the sound effect, reproduction using the fade-in / fade-out effect may be executed at the start and end of the reproduction of the sound effect. As a result, it is possible to suppress the occurrence of noise at the start of reproduction (for example, noise of a “sound” sound).

また、描画の際に用いられる描画色については、1色だけ用いるようにしても良いし、複数の色を同時に用いるようにしても良い。複数の色を同時に用いる場合の例としては、例えば、描画道具に「ペン」を用いる場合は、縁取り線(縁の色と中の色とで異なった色を用いる)が該当する。また、「スプレー」の場合は、スプレー線を構成する各点について、異なる色の点を用いるようにすればよい。例えば、描画色に「灰色」と「黒色」を指定したときは、灰色の点と黒色の点の双方で構成されるスプレー線を描画するようにすればよい(図28参照)。   As for the drawing color used for drawing, only one color may be used, or a plurality of colors may be used simultaneously. As an example of using a plurality of colors at the same time, for example, when a “pen” is used as a drawing tool, a border line (a different color is used for the edge color and the middle color) is applicable. In the case of “spray”, a different color point may be used for each point constituting the spray line. For example, when “gray” and “black” are designated as the drawing colors, a spray line composed of both a gray point and a black point may be drawn (see FIG. 28).

また、複数の描画色を用いる場合で、上述の吹き飛ばし処理を実行した場合、点の移動の結果、異なる色の点が重なる場合は、これらの色を混色した1つの点として表示するようにしても良い。これにより、多数の描画色を用いてスプレー線を描画したときに、上記吹き飛ばし処理によって、様々な色が混じり合った、プレイヤが予測不能なスプレー線を表示することができ、吹き飛ばし処理による新しい楽しみ方をプレイヤに提供する事ができる。   In addition, when a plurality of drawing colors are used and the above-described blow-off process is executed, if dots of different colors overlap as a result of the movement of the points, these colors are displayed as one mixed color point. Also good. As a result, when a spray line is drawn using a large number of drawing colors, the player can display a spray line that is unpredictable by the player with various colors mixed by the blow-off process. Can be provided to the player.

また、上記スプレー消しゴム処理において、スプレー線等を消去する際に、半透明効果を用いるようにしても良い。つまり、息を吹きかけるとすぐにスプレー線等が消去されるのではなく、スプレー線等が徐々に薄くなって、最後には綺麗に消去されるような処理を実行するようにしてもよい。   In the above-mentioned spray eraser process, a translucent effect may be used when erasing spray lines or the like. That is, instead of erasing the spray line or the like as soon as the air is blown, a process may be executed in which the spray line or the like is gradually thinned and finally erased cleanly.

また、上記のような、多数の点で構成される「スプレー線」の他、上述した「均一線」による描画処理についても、マイク入力音があるときにのみ実行されるように構成しても良い。更に、この場合、マイク入力音の大きさによって筆圧が変化するようにしてもよい。例えば、マイク入力音の大きさが小さいとき(息を吹く強さが弱いとき)は「かすれた線」や「色が薄い線」となり、マイク入力音の大きさが大きいとき(息を吹く強さが強いとき)は「はっきりとした線」や「色が濃い線」が描画されるようにしてもよい。また、その他、「ペン」による「均一線」の描画そのものは、マイク入力音がなくても実行されるが、当該「ペン」を用いて「均一線」を引いているときに、タッチパネル13に息を吹きかけることで、線の太さがリアルタイムに変更されるようにしてもよい。   In addition to the “spray line” composed of a large number of points as described above, the above-described drawing process using the “uniform line” may be executed only when there is a microphone input sound. good. Further, in this case, the writing pressure may be changed depending on the magnitude of the microphone input sound. For example, when the volume of the microphone input sound is low (when the intensity of breathing is weak), it becomes a “shaded line” or “light line”, and when the volume of the microphone input sound is large (the intensity of blowing) When the image is strong), a “clear line” or a “dark line” may be drawn. In addition, the drawing of the “uniform line” by the “pen” itself is executed even when there is no microphone input sound. However, when the “pen” is used to draw the “uniform line”, the drawing on the touch panel 13 is performed. The thickness of the line may be changed in real time by blowing.

また、上記スプレー処理における描画に関して、タッチ入力は継続して検出されているが、マイク入力音の音量が所定の閾値未満となった時(つまり、息を吹きかけるのをやめたとき)に、すぐにスプレー線の描画を停止せず、例えば1秒〜2秒程度はスプレー線の
描画を継続させるようにしてもよい。すなわち、プレイヤが息を吹きかけるのを止めたとしても、少しの間はプロペラの回転が継続し、その間はスプレー線が描画されるような処理を行っても良い。
Regarding the drawing in the spray process, touch input is continuously detected, but immediately when the volume of the microphone input sound falls below a predetermined threshold (that is, when you stop blowing) For example, the spray line drawing may be continued for about 1 to 2 seconds without stopping the drawing of the spray line. That is, even if the player stops breathing, the propeller may continue to rotate for a while and a spray line may be drawn during that time.

また、上記実施形態で作成した落書き後の画像を保存できるようにしてもよいことは言うまでもない。この場合は、上述した手書きレイヤー106(図6参照)に相当するデータだけを保存するようにしても良いし、撮影画像に手書きレイヤー106のデータを合成した、合成画像として保存するようにしても良い。   Needless to say, the image after graffiti created in the above embodiment may be stored. In this case, only the data corresponding to the handwriting layer 106 (see FIG. 6) described above may be stored, or the data of the handwriting layer 106 may be combined with the photographed image and stored as a composite image. good.

また、上記実施形態では、外側カメラ25で撮影した画像に対して落書きする場合を例としたが、これに限らず、外部カメラ25を用いない、つまり、撮影画像等に落書きをするのではない、一般的なペイントソフトに適用してもよい。   In the above-described embodiment, the case where an image photographed by the outer camera 25 is doodled is taken as an example. However, the present invention is not limited to this, and the external camera 25 is not used, that is, the photographed image or the like is not doodled. The present invention may be applied to general paint software.

また、本実施例では、2つの表示装置を備えた携帯型ゲーム装置を例に説明したが、単一の表示装置を備え当該表示装置の画面上にタッチパネルを備えた携帯端末であってもよい。また、本実施例では、操作領域に対するプレイヤの指示位置を検出する装置としてタッチパネルを例に上げたが、プレイヤが所定領域内の位置を指示できるいわゆるポインティングデバイスであればよく、例えば、画面上の任意位置を指示可能なマウス、表示画面を持たない操作面上の任意位置を指示するタブレット、遠隔から表示画面や表示画面周囲に配置されたマーカ等を撮影するための撮影手段を備えたデバイスによって、表示画面方向を指し示すことにより得られる撮影画像における表示画面やマーカの位置から、表示画面上の指し示された位置に相当する表示画面上の座標を算出するポインティングデバイスなどでもよい。   In this embodiment, the portable game device including two display devices has been described as an example. However, a portable terminal including a single display device and a touch panel on the screen of the display device may be used. . In the present embodiment, the touch panel is taken as an example of a device for detecting the player's designated position with respect to the operation area. However, a so-called pointing device that allows the player to designate a position in the predetermined area may be used. By a device equipped with a mouse that can indicate an arbitrary position, a tablet that indicates an arbitrary position on the operation surface that does not have a display screen, and a shooting means for shooting a display screen or markers placed around the display screen from a remote location A pointing device that calculates coordinates on the display screen corresponding to the indicated position on the display screen from the position of the display screen or marker in the captured image obtained by pointing the display screen direction may be used.

本発明にかかる描画処理プログラムおよび情報処理装置は、新規な操作性でプレイヤに描画を楽しませることができ、ゲーム装置等に有用である。   The drawing processing program and the information processing apparatus according to the present invention can make a player enjoy drawing with a novel operability, and are useful for a game apparatus or the like.

1…ゲーム装置
11…下側ハウジング
12…下側LCD
13…タッチパネル
14…操作ボタン
15、26…LED
16…マイクロフォン用孔
21…上側ハウジング
22…上側LCD
23…内側カメラ
24…音抜き孔
25…外側カメラ
27…タッチペン
28、29…メモリカード
31…CPU
32…メインメモリ
33…メモリ制御回路
34…保存用データメモリ
35…プリセットデータ用メモリ
36…メモリカードI/F
37…無線通信モジュール
38…ローカル通信モジュール
39…RTC
40…電源回路
41…I/F回路
42…マイク
43…アンプ
44…カートリッジI/F
1 ... Game device 11 ... Lower housing 12 ... Lower LCD
13 ... Touch panel 14 ... Operation buttons 15, 26 ... LED
16 ... Microphone hole 21 ... Upper housing 22 ... Upper LCD
23 ... Inner camera 24 ... Sound release hole 25 ... Outer camera 27 ... Touch pens 28, 29 ... Memory card 31 ... CPU
32 ... Main memory 33 ... Memory control circuit 34 ... Storage data memory 35 ... Preset data memory 36 ... Memory card I / F
37 ... Wireless communication module 38 ... Local communication module 39 ... RTC
40 ... Power supply circuit 41 ... I / F circuit 42 ... Microphone 43 ... Amplifier 44 ... Cartridge I / F

Claims (21)

表示画面上の位置を指示するためのポインティングデバイスと音声入力手段とを利用可能な情報処理装置のコンピュータに実行させる描画処理プログラムであって、
前記コンピュータを、
前記ポインティングデバイスによる指示に基づいて前記表示画面上の指示位置を連続的に取得する指示位置検出手段と、
前記音声入力手段へ所定の条件を満たす音声が入力されたことを検出する音声検出手段と、
前記音声検出手段によって前記音声入力が有ることが検出されている間、前記指示位置検出手段が取得した指示位置に基づく位置に所定の描画関連処理を実行する描画関連処理実行手段として機能させる、描画処理プログラム。
A drawing processing program for causing a computer of an information processing apparatus that can use a pointing device and voice input means for indicating a position on a display screen to execute the processing,
The computer,
An indicated position detecting means for continuously obtaining an indicated position on the display screen based on an instruction by the pointing device;
Voice detecting means for detecting that voice satisfying a predetermined condition is input to the voice input means;
While the presence of the voice input is detected by the voice detection unit, the drawing is caused to function as a drawing-related process execution unit that executes a predetermined drawing-related process at a position based on the designated position acquired by the designated position detection unit. Processing program.
前記描画関連処理実行手段は、前記音声検出手段で検出された音声に基づいて、当該音声の特性に応じて、前記実行する描画関連処理の内容を変更する、請求項1に記載の描画処理プログラム。   The drawing processing program according to claim 1, wherein the drawing-related process execution unit changes the content of the drawing-related process to be executed based on the sound detected by the sound detection unit according to the characteristics of the sound. . 前記描画関連処理実行手段は、前記音声検出手段によって繰り返し検出される前記音声の特性の時系列に従った変化に連動させて、前記実行する描画関連処理の内容を逐次変更する、請求項2に記載の描画処理プログラム。   The drawing-related process execution means sequentially changes the contents of the drawing-related process to be executed in conjunction with a time-series change in the sound characteristics repeatedly detected by the sound detection means. The drawing processing program described. 前記描画関連処理実行手段は、入力された音声の音量が所定の閾値以上のときにのみ、前記所定の描画関連処理を実行する、請求項2に記載の描画処理プログラム。   The drawing processing program according to claim 2, wherein the drawing-related processing execution unit executes the predetermined drawing-related processing only when the volume of the input voice is equal to or higher than a predetermined threshold. 前記描画関連処理実行手段は、前記入力座標検出手段で連続的に取得された指示位置に基づく位置を時系列で結ぶ線を描画する処理を前記描画関連処理として実行する、請求項2に記載の描画処理プログラム。   The drawing-related process execution unit executes the process of drawing a line connecting positions based on the designated position continuously acquired by the input coordinate detection unit in time series as the drawing-related process. Drawing processing program. 前記音声分析手段は、前記入力された音声の音量に応じて、前記線の太さ、および、当該線の描画色の濃さの少なくとも一つを変化させる、請求項5に記載の描画処理プログラム。   The drawing processing program according to claim 5, wherein the voice analysis unit changes at least one of a thickness of the line and a density of a drawing color of the line according to a volume of the input voice. . 前記描画関連処理実行手段は、前記指示位置に基づく位置を含む所定の範囲である描画範囲内に1つ以上の点を描画する処理を前記描画関連処理として実行する、請求項2に記載の描画処理プログラム。   3. The drawing according to claim 2, wherein the drawing-related process execution unit executes a process of drawing one or more points in a drawing range that is a predetermined range including a position based on the designated position as the drawing-related process. Processing program. 前記音声分析手段は、前記入力された音声の音量に応じて、前記描画範囲の大きさ、および、前記描画範囲内に描画する点の数のうち少なくとも一つを変化させる、請求項7に記載の描画処理プログラム。   8. The voice analysis unit according to claim 7, wherein at least one of a size of the drawing range and a number of points to be drawn in the drawing range is changed according to a volume of the input voice. Drawing processing program. 前記描画関連処理実行手段は、前記指示位置に基づく位置に近いほど前記複数の点の数の面密度が高くなるように点を描画し、前記指示位置に基づく位置から遠ざかるにつれて当該複数の点の数の面密度が低くなるように点を描画する、請求項8に記載の描画処理プログラム。   The drawing-related processing execution means draws a point so that the surface density of the plurality of points is higher as the position is closer to the position based on the designated position, and as the distance from the position based on the designated position increases, The drawing processing program according to claim 8, wherein the points are drawn so that the surface density of the number is low. 前記描画関連処理実行手段は、複数の点を前記描画範囲内のランダムな位置に描画する、請求項8に記載の描画処理プログラム。   The drawing processing program according to claim 8, wherein the drawing-related process execution unit draws a plurality of points at random positions within the drawing range. 前記描画関連処理実行手段は、前記表示画面に描画されている点を、前記指示位置に基づく位置と前記音声検出手段で検出された音声入力とに基づいて所定の方向に移動させる
処理を前記描画関連処理として実行する、請求項7に記載の描画処理プログラム。
The drawing-related process execution means performs a process of moving a point drawn on the display screen in a predetermined direction based on a position based on the designated position and a voice input detected by the voice detection means. The drawing processing program according to claim 7, which is executed as related processing.
前記描画関連処理実行手段は、
前記指示位置に基づく位置を基準点とし、当該基準点と前記表示画面に表示されている点を結ぶ線の方向、および、当該基準点から当該表示画面に表示されている点までの距離を算出する移動内容算出手段を含み、
前記移動内容算出手段で算出された方向および距離に基づいて、前記画面に表示されている点を移動させる、請求項11に記載の描画処理プログラム。
The drawing related process execution means includes:
Using the position based on the indicated position as a reference point, calculate the direction of the line connecting the reference point and the point displayed on the display screen, and the distance from the reference point to the point displayed on the display screen Including movement content calculation means for
The drawing processing program according to claim 11, wherein a point displayed on the screen is moved based on the direction and distance calculated by the movement content calculation unit.
前記描画処理プログラムは、前記コンピュータを、前記描画関連処理実行手段が前記所定の描画関連処理を実行しているとき、所定の音声出力手段に所定の効果音を出力させる効果音再生手段として更に機能させる、請求項1に記載の描画処理プログラム。   The drawing processing program further functions as a sound effect reproducing unit that causes a predetermined sound output unit to output a predetermined sound effect when the drawing related process execution unit is executing the predetermined drawing related process. The drawing processing program according to claim 1. 前記効果音再生手段は、前記音声検出手段で検出された音声の特性に応じて前記効果音の再生音量を変化させる、請求項13に記載の描画処理プログラム。   The drawing processing program according to claim 13, wherein the sound effect reproduction unit changes a reproduction volume of the sound effect according to a characteristic of the sound detected by the sound detection unit. 前記描画処理プログラムは、前記コンピュータを、
前記指示位置に所定のカーソル画像を表示するカーソル表示手段と、
前記描画関連処理実行手段が前記所定の描画関連処理を実行しているとき、前記カーソルをアニメーションさせるアニメーション表示手段として更に機能させる、請求項1に記載の描画処理プログラム。
The drawing processing program causes the computer to
Cursor display means for displaying a predetermined cursor image at the indicated position;
The drawing processing program according to claim 1, further causing the cursor to animate the cursor when the drawing related process executing means is executing the predetermined drawing related process.
前記アニメーション表示手段は、前記音声検出手段で検出された音声の特性に応じて前記アニメーションの速度を変化させる、請求項15に記載の描画処理プログラム。   The drawing processing program according to claim 15, wherein the animation display unit changes the speed of the animation according to a characteristic of the sound detected by the sound detection unit. 前記ポインティングデバイスはタッチパネルである、請求項1に記載の描画処理プログラム。   The drawing processing program according to claim 1, wherein the pointing device is a touch panel. 前記描画処理プログラムは、前記コンピュータを、
所定の撮影手段で撮影された画像データを取得する撮影画像取得手段と、
前記画像データに基づく撮影画像を前記表示画面に表示する撮影画像表示手段として更に機能させ、
前記描画関連処理実行手段は、前記撮影画像に対して描画関連処理を実行する、請求項1に記載の描画処理プログラム。
The drawing processing program causes the computer to
Captured image acquisition means for acquiring image data captured by a predetermined imaging means;
Further functioning as a captured image display means for displaying a captured image based on the image data on the display screen,
The drawing processing program according to claim 1, wherein the drawing related process execution unit executes a drawing related process on the captured image.
前記描画処理プログラムは、前記コンピュータを、前記音声検出手段で検出された音声が所定の音声であるいか否かを判定する特定音声判定手段として更に機能させ、
前記描画関連処理実行手段は、前記特定音声判定手段によって前記音声検出手段で検出された音声が所定の音声であると判定されたときにのみ、前記描画関連処理を実行する、請求項1に記載の描画処理プログラム。
The drawing processing program causes the computer to further function as specific sound determination means for determining whether or not the sound detected by the sound detection means is a predetermined sound,
The drawing-related process execution unit executes the drawing-related process only when it is determined by the specific sound determination unit that the sound detected by the sound detection unit is a predetermined sound. Drawing processing program.
表示画面上の位置を指示するためのポインティングデバイスと音声入力手段とを利用可能な情報処理装置であって、
前記ポインティングデバイスによる指示に基づいて前記表示画面上の指示位置を連続的に取得する指示位置検出手段と、
前記音声入力手段へ所定の条件を満たす音声が入力されたことを検出する音声検出手段と、
前記音声検出手段によって前記音声入力が有ることが検出されている間、前記指示位置に基づく位置に所定の描画関連処理を実行する描画関連処理実行手段とを備える、情報処理装置。
An information processing apparatus capable of using a pointing device and voice input means for indicating a position on a display screen,
An indicated position detecting means for continuously obtaining an indicated position on the display screen based on an instruction by the pointing device;
Voice detecting means for detecting that voice satisfying a predetermined condition is input to the voice input means;
An information processing apparatus comprising: a drawing-related process execution unit that executes a predetermined drawing-related process at a position based on the designated position while the voice detection unit detects that the voice input is present.
前記音声検出手段は、前記表示画面の近傍に配置されている、請求項20に記載の情報処理装置。   The information processing apparatus according to claim 20, wherein the voice detection unit is disposed in the vicinity of the display screen.
JP2009000443A 2009-01-05 2009-01-05 Drawing processing program, information processing apparatus, information processing system, and information processing control method Active JP5170771B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009000443A JP5170771B2 (en) 2009-01-05 2009-01-05 Drawing processing program, information processing apparatus, information processing system, and information processing control method
US12/646,306 US20100210332A1 (en) 2009-01-05 2009-12-23 Computer-readable storage medium having stored therein drawing processing program, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009000443A JP5170771B2 (en) 2009-01-05 2009-01-05 Drawing processing program, information processing apparatus, information processing system, and information processing control method

Publications (2)

Publication Number Publication Date
JP2010157192A true JP2010157192A (en) 2010-07-15
JP5170771B2 JP5170771B2 (en) 2013-03-27

Family

ID=42560413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009000443A Active JP5170771B2 (en) 2009-01-05 2009-01-05 Drawing processing program, information processing apparatus, information processing system, and information processing control method

Country Status (2)

Country Link
US (1) US20100210332A1 (en)
JP (1) JP5170771B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103840A (en) * 2010-11-09 2012-05-31 Sony Corp Information processor, program and command generation method
KR20140003875A (en) * 2012-06-29 2014-01-10 삼성전자주식회사 Method and apparatus for processing multiple inputs
JP2018092681A (en) * 2018-03-19 2018-06-14 グリー株式会社 Control program, control method, and information processing apparatus
JP2019109579A (en) * 2017-12-15 2019-07-04 フリュー株式会社 Photograph making game machine, editing method and program
KR20200109548A (en) * 2019-03-13 2020-09-23 (주)피플인사이드 System and program for providing drawing service using speech recognition

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120293555A1 (en) * 2010-01-15 2012-11-22 Akihiro Okano Information-processing device, method thereof and display device
EP2355472B1 (en) * 2010-01-22 2020-03-04 Samsung Electronics Co., Ltd. Apparatus and method for transmitting and receiving handwriting animation message
US20110291964A1 (en) 2010-06-01 2011-12-01 Kno, Inc. Apparatus and Method for Gesture Control of a Dual Panel Electronic Device
KR20120075845A (en) * 2010-12-29 2012-07-09 삼성전자주식회사 Method for inputting memo in touch screen terminal and device thereof
US20130063367A1 (en) * 2011-09-13 2013-03-14 Changsoo Jang Air actuated device
JP6051521B2 (en) * 2011-12-27 2016-12-27 株式会社リコー Image composition system
WO2013116937A1 (en) * 2012-02-09 2013-08-15 Flixel Photos Inc. Systems and methods for creation and sharing of selectively animated digital photos
CN103780738B (en) * 2012-10-17 2017-08-29 腾讯科技(深圳)有限公司 Mobile terminal image processing method and mobile terminal
JP6202345B2 (en) 2012-11-02 2017-09-27 ソニー株式会社 Display control apparatus, display control method, and program
JP5809202B2 (en) * 2013-06-21 2015-11-10 シャープ株式会社 Image display device capable of screen operation and operation method thereof
US20150228201A1 (en) * 2014-02-13 2015-08-13 Crayola, Llc Photo Strings
US20170236318A1 (en) * 2016-02-15 2017-08-17 Microsoft Technology Licensing, Llc Animated Digital Ink
JP6646731B2 (en) * 2016-03-28 2020-02-14 アイシン・エィ・ダブリュ株式会社 Server device, communication terminal, route search system, and computer program
US20180075657A1 (en) 2016-09-15 2018-03-15 Microsoft Technology Licensing, Llc Attribute modification tools for mixed reality
US10895954B2 (en) * 2017-06-02 2021-01-19 Apple Inc. Providing a graphical canvas for handwritten input
CN113920226A (en) * 2021-09-30 2022-01-11 北京有竹居网络技术有限公司 User interaction method and device, storage medium and electronic equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03196212A (en) * 1989-12-25 1991-08-27 Pfu Ltd Mouse cursor display control method
JPH087121A (en) * 1994-06-22 1996-01-12 Hitachi Ltd Information processor and attribute changing method
JPH09297858A (en) * 1996-05-07 1997-11-18 Sharp Corp Plotting device
JPH10261099A (en) * 1997-03-17 1998-09-29 Casio Comput Co Ltd Image processor
JP2003263308A (en) * 2002-12-27 2003-09-19 Nec Infrontia Corp Screen control device and method
JP2008125749A (en) * 2006-11-20 2008-06-05 Copcom Co Ltd Game device, program for achieving the game device and recording medium

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5969830A (en) * 1982-10-14 1984-04-20 Toshiba Corp Document/voice processor
US5613056A (en) * 1991-02-19 1997-03-18 Bright Star Technology, Inc. Advanced tools for speech synchronized animation
US5420607A (en) * 1992-09-02 1995-05-30 Miller; Robert F. Electronic paintbrush and color palette
JP2953267B2 (en) * 1992-10-13 1999-09-27 コナミ株式会社 External memory control device in image creation device
JPH06131437A (en) * 1992-10-20 1994-05-13 Hitachi Ltd Method for instructing operation in composite form
US5831615A (en) * 1994-09-30 1998-11-03 Intel Corporation Method and apparatus for redrawing transparent windows
JP2985697B2 (en) * 1994-12-16 1999-12-06 株式会社日立製作所 Sound output method of image information
US5838313A (en) * 1995-11-20 1998-11-17 Siemens Corporate Research, Inc. Multimedia-based reporting system with recording and playback of dynamic annotation
JPH10124689A (en) * 1996-10-15 1998-05-15 Nikon Corp Image recorder/reproducer
JPH1186015A (en) * 1997-09-09 1999-03-30 Canon Inc Method and apparatus for information processing and storage medium therefor
US6297818B1 (en) * 1998-05-08 2001-10-02 Apple Computer, Inc. Graphical user interface having sound effects for operating control elements and dragging objects
US7458013B2 (en) * 1999-05-12 2008-11-25 The Board Of Trustees Of The Leland Stanford Junior University Concurrent voice to text and sketch processing with synchronized replay
US6724918B1 (en) * 1999-05-12 2004-04-20 The Board Of Trustees Of The Leland Stanford Junior University System and method for indexing, accessing and retrieving audio/video with concurrent sketch activity
US20080104503A1 (en) * 2006-10-27 2008-05-01 Qlikkit, Inc. System and Method for Creating and Transmitting Multimedia Compilation Data
US8180073B1 (en) * 2008-02-08 2012-05-15 Mark J. Grote System for creating and manipulating digital media
US20110099476A1 (en) * 2009-10-23 2011-04-28 Microsoft Corporation Decorating a display environment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03196212A (en) * 1989-12-25 1991-08-27 Pfu Ltd Mouse cursor display control method
JPH087121A (en) * 1994-06-22 1996-01-12 Hitachi Ltd Information processor and attribute changing method
JPH09297858A (en) * 1996-05-07 1997-11-18 Sharp Corp Plotting device
JPH10261099A (en) * 1997-03-17 1998-09-29 Casio Comput Co Ltd Image processor
JP2003263308A (en) * 2002-12-27 2003-09-19 Nec Infrontia Corp Screen control device and method
JP2008125749A (en) * 2006-11-20 2008-06-05 Copcom Co Ltd Game device, program for achieving the game device and recording medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103840A (en) * 2010-11-09 2012-05-31 Sony Corp Information processor, program and command generation method
KR20140003875A (en) * 2012-06-29 2014-01-10 삼성전자주식회사 Method and apparatus for processing multiple inputs
KR102003255B1 (en) * 2012-06-29 2019-07-24 삼성전자 주식회사 Method and apparatus for processing multiple inputs
JP2019109579A (en) * 2017-12-15 2019-07-04 フリュー株式会社 Photograph making game machine, editing method and program
JP2018092681A (en) * 2018-03-19 2018-06-14 グリー株式会社 Control program, control method, and information processing apparatus
KR20200109548A (en) * 2019-03-13 2020-09-23 (주)피플인사이드 System and program for providing drawing service using speech recognition
KR102203573B1 (en) * 2019-03-13 2021-01-15 (주)피플인사이드 System and program for providing drawing service using speech recognition

Also Published As

Publication number Publication date
US20100210332A1 (en) 2010-08-19
JP5170771B2 (en) 2013-03-27

Similar Documents

Publication Publication Date Title
JP5170771B2 (en) Drawing processing program, information processing apparatus, information processing system, and information processing control method
JP5527215B2 (en) Handwriting input / output system, handwriting input sheet, information input system, information input auxiliary sheet
JP5415730B2 (en) Image processing program, image processing apparatus, image processing method, and image processing system
JP5806469B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
US9454834B2 (en) Storage medium storing image processing program for implementing controlled image display according to input coordinate, and information processing device
JP5274187B2 (en) Image processing program, information processing apparatus, image processing method, and image processing system
JP5295839B2 (en) Information processing apparatus, focus movement control method, and focus movement control program
US8167721B2 (en) Program for object movement stored in a non-transitory computer readable storage medium and object movement game apparatus
WO2015025442A1 (en) Information processing device and information processing method
JP5437726B2 (en) Information processing program, information processing apparatus, information processing system, and coordinate calculation method
US20100304859A1 (en) Storage medium having game program stored therein and game apparatus
JP5649809B2 (en) Multimedia sticky note device
JP2011138355A (en) Information processing program, information processor, and information processing method
JP5508032B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP5848230B2 (en) Handwriting input / output system, handwriting input sheet, information input system, information input auxiliary sheet
JP5544609B2 (en) Handwriting input / output system
KR102594106B1 (en) Control method of application for recording data and recording medium thereof
JP5358759B2 (en) Optical reader
JP2014220006A (en) Handwriting input/output system and optical reading device
JP6267074B2 (en) Handwriting input / output system and optical reader
JP2019036324A (en) Handwriting input sheet
US9230293B2 (en) Display controlling program and display controlling apparatus
JP2004295441A (en) Automatic photograph preparing device and method
JP5389876B2 (en) Voice control device, voice control method, and voice control program
JP2016181311A (en) Handwriting input sheet

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110902

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121221

R150 Certificate of patent or registration of utility model

Ref document number: 5170771

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250