JP5578701B2 - 楽音生成プログラム、楽音生成装置、楽音生成システム、および、楽音生成方法 - Google Patents

楽音生成プログラム、楽音生成装置、楽音生成システム、および、楽音生成方法 Download PDF

Info

Publication number
JP5578701B2
JP5578701B2 JP2009250671A JP2009250671A JP5578701B2 JP 5578701 B2 JP5578701 B2 JP 5578701B2 JP 2009250671 A JP2009250671 A JP 2009250671A JP 2009250671 A JP2009250671 A JP 2009250671A JP 5578701 B2 JP5578701 B2 JP 5578701B2
Authority
JP
Japan
Prior art keywords
input
screen
musical sound
effective position
pitch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009250671A
Other languages
English (en)
Other versions
JP2011095594A (ja
Inventor
洋一 山田
潤也 長田
有紗 保坂
英二 青沼
透 峰岸
大貴 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2009250671A priority Critical patent/JP5578701B2/ja
Priority to US12/651,111 priority patent/US8556717B2/en
Publication of JP2011095594A publication Critical patent/JP2011095594A/ja
Application granted granted Critical
Publication of JP5578701B2 publication Critical patent/JP5578701B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/814Musical performances, e.g. by evaluating the player's ability to follow a notation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/98Accessories, i.e. detachable arrangements optional for the use of the video game device, e.g. grip supports of game controllers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6072Methods for processing data by generating or executing the game program for sound processing of an input signal, e.g. pitch and rhythm extraction, voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/63Methods for processing data by generating or executing the game program for controlling the execution of the game in time
    • A63F2300/638Methods for processing data by generating or executing the game program for controlling the execution of the game in time according to the timing of operation or a time limit
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8047Music games
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/015Musical staff, tablature or score displays, e.g. for score reading during a performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/106Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters using icons, e.g. selecting, moving or linking icons, on-screen symbols, screen regions or segments representing musical elements or parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/201User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/211User input interfaces for electrophonic musical instruments for microphones, i.e. control of musical parameters either directly from microphone signals or by physically associated peripherals, e.g. karaoke control switches or rhythm sensing accelerometer within the microphone casing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/361Mouth control in general, i.e. breath, mouth, teeth, tongue or lip-controlled input devices or sensors detecting, e.g. lip position, lip vibration, air pressure, air velocity, air flow or air jet angle
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/155Spint wind instrument, i.e. mimicking musical wind instrument features; Electrophonic aspects of acoustic wind instruments; MIDI-like control therefor
    • G10H2230/195Spint flute, i.e. mimicking or emulating a transverse flute or air jet sensor arrangement therefor, e.g. sensing angle or lip position to trigger octave change
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/155Spint wind instrument, i.e. mimicking musical wind instrument features; Electrophonic aspects of acoustic wind instruments; MIDI-like control therefor
    • G10H2230/205Spint reed, i.e. mimicking or emulating reed instruments, sensors or interfaces therefor
    • G10H2230/211Spint harmonica, i.e. mimicking mouth operated wind instruments with multiple tuned free reeds, a.k.a. harmonica, blues harp, mouth organ, pitch pipe or ChengGong
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/461Gensound wind instruments, i.e. generating or synthesising the sound of a wind instrument, controlling specific features of said sound
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/461Gensound wind instruments, i.e. generating or synthesising the sound of a wind instrument, controlling specific features of said sound
    • G10H2250/465Reed instrument sound synthesis, controlling specific features of said sound

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、楽音生成プログラム、楽音生成装置、楽音生成システム、および、楽音生成方法に関し、例えば、ユーザの操作に応じて楽音を生成する楽音生成プログラム、楽音生成装置、楽音生成システム、および、楽音生成方法に関する。
従来、ユーザによって指示された画面上の位置に応じて楽音を発生させるものが知られている。例えば、特許文献1には、LCDに鍵盤が表示され、当該LCDを覆うように設けられたタッチパネルへのユーザのペンによる入力に応じて、どの鍵が押されたかを検出して、押された鍵に対応する音程の楽音をスピーカにより出力する電子機器が開示されている。
特開2002−229563号公報
しかしながら、上記のような電子機器は、ピアノのように、演奏者に対して固定的に設置された状態で演奏される楽器を模擬するのには適しているが、パンフルートやハーモニカのように、演奏者が楽器を上下方向または左右方向に動かしながら演奏するような楽器を模擬する場合には、直感的な操作感が得られない。
それゆえに本発明は、例えば、パンフルートやハーモニカのように演奏者が楽器を上下方向または左右方向に動かしながら演奏するような楽器を模擬する場合でも、ユーザによる直感的な操作が可能な楽音生成装置を提供することを目的とする。
上記目的を達成するために、本発明は以下の構成を採用した。
本発明の楽音生成プログラムは、ユーザの入力操作に応じて楽音信号を生成するための楽音生成プログラムであって、情報処理装置のコンピュータを、表示制御手段、移動制御手段、検出手段、入力判定手段、および生成手段として機能させる。
上記表示制御手段は、複数の音程のそれぞれに対応した複数の画像を画面に表示させる。上記移動制御手段は、第1の入力手段を通じて入力されるユーザによる第1の入力に応じて、上記表示制御手段により上記画面に表示される上記複数の画像の位置を移動させる。上記検出手段は、上記移動制御手段により移動する上記複数の画像の少なくとも1つの画像が上記画面上に固定された所定の有効位置に位置することを検出する。上記入力判定手段は、第2の入力手段を通じて入力されるユーザによる第2の入力が行われているか否かを判定する。上記生成手段は、上記入力判定手段による判定結果が肯定である場合の上記検出手段により上記画面上の上記有効位置にあることが検出された上記少なくとも1つの画像に基づいて、当該少なくとも1つの画像に対応した音程の楽音信号を生成する。
また、上記移動制御手段は、上記第1の入力に応じて、上記複数の画像を1つのまとまりとして移動させてもよい。
また、上記表示制御手段は、上記複数の画像を音程の順となるように並べて上記画面に表示させてもよい。
また、上記第1の入力手段がポインティングデバイスであり、上記移動制御手段は、上記ポインティングデバイスによる画面上の指示位置をユーザが移動させることに応じて、上記複数の画像の位置を移動させてもよい。
また、上記第1の入力手段が、上記画面上に設けられたタッチパネルであってもよい。これにより、ユーザが実際に楽器を移動させているかのような直感的な操作が可能となる。
また、上記第2の入力手段がマイクロフォンであり、上記入力判定手段は、ユーザによる上記マイクロフォンへの入力が行われているか否かを判定してもよい。
また、上記有効位置は、上記マイクロフォンから最も近い上記画面上の点を含んでもよい。これにより、より直観的な操作が可能となる。
なお、上記楽音生成プログラムは、上記コンピュータを、上記検出手段により上記画面上の上記有効位置にあることが検出された上記少なくとも1つの画像に対応する音程が、記憶手段に記憶されている楽譜データで指定されている音程と一致しているか否かを判定する音程判定手段としてさらに機能させてもよい。そして、上記生成手段は、(1)上記音程判定手段による判定結果が肯定であるときには、上記第2の入力に基づく入力値(例えば、後述する実施形態における、マイク入力の入力継続時間、マイク入力の振幅、など)が第1の閾値以上であることを条件として、上記少なくとも1つの画像に対応する音程の楽音信号を生成し、(2)上記音程判定手段による判定結果が否定であるときには、上記入力値が上記第1の閾値より大きい第2の閾値以上であることを条件として、上記少なくとも1つの画像に対応する音程の楽音信号を生成してもよい。これにより、ユーザが楽譜データと同じ楽音信号を生成しようとする場合の誤操作を防止することができると同時に、ユーザが楽譜データとは異なる楽音信号を生成することも可能になる。
また、上記表示制御手段は、上記有効位置に所定の標識を表示する標識表示制御手段を含んでもよい。これにより、ユーザが有効位置を容易に認識することができ、操作性が向上する。
また、上記表示制御手段は、上記検出手段により上記画面上の上記有効位置にあることが検出された上記少なくとも1つの画像に応じて、上記標識の色を変更する標識色変更手段を含んでもよい。これにより、有効位置に位置する画像をユーザが容易に認識することができ、操作性が向上する。
また、上記楽音生成プログラムは、上記第1の入力または上記第2の入力に応じて、上記有効位置の大きさを変更する変更手段として上記コンピュータをさらに機能させてもよい。これにより、より多彩な楽音信号を生成することが可能となる。
なお、上記楽音生成プログラムは、コンピュータ読み取り可能な記憶媒体(例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性の半導体メモリカード、ROMなど)に格納されてもよい。
本発明の楽音生成装置は、ユーザの入力操作に応じて楽音信号を生成する楽音生成装置であって、表示制御手段、移動制御手段、検出手段、入力判定手段、および生成手段を備える。
上記表示制御手段は、複数の音程のそれぞれに対応した複数の画像を画面に表示させる。上記移動制御手段は、第1の入力手段を通じて入力されるユーザによる第1の入力に応じて、上記表示制御手段により上記画面に表示される上記複数の画像の位置を移動させる。上記検出手段は、上記移動制御手段により移動する上記複数の画像の少なくとも1つの画像が上記画面上に固定された所定の有効位置に位置することを検出する。上記入力判定手段は、第2の入力手段を通じて入力されるユーザによる第2の入力が行われているか否かを判定する。上記生成手段は、上記入力判定手段による判定結果が肯定である場合の上記検出手段により上記画面上の上記有効位置にあることが検出された上記少なくとも1つの画像に基づいて、当該少なくとも1つの画像に対応した音程の楽音信号を生成する。
また、本発明は、上記各手段を備える楽音生成システムや、上記各手段で行われる動作を含む楽音生成方法の形態で実施されてもよい。
本発明によれば、例えば、パンフルートやハーモニカのように演奏者が楽器を上下方向または左右方向に動かしながら演奏するような楽器を模擬する場合でも、ユーザによる直感的な操作が可能となる。
本発明の一実施形態に係るゲーム装置の外観図 ゲーム装置の内部構成図 ゲームプレイ中に表示される画像の一例を示す図 ユーザによるタッチ操作の一例を示す図 ユーザによるタッチ操作の一例を示す図 ユーザによるタッチ操作の一例を示す図 ユーザによるタッチ操作の一例を示す図 RAMのメモリマップの一例を示す図 CPUコアによって実行される処理の流れを示す図 特定の入力操作に対する出力楽音信号の一例を示す図 特定の入力操作に対する出力楽音信号の一例を示す図 変形例においてゲームプレイ中に表示される画像の一例を示す図 有効位置表示画像の幅を決定するためのパラメータの一例を示す図 変形例において特定の入力操作に対する出力楽音信号の一例を示す図 変形例において特定の入力操作に対する出力楽音信号の一例を示す図
以下、本発明の実施形態について説明する。
図1は、本発明の一実施形態に係るゲーム装置の外観図である。ただし、本発明は、携帯型のゲーム装置に限らず、据置型のゲーム装置にも適用可能である。さらに、本発明はゲーム装置に限らず、映像コンテンツ表示機能を有する任意の情報処理装置(例えば、パーソナルコンピュータや携帯電話やテレビジョン受像器やDVDプレイヤ等)に適用可能である。
図1において、ゲーム装置10は、第1のLCD(Liquid Crystal Display:液晶表示装置)11および第2のLCD12を含む。ハウジング13は上側ハウジング13aと下側ハウジング13bとによって構成されている。第1のLCD11は上側ハウジング13aに収納され、第2のLCD12は下側ハウジング13bに収納される。第1のLCD11および第2のLCD12の解像度はいずれも256dot×192dotである。なお、本実施形態では表示装置としてLCDを用いているが、例えばEL(Electro Luminescence:電界発光)を利用した表示装置など、他の任意の表示装置を利用することができる。また任意の解像度のものを利用することができる。
上側ハウジング13aには、後述する1対のスピーカ(図3の30aおよび30b)からの音を外部に放出するための音抜き孔18aおよび18bが形成されている。また、上側ハウジング13aと下側ハウジング13bとを開閉可能に接続するヒンジ部にはマイクロフォン用孔33が設けられている。
下側ハウジング13bには、入力装置として、十字スイッチ14a、スタートスイッチ14b、セレクトスイッチ14c、Aボタン14d、Bボタン14e、Xボタン14f、およびYボタン14gが設けられている。また、下側ハウジング13bの側面には、図示しないLボタンおよびRボタンが設けられている。また、さらなる入力装置として、第2のLCD12の画面上にタッチパネル15が装着されている。下側ハウジング13bの側面には、電源スイッチ19、メモリカード17を接続するための挿入口35(図1に示す一点鎖線)、スティック16を収納するための挿入口36(図1に示す点線)が設けられている。
タッチパネル15としては、例えば抵抗膜方式や光学式(赤外線方式)や静電容量結合式など、任意の方式のものを利用することができる。タッチパネル15は、スティック16に限らず指で操作することも可能である。本実施形態では、タッチパネル15として、第2のLCD12の解像度と同じく256dot×192dotの解像度(検出精度)のものを利用する。ただし、必ずしもタッチパネル15の解像度と第2のLCD12の解像度が一致している必要はない。
メモリカード17は、ゲームプログラムを記憶するROM17aと、バックアップデータを書き換え可能に記憶するフラッシュ17bを搭載し、下側ハウジング13bに設けられた挿入口35に着脱自在に装着される。図1では省略するが、挿入口35の奥部には、メモリカード17の挿入方向先端部に設けられるコネクタと接合するためのコネクタ23(図2参照)が設けられている。メモリカード17が挿入口35に挿入されると、コネクタ同士が接合され、ゲーム装置10のCPUコア21(図2参照)がメモリカード17にアクセス可能となる。
次に、図2を参照してゲーム装置10の内部構成を説明する。図2は、ゲーム装置10の内部構成を示すブロック図である。図2において、ハウジング13に収納される電子回路基板20には、CPUコア21が実装される。CPUコア21には、バス22を介して、コネクタ23が接続されるとともに、入出力インターフェース回路(図面ではI/F回路と記す)25、第1GPU(Graphics Processing Unit)26、第2GPU27、RAM24、およびLCDコントローラ31、およびワイヤレス通信部34が接続される。コネクタ23には、メモリカード17が着脱自在に接続される。I/F回路25には、タッチパネル15、左スピーカ30a、右スピーカ30b、図1の十字スイッチ14aやAボタン14d等から成る操作スイッチ部14、およびマイクロフォン37が接続される。左スピーカ30aと右スピーカ30bは、音抜き孔18a、18bの内側にそれぞれ配置される。マイクロフォン37は、マイクロフォン用孔33の内側に配置される。
第1GPU26には、第1VRAM(Video RAM)28が接続され、第2GPU27には、第2VRAM29が接続される。第1GPU26は、CPUコア21からの指示に応じて第1の表示画像を生成し、第1VRAM28に描画する。第2GPU27は、同様にCPUコア21からの指示に応じて第2の表示画像を生成し、第2VRAM29に描画する。第1VRAM28および第2VRAM29はLCDコントローラ31に接続されている。
LCDコントローラ31はレジスタ32を含む。レジスタ32はCPUコア21からの指示に応じて0または1の値を記憶する。LCDコントローラ31は、レジスタ32の値が0の場合は、第1VRAM28に描画された第1の表示画像を第1のLCD11に出力し、第2VRAM29に描画された第2の表示画像を第2のLCD12に出力する。また、レジスタ32の値が1の場合は、第1VRAM28に描画された第1の表示画像を第2のLCD12に出力し、第2VRAM29に描画された第2の表示画像を第1のLCD11に出力する。
ワイヤレス通信部34は、他のゲーム装置のワイヤレス通信部との間で、データを送受信する機能を有している。また、ゲーム装置10は、ワイヤレス通信部34を介してインターネット等の広域ネットワークに接続することが可能であり、ネットワークを介して他のゲーム装置との間で通信を行うことも可能である。
本実施形態では、ゲーム装置10のCPUコア21は、メモリカード17のROM17a等からRAM24にロードされた楽音生成プログラムを実行する。以下、図3〜図7を参照して、楽音生成プログラムに基づくゲーム装置10の動作の概要を説明する。
図3は、楽音生成プログラムに基づいて第1のLCD11および第2のLCD12に表示される初期画像を示している。図3において、第1のLCD11には、楽譜40とキャラクタ41が表示され、第2のLCD12には、パンフルート42が表示される。
楽譜40は、演奏すべき楽曲の楽譜を示す画像である。キャラクタ41は、仮想ゲーム世界においてパンフルートを演奏するキャラクタを示す画像である。
パンフルート42は、互いに異なる音程に対応する6本のパイプ(第1パイプ42a〜第6パイプ42f)で構成されている。本実施形態では、第1パイプ42aは音程「A」に対応し、第2パイプ42bは音程「B」に対応し、第3パイプ42cは音程「C」に対応し、第4パイプ42dは音程「D」に対応し、第5パイプ42eは音程「E」に対応し、第6パイプ42fは音程「F」に対応している(図8参照)。これらの6本のパイプは、それぞれ異なる色で表示されている。本実施形態では、第1パイプ42aは「白」で表示され、第2パイプ42bは「赤」で表示され、第3パイプ42cは「青」で表示され、第4パイプ42dは「緑」で表示され、第5パイプ42eは「黄」で表示され、第6パイプ42fは「黒」で表示される(図8参照)。
ユーザがタッチパネル15上の任意の点をスティック16でタッチすると、第1のLCD11および第2のLCD12に表示される画像が、図4に示すような画像に変化する。すなわち、パンフルート42の表示位置が、図3に示した初期位置から、図4に示すような演奏位置(初期位置よりも画面の上方向に少しずれた位置)へと変化する。さらに、画面の垂直方向に延びる線状の有効位置表示画像43が表示される。有効位置表示画像43の詳細については後述する。なお、ユーザがタッチパネル15からスティック16を離すと、第1のLCD11および第2のLCD12の表示画像は、図3に示した初期画像に戻る。
ユーザは、タッチパネル15をスティック16でタッチしたまま、タッチ位置を画面の水平方向にずらす(以下、このような操作を“スライド操作”と称す)ことによって、第1のLCD11および第2のLCD12に表示されているパンフルート42の位置を画面の水平方向に移動させることができる。
図5は、図4の状態からユーザが画面の右方向にスライド操作をしたときの様子を示している。ユーザが画面の右方向にスライド操作を行うと、それに応じてパンフルート42が画面の右方向に移動する。パンフルート42の移動量は、スライド操作の移動量に比例する。
なお、有効位置表示画像43の色は、有効位置表示画像43と重なって表示されているパイプと同じ色となる。したがって、図5の状態においては、有効位置表示画像43の色は、有効位置表示画像43と重なって表示されている第2パイプ42bと同じ「赤」となる。
図5の状態において、ユーザがマイクロフォン用孔33に向けて息を吹きかけると、その時点で有効位置表示画像43と重なって表示されている第2パイプ42bに対応する音程「B」の楽音が、音抜き孔18a、18bを通じて出力される。すなわち、ユーザがマイクロフォン用孔33に向けて息を吹きかけると、その時点で有効位置表示画像43と重なって表示されているパイプに対応する音程の楽音が出力される。
なお、本実施形態では、図3のようにユーザがスティック16でタッチパネル15をタッチしていない状態では、ユーザがマイクロフォン用孔33に向けて息を吹きかけたとしても楽音は出力されない。
図6は、図5の状態からユーザが画面の左方向にスライド操作をしたときの様子を示している。ユーザが画面の左方向にスライド操作を行うと、それに応じてパンフルート42が画面の左方向に移動する。パンフルート42の移動量は、スライド操作の移動量に比例する。
なお、有効位置表示画像43の色は、有効位置表示画像43と重なって表示されている第3パイプ42cと同じ「青」となる。
図6の状態において、ユーザがマイクロフォン用孔33に向けて息を吹きかけると、その時点で有効位置表示画像43と重なって表示されている第3パイプ42cに対応する音程「C」の楽音が、音抜き孔18a、18bを通じて出力される。
図7は、図6の状態からユーザがさらに画面の左方向にスライド操作をしたときの様子を示している。ユーザがさらに画面の左方向にスライド操作を行うと、それに応じてパンフルート42が図6の状態からさらに画面の左方向に移動する。
なお、有効位置表示画像43の色は、有効位置表示画像43と重なって表示されている第6パイプ42fと同じ「黒」となる。
図7の状態において、ユーザがマイクロフォン用孔33に向けて息を吹きかけると、その時点で有効位置表示画像43と重なって表示されている第6パイプ42fに対応する音程「F」の楽音が、音抜き孔18a、18bを通じて出力される。
以上のように、ユーザは、有効位置表示画像43によって示される位置に所望の音程に対応するパイプが来るようにスライド操作によってパンフルート42を移動させて、マイクロフォン用孔33に向けて息を吹きかけることにより、所望の音程の楽音を出力させることができる。
なお、ユーザが楽譜40の通りに正しく楽曲を演奏できたか否かをゲーム装置10が判定して、その判定結果に応じて仮想ゲーム世界に所定のイベント(例えば、キャラクタ41が褒美を獲得するなど)を発生させるようにしてもよい。
次に、楽音生成プログラムに基づくゲーム装置10の動作について、さらに詳細に説明する。
図8は、楽音生成プログラムの実行時にRAM24に格納されているプログラムおよびデータの一部を示している。RAM24には、楽音生成プログラム、パンフルートデータ、画像データ、楽譜データ、楽音データなどが格納されている。
パンフルートデータには、第1パイプ42a〜第6パイプ42fの各パイプの音程、色、位置(仮想ゲーム空間における位置)を示すデータが含まれている。なお、各パイプの位置は、前述のスライド操作に応じて更新される。
画像データには、パンフルート画像、有効位置表示画像、キャラクタ画像、楽譜画像が含まれている。
楽譜データは、ユーザが演奏すべき楽曲を示すデータ(例えば、複数の音程を時系列で並べたデータ)である。
楽音データは、パンフルートの音色の楽音信号を生成するためのデータである。
次に、図9のフローチャートを参照して、楽音生成プログラムに基づくゲーム装置10のCPUコア21の処理の流れを説明する。
楽音生成プログラムの実行が開始されると、CPUコア21は、まずステップS10において初期処理を行う。この初期処理には、例えば、図3に示した初期画面を表示する処理や、後述の入力継続時間カウンタに初期値として0をセットする処理などが含まれる。その後、処理はステップS12に進む。
ステップS12では、CPUコア21は、タッチパネル15からの信号に基づいて、タッチ入力があるか否か(すなわち、ユーザがスティック16や指などでタッチパネル15にタッチしているか否か)を判定する。そして、タッチ入力がある場合には処理はステップS18に進み、タッチ入力が無い場合には処理はステップS14に進む。
ステップS14では、CPUコア21は、パンフルート42を前述の初期位置(図3参照)に表示する。その後、処理はステップS16に進む。
ステップS16では、CPUコア21は、入力継続時間カウンタを0にリセットする。入力継続時間カウンタとは、有効位置表示画像43と重なっているパイプが変化しない状態でユーザがマイクロフォン用孔33に継続的に息を吹きかけている時間を計測するためのタイマであって、そのカウント値はRAM24に記憶され、CPUコア21によって更新される(後述のステップS40)。その後、処理はステップS12に戻る。
ステップS18では、CPUコア21は、パンフルート42を前述の演奏位置(図4〜図7参照)に表示する。その後、処理はステップS20に進む。
ステップS20では、CPUコア21は、タッチパネル15からの信号に基づいて検出されるタッチ位置(2次元座標値)を、RAM24に記憶する。その後、処理はステップS22に進む。
ステップS22では、CPUコア21は、RAM24に記憶されている最新のタッチ位置と、その直前のタッチ位置とに基づいて、画面の水平方向に関するタッチ位置の移動量を計算する。その後、処理はステップS24に進む。
ステップS24では、CPUコア21は、ステップS22で計算されたタッチ位置の移動量に応じて、仮想ゲーム空間においてパンフルート42を移動させる。具体的には、例えば、ステップS22で計算されたタッチ位置の移動量に応じて、RAM24に記憶されているパンフルートデータ(図8参照)における各パイプの位置(Xa〜Xf)を更新する。その後、処理はステップS26に進む。
ステップS26では、CPUコア21は、ステップS24で更新された各パイプの位置(Xa〜Xf)に基づいて、第1パイプ42a〜第6パイプ42fのうち、有効位置に位置しているパイプ(すなわち、有効位置表示画像43と重なって表示されているパイプ)を特定し、そのパイプを識別するための情報をRAM24に記憶する。その後、処理はステップS28に進む。
ステップS28では、CPUコア21は、ステップS24でパンフルート42を移動させた結果、有効位置に位置するパイプが変化したか否か(すなわち、或るパイプから別のパイプに変化したか否か)を判定する。そして、有効位置に位置するパイプが変化した場合には、処理はステップS30に進み、有効位置に位置するパイプが変化していない場合には処理はステップS32に進む。
ステップS30では、CPUコア21は、入力継続時間カウンタを0にリセットする。その後、処理はステップS32に進む。
ステップS32では、CPUコア21は、有効位置に位置するパイプに応じて、有効位置表示画像43の色を決定する。具体的には、RAM24に記憶されているパンフルートデータ(図8参照)に基づいて、有効位置に位置するパイプの色を取得し、当該パイプと同じ色に、有効位置表示画像43の色を決定する。その後、処理はステップS34に進む。
ステップS34では、CPUコア21は、ステップS32で決定された色で、有効位置表示画像43を表示する。
ステップS36では、マイクロフォン37からの入力信号に基づいて、マイク入力があるか否か(すなわち、ユーザがマイクロフォン用孔33に息を吹きかけているか否か)を判定する。そして、マイク入力がある場合には処理はステップS40に進み、マイク入力が無い場合には処理はステップS38に進む。
なお、マイク入力があるか否かを判定するための手法としては、種々の手法が考えられる。例えば、マイクロフォン37からの入力信号の振幅(すなわち、マイク入力の音量)に基づいて判定しても良い。また、マイクロフォン37からの入力信号の波形の特徴を分析することによって、ユーザがマイクロフォン用孔33に息を吹きかけているのか、それとも単に言葉を発しているのかを判別し、ユーザがマイクロフォン用孔33に息を吹きかけている場合にのみ、マイク入力があると判定してもよい(例えば、特開2006−145851号公報の段落[0085]〜[0096]を参照)。
ステップS38では、CPUコア21は、入力継続時間カウンタを0にリセットする。その後、処理はステップS12に戻る。
ステップS40では、CPUコア21は、入力継続時間カウンタをカウントアップ(例えば、カウント値をインクリメント)する。その後、処理はステップS42に進む。
ステップS42では、CPUコア21は、RAM24に記憶されている楽譜データを参照して、有効位置に位置するパイプの音程が、楽譜に規定されている音程(すなわち、その時点においてユーザが演奏すべき音程)と一致するか否かを判定する。そして、それらの音程が一致する場合には処理はステップS44に進み、一致しない場合には処理はステップS46に進む。
ステップS44では、CPUコア21は、入力継続時間カウンタのカウント値が、予め定められた第1閾値ΔT1以上か否かを判定する。そして、入力継続時間カウンタのカウント値が第1閾値ΔT1以上である場合には処理はステップS48に進み、そうでない場合には処理はステップS12に戻る。なお、第1閾値ΔT1は、0以上の値であればよい。
ステップS46では、CPUコア21は、入力継続時間カウンタのカウント値が、予め定められた第2閾値ΔT2以上か否かを判定する。なお、当該第2閾値ΔT2は、上記第1閾値ΔT1よりも大きい値である。そして、入力継続時間カウンタのカウント値が第2閾値ΔT2以上である場合には処理はステップS48に進み、そうでない場合には処理はステップS12に戻る。
ステップS48では、CPUコア21は、RAM24に記憶されている楽音データに基づいて、有効位置に位置するパイプの音程に対応する楽音信号を生成し、左スピーカ30aおよび右スピーカ30bへ出力する。その後、処理はステップS12に戻る。
なお、本実施形態では、ステップS42の判定結果に応じて、ステップS44およびステップS46で利用する閾値(第1閾値ΔT1、第2閾値ΔT2)の大きさを変えている。以下、図10および図11を参照して、その意義について説明する。
まず、図10を参照して、ユーザが楽譜通りに演奏を行う場合について説明する。ここでは、楽譜には音程「B」→音程「C」→音程「F」の順に音程が並んでおり、ユーザがこの通りに演奏するものとする。
ユーザは、まず時刻t1で、音程「B」の楽音信号を出力させるための準備として、音程「B」に対応する第2パイプ42bを有効位置へと移動させる。そして、時刻t2で、ユーザはマイクロフォン用孔33へ息を吹きかけ始める。その結果、時刻t2から入力継続時間カウンタのカウントアップが開始される。このとき、演奏すべき楽譜の音程(ここでは「B」)と、有効位置に位置するパイプの音程(ここでは「B」)とが一致しているので、時刻t2から第1閾値ΔT1に相当する時間が経過した時点で、音程「B」の楽音信号の出力が開始される。
その後、ユーザはマイクロフォン用孔33へ継続的に息を吹きかけつつ、時刻t3で、音程「C」に対応する第3パイプ42cを有効位置へと移動させる。その結果、時刻t3で入力継続時間カウンタがリセットされて、再びカウントアップが開始される。このとき、演奏すべき楽譜の音程(ここでは「C」)と、有効位置に位置するパイプの音程(ここでは「C」)とが一致しているので、時刻t3から第1閾値ΔT1に相当する時間が経過した時点で、音程「C」の楽音信号の出力が開始される。
その後、ユーザはマイクロフォン用孔33へ継続的に息を吹きかけつつ、時刻t6で、音程「F」に対応する第6パイプ42fを有効位置へと移動させる。しかしながら、ユーザがスライド操作によって第6パイプ42fを有効位置へと移動させる過程で、第4パイプ42dおよび第5パイプ42eが有効位置を素早く横切ることになる。具体的には、時刻t4〜t5の期間は、第4パイプ42dが有効位置に位置することになり、時刻t5〜t6の期間は、第5パイプ42eが有効位置に位置することになる。
ここで、時刻t4〜t5の期間および時刻t5〜t6の期間は、いずれも、第1閾値ΔT1に対応する時間よりも長く、且つ第2閾値ΔT2に対応する時間よりも短いものとする。この場合、もし仮に、時刻t4から第1閾値ΔT1に相当する時間が経過した時点で音程「D」の楽音信号の出力が開始されてしまうとすると、ユーザの意図に反して音程「D」の楽音信号が出力されることになってしまい、操作性が良くないという印象をユーザに与えてしまう。しかしながら、本実施形態によれば、演奏すべき楽譜の音程(ここでは「C」)と、有効位置に位置するパイプの音程(ここでは「D」)とが一致していないので、時刻t4から第2閾値ΔT2に相当する時間が経過しない限り、音程「D」の楽音信号は出力されない。その結果、ユーザの意図に反して音程「D」の楽音信号が出力されてしまうことはない。時刻t5〜t6の期間についても同様に、ユーザの意図に反して音程「E」の楽音信号が出力されてしまうことはない。
次に、図11を参照して、ユーザが意図的に楽譜と異なる演奏を行う場合について説明する。ここでは、楽譜には音程「B」→音程「C」→音程「F」の順に音程が並んでおり、ユーザは音程「B」→音程「C」→音程「D」の順に演奏するものとする。
ユーザは、まず時刻t1で、音程「B」の楽音信号を出力させるための準備として、音程「B」に対応する第2パイプ42bを有効位置へと移動させる。そして、時刻t2で、ユーザはマイクロフォン用孔33へ息を吹きかけ始める。その結果、時刻t2から入力継続時間カウンタのカウントアップが開始される。このとき、演奏すべき楽譜の音程(ここでは「B」)と、有効位置に位置するパイプの音程(ここでは「B」)とが一致しているので、時刻t2から第1閾値ΔT1に相当する時間が経過した時点で、音程「B」の楽音信号の出力が開始される。
その後、ユーザはマイクロフォン用孔33へ継続的に息を吹きかけつつ、時刻t3で、音程「C」に対応する第3パイプ42cを有効位置へと移動させる。その結果、時刻t3で入力継続時間カウンタがリセットされて、再びカウントアップが開始される。このとき、演奏すべき楽譜の音程(ここでは「C」)と、有効位置に位置するパイプの音程(ここでは「C」)とが一致しているので、時刻t3から第1閾値ΔT1に相当する時間が経過した時点で、音程「C」の楽音信号の出力が開始される。
その後、ユーザはマイクロフォン用孔33へ継続的に息を吹きかけつつ、時刻t6で、音程「D」に対応する第4パイプ42dを有効位置へと移動させる。その結果、時刻t6で入力継続時間カウンタがリセットされて、再びカウントアップが開始される。このとき、演奏すべき楽譜の音程(ここでは「F」)と、有効位置に位置するパイプの音程(ここでは「D」)とが一致していないので、時刻t6から第2閾値ΔT2に相当する時間が経過した時点で、音程「D」の楽音信号の出力が開始される。
このように、楽譜の音程と、ユーザが演奏したいと思う音程とが一致していない場合でも、第2閾値ΔT2に相当する時間が経過した時点で、ユーザが演奏したいと思う音程に対応する楽音信号の出力が開始される。よって、ユーザは、楽譜通りに演奏するだけでなく、任意にアレンジして楽曲を演奏することが可能となる。
以上のように、ステップS42の判定結果に応じて、ステップS44およびステップS46で利用する閾値(第1閾値ΔT1、第2閾値ΔT2)の大きさを変えることによって、(1)楽譜通りに演奏するときの操作性を向上させることと、(2)楽譜にとらわれずに演奏可能にすること、の両方を実現している。
以上のように、本実施形態によれば、ユーザはタッチパネル15を利用したスライド操作によってパンフルート42を画面の水平方向に移動させることができ、音を鳴らしたいパイプを有効位置に移動させた状態でマイクロフォン用孔33へ息を吹きかけることによって、そのパイプに対応する音程の楽音信号を出力させることができる。したがって、ユーザはあたかも本当にパンフルートを演奏しているかのような直感的な操作によって、パンフルートの音色の楽音信号を出力させることができる。
なお、より直感的な操作を可能にするために、有効位置は、マイクロフォン用孔33の位置(すなわちマイクロフォン37の位置)の位置から最も近い画面上の点を含むことが好ましい。例えば、本実施形態のように、有効位置が線状である場合には、マイクロフォン用孔33の位置から最も近い画面上の点を通るように有効位置が設定されるのが好ましい(図4参照)。これにより、ユーザは、マイクロフォン用孔33に向けて息を吹きかけることで、あたかも有効位置に位置するパイプに向けて息を吹きかけている感覚を得ることができ、より直感的な操作が可能となる。
また、本実施形態によれば、ユーザはタッチパネル15を利用したスライド操作によってパンフルート42を画面の水平方向に移動させることができるので、1画面内に収まらないような、多数のパイプを有する横長のパンフルートであっても演奏することが可能である。
また、本実施形態によれば、ユーザは有効位置の近傍だけを見て演奏することができるので、演奏中に視線をあちこちに移動させる必要が無いので、操作が楽であり、操作ミスも減る。このような効果は、画面が横長のワイド画面である場合には、より顕著となる。
また、本実施形態によれば、有効位置を示す標識(有効位置表示画像43)が表示されるので、ユーザは有効位置を容易に把握することができる。また、有効位置に位置するパイプの色に応じて、有効位置表示画像43の色が変化するので、ユーザは、有効位置に位置するパイプがどのパイプであるかを、有効位置表示画像43の色に基づいて、容易に把握することができる。なお、同様の効果を達成するために、有効位置表示画像43の色を変更する代わりに、有効位置に位置するパイプを、他のパイプと区別するために強調表示(例えば、そのパイプだけ色を変更したり、輪郭線を太くしたり、など)するようにしてもよい。
なお、上記実施形態は単なる一例に過ぎず、種々の変形例が考えられる。以下、上記実施形態の種々の変形例について説明する。
本実施形態では、第1のLCD11と第2のLCD12の2つの画面を利用しているが、他の実施例では、1つの画面だけを利用するようにしてもよい。
本実施形態では、タッチパネル15を利用してパンフルート42を移動させているが、タッチパネル15の代わりに、別の入力装置を利用してパンフルート42を移動させてもよい。例えば、画面上の位置を指示することのできるポインティングデバイス(マウス、トラックボール、タッチパネル、タッチパッドなど)を利用してパンフルート42を移動させてもよいし、十字スイッチ14aのように方向を指示することのできる入力装置を利用してパンフルート42を移動させてもよい。
本実施形態では、マイク入力があったことに応じて楽音信号を生成しているが、他の実施例では、マイク入力の代わりに、別の入力装置からの入力を利用して楽音信号を生成するようにしてもよい。例えば、所定のボタン操作(例えば、Aボタン14dの押下)があったことに応じて楽音信号を生成するようにしてもよい。
本実施形態では、パンフルートを演奏する場合について説明したが、本発明はパンフルートに限らず、他の任意の楽器(架空の楽器であってもよい)にも適用できる。特に、パンフルートやハーモニカのように、演奏者が楽器を上下方向または左右方向に動かしながら演奏するような楽器に本発明は好適である。
本実施形態では、楽譜40およびキャラクタ41を表示しているが、他の実施例では、楽譜40やキャラクタ41が表示されなくてもよい。
本実施形態では、有効位置に位置するパイプの色に応じて、有効位置表示画像43の色を変化させているが、他の実施例では、有効位置表示画像43の色は固定であってもよい。また、6本のパイプの色も同一であってもよい。また、有効位置表示画像43が表示されなくてもよい。
本実施形態では、基本的に楽譜データに基づいてユーザがパンフルートを演奏しているが、他の実施例では、楽譜データが存在せず、ユーザが完全に自由にパンフルートを演奏できるようにしてもよい。
本実施形態では、ステップS42の判定結果に応じて、ステップS44およびステップS46で利用する閾値(第1閾値ΔT1、第2閾値ΔT2)の大きさを変えているが、これは必須ではなく、共通の閾値を用いるようにしてもよい。
本実施形態では、ユーザの左右方向のスライド操作に応じて、パンフルートを画面の水平方向に移動させているが、他の実施例では、ユーザの上下方向のスライド操作に応じて、楽器を画面の垂直方向に移動させてもよい。さらには、ユーザの任意の方向のスライド操作に応じて、楽器を画面の任意の方向に移動させてもよい。
本実施形態では、有効位置を固定にしているが、これは必須ではなく、例えば、演奏の開始前に、ユーザが所望の位置に有効位置を変更することができるようにしてもよい。
本実施形態では、有効位置が線状であるが、これは必須ではなく、図12に示すように、有効位置(もしくは有効領域)の幅(すなわち、有効位置表示画像43の幅ΔW)を大きくし、同時に複数のパイプが有効位置に位置し得るようにしてもよい。この場合、有効位置に位置する複数のパイプ(図12の例では第2パイプ42b、第3パイプ42c、第4パイプ42c)に対応する複数の音程を合成した楽音信号が出力されるようにしてもよい。また、有効位置の大きさ(幅や高さなど)を、ユーザの入力操作(マイク入力やタッチ入力やボタン入力)に応じて変更するようにしてもよい。例えば、図13に示すように、マイクロフォン37から入力される信号の振幅が予め定められた閾値Th1から閾値Th2まで増加するのに要した時間ΔSが長い(すなわち、ユーザが比較的ゆっくりと息を吹きかけている)ほど、有効位置の幅を大きくするようにしてもよい。また例えば、ユーザが前述のスライド操作を行っているときのタッチ位置が、タッチパネル15の上端に近いほど、有効位置の幅を大きくするようにしてもよい。
本実施形態では、マイク入力の継続時間が所定の閾値以上になったかどうかを判定して、マイク入力の継続時間が所定の閾値以上になった場合に、有効位置に位置するパイプの音程に対応する楽音信号を出力しているが、他の実施例では、他の条件の判定結果に応じて有効位置に位置するパイプの音程に対応する楽音信号を出力するようにしてもよい。例えば、マイク入力(マイクロフォン37からの入力信号)の振幅が所定の振幅閾値以上になった場合に、有効位置に位置するパイプの音程に対応する楽音信号を出力するようにしてもよい。この場合、本実施形態と同様に、ステップS42の判定結果に応じて、その振幅閾値の大きさを変えるようにしてもよい。例えば、図14に示すように、演奏すべき楽譜の音程と、有効位置に位置するパイプの音程とが一致している場合には、マイク入力の振幅が第1の振幅閾値A1以上になったときに楽音信号を出力し、演奏すべき楽譜の音程と、有効位置に位置するパイプの音程とが一致していない場合には、マイク入力の振幅が第1振幅閾値A1よりも大きい第2振幅閾値A2以上になったときに楽音信号を出力してもよい。これにより、図14に示すように、ユーザが楽譜通りに演奏しようとしているときには、ユーザの意図に反した音程の楽音信号が誤って出力されてしまうのを防止することができるとともに、図15に示すように、楽譜の音程と、ユーザが演奏したいと思う音程とが一致していない場合でも、ユーザが演奏したいと思う音程に対応する楽音信号を出力することができる。
本実施形態では、1台のゲーム装置10が単独で楽音生成装置として機能しているが、これは必須ではなく、複数の情報処理装置が協働することによって楽音生成装置として機能してもよい。例えば、第1の情報処理装置が、パンフルート等を画面に表示する役割と、タッチ入力およびマイク入力を受け付ける役割を担い、第2の情報処理装置が、第1の情報処理装置からの指示に応じて楽音信号を生成する役割を担うようにしてもよい。
10 ゲーム装置
11 第1のLCD
12 第2のLCD
13 ハウジング
13a 上側ハウジング
13b 下側ハウジング
14 操作スイッチ部
14a 十字スイッチ
14b スタートスイッチ
14c セレクトスイッチ
14d Aボタン
14e Bボタン
14f Xボタン
14g Yボタン
15 タッチパネル
16 スティック
17 メモリカード
17a ROM
17b フラッシュ
18a、18b 音抜き孔
19 電源スイッチ
20 電子回路基板
21 CPUコア
22 バス
23 コネクタ
24 RAM
25 I/F回路
26 第1GPU
27 第2GPU
28 第1VRAM
29 第2VRAM
30a 右スピーカ
30b 左スピーカ
31 LCDコントローラ
32 レジスタ
33 マイクロフォン用孔
34 ワイヤレス通信部
35 挿入口
36 挿入口
37 マイクロフォン
40 楽譜
41 キャラクタ
42 パンフルート
42a〜42f 第1パイプ〜第6パイプ
43 有効位置表示画像

Claims (14)

  1. ユーザの入力操作に応じて楽音信号を生成するための楽音生成プログラムであって、
    情報処理装置のコンピュータを、
    複数の音程のそれぞれに対応した複数の画像を画面に表示させる表示制御手段、
    第1の入力手段を通じて入力されるユーザによる第1の入力に応じて、前記表示制御手段により前記画面に表示される前記複数の画像の位置を移動させる移動制御手段、
    前記移動制御手段により移動する前記複数の画像の少なくとも1つの画像が前記画面上に固定された所定の有効位置に位置することを検出する検出手段、
    第2の入力手段を通じて入力されるユーザによる第2の入力が行われているか否かを判定する入力判定手段、および
    前記入力判定手段による判定結果が肯定である場合の前記検出手段により前記画面上の前記有効位置にあることが検出された前記少なくとも1つの画像に基づいて、当該少なくとも1つの画像に対応した音程の楽音信号を生成する生成手段として機能させる楽音生成プログラム。
  2. 前記移動制御手段は、前記第1の入力に応じて、前記複数の画像を1つのまとまりとして移動させる、請求項1に記載の楽音生成プログラム。
  3. 前記表示制御手段は、前記複数の画像を音程の順となるように並べて前記画面に表示させる、請求項1または2に記載の楽音生成プログラム。
  4. 前記第1の入力手段がポインティングデバイスであり、
    前記移動制御手段は、前記ポインティングデバイスによる画面上の指示位置をユーザが移動させることに応じて、前記複数の画像の位置を移動させる、請求項1ないし3の何れかに記載の楽音生成プログラム。
  5. 前記第1の入力手段が、前記画面上に設けられたタッチパネルである、請求項4に記載の楽音生成プログラム。
  6. 前記第2の入力手段がマイクロフォンであり、
    前記入力判定手段は、ユーザによる前記マイクロフォンへの入力が行われているか否かを判定する、請求項1ないし5の何れかに記載の楽音生成プログラム。
  7. 前記有効位置は、前記マイクロフォンから最も近い前記画面上の点を含む、請求項6に記載の楽音生成プログラム。
  8. 前記コンピュータを、
    前記検出手段により前記画面上の前記有効位置にあることが検出された前記少なくとも1つの画像に対応する音程が、記憶手段に記憶されている楽譜データで指定されている音程と一致しているか否かを判定する音程判定手段としてさらに機能させ、
    前記生成手段は、
    前記音程判定手段による判定結果が肯定であるときには、前記第2の入力に基づく入力値が第1の閾値以上であることを条件として、前記少なくとも1つの画像に対応する音程の楽音信号を生成し、
    前記音程判定手段による判定結果が否定であるときには、前記入力値が前記第1の閾値より大きい第2の閾値以上であることを条件として、前記少なくとも1つの画像に対応する音程の楽音信号を生成する、請求項1に記載の楽音生成プログラム。
  9. 前記表示制御手段は、前記有効位置に所定の標識を表示する標識表示制御手段を含む、請求項1ないし8の何れかに記載の楽音生成プログラム。
  10. 前記表示制御手段は、前記検出手段により前記画面上の前記有効位置にあることが検出された前記少なくとも1つの画像に応じて、前記標識の色を変更する標識色変更手段を含む、請求項9に記載の楽音生成プログラム。
  11. 前記第1の入力または前記第2の入力に応じて、前記有効位置の大きさを変更する変更手段として前記コンピュータをさらに機能させる、請求項1に記載の楽音生成プログラム。
  12. ユーザの入力操作に応じて楽音信号を生成する楽音生成装置であって、
    複数の音程のそれぞれに対応した複数の画像を画面に表示させる表示制御手段、
    第1の入力手段を通じて入力されるユーザによる第1の入力に応じて、前記表示制御手段により前記画面に表示される前記複数の画像の位置を移動させる移動制御手段、
    前記移動制御手段により移動する前記複数の画像の少なくとも1つの画像が前記画面上に固定された所定の有効位置に位置することを検出する検出手段、
    第2の入力手段を通じて入力されるユーザによる第2の入力が行われているか否かを判定する入力判定手段、および
    前記入力判定手段による判定結果が肯定である場合の前記検出手段により前記画面上の前記有効位置にあることが検出された前記少なくとも1つの画像に基づいて、当該少なくとも1つの画像に対応した音程の楽音信号を生成する生成手段を備える楽音生成装置。
  13. ユーザの入力操作に応じて楽音信号を生成する楽音生成システムであって、
    複数の音程のそれぞれに対応した複数の画像を画面に表示させる表示制御手段、
    第1の入力手段を通じて入力されるユーザによる第1の入力に応じて、前記表示制御手段により前記画面に表示される前記複数の画像の位置を移動させる移動制御手段、
    前記移動制御手段により移動する前記複数の画像の少なくとも1つの画像が前記画面上に固定された所定の有効位置に位置することを検出する検出手段、
    第2の入力手段を通じて入力されるユーザによる第2の入力が行われているか否かを判定する入力判定手段、および
    前記入力判定手段による判定結果が肯定である場合の前記検出手段により前記画面上の前記有効位置にあることが検出された前記少なくとも1つの画像に基づいて、当該少なくとも1つの画像に対応した音程の楽音信号を生成する生成手段を備える楽音生成システム
  14. ユーザの入力操作に応じて楽音信号を生成し、コンピュータ処理により以下の各ステップが実現される楽音生成方法であって、
    複数の音程のそれぞれに対応した複数の画像を画面に表示させる表示制御ステップ、
    第1の入力手段を通じて入力されるユーザによる第1の入力に応じて、前記表示制御ステップにおいて前記画面に表示される前記複数の画像の位置を移動させる移動制御ステップ、
    前記移動制御ステップにおいて移動する前記複数の画像の少なくとも1つの画像が前記画面上に固定された所定の有効位置に位置することを検出する検出ステップ、
    第2の入力手段を通じて入力されるユーザによる第2の入力が行われているか否かを判定する入力判定ステップ、および
    前記入力判定ステップにおいて判定結果が肯定である場合、前記検出ステップにおいて前記画面上の前記有効位置にあることが検出された前記少なくとも1つの画像に基づいて、当該少なくとも1つの画像に対応した音程の楽音信号を生成する生成ステップを含む楽音生成方法
JP2009250671A 2009-10-30 2009-10-30 楽音生成プログラム、楽音生成装置、楽音生成システム、および、楽音生成方法 Active JP5578701B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009250671A JP5578701B2 (ja) 2009-10-30 2009-10-30 楽音生成プログラム、楽音生成装置、楽音生成システム、および、楽音生成方法
US12/651,111 US8556717B2 (en) 2009-10-30 2009-12-31 Computer-readable storage medium having stored therein musical sound generation program, and musical sound generation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009250671A JP5578701B2 (ja) 2009-10-30 2009-10-30 楽音生成プログラム、楽音生成装置、楽音生成システム、および、楽音生成方法

Publications (2)

Publication Number Publication Date
JP2011095594A JP2011095594A (ja) 2011-05-12
JP5578701B2 true JP5578701B2 (ja) 2014-08-27

Family

ID=43926015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009250671A Active JP5578701B2 (ja) 2009-10-30 2009-10-30 楽音生成プログラム、楽音生成装置、楽音生成システム、および、楽音生成方法

Country Status (2)

Country Link
US (1) US8556717B2 (ja)
JP (1) JP5578701B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5842451B2 (ja) * 2011-08-09 2016-01-13 ヤマハ株式会社 電子音楽装置およびその制御方法を実現するためのプログラム
JP6360280B2 (ja) * 2012-10-17 2018-07-18 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP6152718B2 (ja) * 2013-06-27 2017-06-28 ヤマハ株式会社 楽音再生装置
JP6661275B2 (ja) * 2015-03-05 2020-03-11 株式会社バンダイナムコエンターテインメント プログラムおよびサーバシステム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6215898B1 (en) * 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP2002229563A (ja) 2001-01-31 2002-08-16 Sony Corp 電子機器
JP3559024B2 (ja) * 2002-04-04 2004-08-25 マイクロソフト コーポレイション ゲームプログラムおよびゲーム装置
JP4630646B2 (ja) 2004-11-19 2011-02-09 任天堂株式会社 息吹きかけ判別プログラム、息吹きかけ判別装置、ゲームプログラムおよびゲーム装置
US8992304B2 (en) * 2006-04-13 2015-03-31 Igt Methods and systems for tracking an event of an externally controlled interface
EP2191657A1 (en) * 2007-08-22 2010-06-02 Pure Depth Limited Determining a position for an interstitial diffuser for a multi-component display
US8194037B2 (en) * 2007-12-14 2012-06-05 Apple Inc. Centering a 3D remote controller in a media system
US20100165215A1 (en) * 2008-12-31 2010-07-01 Youngtack Shim Communication control systems and methods

Also Published As

Publication number Publication date
US20110105230A1 (en) 2011-05-05
US8556717B2 (en) 2013-10-15
JP2011095594A (ja) 2011-05-12

Similar Documents

Publication Publication Date Title
US7435169B2 (en) Music playing apparatus, storage medium storing a music playing control program and music playing control method
JP4557899B2 (ja) サウンド処理プログラムおよびサウンド処理装置
US7825904B2 (en) Information processing apparatus and storage medium storing item selecting program
US7708641B2 (en) Game program for touch control hand-held game device
US20070075985A1 (en) Storage medium storing object movement control program and information processing apparatus
JP2006146556A (ja) 画像表示処理プログラムおよび画像表示処理装置
JP3833228B2 (ja) ゲーム装置およびゲームプログラム
JP2008148860A (ja) ゲーム装置、ゲームの進行方法、並びにプログラム及び記録媒体
JP4630646B2 (ja) 息吹きかけ判別プログラム、息吹きかけ判別装置、ゲームプログラムおよびゲーム装置
JP2006221281A (ja) ガイド表示を制御するためのプログラムおよび情報処理装置
JP2006102210A (ja) ゲーム装置およびゲームプログラム
JP5578701B2 (ja) 楽音生成プログラム、楽音生成装置、楽音生成システム、および、楽音生成方法
JP5210547B2 (ja) 移動制御プログラムおよび移動制御装置
JP6115746B2 (ja) ゲーム装置
JP5000132B2 (ja) トレーニングプログラム、トレーニング装置、トレーニングシステム、トレーニング制御方法、ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム制御方法
JP4443536B2 (ja) ゲーム制御プログラム、ゲーム制御方法、及びゲーム装置
US20120172121A1 (en) Music Game System Capable Of Text Output And Computer-Readable Storage Medium Storing Computer Program Of Same
KR100895259B1 (ko) 전체음 제어 음악 게임 방법 및 장치와 그를 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
US9981181B2 (en) Gaming apparatus and method of controlling image display of gaming apparatus
JP2011189018A (ja) ゲームシステム、及びそのコンピュータプログラム
JP2012183157A (ja) ゲームシステム及びそのコンピュータプログラム
JP2001232061A (ja) ゲーム装置および情報記憶媒体
JP6828549B2 (ja) 楽譜表示方法、楽譜表示装置、楽譜表示プログラム
JP2011039248A (ja) 携帯型音出力装置、コンピュータプログラムおよび記録媒体
JP2006284861A (ja) 手書き学習支援プログラムおよび手書き学習支援装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110902

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20120713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140707

R150 Certificate of patent or registration of utility model

Ref document number: 5578701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250