JP2020204814A - 情報処理プログラム - Google Patents

情報処理プログラム Download PDF

Info

Publication number
JP2020204814A
JP2020204814A JP2019111003A JP2019111003A JP2020204814A JP 2020204814 A JP2020204814 A JP 2020204814A JP 2019111003 A JP2019111003 A JP 2019111003A JP 2019111003 A JP2019111003 A JP 2019111003A JP 2020204814 A JP2020204814 A JP 2020204814A
Authority
JP
Japan
Prior art keywords
sound
input
information
information processing
processing program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019111003A
Other languages
English (en)
Other versions
JP7125920B2 (ja
Inventor
政美 米
Masami Yone
政美 米
裕一 尾崎
Yuichi Ozaki
裕一 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2019111003A priority Critical patent/JP7125920B2/ja
Priority to US16/899,889 priority patent/US11439907B2/en
Publication of JP2020204814A publication Critical patent/JP2020204814A/ja
Application granted granted Critical
Publication of JP7125920B2 publication Critical patent/JP7125920B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • G06F1/1669Detachable keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/02Counting; Calculating
    • G09B19/025Counting; Calculating with electrically operated apparatus or devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1043Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being characterized by constructional details
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6081Methods for processing data by generating or executing the game program for sound processing generating an output signal, e.g. under timing constraints, for spatialization

Abstract

【課題】文字などの入力を行う際に、実際に筆記しているような感覚を高めることができる、情報処理プログラム、情報処理装置、及び情報処理方法を提供する。【解決手段】本開示に係る情報処理プログラムは、情報処理装置のコンピュータにおいて実行される情報処理プログラムであって、ユーザの操作に基づく入力の入力座標を取得する入力座標取得手段と、前記入力座標に応じた軌跡を表示装置に表示させるための描画情報を生成する描画情報生成手段と、前記入力が行われる間に継続して取得された前記入力座標の変化から、前記入力の移動方向を算出する移動方向算出手段と、前記入力座標が変化したことに応じて、前記移動方向に基づいて変化させた疑似筆記音の音情報を生成する音生成手段と、して前記コンピュータを機能させる。【選択図】図14

Description

本発明は、情報処理プログラム、情報処理装置、及び情報処理方法に関する。
特許文献1には、タッチパネルにタッチペンで入力を行う際に、疑似筆記音を出力することが開示されている。そして、このような疑似筆記音は、入力の速度によって変化させることも開示されている。
特表2011−527792号公報
上記のように特許文献1では、入力の速度に応じて疑似筆記音を変化させているが、実際の筆記音は、筆記の速度だけに起因するものではない。したがって、実際の筆記を行っているような感覚を高められる疑似筆記音が要望されていた。本発明は、この問題を解決するためになされたものであり、文字等の入力を行う際に、実際の筆記を行っているような感覚を高めることができる、情報処理プログラム、情報処理装置、及び情報処理方法を提供することを目的とする。
本開示に係る情報処理プログラムは、情報処理装置のコンピュータにおいて実行される情報処理プログラムであって、ユーザの操作に基づく入力の入力座標を取得する入力座標取得手段と、前記入力座標に応じた軌跡を表示装置に表示させるための描画情報を生成する描画情報生成手段と、前記入力が行われる間に継続して取得された前記入力座標の変化から、前記入力の移動方向を算出する移動方向算出手段と、前記入力座標が変化したことに応じて、前記移動方向に基づいて変化させた疑似筆記音の音情報を生成する音生成手段と、して前記コンピュータを機能させる。
この構成によれば、ユーザによる操作によって入力の軌跡を表示装置に表示させるとき、つまり、例えば、筆記を模して表示装置に文字等を表示するとき、入力の移動方向に基づいて、変化させた疑似筆記音を音情報として生成するようにしている。例えば、ユーザが筆記具を用いて紙などに文字等を筆記する際には、筆記音は一定ではなく、筆記具の移動方向によって変化する。本発明においては、このような筆記の向きによって変化する音を模した音情報を生成することができるため、ユーザが入力操作を行っているときに、実際に筆記しているような感覚を高めることができる。
上記情報処理プログラムにおいては、以下のような種々の態様で、変化させた疑似筆記音の音情報を生成することができる。
上記情報処理プログラムにおいて、前記音生成手段は、前記移動方向に応じて、前記疑似筆記音の音量を変化させるように、前記音情報を生成することができる。
上記情報処理プログラムにおいて、前記音生成手段は、第1の方向に対して前記移動方向が垂直に近い場合、前記第1の方向に対して前記移動方向が平行に近い場合に比べて音量を大きくするように、前記音情報を生成することができる。
上記情報処理プログラムにおいて、前記音生成手段は、前記移動方向に応じて、前記疑似筆記音の音程を変化させるように、前記音情報を生成することができる。
上記情報処理プログラムにおいて、前記音生成手段は、第1の方向に対して前記移動方向が垂直に近い場合、前記第1の方向に対して前記移動方向が平行に近い場合に比べて、音程を高くするように、前記音情報を生成することができる。
上記情報処理プログラムにおいて、前記音生成手段は、前記移動方向に応じて、前記疑似筆記音の音色を変化させるように、前記音情報を生成することができる。
上記情報処理プログラムにおいて、前記音生成手段は、第1の方向に対して前記移動方向のなす角度が、0〜180°の場合と、180〜360°の場合とで、前記音色を変化させることができる。
上記情報処理プログラムにおいて、前記入力座標は、直交座標系の座標面に設定され、前記第1の方向は、前記座標面の座標軸から略45度傾いた方向とすることができる。
上記情報処理プログラムにおいて、前記第1の方向は、前記座標軸に対して略45度傾いた方向とすることができる。
上記情報処理プログラムにおいては、前記ユーザが、右利きと設定されている場合と、左利きと設定されている場合ので、前記第1の方向を変化させることができる。
上記情報処理プログラムにおいて、前記音生成手段は、前記入力座標の変化に基づく入力速度に応じて、前記疑似筆記音の前記音情報を変化させることができる。
上記情報処理プログラムにおいて、前記音生成手段は、前記入力速度が大きいほど、前記疑似筆記音を大きく変化させるように、前記音情報を生成することができる。
上記情報処理プログラムにおいて、前記音生成手段は、前記入力速度が大きいほど、前記疑似筆記音の音程を高くするように、前記音情報を生成することができる。
上記情報処理プログラムにおいて、前記音生成手段は、前記移動方向によっては変化することのないベース音を含む前記疑似筆記音の音情報を生成することができる。
この構成によれば、次の効果を得ることができる。例えば、入力の移動方向に基づいて変化させた疑似筆記音の音情報を生成すると、移動方向によっては、入力が継続しているのもかかわらず、疑似筆記音が小さくなり、ユーザに違和感が生じるおそれがある。そこで、移動方向によって変化しないベース音を疑似筆記音の含めると、移動方向に関わらずベース音が出力されるため、移動方向によって疑似筆記音が小さくなり、違和感が生じるのを防止することができる。
上記情報処理プログラムにおいて、前記表示装置は、前記入力が行われる、タッチディスプレイとすることができる。
本開示に係る情報処理装置は、ユーザの操作に基づく入力の入力座標を取得する入力座標取得手段と、前記入力座標に応じた軌跡を表示装置に表示させるための描画情報を生成する描画情報生成手段と、前記入力が行われる間に継続して取得された前記入力座標の変化から、前記入力の移動方向を算出する移動方向算出手段と、前記入力座標が変化したことに応じて、前記移動方向に基づいて変化させた疑似筆記音の音情報を生成する音生成手段と、を備えている。
本開示に係る情報処理方法は、ユーザの操作に基づく入力の入力座標を取得するステップと、前記入力座標に応じた軌跡を表示装置に表示させるための描画情報を生成するステップと、前記入力が行われる間に継続して取得された前記入力座標の変化から、前記入力の移動方向を算出するステップと、前記入力座標が変化したことに応じて、前記移動方向に基づいて変化させた疑似筆記音の音情報を生成するステップと、を備えている。
上記情報処理プログラム、情報処理装置、及び情報処理方法によれば、文字などの入力を行う際に、実際に筆記しているような感覚を高めることができる。
本体装置に左コントローラおよび右コントローラ装着した状態のゲームシステムの一例を示す図である。 本体装置から左コントローラおよび右コントローラをそれぞれ外した状態のゲームシステムの一例を示す図である。 図1の本体装置の一例を示す六面図である。 図1の左コントローラの一例を示す六面図である。 図1の右コントローラの一例を示す六面図である。 図1の本体装置の内部構成の一例を示すブロック図である。 図1の本体装置と左コントローラおよび右コントローラとの内部構成の一例を示すブロック図である。 ディスプレイに表示されるゲームの画面である。 ディスプレイに表示されるゲームの画面である。 本発明の一実施形態に係るゲームシステムの機能構成の一例である。 タッチペンによる描画の例を示す図である。 タッチペンによる描画における、入力の移動方向の例を説明する図である。 本発明の一実施形態において、ディスプレイ及びタッチパネルに設定される直交座標系の例を説明する図である。 図13のディスプレイ及びタッチパネルにおいて、タッチペンの移動角度を説明する図である。 鉛筆による筆記で生じる音を説明する図である。 タッチペンの移動角度と第1音の音程との関係を示すグラフである。 タッチペンの移動角度と第1音の音量との関係を示すグラフである。 タッチペンの移動速度と第1音の音程との関係を示すグラフである。 タッチペンの移動速度と第1音の音量との関係を示すグラフである。 タッチペンの移動角度と第2音の音程との関係を示すグラフである。 タッチペンの移動角度と第2音の音量との関係を示すグラフである。 音声データの加工の例を示す図である。 タッチペンで円を描くときの音程及び音量を説明する図である。 DRAMに記憶されるデータの一例である。 ゲーム処理の一例を示すフローチャートである。
以下、本発明に係る情報処理装置を、ゲームシステムに適用した場合の一実施形態について説明する。
<1.ゲームシステムのハードウエア構成>
以下、本実施形態の一例に係るゲームシステムについて説明する。本実施形態におけるゲームシステム1の一例は、本体装置(情報処理装置;本実施形態ではゲーム装置本体として機能する)2と左コントローラ3および右コントローラ4とを含む。本体装置2は、左コントローラ3および右コントローラ4がそれぞれ着脱可能である。つまり、ゲームシステム1は、左コントローラ3および右コントローラ4をそれぞれ本体装置2に装着して一体化された装置として利用できる。また、ゲームシステム1は、本体装置2と左コントローラ3および右コントローラ4とを別体として利用することもできる(図2参照)。以下では、本実施形態のゲームシステム1のハードウエア構成について説明し、その後に本実施形態のゲームシステム1の制御について説明する。
<1−1.本体装置>
図1は、本体装置2に左コントローラ3および右コントローラ4を装着した状態の一例を示す図である。図1に示すように、左コントローラ3および右コントローラ4は、それぞれ本体装置2に装着されて一体化されている。本体装置2は、ゲームシステム1における各種の処理(例えば、ゲーム処理)を実行する装置である。本体装置2は、ディスプレイ(表示装置)12を備える。左コントローラ3および右コントローラ4は、ユーザが入力を行うための操作部を備える装置である。
図2は、本体装置2から左コントローラ3および右コントローラ4をそれぞれ外した状態の一例を示す図である。図1および図2に示すように、左コントローラ3および右コントローラ4は、本体装置2に着脱可能である。なお、以下において、左コントローラ3および右コントローラ4の総称として「コントローラ」と記載することがある。
図3は、本体装置2の一例を示す六面図である。図3に示すように、本体装置2は、略板状のハウジング11を備える。本実施形態において、ハウジング11の主面(換言すれば、表側の面、すなわち、ディスプレイ12が設けられる面)は、大略的には矩形形状である。
なお、ハウジング11の形状および大きさは、任意である。一例として、ハウジング11は、携帯可能な大きさであってよい。また、本体装置2単体または本体装置2に左コントローラ3および右コントローラ4が装着された一体型装置は、携帯型装置となってもよい。また、本体装置2または一体型装置が手持ち型の装置となってもよい。また、本体装置2または一体型装置が可搬型装置となってもよい。
図3に示すように、本体装置2は、ハウジング11の主面に設けられるディスプレイ12を備える。ディスプレイ12は、本体装置2が生成した画像を表示する。本実施形態においては、ディスプレイ12は、液晶表示装置(LCD)とする。ただし、ディスプレイ12は任意の種類の表示装置であってよい。
また、本体装置2は、ディスプレイ12の画面上にタッチパネル13を備える。本実施形態においては、タッチパネル13は、マルチタッチ入力が可能な方式(例えば、静電容量方式)のものである。ただし、タッチパネル13は、任意の種類のものであってよく、例えば、シングルタッチ入力が可能な方式(例えば、抵抗膜方式)のものであってもよい。また、タッチパネル13への入力は、例えば、ユーザの指によるタッチのほか、公知のタッチペンを用いることができる。タッチペンは、ペン先が導電材料で形成されており、タッチパネル13上でのペン先の軌跡を検出することができる。なお、以下では、ディスプレイ12とタッチパネル13を合わせて、タッチディスプレイと称することがある。
本体装置2は、ハウジング11の内部においてスピーカ(すなわち、図6に示すスピーカ88)を備えている。図3に示すように、ハウジング11の主面には、スピーカ孔11aおよび11bが形成される。そして、スピーカ88の出力音は、これらのスピーカ孔11aおよび11bからそれぞれ出力される。
また、本体装置2は、本体装置2が左コントローラ3と有線通信を行うための端子である左側端子17と、本体装置2が右コントローラ4と有線通信を行うための右側端子21を備える。
図3に示すように、本体装置2は、スロット23を備える。スロット23は、ハウジング11の上側面に設けられる。スロット23は、所定の種類の記憶媒体を装着可能な形状を有する。所定の種類の記憶媒体は、例えば、ゲームシステム1およびそれと同種の情報処理装置に専用の記憶媒体(例えば、専用メモリカード)である。所定の種類の記憶媒体は、例えば、本体装置2で利用されるデータ(例えば、アプリケーションのセーブデータ等)、および/または、本体装置2で実行されるプログラム(例えば、アプリケーションのプログラム等)を記憶するために用いられる。また、本体装置2は、電源ボタン28を備える。
本体装置2は、下側端子27を備える。下側端子27は、本体装置2がクレードルと通信を行うための端子である。本実施形態において、下側端子27は、USBコネクタ(より具体的には、メス側コネクタ)である。上記一体型装置または本体装置2単体をクレードルに載置した場合、ゲームシステム1は、本体装置2が生成して出力する画像を据置型モニタに表示することができる。また、本実施形態においては、クレードルは、載置された上記一体型装置または本体装置2単体を充電する機能を有する。また、クレードルは、ハブ装置(具体的には、USBハブ)の機能を有する。
<1−2.左コントローラ>
図4は、左コントローラ3の一例を示す六面図である。図4に示すように、左コントローラ3は、ハウジング31を備える。本実施形態においては、ハウジング31は、縦長の形状、すなわち、上下方向(すなわち、図1および図4に示すy軸方向)に長い形状である。左コントローラ3は、本体装置2から外された状態において、縦長となる向きで把持されることも可能である。ハウジング31は、縦長となる向きで把持される場合に片手、特に左手で把持可能な形状および大きさをしている。また、左コントローラ3は、横長となる向きで把持されることも可能である。左コントローラ3が横長となる向きで把持される場合には、両手で把持されるようにしてもよい。
左コントローラ3は、アナログスティック32を備える。図4に示すように、アナログスティック32は、ハウジング31の主面に設けられる。アナログスティック32は、方向を入力することが可能な方向入力部として用いることができる。ユーザは、アナログスティック32を傾倒することによって傾倒方向に応じた方向の入力(および、傾倒した角度に応じた大きさの入力)が可能である。なお、左コントローラ3は、方向入力部として、アナログスティックに代えて、十字キーまたはスライド入力が可能なスライドスティック等を備えるようにしてもよい。また、本実施形態においては、アナログスティック32を押下する入力が可能である。
左コントローラ3は、各種操作ボタンを備える。左コントローラ3は、ハウジング31の主面上に4つの操作ボタン33〜36(具体的には、右方向ボタン33、下方向ボタン34、上方向ボタン35、および左方向ボタン36)を備える。さらに、左コントローラ3は、録画ボタン37および−(マイナス)ボタン47を備える。左コントローラ3は、ハウジング31の側面の左上に第1Lボタン38およびZLボタン39を備える。また、左コントローラ3は、ハウジング31の側面の、本体装置2に装着される際に装着される側の面に第2Lボタン43および第2Rボタン44を備える。これらの操作ボタンは、本体装置2で実行される各種プログラム(例えば、OSプログラムやアプリケーションプログラム)に応じた指示を行うために用いられる。
また、左コントローラ3は、左コントローラ3が本体装置2と有線通信を行うための端子42を備える。
<1−3.右コントローラ>
図5は、右コントローラ4の一例を示す六面図である。図5に示すように、右コントローラ4は、ハウジング51を備える。本実施形態においては、ハウジング51は、縦長の形状、すなわち、上下方向に長い形状である。右コントローラ4は、本体装置2から外された状態において、縦長となる向きで把持されることも可能である。ハウジング51は、縦長となる向きで把持される場合に片手、特に右手で把持可能な形状および大きさをしている。また、右コントローラ4は、横長となる向きで把持されることも可能である。右コントローラ4が横長となる向きで把持される場合には、両手で把持されるようにしてもよい。ここで、説明の便宜のため、右コントローラ4のハウジング51の外面を次のように規定することする。すなわち、ハウジング51は概ね直方体状に形成されており、上下方向を長手方向とする長方形状の第1主面、及びこれとは反対側の第2主面を備えている。そして、ハウジング51において、これら主面の長手方向の上端面が第1端面を構成し、下端面が第2端面を構成する。また、両主面の短手方向の右側面が第1側端面を構成し、左側面が第2側端面を構成する。但し、第1端面は、左端部に長手方向の上方を向く平坦な面を有しているが、右側にいくにしたがって下方に湾曲するように構成され、第1側端面の上端に連結されている。そして、この第1端面には、後述するように、湾曲した第1Rボタン60が配置されている。同様に、第2端面は、左端部に長手方向の下方を向く平坦な面を有しているが、右側にいくにしたがって上方に湾曲するように構成され、第1側端面の下端に連結されている。そして、この第2端面に後述する赤外撮像部123及び赤外発光部124が配置されている。
右コントローラ4は、左コントローラ3と同様、方向入力部としてアナログスティック52を備える。本実施形態においては、アナログスティック52は、左コントローラ3のアナログスティック32と同じ構成である。また、右コントローラ4は、アナログスティックに代えて、十字キーまたはスライド入力が可能なスライドスティック等を備えるようにしてもよい。また、右コントローラ4は、左コントローラ3と同様、ハウジング51の主面上に4つの操作ボタン53〜56(具体的には、Aボタン53、Bボタン54、Xボタン55、およびYボタン56)を備える。さらに、右コントローラ4は、+(プラス)ボタン57およびホームボタン58を備える。これら右コントローラ4の第1主面に設けられたる操作ボタン53〜58及びアナログスティック32が、本発明の第1操作部の一例となる。また、右コントローラ4は、ハウジング51の第1端面に湾曲した第1Rボタン60を備える。また、第1Rボタン60の背面側には、背面側に突出するとともに、上方から押し込み可能なZRボタン61が設けられている。そして、このZRボタン61の下方には隆起部500が形成されている。この隆起部500は、第2主面から膨出する部位でありZRボタン61から下方にいくにしたがって第2主面に向かう傾斜面を有している。ここで、第1Rボタン60が本発明の第2操作部の一例となり、ZRボタン61及び隆起部500が第3操作部の一例となる。また、右コントローラ4は、左コントローラ3と同様、第2Lボタン65および第2Rボタン66を備える。
また、ハウジング51の第2端面には、窓部68が設けられる。詳細は後述するが、右コントローラ4は、ハウジング51の内部に配置される赤外撮像部123および赤外発光部124を備えている。赤外撮像部123は、右コントローラ4の下方向(図5に示すy軸負方向)を撮像方向として、窓部68を介して右コントローラ4の周囲を撮像する。赤外発光部124は、右コントローラ4の下方向(図5に示すy軸負方向)を中心とする所定範囲を照射範囲として、赤外撮像部123が撮像する撮像対象に窓部68を介して赤外光を照射する。窓部68は、赤外撮像部123のカメラのレンズや赤外発光部124の発光体等を保護するためのものであり、当該カメラが検知する波長の光や当該発光体が照射する光を透過する材質(例えば、透明な材質)で構成される。なお、窓部68は、ハウジング51に形成された孔であってもよい。なお、本実施形態においては、カメラが検知する光(本実施形態においては、赤外光)以外の波長の光の透過を抑制するフィルタ部材を赤外撮像部123自身が有する。ただし、他の実施形態においては、窓部68がフィルタの機能を有していてもよい。
また、詳細は後述するが、右コントローラ4は、NFC通信部122を備える。NFC通信部122は、NFC(Near Field Communication)の規格に基づく近距離無線通信を行う。NFC通信部122は、近距離無線通信に用いられるアンテナ122aと、アンテナ122aから送出すべき信号(電波)を生成する回路(例えばNFCチップ)とを有する。なお、NFC通信部122は、NFCの規格に基づく近距離無線通信を行う代わりに、任意の近接通信(非接触通信とも言う)で近距離無線通信を行うようにしてもよい。ここで、NFCの規格は、近接通信(非接触通信)に用いることができるものであり、「任意の近接通信で近距離無線通信を行うようにしてもよい」とは、NFCの規格による近接通信を除いた他の近接通信で近距離無線通信を行ってもよいことを意図している。
また、右コントローラ4は、右コントローラ4が本体装置2と有線通信を行うための端子64を備える。
<1−4.本体装置の内部構成>
図6は、本体装置2の内部構成の一例を示すブロック図である。本体装置2は、図3に示す構成の他、図6に示す各構成要素81〜91、97、および98を備える。これらの構成要素81〜91、97、および98のいくつかは、電子部品として電子回路基板上に実装されてハウジング11内に収納されてもよい。
本体装置2は、プロセッサ81を備える。プロセッサ81は、本体装置2において実行される各種の情報処理を実行する情報処理部であって、例えば、CPU(Central Processing Unit)のみから構成されてもよいし、CPU機能、GPU(Graphics Processing Unit)機能等の複数の機能を含むSoC(System−on−a−chip)から構成されてもよい。プロセッサ81は、記憶部(具体的には、フラッシュメモリ84等の内部記憶媒体、あるいは、スロット23に装着される外部記憶媒体等)に記憶される情報処理プログラム(例えば、ゲームプログラム)を実行することによって、各種の情報処理を実行する。
本体装置2は、自身に内蔵される内部記憶媒体の一例として、フラッシュメモリ84およびDRAM(Dynamic Random Access Memory)85を備える。フラッシュメモリ84およびDRAM85は、プロセッサ81に接続される。フラッシュメモリ84は、主に、本体装置2に保存される各種のデータ(プログラムであってもよい)を記憶するために用いられるメモリである。DRAM85は、情報処理において用いられる各種のデータを一時的に記憶するために用いられるメモリである。
本体装置2は、スロットインターフェース(以下、「I/F」と略記する。)91を備える。スロットI/F91は、プロセッサ81に接続される。スロットI/F91は、スロット23に接続され、スロット23に装着された所定の種類の記憶媒体(例えば、専用メモリカード)に対するデータの読み出しおよび書き込みを、プロセッサ81の指示に応じて行う。
プロセッサ81は、フラッシュメモリ84およびDRAM85、ならびに上記各記憶媒体との間でデータを適宜読み出したり書き込んだりして、上記の情報処理を実行する。
本体装置2は、ネットワーク通信部82を備える。ネットワーク通信部82は、プロセッサ81に接続される。ネットワーク通信部82は、ネットワークを介して外部の装置と通信(具体的には、無線通信)を行う。本実施形態においては、ネットワーク通信部82は、第1の通信態様としてWi−Fiの規格に準拠した方式により、無線LANに接続して外部装置と通信を行う。また、ネットワーク通信部82は、第2の通信態様として所定の通信方式(例えば、独自プロトコルによる通信や、赤外線通信)により、同種の他の本体装置2との間で無線通信を行う。なお、上記第2の通信態様による無線通信は、閉ざされたローカルネットワークエリア内に配置された他の本体装置2との間で無線通信可能であり、複数の本体装置2の間で直接通信することによってデータが送受信される、いわゆる「ローカル通信」を可能とする機能を実現する。
本体装置2は、コントローラ通信部83を備える。コントローラ通信部83は、プロセッサ81に接続される。コントローラ通信部83は、左コントローラ3および/または右コントローラ4と無線通信を行う。本体装置2と左コントローラ3および右コントローラ4との通信方式は任意であるが、本実施形態においては、コントローラ通信部83は、左コントローラ3との間および右コントローラ4との間で、Bluetooth(登録商標)の規格に従った通信を行う。
プロセッサ81は、上述の左側端子17、右側端子21、および下側端子27に接続される。プロセッサ81は、左コントローラ3と有線通信を行う場合、左側端子17を介して左コントローラ3へデータを送信するとともに、左側端子17を介して左コントローラ3から操作データを受信する。また、プロセッサ81は、右コントローラ4と有線通信を行う場合、右側端子21を介して右コントローラ4へデータを送信するとともに、右側端子21を介して右コントローラ4から操作データを受信する。また、プロセッサ81は、クレードルと通信を行う場合、下側端子27を介してクレードルへデータを送信する。このように、本実施形態においては、本体装置2は、左コントローラ3および右コントローラ4との間で、それぞれ有線通信と無線通信との両方を行うことができる。また、左コントローラ3および右コントローラ4が本体装置2に装着された一体型装置または本体装置2単体がクレードルに装着された場合、本体装置2は、クレードルを介してデータ(例えば、画像データや音声データ)を据置型モニタ等に出力することができる。
ここで、本体装置2は、複数の左コントローラ3と同時に(換言すれば、並行して)通信を行うことができる。また、本体装置2は、複数の右コントローラ4と同時に(換言すれば、並行して)通信を行うことができる。したがって、複数のユーザは、左コントローラ3および右コントローラ4のセットをそれぞれ用いて、本体装置2に対する入力を同時に行うことができる。一例として、第1ユーザが左コントローラ3および右コントローラ4の第1セットを用いて本体装置2に対して入力を行うと同時に、第2ユーザが左コントローラ3および右コントローラ4の第2セットを用いて本体装置2に対して入力を行うことが可能となる。
本体装置2は、タッチパネル13の制御を行う回路であるタッチパネルコントローラ86を備える。タッチパネルコントローラ86は、タッチパネル13とプロセッサ81との間に接続される。タッチパネルコントローラ86は、タッチパネル13からの信号に基づいて、例えばタッチ入力が行われた位置を示すデータを生成して、プロセッサ81へ出力する。
また、ディスプレイ12は、プロセッサ81に接続される。プロセッサ81は、(例えば、上記の情報処理の実行によって)生成した画像および/または外部から取得した画像をディスプレイ12に表示する。
本体装置2は、コーデック回路87およびスピーカ(具体的には、左スピーカおよび右スピーカ)88を備える。コーデック回路87は、スピーカ88および音声入出力端子25に接続されるとともに、プロセッサ81に接続される。コーデック回路87は、スピーカ88および音声入出力端子25に対する音声データの入出力を制御する回路である。
また、本体装置2は、加速度センサ89を備える。本実施形態においては、加速度センサ89は、所定の3軸(例えば、図1に示すxyz軸)方向に沿った加速度の大きさを検出する。なお、加速度センサ89は、1軸方向あるいは2軸方向の加速度を検出するものであってもよい。
また、本体装置2は、角速度センサ90を備える。本実施形態においては、角速度センサ90は、所定の3軸(例えば、図1に示すxyz軸)回りの角速度を検出する。なお、角速度センサ90は、1軸回りあるいは2軸回りの角速度を検出するものであってもよい。
加速度センサ89および角速度センサ90は、プロセッサ81に接続され、加速度センサ89および角速度センサ90の検出結果は、プロセッサ81へ出力される。プロセッサ81は、上記の加速度センサ89および角速度センサ90の検出結果に基づいて、本体装置2の動きおよび/または姿勢に関する情報を算出することが可能である。
本体装置2は、電力制御部97およびバッテリ98を備える。電力制御部97は、バッテリ98およびプロセッサ81に接続される。また、図示しないが、電力制御部97は、本体装置2の各部(具体的には、バッテリ98の電力の給電を受ける各部、左側端子17、および右側端子21)に接続される。電力制御部97は、プロセッサ81からの指令に基づいて、バッテリ98から上記各部への電力供給を制御する。
また、バッテリ98は、下側端子27に接続される。外部の充電装置(例えば、クレードル)が下側端子27に接続され、下側端子27を介して本体装置2に電力が供給される場合、供給された電力がバッテリ98に充電される。
<1−5.コントローラの内部構成>
図7は、本体装置2と左コントローラ3および右コントローラ4との内部構成の一例を示すブロック図である。なお、本体装置2に関する内部構成の詳細については、図6で示しているため図7では省略している。
左コントローラ3は、本体装置2との間で通信を行う通信制御部101を備える。図7に示すように、通信制御部101は、端子42を含む各構成要素に接続される。本実施形態においては、通信制御部101は、端子42を介した有線通信と、端子42を介さない無線通信との両方で本体装置2と通信を行うことが可能である。通信制御部101は、左コントローラ3が本体装置2に対して行う通信方法を制御する。すなわち、左コントローラ3が本体装置2に装着されている場合、通信制御部101は、端子42を介して本体装置2と通信を行う。また、左コントローラ3が本体装置2から外されている場合、通信制御部101は、本体装置2(具体的には、コントローラ通信部83)との間で無線通信を行う。コントローラ通信部83と通信制御部101との間の無線通信は、例えばBluetooth(登録商標)の規格に従って行われる。
また、左コントローラ3は、例えばフラッシュメモリ等のメモリ102を備える。通信制御部101は、例えばマイコン(マイクロプロセッサとも言う)で構成され、メモリ102に記憶されるファームウェアを実行することによって各種の処理を実行する。
左コントローラ3は、各ボタン103(具体的には、ボタン33〜39、43、44、および47)を備える。また、左コントローラ3は、アナログスティック(図7では「スティック」と記載する)32を備える。各ボタン103およびアナログスティック32は、自身に対して行われた操作に関する情報を、適宜のタイミングで繰り返し通信制御部101へ出力する。
左コントローラ3は、慣性センサを備える。具体的には、左コントローラ3は、加速度センサ104を備える。また、左コントローラ3は、角速度センサ105を備える。本実施形態においては、加速度センサ104は、所定の3軸(例えば、図4に示すxyz軸)方向に沿った加速度の大きさを検出する。なお、加速度センサ104は、1軸方向あるいは2軸方向の加速度を検出するものであってもよい。本実施形態においては、角速度センサ105は、所定の3軸(例えば、図4に示すxyz軸)回りの角速度を検出する。なお、角速度センサ105は、1軸回りあるいは2軸回りの角速度を検出するものであってもよい。加速度センサ104および角速度センサ105は、それぞれ通信制御部101に接続される。そして、加速度センサ104および角速度センサ105の検出結果は、適宜のタイミングで繰り返し通信制御部101へ出力される。
通信制御部101は、各入力部(具体的には、各ボタン103、アナログスティック32、各センサ104および105)から、入力に関する情報(具体的には、操作に関する情報、またはセンサによる検出結果)を取得する。通信制御部101は、取得した情報(または取得した情報に所定の加工を行った情報)を含む操作データを本体装置2へ送信する。なお、操作データは、所定時間に1回の割合で繰り返し送信される。なお、入力に関する情報が本体装置2へ送信される間隔は、各入力部について同じであってもよいし、同じでなくてもよい。
上記操作データが本体装置2へ送信されることによって、本体装置2は、左コントローラ3に対して行われた入力を得ることができる。すなわち、本体装置2は、各ボタン103およびアナログスティック32に対する操作を、操作データに基づいて判別することができる。また、本体装置2は、左コントローラ3の動きおよび/または姿勢に関する情報を、操作データ(具体的には、加速度センサ104および角速度センサ105の検出結果)に基づいて算出することができる。
左コントローラ3は、振動によってユーザに通知を行うための振動子107を備える。本実施形態においては、振動子107は、本体装置2からの指令によって制御される。すなわち、通信制御部101は、本体装置2からの上記指令を受け取ると、当該指令に従って振動子107を駆動させる。ここで、左コントローラ3は、コーデック部106を備える。通信制御部101は、上記指令を受け取ると、指令に応じた制御信号をコーデック部106へ出力する。コーデック部106は、通信制御部101からの制御信号から振動子107を駆動させるための駆動信号を生成して振動子107へ与える。これによって振動子107が動作する。
振動子107は、より具体的にはリニア振動モータである。リニア振動モータは、回転運動をする通常のモータと異なり、入力される電圧に応じて所定方向に駆動されるため、入力される電圧の波形に応じた振幅および周波数で振動をさせることができる。本実施形態において、本体装置2から左コントローラ3に送信される振動制御信号は、単位時間ごとに周波数と振幅とを表すデジタル信号であってよい。別の実施形態においては、本体装置2から波形そのものを示す情報を送信するようにしてもよいが、振幅および周波数だけを送信することで通信データ量を削減することができる。また、さらにデータ量を削減するため、そのときの振幅および周波数の数値に替えて、前回の値からの差分だけを送信するようにしてもよい。この場合、コーデック部106は、通信制御部101から取得される振幅および周波数の値を示すデジタル信号をアナログの電圧の波形に変換し、当該波形に合わせて電圧を入力することで振動子107を駆動させる。したがって、本体装置2は、単位時間ごとに送信する振幅および周波数を変えることによって、そのときに振動子107を振動させる振幅および周波数を制御することができる。なお、本体装置2から左コントローラ3に送信される振幅および周波数は、1つに限らず、2つ以上送信するようにしてもよい。その場合、コーデック部106は、受信された複数の振幅および周波数それぞれが示す波形を合成することで、振動子107を制御する電圧の波形を生成することができる。
左コントローラ3は、電力供給部108を備える。本実施形態において、電力供給部108は、バッテリおよび電力制御回路を有する。図示しないが、電力制御回路は、バッテリに接続されるとともに、左コントローラ3の各部(具体的には、バッテリの電力の給電を受ける各部)に接続される。
図7に示すように、右コントローラ4は、本体装置2との間で通信を行う通信制御部111を備える。また、右コントローラ4は、通信制御部111に接続されるメモリ112を備える。通信制御部111は、端子64を含む各構成要素に接続される。通信制御部111およびメモリ112は、左コントローラ3の通信制御部101およびメモリ102と同様の機能を有する。したがって、通信制御部111は、端子64を介した有線通信と、端子64を介さない無線通信(具体的には、Bluetooth(登録商標)の規格に従った通信)との両方で本体装置2と通信を行うことが可能であり、右コントローラ4が本体装置2に対して行う通信方法を制御する。
右コントローラ4は、左コントローラ3の各入力部と同様の各入力部を備える。具体的には、各ボタン113、アナログスティック52、慣性センサ(加速度センサ114および角速度センサ115)を備える。これらの各入力部については、左コントローラ3の各入力部と同様の機能を有し、同様に動作する。
また、右コントローラ4は、振動子117およびコーデック部116を備える。振動子117およびコーデック部116は、左コントローラ3の振動子107およびコーデック部106と同様に動作する。すなわち、通信制御部111は、本体装置2からの指令に従って、コーデック部116を用いて振動子117を動作させる。
右コントローラ4は、NFCの規格に基づく近距離無線通信を行うNFC通信部122を備える。NFC通信部122は、いわゆるNFCリーダ・ライタの機能を有する。ここで、本明細書において近距離無線通信とは、一方の装置(ここでは、右コントローラ4)からの電波によって(例えば電磁誘導によって)他方の装置(ここでは、アンテナ122aと近接する装置)に起電力を発生させる通信方式が含まれる。他方の装置は、発生した起電力によって動作することが可能であり、電源を有していてもよいし有していなくてもよい。NFC通信部122は、右コントローラ4(アンテナ122a)と通信対象とが接近した場合(典型的には、両者の距離が十数センチメートル以下となった場合)に当該通信対象との間で通信可能となる。通信対象は、NFC通信部122との間で近距離無線通信が可能な任意の装置であり、例えばNFCタグやNFCタグの機能を有する記憶媒体である。ただし、通信対象は、NFCのカードエミュレーション機能を有する他の装置であってもよい。
また、右コントローラ4は、第2端面に赤外撮像部123を備える。赤外撮像部123は、右コントローラ4の周囲を撮像する赤外線カメラを有する。一例として、本体装置2および/または右コントローラ4は、撮像された情報(例えば、撮像された撮像画像における少なくとも一部の領域全体を分割した複数のブロックの輝度に関連する情報等)を算出し、当該情報に基づいて、右コントローラ4の周囲変化を判別する。また、赤外撮像部123は、環境光によって撮像を行ってもよいが、本実施形態においては、赤外線を照射する赤外発光部124を有する。赤外発光部124は、例えば、赤外線カメラが画像を撮像するタイミングと同期して、赤外線を照射する。そして、赤外発光部124によって照射された赤外線が撮像対象によって反射され、当該反射された赤外線が赤外線カメラによって受光されることで、赤外線の画像が取得される。これによって、赤外撮像部123は、より鮮明な赤外線画像を得ることができる。なお、赤外撮像部123と赤外発光部124とは、それぞれ別のデバイスとして右コントローラ4内に設けられてもよいし、同じパッケージ内に設けられた単一のデバイスとして右コントローラ4内に設けられてもよい。また、本実施形態においては、赤外線カメラを有する赤外撮像部123が用いられるが、他の実施形態においては、撮像手段として、赤外線カメラに代えて可視光カメラ(可視光イメージセンサを用いたカメラ)が用いられてもよい。
右コントローラ4は、処理部121を備える。処理部121は、通信制御部111に接続される。また、処理部121は、NFC通信部122、赤外撮像部123、および赤外発光部124に接続される。処理部121は、本体装置2からの指令に応じて、NFC通信部122に対する管理処理を実行する。例えば、処理部121は、本体装置2からの指令に応じてNFC通信部122の動作を制御する。また、処理部121は、NFC通信部122の起動を制御したり、通信対象(例えば、NFCタグ)に対するNFC通信部122の動作(具体的には、読み出しおよび書き込み等)を制御したりする。また、処理部121は、通信制御部111を介して通信対象に送信されるべき情報を本体装置2から受信してNFC通信部122へ渡したり、通信対象から受信された情報をNFC通信部122から取得して通信制御部111を介して本体装置2へ送信したりする。
また、処理部121は、CPUやメモリ等を含み、右コントローラ4に備えられた図示しない記憶装置(例えば、不揮発性メモリ等)に記憶された所定のプログラム(例えば、画像処理や各種演算を行うためのアプリケーションプログラム)に基づいて、本体装置2からの指令に応じて赤外撮像部123に対する管理処理を実行する。例えば、処理部121は、赤外撮像部123に撮像動作を行わせたり、撮像結果に基づく情報(撮像画像の情報、あるいは、当該情報から算出される情報等)を取得および/または算出して通信制御部111を介して本体装置2へ送信したりする。また、処理部121は、本体装置2からの指令に応じて赤外発光部124に対する管理処理を実行する。例えば、処理部121は、本体装置2からの指令に応じて赤外発光部124の発光を制御する。なお、処理部121が処理を行う際に用いるメモリは、処理部121内に設けられてもいいし、メモリ112であってもよい。
右コントローラ4は、電力供給部118を備える。電力供給部118は、左コントローラ3の電力供給部108と同様の機能を有し、同様に動作する。
<2.ゲームの概要>
次に、本実施形態のゲームシステムにおいて行われるゲームの概要について、図8及び図9を参照しつつ説明する。
このゲームにおいて、ユーザは、上述したタッチペンを用い、タッチディスプレイ12に表示された計算問題の解答を筆記する。一例として、ゲームを開始すると、図8に示すようにディスプレイ12には、計算問題が表示された問題領域121と、計算問題の解答を入力する解答領域122とが、表示される。問題領域121には、複数の計算問題が表示されており(図8の例では3問)、既に解答が終了した第1問及び第2問については、その正否が表示されている。すなわち、第1問(9×2)の解答は正解であるため、解答である「18」に○の表示が付され、第2問(3+5)の解答は不正解であるため、解答である「7」には×の表示が付されている。これから解答を行う第3問については、枠123の表示が付されている。すなわち、ユーザに対し、解答を行うべき問題を強調するようになっている。
解答領域122には、文字を入力するための矩形状の入力スペース124と、その下方に入力した文字の書き直しを行うための書き直しボタン125とが表示されている。入力スペース124には、タッチペン95により、解答すべき問題の解答を入力するようになっている。図8の例では、第3問(1+1)の解答を行うことが促されており、ユーザは、タッチペン95を用いて、解答である「2」を入力している。入力の途中で修正を行いたい場合には、書き直しボタン125をタッチすると、入力スペース124において入力した文字がすべて消去され、新たに文字等を入力できるようになっている。また、タッチペンに95よる入力が行われている最中には、スピーカ88から疑似筆記音が出力されるようになっている。疑似筆記音とは、例えば、鉛筆によって紙に文字を筆記するときに、鉛筆の芯と紙とが擦れることによって生じる音を模したものである。この点については、後述する。
そして、入力が完了後、つまり、タッチペン95による入力が終了し、タッチペン95のペン先がタッチパネル13から離れてから所定時間が経過すると、入力した文字が問題領域121の第3問の解答として表示されるとともに、その正否が表示される。すなわち、図9に示すように、問題領域121には、第3問の解答として、入力した「2」の文字が表示されるとともに、その正否が合わせて表示される。この例では正解が入力されたため、○の表示が表示される。
こうして、3問の計算問題が終了すると、次の問題がディスプレイ12に表示され、ユーザによる解答が続けられる。そして、所定の数の問題の解答が行われるまで、問題の表示と解答が繰り返される。なお、ユーザがゲームを終了したい場合には、所定の終了ボタン(図示省略)をタッチすればよい。
<3.ゲームシステムの機能構成>
次に、上記のように構成されたゲームシステムの機能構成(ソフトウエア構成)について説明する。図10は、本実施形態に係るゲームシステムの機能構成の一例である。ゲームシステムのプロセッサ81は、フラッシュメモリ84、あるいはスロット23に装着された外部記憶媒体に記憶されたゲームプログラム(情報処理プログラム)をDRAM85に展開する。そして、プロセッサは、DRAM85に展開されたゲームプログラムを解釈及び実行して、各機能構成要素を制御する。これにより、本実施形態に係るゲームシステムは、図10に示すように、入力座標取得部811、描画情報生成部812、移動方向算出部813、及び音生成部814を備えるコンピュータとして機能する。
ディスプレイ12及びタッチパネル13上には、直交座標系が設定されており、入力座標取得部811は、タッチパネル13上でタッチペン95のペン先がタッチされた位置を入力座標としてDRAM85に記憶する。タッチペンによって文字等が入力される場合には、ペン先の継続的な移動に伴い、例えば、1/60秒の周期で、入力座標を記憶していく。これにより、タッチペン95のペン先がタッチパネル13に接した時刻から、ペン先がタッチパネル13から離れる時刻までのペン先の軌跡が、時系列に並ぶ入力座標としてDRAM85に記憶される。
描画情報生成部812は、上述したペン先の軌跡をディスプレイ12に表示する機能を奏する。すなわち、ディスプレイ12において、入力座標取得部811が取得した入力座標と対応する位置、つまりペン先が当接する位置に、入力座標の取得と同時に所定の径のドットを表示する。そして、図11に示すように、描画情報生成部812は、ペン先の移動に伴い、順に取得した入力座標と対応する位置にドットDを表示していき、時系列に並ぶドットDが線として表示されることで、ペン先の軌跡をディスプレイ12に表示する。すなわち、タッチペン85によって行われた筆記が、疑似的にディスプレイ12に表される。なお、図11は、説明の便宜のため、ドットDを強調して表示しているが、実際にはなめらかな線がディスプレイ12に表示される。
移動方向算出部813は、上記入力座標取得部811において取得された入力座標から、ペン先の移動方向を算出する機能を奏する。移動方向は、種々の方法で算出することができるが、例えば、図12に示すように、時系列に並ぶ2つの入力座標、つまり第1入力座標L1及び第2入力座標L2において、第1入力座標L1から第2入力座標L2に向かう方向を移動方向Xとして設定することができる。また、本実施形態では、右利きのユーザを想定し、図13に示すように、ディスプレイ12の右下から左上に向かい、水平線Hに対して45度の角度で傾斜する線を基準線Sとし、この基準線Sに対するペン先の移動方向Xの角度を算出するようにしている。すなわち、右利きのユーザは、筆記の際にペンを握ったときに、平面視におけるペンの向きが概ね基準線Sと平行であるため、このペンの延びる方向を基準線Sの向きとしている。なお、水平線Hは、ディスプレイ12の左右方向に延びる線としている。また、基準線Sと直交する線を交差線Kと称することとする。
ここで、基準線Sの延びる方向は、図14に示すように、右下から左上に向かう方向とし、これを基準線方向S(第1の方向)と称することとする。そして、この基準線方向Sに対する移動方向Xのなす角度を移動角度θと称することとする。移動角度θは、図14のように、0〜360°の範囲で規定される。また、移動方向算出部813は、移動方向Xのほか、第1入力座標L1及び第2入力座標L2間のペン先の移動速度Vも算出している。
続いて、音生成部814について説明する。本実施形態において、音生成部814は、疑似筆記音を出力するための3種類の音声データ(音情報)を生成する。ここでは、説明の便宜のため、3つの音声データを第1〜第3音声データと称し、これら第1〜第3音声データがコーデック回路87に入力されることで、スピーカ88から出力される音を第1〜第3音と称することとする。図14に示すように、第1音は、ペン先が、基準線Sの左側から右側に移動するときに出力される音である。すなわち、移動角度θが、180〜360°のときに出力される音である。第2音は、ペン先が、基準線Sの右側から左側に移動するときに出力される音である。すなわち、移動角度θが、0〜180°のときに出力される音である。また、第3音は、移動角度θに関わらず、出力される音である。
例えば、紙に鉛筆で筆記を行った場合には、図15に示すように、鉛筆95の延びる方向、つまり基準線Sに対して、鉛筆95を左側から右側に移動させたとき(矢印F1)と、右側から左側へ移動させたとき(矢印F2)とで、筆記音が異なる。これは、鉛筆の芯の移動の向き、鉛筆と紙との摩擦、右利きのユーザの筆記時の力の入れ方などに基づく。このような音の違いに基づき、第1音は、鉛筆を左から右へ移動したときの音を模したものであり、第2音は鉛筆を右から左へ移動したときの音を模したものである。したがって、第1音と第2音とは音色が異なる音である。
また、第3音(ベース音)は、第1音及び第2音とは音色の異なる音であるが、第1音及び第2音に近似した音である。
次に、音声データの生成について説明する。まず、第1音は、移動角度θが180〜360°の範囲にあるときに出力される音であるが、図16A及び図16Bに示すように、移動角度θが270°(垂直)に近いほど、音程が高く、且つ音量が大きくなるように設定されている。これは、移動角度θが270°(垂直)に近いほど、実際の筆記では、ペン先と紙との接触面積が大きくなり、これによって筆記音の音程が高くなったり、音量が大きくなる傾向にあるため、これを模したものである。さらに、図16C及び図16Dに示すように、ペン先の移動速度Vが速くなるほど、音程が高く、且つ音量が大きくなるように設定されている。これは、移動速度Vが大きいほど、実際の筆記では筆記音の音程や音量が大きく変化する傾向にあるため、これを模したものである。以上のような設定に基づいて、第1音声データが生成されるようになっている。なお、音程及び音量は、移動角度θ及び移動速度Vに基づいて決定されるが、移動角度θ及び移動速度Vに重み付けをし、加重平均した値に基づいて決定することができる。例えば、移動角度θの重みを、移動速度Vよりも大きくすることができる。これにより、移動速度Vの変化によっては音程及び音量があまり変化しないが、移動角度θが変化すると、音程及び音量が大きく変化するような制御を行うことができる。この点は、次に説明する第2音についても同様である。また、図16Bに示すように、移動角度θが、180°及び360°のときは、音量が0になるため、移動速度Vに関わらず、第1音は出力されない。
一方、第2音は、移動角度θが0〜180°の範囲にあるときに出力される音であるが、図17A及び図17Bに示すように、移動角度が90°(垂直)に近いほど、音程が高く、且つ音量が大きくなるように設定されている。さらに、上述した図16C及び図16Dに示すように、ペン先の移動速度Vが速くなるほど、音程が高く、且つ音量が大きくなるように設定されている。以上のような設定に基づいて、第2音声データが生成されるようになっている。なお、図17Bに示すように、移動角度θが、0°及び180°のときは、音量が0になるため、移動速度Vに関わらず、第2音は出力されない。
また、第3音は、移動角度θに関わらず、出力される音であるが、上述した図16C及び図16Dに示すように、ペン先の移動速度Vが速くなるほど、音程が高く、且つ音量が大きくなるように設定されている。このような設定に基づいて、第3音声データが生成されるようになっている。
第1〜第3音声データは、基準となる基準第1〜第3音声データを加工することで、生成される。基準第1〜第3音声データは、フラッシュメモリ84または外部記憶媒体に記憶されており、これをDRAM85にロードした後、加工が行われる。例えば、第1音声データは、移動方向算出部813において算出されたペン先の移動角度θ及び移動速度Vに基づいて、基準第1音声データを加工することで生成される。例えば、図18に示すように、音程を上げる場合には、基準第1音声データの波形を、周波数が高くなるように加工し、音量を上げる場合には、基準第1音声データの波形を、振幅が大きくなるように加工する。
第2音声データも第1音声データと同様に生成する。相違点は、基準となるデータが基準第2音声データである点であり、音程や音量を変化させるように、基準第2音声データの波形を加工する。
第3音声データは、第1及び第2音声データと異なり、移動速度Vのみに基づいて、生成される。すなわち、基準となる基準第3音声データの波形を、ペン先の移動速度Vに基づいて加工する。すなわち、移動速度Vに基づいて、音程や音量を変化させるように、基準第3音声データの波形を加工する。
以上のように、タッチペン95のペン先の移動に伴って第1〜第3音声データが順次生成され、これらの音声データに基づいて、スピーカ88から疑似筆記音が出力される。より詳細に説明すると、第1音声データは、ペン先の移動角度が180〜360°の範囲であるときに生成されるため、この範囲においては、第1音と第3音とが重ねられた疑似筆記音がスピーカ88から出力される。一方、第2音声データは、ペン先の移動角度が0〜180°の範囲であるときに生成されるため、この範囲においては、第2音と第3音とが重ねられた疑似筆記音がスピーカから出力される。なお、第3音は、移動速度が0でない限り、スピーカ88から出力される。
図19は、タッチパネル13上で円を描く場合の、第1音及び第2音の音程及び音量の制御を説明する図である。図19の例では、第1点から反時計回りに筆記をスタートし、円に沿う第2点、第3点、及び第4点を通過して第1点まで戻るような円を描くこととする。また、図19におけるハッチングの幅は、音程及び音量を表しており、幅が大きいほど、音程が高く、且つ音量が大きいことを示している。なお、この例では、ペン先の移動速度Vは一定であるとする。
まず、第1点から第2点に向かう軌跡では、ペン先の移動角度θが0〜90°に向かって徐々に増大する。そのため、この領域では、徐々に、第2音の音程が高くなるとともに、音量が大きくなり、第2点において最大になる。そして、第2点から第3点に至っては、ペン先の移動角度θが90〜180°に向かって徐々に増大する。そのため、この領域では、徐々に、第2音の音程が低くなるとともに音量が小さくなり、第3点において最小になる。このように、第1点から第3点に至っては、第2音の音程及び音量が制御され、第1音は出力されないようになっている。
次に、第3点から第4点に至っては、ペン先の移動角度θが180〜270°に向かって徐々に増大する。そのため、この領域では、徐々に、第1音の音程が高くなるとともに、音量が大きくなり、第4点において最大になる。そして、第4点から第1点に至っては、ペン先の移動角度θが270〜360°に向かって徐々に増大する。そのため、この領域では、徐々に、第1音の音程が低くなるとともに、音量が小さくなり、第1点において最小になる。このように、第3点から第1点に至っては、第1音の音程及び音量が制御され、第2音は出力されないようになっている。なお、第1音または第2音が出力されないとは、音量が0で再生されていることも含む。
なお、この円を描いている間、第3音はペン先の移動速度が0でないため、第1音または第2音に重ね合わされつつ、常に出力されている。
次に、DRAM85に記憶されるデータの一例を、図20に示す。図20に示すように、DRAM85には、ゲームプログラム851、及びタッチペンによる入力座標852が順次記憶される。また、入力座標に基づいて算出されたペン先の移動角度853及びペン先の移動速度854も記憶される。さらに、上述したように、フラッシュメモリ84または外部記憶媒体からロードされた基準第1〜第3音声データ855,857,859が記憶され、さらに、これらに基づいて生成された第1〜第3音声データ856,858,850が記憶される。
ゲームプログラム851は、本実施形態のゲームを行うためのプログラムであり、フラッシュメモリ84または外部記憶媒体に予め記憶されている。ゲームプログラム851は、ゲームの開始時にDRAM85にロードされる。
その他、図示を省略するが、ゲームを進行する上で必要となるオブジェクトに関するデータも、適宜、DRAM85にロードされて実行される。
<4.ゲーム処理の例>
次に、ゲーム処理の例について、図21を参照しつつ説明する。図21は、ゲーム処理の一例を示すフローチャートである。まず、ゲームプログラム851がDRAM85にロードされ、ゲームが開始されると(ステップS101)、図8に示すように、ディスプレイ12には問題領域121と解答領域122とが表示される(ステップS102)。次に、ユーザは、タッチペン95により、解答領域122の入力スペース124に、問題領域121に表示された問題の解答となる数字を入力する(ステップS103)。そして、タッチペン95のペン先がタッチパネル13上を継続的に移動している間、入力座標取得部811は、ペン先の入力座標を順次取得し(ステップS104)、DRAM85に記憶していく。そして、移動方向算出部813は、取得された入力座標からペン先の移動角度θ及び移動速度Vを順次算出し(ステップS105)、DRAM85に記憶していく。これに伴い、描画情報生成部812は、入力座標と対応するディスプレイ12上の位置に、ドットを表示する。入力座標は連続的に取得されるため、ドットも連続的に表示されていくことで、ペン先の軌跡が、線としてディスプレイ12に描画される。また、この描画とともに、音生成部814は、上述した処理により、第1〜第3音声データを生成し、これに基づいて、筆記音がスピーカ88から出力される(ステップS106)。
そして、解答である数字の入力が終了し、タッチペン95のペン先がタッチパネル13から離れて所定時間が経過すると(ステップS107のNO)、問題領域121の所定の位置に解答が表示されるとともに(ステップS108)、その正否が表示される(ステップS109)。こうして、問題領域121に表示されている全ての問題に解答し、正否が表示された後、ゲームを続ける場合には(ステップS110のYES)、問題領域121に新たな問題が表示される(ステップS102)。一方、ゲームを続けない場合には(ステップS110のNO)、ゲームが終了する。
<5.特徴>
本実施形態に係るゲームシステムによれば、以下の効果を得ることができる。
(1)ユーザがタッチペン95により、タッチパネル13上に文字や図形等を入力するとき、入力の移動角度θに基づいて、変化させた疑似筆記音を音声データとして生成するようにしている。上記のように、ユーザが鉛筆を用いて紙に文字等を筆記する際には、筆記音は一定ではなく、鉛筆の移動方向によって変化する。そこで、本実施形態においては、このような筆記の向きによって変化する音を模した音声データを生成し、これに基づいて疑似筆記音を出力しているため、ユーザは、タッチペン95で文字を入力しているときに、実際に筆記しているような感覚を高めることができる。さらに、例えば、目を閉じてペン入力を行っても、疑似筆記音の変化から、聴覚によって、ある程度の筆記の形を認識することができる。
(2)本実施形態では、タッチペン95の移動方向によって2種類の音声データ、つまり、第1音声データ及び第2音声データを生成している。これら2つの音声データによる第1音及び第2音は、ペン先の移動角度θに基づいて出力されるため、例えば、第1音用の移動角度の範囲(180〜360°)から第2音用の移動角度の範囲(0〜180°)に、ペン先の移動角度θが変わるときに、第1音及び第2音の両方が出力されない時間が生じてしまう。そこで、本実施形態では、ペン先の移動角度θに関わらず、移動速度Vによってのみ制御される第3音を出力するようにしている。これにより、上記のような第1音及び第2音の両方が出力されない時間においても、第3音による疑似筆記音が出力されるため、ユーザの違和感をなくすことができる。
<6.変形例>
以上、本発明の実施形態について説明したが、本発明は上記各実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。例えば、以下の変更が可能である。また、以下の変形例は、適宜組み合わせることができる。
(1)上記実施形態においては、ペン先の移動角度θにより疑似筆記音の音程及び音量の両方を変化させているが、いずれか一方であってもよい。例えば、ペン先の移動角度θが変化した場合に、第1音と第2音の音程については変化させないようにしてもよい。このようにすることで、第1音と第2音の音程は移動速度Vのみに基づくことになるため、移動角度θと移動速度Vが音程に与える変化が打ち消しあうようなことがなくなり、第1音と第2音の音色の自然感を高めやすくなる。
(2)上記実施形態では、基準線方向Sに対するペン先の移動方向X、つまり移動角度θが90°に近いほど、あるいは270°に近いほど、音程が高く、且つ音量が大きくなるようにしている。すなわち、移動方向Xが基準線方向Sに対して垂直に近い場合の方が、平行に近い場合よりも音程が高く、且つ音量が大きくなるようにしている。但し、これは一例であり、移動角度θと、音程及び音量との関係は適宜設定することができる。例えば、垂直以外の角度で音程が高くなるようにしたり、あるいは、音程が高くなる所定の角度を複数設けることもできる。
(3)上記実施形態では、移動角度θによって、第1音が出力される移動角度θの範囲と、第2音が出力される移動角度θの範囲とを分け、例えば、第1音が出力される移動角度θでは、第2音が出力されないようにしている。しかしながら、移動角度によっては両方の音を出力できるようにしてもよい。例えば、図19の例において、各音の移動角度θの範囲が遷移する第1点付近及び第3点付近において、両方の音を出力するようにしてもよい。
(4)上記実施形態では、音色の異なる第1音及び第2音を出力するように構成されているが、出力される音の音色は、1つでもよいし、3以上であってもよい。例えば音色が1つである場合には、移動角度θによって、その音の音程及び音量を変化させればよい。また、3以上の音色の音を設定する場合には、移動角度の範囲を3つ以上設定し、各範囲において、出力させる音を別個に設定しておけばよい。
(5)上記実施形態では、右利きのユーザを想定して基準線Sを右下から左上に延びるように設定したが、左利きのユーザを想定した場合は、交差線Kが基準線となる。したがって、ゲームの開始前に、ユーザが右利きか左利きかを入力し、それに応じて基準線を設定できるようにすることもできる。
(6)基準線方向(第1の方向)は、直交座標系の座標面において、座標軸に対して略45度の角度で傾斜した方向でなくてもよく、それ以外の角度で傾斜した方向を適宜設定することができる。あるいは、いずれかの座標軸と平行に延びるような基準線方向を設定することもできる。したがって、本発明に係る「移動方向」とは、適宜設定された基準線方向に対する方向とすることができる。
(7)上記実施形態では、疑似筆記音に第3音を含めているが、第3音は、第1音及び第2音に重ねる音であるため、第1音及び第2音に音色が近似した音であることが好ましいが、これに限定されず、適用する場面によって適宜変更することができる。但し、第3音は必ずしも必要ではなく、移動角度θによって変化する第1音、第2音等の音だけでもよい。
(8)上記実施形態では、各音声データを生成する際に、移動角度θ及び移動速度Vに基づいて、音程及び音量を決定している。例えば、図16及び図17に示す音声データの生成方法は一例であり、これ以外の規定にしたがって、音声データを生成することができる。例えば、音程や音量が最大または最小になる移動角度や移動速度は、適宜変更することができる。また、音程及び音量の決定において、移動速度は必ずしも必要ではなく、移動角度θのみによって音程及び音量を決定することもできる。
(9)上記実施形態では、所定の周期で入力座標を取得し、隣接する入力座標L1,L2に基づいて、移動角度θや移動速度Vを算出しているが、これには限定されない。すなわち、隣接する入力座標に限らず、任意に規定された複数の入力座標の変化に基づいて、移動角度θや移動速度Vが算出されればよい。
(10)上記実施形態では、基準音声データを元に、移動角度θや移動速度Vに基づいて、音程や音量を変化させた音声データ(音情報)を生成しているが、音声データの生成方法はこれには限定されず、種々の方法を用いることができる。例えば、基準音声データを用いずに、移動角度や移動速度に応じた音声データを、都度、生成することもできる。あるいは、所定の移動角度や移動速度に対応した音声データを予め作成しておき、これに基づいて音を出力することもできる。
(11)上記実施形態では、紙に鉛筆で筆記を行う際の筆記音を模した疑似筆記音を設定しているが、これに限定されない。すなわち、疑似筆記音は、鉛筆のほか、ペン、万年筆等の種々の筆記具で、紙、プラスチック、金属などの種々の対象に筆記を行った際に生じる筆記音を模したものとすることができる。
(12)上記実施形態では、タッチペンを用いて入力を行ったときの例について説明したが、タッチペンの代わりに指で入力したり、あるいはマウスやリモコンによるジェスチャ入力によって入力を行う際にも適用することができる。
(13)上記実施形態では、ゲームにおける文字の入力に本発明を適用したが、ゲーム以外にも適用可能であり、単に文字等の入力とその描画を行う装置に適用することもできる。
(14)上記実施形態において、本発明の情報処理装置に相当するゲームシステムは、ディスプレイ12、タッチパネル13、及びスピーカ88を有しているが、これに限定されない。すなわち、本発明に係る情報処理装置は、ディスプレイ、タッチパネル、及びスピーカを有していなくてもよく、外部のディスプレイ、タッチパネル、及びスピーカを、本発明に係る情報処理装置に接続して、上述した処理を行うこともできる。
(15)本発明の情報処理プログラム、情報処理装置、及び情報処理方法は、有線または無線で接続された、LANまたはインターネットのようなネットワークを介した複数人用のプレイにも適用することができる。
1 ゲームシステム(情報処理装置)
12 ディスプレイ(表示装置)
13 タッチパネル
811 入力座標取得部
812 描画情報生成部
813 移動方向算出部
814 音生成部

Claims (17)

  1. 情報処理装置のコンピュータにおいて実行される情報処理プログラムであって、
    ユーザの操作に基づく入力の入力座標を取得する入力座標取得手段と、
    前記入力座標に応じた軌跡を表示装置に表示させるための描画情報を生成する描画情報生成手段と、
    前記入力が行われる間に継続して取得された前記入力座標の変化から、前記入力の移動方向を算出する移動方向算出手段と、
    前記入力座標が変化したことに応じて、前記移動方向に基づいて変化させた疑似筆記音の音情報を生成する音生成手段と、
    して、前記コンピュータを機能させる、情報処理プログラム。
  2. 前記音生成手段は、前記移動方向に応じて、前記疑似筆記音の音量を変化させるように、前記音情報を生成する、請求項1に記載の情報処理プログラム。
  3. 前記音生成手段は、第1の方向に対して前記移動方向が垂直に近い場合、前記第1の方向に対して前記移動方向が平行に近い場合に比べて音量を大きくするように、前記音情報を生成する、請求項2に記載の情報処理プログラム。
  4. 前記音生成手段は、前記移動方向に応じて、前記疑似筆記音の音程を変化させるように、前記音情報を生成する、請求項1から3のいずれかに記載の情報処理プログラム。
  5. 前記音生成手段は、第1の方向に対して前記移動方向が垂直に近い場合、前記第1の方向に対して前記移動方向が平行に近い場合に比べて、音程を高くするように、前記音情報を生成する、請求項4に記載の情報処理プログラム。
  6. 前記音生成手段は、前記移動方向に応じて、前記疑似筆記音の音色を変化させるように、前記音情報を生成する、請求項1から5のいずれかに記載の情報補処理プログラム。
  7. 前記音生成手段は、第1の方向に対して前記移動方向のなす角度が、0〜180°の場合と、180〜360°の場合とで、前記音色を変化させるように、前記音情報を生成する、請求項6記載の情報処理プログラム。
  8. 前記入力座標は、直交座標系の座標面に設定され、
    前記第1の方向は、前記座標面の座標軸に対して傾いた方向である、請求項3,5,または7のいずれかに記載の情報処理プログラム。
  9. 前記第1の方向は、前記座標軸から略45度傾いた方向である、請求項8に記載の情報処理プログラム。
  10. 前記ユーザが、右利きに設定されている場合と、左利きに設定されている場合とで、前記第1の方向を変化させる、請求項3,5,7,または8のいずれかに記載の情報処理プログラム。
  11. 前記音生成手段は、前記入力座標の変化に基づく入力速度に応じて、前記疑似筆記音の前記音情報を変化させる、請求項1から10のいずれかに記載の情報処理プログラム。
  12. 前記音生成手段は、前記入力速度が大きいほど、前記疑似筆記音を大きく変化させるように、前記音情報を生成する、請求項11に記載の情報処理プログラム。
  13. 前記音生成手段は、前記入力速度が大きいほど、前記疑似筆記音の音程を高くするように、前記音情報を生成する、請求項11に記載の情報処理プログラム。
  14. 前記音生成手段は、前記移動方向によっては変化することのないベース音を含む前記疑似筆記音の音情報を生成する、請求項1から13のいずれかに記載の情報処理プログラム。
  15. 前記表示装置は、前記入力が行われる、タッチディスプレイである、請求項1から14のいずれかに記載の情報処理プログラム。
  16. ユーザの操作に基づく入力の入力座標を取得する入力座標取得手段と、
    前記入力座標に応じた軌跡を表示装置に表示させるための描画情報を生成する描画情報生成手段と、
    前記入力が行われる間に継続して取得された前記入力座標の変化から、前記入力の移動方向を算出する移動方向算出手段と、
    前記入力座標が変化したことに応じて、前記移動方向に基づいて変化させた疑似筆記音の音情報を生成する音生成手段と、
    を備えている、情報処理装置。
  17. ユーザの操作に基づく入力の入力座標を取得するステップと、
    前記入力座標に応じた軌跡を表示装置に表示させるための描画情報を生成するステップと、
    前記入力が行われる間に継続して取得された前記入力座標の変化から、前記入力の移動方向を算出するステップと、
    前記入力座標が変化したことに応じて、前記移動方向に基づいて変化させた疑似筆記音の音情報を生成するステップと、
    を備えている、情報処理方法。
JP2019111003A 2019-06-14 2019-06-14 情報処理プログラム Active JP7125920B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019111003A JP7125920B2 (ja) 2019-06-14 2019-06-14 情報処理プログラム
US16/899,889 US11439907B2 (en) 2019-06-14 2020-06-12 Audio feedback that varies based on direction of input stroke

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019111003A JP7125920B2 (ja) 2019-06-14 2019-06-14 情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2020204814A true JP2020204814A (ja) 2020-12-24
JP7125920B2 JP7125920B2 (ja) 2022-08-25

Family

ID=73745936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019111003A Active JP7125920B2 (ja) 2019-06-14 2019-06-14 情報処理プログラム

Country Status (2)

Country Link
US (1) US11439907B2 (ja)
JP (1) JP7125920B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD958251S1 (en) * 2020-04-06 2022-07-19 Nintendo Co., Ltd. Computer
USD965063S1 (en) * 2020-09-30 2022-09-27 Shenzhen Yang Liming Electronic Technology Co., Ltd. Game console
USD953437S1 (en) * 2020-12-30 2022-05-31 Shenzhen Qixiong Technology Co., Ltd Game controller
USD983272S1 (en) * 2022-06-21 2023-04-11 Guangzhou Fanmao Technology Co., Ltd. Game controller

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296010A (ja) * 2002-04-01 2003-10-17 Sumitomo Electric Ind Ltd ペン入力操作の効果音発生方法、端末装置及び双方向対話型システム
JP2011527792A (ja) * 2008-08-08 2011-11-04 日本写真印刷株式会社 タッチ検知デバイス
JP2014222492A (ja) * 2013-05-14 2014-11-27 株式会社東芝 描画装置及び描画システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9886088B2 (en) * 2012-08-08 2018-02-06 Microsoft Technology Licensing, Llc Physically modulating friction in a stylus
KR20140047897A (ko) * 2012-10-15 2014-04-23 삼성전자주식회사 터치 효과를 제공하기 위한 방법 및 그 전자 장치
KR20140110627A (ko) * 2013-03-08 2014-09-17 엘지전자 주식회사 이동 단말기 및 이의 제어방법
JP2014222488A (ja) * 2013-05-14 2014-11-27 株式会社東芝 描画装置及び描画システム
US20160044422A1 (en) * 2014-08-11 2016-02-11 Dell Products, Lp Pointer System for Context Based Feedback

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296010A (ja) * 2002-04-01 2003-10-17 Sumitomo Electric Ind Ltd ペン入力操作の効果音発生方法、端末装置及び双方向対話型システム
JP2011527792A (ja) * 2008-08-08 2011-11-04 日本写真印刷株式会社 タッチ検知デバイス
JP2014222492A (ja) * 2013-05-14 2014-11-27 株式会社東芝 描画装置及び描画システム

Also Published As

Publication number Publication date
US20200391112A1 (en) 2020-12-17
JP7125920B2 (ja) 2022-08-25
US11439907B2 (en) 2022-09-13

Similar Documents

Publication Publication Date Title
JP7125920B2 (ja) 情報処理プログラム
CN104714687B (zh) 用于触觉显示参数的光学传输的系统和方法
CN104423591B (zh) 用于光谱图的视觉处理以生成触觉效果的系统和方法
CN104914987B (zh) 用于触觉启用的投影用户界面的系统和方法
US7607983B2 (en) Game program and game device using touch panel
US11439898B2 (en) Game controller
JP2014222488A (ja) 描画装置及び描画システム
JP6727081B2 (ja) 情報処理システム、拡張入力装置、および情報処理方法
US11947789B2 (en) Interactive control method and apparatus, storage medium, and electronic device
JP2014222492A (ja) 描画装置及び描画システム
JP6653293B2 (ja) 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
JP2021035458A (ja) 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法
JP7029888B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
US11789536B2 (en) Input device and display input system
JP6837921B2 (ja) ゲームプログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6938580B2 (ja) ゲームプログラム、ゲームシステム、ゲーム装置、およびゲーム処理制御方法
JP7045408B2 (ja) 情報処理プログラム
JP6937168B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
JP7340556B2 (ja) 振動制御システム
KR101544044B1 (ko) 교육특화디바이스용 확장형 교구 로봇
JP2021037298A (ja) 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法
JP2021037264A (ja) 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法
JP2017199208A (ja) ペン型入力装置、及び、電子機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220624

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220624

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220704

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R150 Certificate of patent or registration of utility model

Ref document number: 7125920

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150