JPWO2008102432A1 - 操作デバイス及び情報処理システム、情報処理方法 - Google Patents

操作デバイス及び情報処理システム、情報処理方法 Download PDF

Info

Publication number
JPWO2008102432A1
JPWO2008102432A1 JP2009500029A JP2009500029A JPWO2008102432A1 JP WO2008102432 A1 JPWO2008102432 A1 JP WO2008102432A1 JP 2009500029 A JP2009500029 A JP 2009500029A JP 2009500029 A JP2009500029 A JP 2009500029A JP WO2008102432 A1 JPWO2008102432 A1 JP WO2008102432A1
Authority
JP
Japan
Prior art keywords
operation device
state
information
inclination
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009500029A
Other languages
English (en)
Other versions
JP5016023B2 (ja
Inventor
平田 真一
真一 平田
洋 大澤
洋 大澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Publication of JPWO2008102432A1 publication Critical patent/JPWO2008102432A1/ja
Application granted granted Critical
Publication of JP5016023B2 publication Critical patent/JP5016023B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/218Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1006Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals having additional degrees of freedom
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1056Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving pressure sensitive buttons

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Switches With Compound Operations (AREA)
  • Air Conditioning Control Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

ユーザが傾けて操作する場合に、場所を取らずに安定して操作できる操作デバイスを提供する。ユーザが操作デバイスを保持した状態で支持対象に押し当て可能に形成された支点部(12)と、支点部(12)が支持対象に押し当てられた状態を検知する押し当て検知部(13)と、操作デバイスの傾きを検知する傾き検知部と、を含み、ユーザが支点部(12)を支持対象に押し当てた状態で操作デバイスの傾きを変化させることにより、接続機器に対する操作を実現する操作デバイスである。

Description

本発明は、ユーザが保持して使用する操作デバイス、当該操作デバイスを備える情報処理システム、及び情報処理方法に関する。
情報処理装置に対してユーザが操作指示を行うための操作デバイスとして、例えば家庭用ゲーム機に対するコントローラ等、様々な種類のものが知られている。このような操作デバイスの中には、ユーザが保持して、他の物体に支持されていない状態(すなわち、宙に浮いた状態)で使用するものがある。さらにこのような操作デバイスは、加速度センサ等により当該操作デバイスの傾きを検知する機能を備える場合がある(例えば特許文献1参照)。
一方、例えばテーブルなどの水平面を備えた物体の上に置いた状態で使用される操作デバイスもある。このような操作デバイスの一例として、棒状の把持部と台座部とを備えるものがある(図12参照)。
特開2003‐140823号公報
例えばフライトシミュレータなどのゲームを行う場合など、ユーザが操作デバイスを傾ける動作によって操作指示を行いたい場合がある。このような用途に対して、前述したような宙に浮いた状態で使用する操作デバイスを適用した場合、操作デバイスの位置が安定しないため、操作しにくくなったり、疲れやすくなったりする場合があり得る。一方で、水平面を備えた物体の上に置いて使用する操作デバイスによれば、操作デバイスがテーブルなどの物体によって支持されるため、操作デバイスの姿勢は安定する。しかしながら、このような操作デバイスを使用する場合には、操作デバイスを置くために一定の広さの水平面が必要となる。
本発明は上記実情に鑑みてなされたものであって、ユーザが傾けて操作する場合に、場所を取らずに安定して操作できる操作デバイス、当該操作デバイスを備える情報処理システム及び情報処理方法を提供することをその目的の一つとする。
本発明に係る操作デバイスは、ユーザが保持して使用する操作デバイスであって、ユーザが前記操作デバイスを保持した状態で支持対象に押し当て可能に形成された支点部と、前記支点部が前記支持対象に押し当てられた状態を検知する押し当て検知部と、前記操作デバイスの傾きを検知する傾き検知部と、を含み、ユーザが前記支点部を前記支持対象に押し当てた状態で前記操作デバイスの傾きを変化させることにより、接続機器に対する操作を実現することを特徴とする。
上記操作デバイスにおいて、前記支点部は、半球状に形成されてもよい。さらに、前記支点部は、所定の基準軸に対して軸対称であって、その表面の曲率が前記基準軸に対する角度に応じて変化するように形成されてもよい。
また、上記操作デバイスは、前記傾き検知部による傾きの検知の基準となる基準方向を識別可能に形成されていることとしてもよい。
また、上記操作デバイスにおいて、前記支点部は、その支持対象に接触する面が、滑り止め部材によって形成されてもよい。
また、本発明に係る情報処理システムは、ユーザが保持して使用する操作デバイスと、当該操作デバイスが接続される接続機器と、を含む情報処理システムであって、前記操作デバイスに設けられ、ユーザが前記操作デバイスを保持した状態で支持対象に押し当て可能に形成された支点部と、前記支点部が前記支持対象に押し当てられた状態を検知する押し当て検知部と、前記操作デバイスの傾きを検知する傾き検知部と、前記押し当て検知部が前記押し当てられた状態を検知したことを示す情報及び前記傾き検知部が検知した傾きを示す情報に応じた操作情報を取得する操作情報取得手段と、前記取得した操作情報に基づいて、前記支点部が前記支持対象に押し当てられた状態における前記操作デバイスの傾きの変化に応じた処理を実行する処理実行手段と、を含むことを特徴とする。
上記情報処理システムにおいて、前記操作情報取得手段は、前記操作デバイスの傾きを表す情報を操作情報として取得する手段であって、前記押し当て検知部が前記押し当てられた状態を検知しているか否かに応じて、前記傾き検知部が検知する前記操作デバイスの傾きとは異なる傾きを表す操作情報を取得することとしてもよい。
さらに、前記操作情報取得手段は、前記押し当て検知部が前記押し当てられた状態を検知していない間、前記操作情報として、前記押し当てられた状態における最後の前記操作デバイスの傾きを表す情報を取得することとしてもよい。
また、前記操作情報取得手段は、前記押し当て検知部が前記押し当てられた状態を検知していない間、前記操作情報として、前記操作デバイスの所定の基準姿勢を表す情報を取得することとしてもよい。
また、本発明に係る情報処理方法は、ユーザが保持した状態で支持対象に押し当て可能に形成された支点部を備える操作デバイスが、前記支持対象に押し当てられた状態を検知する押し当て状態検知ステップと、前記操作デバイスの傾きを検知する傾き検知ステップと、前記押し当て状態検知ステップにより前記押し当てられた状態が検知されたことを示す情報及び前記傾き検知ステップにより検知された傾きを示す情報に応じた操作情報を取得する操作情報取得ステップと、前記取得した操作情報に基づいて、前記支点部が前記支持対象に押し当てられた状態における前記操作デバイスの傾きの変化に応じた処理を実行する処理実行ステップと、を含むことを特徴とする。
本発明の実施の形態に係る操作デバイスを含む情報処理システムの例を表す概略図である。 本発明の実施の形態に係る操作デバイスの例を表す概観図である。 本発明の実施の形態に係る操作デバイスの使用状態の例を表す説明図である。 本発明の実施の形態に係る操作デバイスの支点部の形状の例を表す図である。 本発明の実施の形態に係る操作デバイスの押し当て検知部の内部構造の例を表す断面図である。 本発明の実施の形態に係る操作デバイスの回路部の構成例を表す構成ブロック図である。 情報処理装置の構成例を表す構成ブロック図である。 信号処理部が実行する処理の一例を示すフロー図である。 本発明の実施の形態に係る操作デバイスの形状の他の例を表す説明図である。 本発明の実施の形態に係る操作デバイスの形状の他の例を表す説明図である。 本発明の実施の形態に係る操作デバイスの形状の他の例を表す説明図である。 テーブル等の上に置いて使用される操作デバイスの一例を表す説明図である。
以下、本発明の一実施形態について、図面を参照しながら説明する。
本実施形態に係る情報処理システムは、図1に示すように、相互に通信可能に接続された、操作デバイス1と、情報処理装置2(接続機器)と、を含んで構成される。本実施形態においては、操作デバイス1は情報処理装置2と無線にて通信を行うこととしているが、これに限らず有線にて接続されてもよい。
本実施形態に係る操作デバイス1は、ユーザが保持して使用するデバイスであって、図2に示すように、略棒状に形成されている。また、操作デバイス1は、図2に示すように、把持部11と、支点部12と、押し当て検知部13と、複数のボタン14と、回路部15と、を含んで構成される。
把持部11は、ユーザが操作デバイス1を使用する際に片手で把持する部位である。把持部11は、その表面の少なくとも一部に圧力センサを備えてもよい。こうすれば、この圧力センサの出力する情報を取得することにより、情報処理装置2は、ユーザが操作デバイス1を把持しているか否かを判定できる。
支点部12は、操作デバイス1の一方の端部に設けられた部位であって、ユーザが操作デバイス1を保持した状態で支持対象に押し当て可能に形成されている。ここで支持対象は、任意の物体であってよい。すなわち、支持対象は例えばテーブルや床などの物体であってもよいし、また、ユーザの体の一部であってもよい。図3は、支持対象としてユーザの膝の部分を利用する場合の、操作デバイス1の使用状態の一例を示す説明図である。ユーザは、支点部12をこのように支持対象に押し当てた状態で、操作デバイス1を使用する。
なお、支持対象の表面は、水平でなくともよい。すなわち、水平面に対して傾いた面(例えば壁面など)を支持対象としてもよい。また、支持対象の表面は、支点部12を押し当て可能であれば、平面でなく凹凸のある面であってもよいし、人の身体のようにある程度柔らかな面であってもよい。
支点部12は、図2に示されるように、半球状に形成されている。これにより、ユーザは、操作デバイス1を支持対象に押し当てた状態を保ちつつ、容易に操作デバイス1の傾きを変化させることができる。なお、支点部12の形状は、完全な半球でなくともよい。ここで、支点部12の形状のいくつかの具体例について、説明する。以下の例においては、支点部12の支持対象に接触する面は、いずれも所定の基準軸(ここでは操作デバイス1の長手方向に沿った軸であり、以下Z軸と表記する)に対して軸対称に形成されている。
図4(a)、図4(b)及び図4(c)は、支点部12のZ軸に平行な断面の形状の具体例を、模式的に示す図である。Z軸に垂直な断面の直径をDとすると、図4(a)の例においては、支点部12の表面は、Z軸上の点Cを中心として、半径Rがおよそ1/2Dである半球状に形成されている。この場合、ユーザは押し当て状態において比較的自由に操作デバイス1を傾ける操作を実行できる。
図4(b)の例においては、支点部12の表面は、図中a及びbで示される2つの部分からなる。図中bの部分は、点Cを中心にZ軸に対して所定の角度θ(例えば30度)以下の範囲内の領域であって、図中aの部分は、その外側を取り囲む領域である。そして、図中aの部分は、図4(a)の場合と同様に点Cを中心として半径R1がおよそ1/2Dである半球状に形成されている。一方、図中bの部分は、その中心がZ軸上にあり、半径R2がR1より大きな値であるような球面によって形成されている。こうすれば、操作デバイス1の傾きが支持対象の表面に対して垂直に近い間は図中bの部分が支持対象に接触し、所定の角度θを超えて操作デバイス1を傾けた場合には図中aの部分が支持対象に接触する。ここで、図中bの部分の曲率は図中aの部分より大きい(すなわち、比較的平面に近い)ため、図中bの部分が支持対象に接触している間は、操作デバイス1の姿勢が支持対象に対して垂直な状態で安定しやすくする。
図4(c)の例においては、支点部12の表面は、図4(b)の場合と同様に2つの部分からなり、図中aの部分は図4(b)の場合と同様の形状である。一方、図中bの部分は、平面となっている。なお、図中bの部分は、図4(b)の場合より狭い範囲(例えばZ軸に対して所定の角度θ=15度以下の範囲)内の領域であってよい。こうすれば、ユーザは、操作デバイス1を支持対象の表面に対して垂直な姿勢で容易に安定させることができる。
このように、支点部12の表面の曲率が、Z軸に対する角度に応じて変化するように形成されることによって、操作デバイス1を傾けた際のユーザの操作感を調整することができる。なお、これらの形状は、情報処理装置2が実行するアプリケーションプログラムの内容などによって、使い分けられることとしてもよい。例えば、支点部12は着脱可能に構成され、用途によって複数のオプション部品の中から選択し、交換できることとしてもよい。また、用途によっては、所定の角度以上に操作デバイス1を傾けることができないように、支点部12の表面にストッパーが設けられることとしてもよい。
また、支点部12の支持対象に接触する面は、Z軸に対して軸対称になっておらずともよい。例えば、支点部12の支持対象に接触する面のうち、図2で示すX軸の方向に沿った領域と、Y軸の方向に沿った領域と、で表面の曲率を変化させることによって、ユーザが操作デバイス1を傾ける操作を行う際に、X軸方向には比較的傾けやすく、Y軸方向には比較的傾けにくくすることができる。
なお、支点部12の支持対象に接触する面は、滑り止め部材によって形成されることとしてもよい。具体的には、支点部12の表面は、テーブルの上などの滑らかな面に対する静止摩擦係数が少なくとも0.4から0.5程度となるような材質及び形状であってもよい。一例として、支点部12は、ゴムや熱可塑性エラストマーなどの弾性材料によって被覆される。こうすれば、支点部12を支持対象に押し当てた際に操作デバイス1を滑りにくくすることができ、ユーザは安定して操作デバイス1を操作できる。
押し当て検知部13は、支点部12が支持対象に押し当てられた状態(以下では、押し当て状態という)を検知する。具体的に、本実施形態に係る操作デバイス1においては、押し当て状態において、支点部12全体が操作デバイス1の長手方向に押し込まれる構造となっている。押し当て検知部13は、この支点部12が押し込まれた状態を検知するスイッチ13aを含んで構成される。
図5は、操作デバイス1の支点部12を含む部分の内部構造の一例を示す断面図である。図5に示されるように、支点部12の支持対象に接触する面と反対側には略円形の底部12aが形成されており、この底部12aの中心からZ軸に沿って上方に向かう突起部12bが設けられている。また、底部12aの外周部からZ軸に沿って上方に向かって突出する嵌め込み部12cが、複数個設けられており、嵌め込み部12cの先端には、爪12dが形成されている。図5においては、複数個の嵌め込み部12cのうち、2個の断面が図示されている。一方、操作デバイス1本体の内部には、その長手方向に垂直に嵌め込み板13bが設けられている。この嵌め込み板13bに爪12dが引っ掛けられることにより、支点部12は操作デバイス1本体に嵌め込まれている。
スイッチ13aは、操作デバイス1内部の突起部12bと向き合う位置に設置されている。支点部12の表面が支持対象に押し当てられると、図中の矢印によって示される方向に支点部12が変位する。この変位によって、突起部12bがスイッチ13aに接触し、スイッチ13aがオンになる。なお、支持対象の表面に対して操作デバイス1が傾けられた状態であっても、ある程度の力で操作デバイス1が支持対象に押し当てられていれば、支点部12は嵌め込み部12cの向きに沿って操作デバイス1の長手方向に押し込まれる。
また、操作デバイス1の内部には、突起部12aと略同軸にスプリングコイル13cが配置されている。押し当て状態にあった操作デバイス1が、支点部12が支持対象に押し当てられていない状態(以下では、解放状態という)に遷移すると、スプリングコイル13cは、復元力の作用によって底部12aを押し下げる。これにより、図中矢印の方向に押し込まれていた支点部12は、元の位置に押し戻され、スイッチ13aはオフになる。以上の構成によれば、押し当て検知部13は、操作デバイス1が押し当て状態にあるか解放状態にあるかをスイッチ13aのオン/オフにより検知できる。
なお、以上説明した押し当て検知部13の構成は例示であって、操作デバイス1はこれ以外の構成により押し当て状態を検知してもよい。例えば押し当て検知部13は、支点部12に設けられた圧力センサによって構成されてもよい。この場合、圧力センサが所定値以上の圧力を検知することによって、押し当て状態を検知できる。
ボタン14は、操作デバイス1の表面に設けられ、ユーザが把持部11を把持した状態において指で操作可能な位置にそれぞれ配置されている。具体的に、例えばボタン14は、操作デバイス1の支点部12と反対側の端部や、把持部11近傍の操作デバイス1の側面に配置される。ユーザは、押し当て状態において操作デバイス1全体の傾きを変化させる操作を行うとともに、これらのボタン14を押す操作を行うこともできる。
なお、操作デバイス1は、ボタン14に代えて、又はこれに加えて、例えばタッチパネル等、その他の操作手段を備えてもよい。具体例として、操作デバイス1の支点部12と反対側の端部にタッチパネルを配置することで、ユーザは把持部11を把持した状態において、親指でタッチパネルの任意の位置に触れる操作を行うことができる。この場合、操作デバイス1は、タッチパネル上のユーザが接触した位置を示す信号を情報処理装置2に対して出力する。これにより、ユーザは押し当て状態において操作デバイス1全体の傾きを変化させる操作を行いながら、タッチパネルに指で触れる操作入力を行うこともできる。
回路部15は、操作デバイス1の内部に設けられており、図6に示すように、信号処理部21と、通信部22と、傾き検知部23と、バッテリ24と、を含んでいる。
信号処理部21は、マイクロコンピュータ等であって、内蔵する記憶部に格納されたプログラムに従って動作する。この信号処理部21は、押し当て検知部13や傾き検知部23による検知の結果に応じた情報を、通信部22を介して情報処理装置2に送信する。また、ボタン14に対するユーザの操作内容を示す情報を、通信部22を介して情報処理装置2に送信する。通信部22は、例えばBluetooth(登録商標)規格に基づく無線通信手段であり、信号処理部21が出力する情報を情報処理装置2に対して送信する。
傾き検知部23は、例えば加速度センサであって、操作デバイス1の傾きを検知し、検知した結果を示す信号を信号処理部21に対して出力する。この場合の加速度センサは、3つの基準軸のそれぞれの方向に生じる加速度を検知する3軸加速度センサであってよい。ここで基準軸は、操作デバイス1に対して設定された互いに直交する軸であり、例えば図2に示すように、操作デバイス1の長手方向に対応するZ軸、及びこれに直交するX軸及びY軸である。この場合、加速度センサは、各軸について生じる加速度に略比例する3つの電圧信号を出力する。
なお、本実施形態に係る操作デバイス1は、その長手方向に垂直な断面が略円形であり、長手方向に直交する基準軸であるX軸及びY軸がいずれの方向に設定されているか、操作デバイス1の形状自体からは判別し難い。すなわち、傾き検知部23による傾きの検知の基準となる基準方向が必ずしも明らかでない。そのため、例えば本実施形態における操作デバイス1を支持対象の表面に対して傾けることによって方向を指示する操作を行う場合、前後左右の向きが操作デバイス1のどの方向に対応するか、ユーザにとって判別し難くなるおそれがある。そこで、操作デバイス1は、このような基準方向を識別可能に形成されてもよい。具体例として、操作デバイス1は、その外面に、基準方向を識別するための標識を備える。この標識は、例えば特定の色で塗られたマークであってもよいし、また所定の位置に配置された1又は複数のボタン14であってもよい。また、所定の形状の突起などであってもよい。あるいは、操作デバイス1が有線で情報処理装置2と接続される場合、この標識は接続ケーブルが接続される箇所であってもよい。
また、傾き検知部23は、加速度センサに代えて、又はこれに加えて、所定の基準軸に対する回転の角速度を検知するジャイロセンサや、所定の基準軸に対する回転量を検知するロータリーエンコーダなどを備えてもよい。例えばロータリーエンコーダを用いることによって、傾き検知部23は、操作デバイス1が鉛直方向に沿って直立した状態にあっても、Z軸を中心とした操作デバイス1の回転量を検知することができる。
バッテリ24は、例えば充放電可能な二次電池であり、操作デバイス1の各部に電源を供給する。
情報処理装置2は、例えば家庭用ゲーム機やパーソナルコンピュータ等であって、図7に示すように、制御部31と、記憶部32と、表示制御部33と、インタフェース部34と、を含んで構成される。
制御部31は、CPU等であって、記憶部32に格納されたプログラムに従って動作する。本実施形態において、制御部31は、インタフェース部34を介して操作デバイス1から送信されるユーザの操作内容を示す操作情報に基づいて、例えばゲームやアプリケーションなどの処理を実行する。
記憶部32は、例えばRAMやROM等の記憶素子、ハードディスクやDVD−ROM等のディスクデバイスなど、コンピュータ読み取り可能な情報記憶媒体を含んで構成される。記憶部32には、制御部31によって実行されるプログラムが格納される。また、制御部31のワークメモリとしても動作する。
表示制御部33は、家庭用テレビ受像機等の表示装置に接続されている。表示制御部33は、制御部31の指示に従って画像を描画し、描画した画像を表示装置に出力し、表示させる。
インタフェース部34は、通信部22と同様の通信手段を備え、少なくとも一つの操作デバイス1と接続される。このインタフェース部34は、操作デバイス1から受信したユーザの操作内容を示す信号を、制御部31に出力する。また、インタフェース部34は、制御部31の指示に従って、操作デバイス1を制御する各種の信号等を出力することとしてもよい。
本実施形態においては、ユーザが操作デバイス1を片手で把持して、支点部12を支持対象に押し当てた状態で操作デバイス1の傾きを変化させる傾き操作を行う。この傾き操作の内容を示す情報を情報処理装置2に対して送信することによって、操作デバイス1は、ユーザの情報処理装置2に対する操作を実現する。情報処理装置2は、押し当て検知部13が押し当て状態を検知したことを示す情報及び傾き検知部23が検知した傾きを示す情報に応じた操作情報を、操作デバイス1から受信することにより取得する。そして、取得した操作情報に基づいて、押し当て状態における操作デバイス1の傾きの変化に応じた処理を実行する。
ここで、図2に示すように、X軸の水平面に対する傾きをロール角α、Y軸の水平面に対する傾きをチルト角βと表記すると、押し当て状態におけるユーザの傾き操作の内容は、このロール角α及びチルト角βによって表される。なお、ロール角αの符号は、X軸の正方向が水平面より上向きとなる場合に正の値、X軸の正方向が水平面より下向きとなる場合に負の値となるように決定する。同様にチルト角βの符号は、Y軸の正方向が水平面より上向きとなる場合に正の値となるように決定する。本実施形態において、信号処理部21は、所定のプログラムを実行することによって、傾き検知部23が検知した操作デバイス1の傾きを示す情報(ここでは、各基準軸に対して生じる加速度を示す値)に基づいて、このロール角α及びチルト角βを算出する。情報処理装置2は、このロール角α及びチルト角βの値を操作デバイス1の傾きを表す操作情報として取得し、取得した2つの角度値に応じて、例えば仮想3次元空間内に配置されたオブジェクトの姿勢を変化させるなどの処理を実行する。
以下、操作デバイス1が、押し当て検知部13及び傾き検知部23によって検知された情報に基づいて、情報処理装置2に対して送信する傾き操作の内容を示す操作情報を算出する処理の例について、図8のフロー図に基づいて説明する。なお、この処理は、例えば所定時間おきに繰り返して実行される。
まず、信号処理部21は、押し当て検知部13が検知した情報に応じて、操作デバイス1が押し当て状態にあるか否かを示すフラグ値を更新する(S1)。例えば、押し当て検知部13が押し当て状態であることを示す信号を出力していれば、信号処理部21はフラグ値を1に更新する。逆に、押し当て検知部13が解放状態であることを示す信号を出力していれば、信号処理部21はフラグ値を0に更新する。
以降の処理は、フラグ値が1であるか0であるかにより、分岐する(S2)。フラグ値が1の場合、信号処理部21は、傾き検知部23によって検知された各基準軸に対する加速度の値を取得する(S3)。ここでは、X軸、Y軸及びZ軸のそれぞれに対する加速度を、Ax、Ay及びAzと表記する。
続いて信号処理部21は、S3で取得した加速度の値に基づいて、操作デバイス1の現在の姿勢を表すロール角α及びチルト角βを算出する(S4)。
ここで、α及びβの算出方法について、説明する。X軸及びY軸の加速度がそれぞれ重力加速度の各軸方向の成分によって生じたものであれば、以下の計算式によって、α及びβそれぞれの角度値を算出できる。
Figure 2008102432
この計算式においては、α及びβはそれぞれ度数法で換算された値として算出される。ここでgは重力加速度の値であり、所定の定数を用いてもよいし、以下の計算式によって算出してもよい。
Figure 2008102432
また、低消費電力型のマイクロコンピュータ等においては、実行する演算量を少なくしたい場合がある。そこで、信号処理部21は、Ax及びAyの値をそのまま近似的にα及びβの値として用いることとしてもよい。
さらに信号処理部21は、S4で算出したα及びβの値を、通信部22を介して情報処理装置2に対して送信する(S5)。その後、予め用意された変数αp及びβpの値を、それぞれS4で算出したα及びβの値で更新する(S6)。ここで、αp及びβpは、押し当て状態において検出された最後のα及びβの値を示す変数であり、これまで説明したように、S2の分岐処理で操作デバイス1が押し当て状態にあると判定された場合には、最新のα及びβの値に更新される。
一方、S2の分岐処理においてフラグ値が0であった場合(すなわち、操作デバイス1が解放状態にある場合)、信号処理部21は、傾き検知部23が検知する加速度の値によらずに、S6で更新されている変数αp及びβpの値を、それぞれロール角α及びチルト角βの値として、通信部22を介して情報処理装置2に対して送信する(S7)。
以上説明した処理によれば、操作デバイス1は、解放状態にある間は、操作デバイス1の傾きを表す値として、押し当て状態における最後の操作デバイス1の傾きを表す値を出力する。すなわち、解放状態にある間、押し当て状態から解放状態に遷移する直前の操作デバイス1の傾きを表す値を出力し続ける。こうすれば、ユーザが解放状態において操作デバイス1の向きを変化させても、情報処理装置2は、操作デバイス1が一定の傾きで保持されている場合と同様の処理を実行できる。これにより、例えばユーザが操作の途中で一旦支持対象に対する操作デバイス1の押し当てを中断し、操作デバイス1を持ち直したりしても、情報処理装置2は、操作デバイス1が同じ姿勢で維持されているものとして処理を続行できる。
なお、以上説明した処理において、S2の分岐処理においてフラグ値が0である場合、信号処理部21は、変数αp及びβpの値ではなく、操作デバイス1の所定の傾き(基準姿勢)を表す所定の値を出力することとしてもよい。例えば信号処理部21は、前述したS7の処理において、α及びβの値として、それぞれ0を情報処理装置2に対して送信することとしてもよい。この場合、α=0及びβ=0は、操作デバイス1が鉛直方向に沿って水平面に対して直立した状態に対応している。こうすれば、情報処理装置2は、操作デバイス1が解放状態にある間は、操作デバイス1が基準姿勢にあるものとみなして処理を実行できる。
このように、信号処理部21は、操作デバイス1の傾きを表す操作情報を出力する場合に、押し当て検知部13が押し当て状態を検知しているか否かに応じて、傾き検知部23が検知する操作デバイス1の傾きとは異なる傾きを表す情報を出力してもよい。こうすれば、押し当て状態か解放状態かに応じて情報処理装置2が実行する処理の内容を変化させることができる。
また、以上の説明においては信号処理部21が押し当て検知部13及び傾き検知部23によって検知された情報に基づいて、ロール角α及びチルト角βを決定することとしたが、これらの処理の一部又は全部は、情報処理装置2の制御部31が実行することとしてもよい。例えば情報処理装置2は、操作デバイス1に対応するデバイスドライバプログラムを実行することにより、傾き検知部23が検知した操作デバイス1の傾きを示す情報に基づいて、ロール角α及びチルト角βを算出してもよい。
以上説明した本実施の形態に係る操作デバイス1によれば、ユーザは操作デバイス1の支点部12を支持対象に押し当てながら操作デバイス1を傾ける操作をすることにより、場所を取らずに安定して操作入力を行うことができる。また、押し当て検知部13が押し当て状態を検知することにより、本実施形態に係る情報処理装置2は、ユーザが意図的に傾き操作を行っている場合には操作デバイス1の実際の傾きに応じた処理を実行し、操作を行っていないと判断される期間中は補正された操作デバイス1の傾き情報に応じた処理を実行することができる。
なお、本発明は上記実施形態に限定されるものではなく、種々の変形実施が可能である。例えば、以上の説明においては、水平面に対するX軸及びY軸の傾きを示す角度値が、操作デバイス1の傾き操作の内容を示す操作情報として情報処理装置2の処理において用いられることとしたが、これに限らず種々の値を操作情報として用いてもよい。例えば、支持対象の表面が水平面に対して傾いている場合、水平面に対する傾きではなく、支持対象の表面に対する操作デバイス1の傾きを示す角度値を操作情報として用いてもよい。具体例として、操作デバイス1は、解放状態から押し当て状態に遷移した直後の操作デバイス1の傾きを示す情報を、操作デバイス1の基準姿勢に対応する角度値として取得する。この場合、信号処理部21又は制御部31は、押し当て状態にある間、操作デバイス1の水平面に対する傾きを示す角度値と、取得済みの操作デバイス1の基準姿勢に対応する角度値と、の差分値を、ユーザの傾き操作の内容を示す操作情報として算出する。こうすれば、最初に支持対象に操作デバイス1を押し当てた際の姿勢を基準として、操作デバイス1の傾きを評価することができる。
また、傾き操作の内容を示す操作情報を算出する際の基準となる基準軸は、予め操作デバイス1に設定された固定のものに限られず、操作デバイス1の保持状態に応じて決定されるものであってもよい。例えば、前述したような把持部11の表面に備えられた圧力センサ等によってユーザが操作デバイス1を把持した際の指の位置の検出が可能な場合、この検出された指の位置に応じて、傾きを評価する際の基準軸が決定されることとしてもよい。こうすれば、前述したような傾き検知部23による傾き検知の基準となる基準方向を示す標識はなくともよく、ユーザは操作デバイス1の基準軸を意識せずに操作デバイス1を保持して使用することができる。
また、本発明の実施の形態に係る操作デバイス1は、図2に示すような形状に限られず、種々の形状であってよい。例えば操作デバイス1は、図9に示すように、銃器を模した形状であってもよい。この図の例においては、図中斜線にて示される部位が支点部12となる。ユーザは、この支点部12を例えば自分の肩の部分に押し当てて、操作デバイス1の向きを変化させる操作を行う。これにより、ユーザが操作デバイス1を銃器のように構えている間だけ、情報処理装置2は操作デバイス1の向きに応じた処理を実行できる。
また、操作デバイス1は、図10に示すようなハンドルを模した形状であってもよい。この図の例においては、例えばユーザは椅子に座り、図中斜線で示される支点部12を床などに押し当てた状態で操作デバイス1を回転させたりする操作を行う。
あるいは、操作デバイス1は、図11(a)に示すような杖を模した形状であってもよい。この図の例において、例えば情報処理装置2は、図中斜線で示される支点部12を床などに押し当てた状態においては、図中破線にて示される方向の傾きに応じた処理を実行し、操作デバイス1が解放状態にある間は、図中一点鎖線にて示される方向の傾きに応じた処理を実行することとしてもよい。
また、図11(a)に示す操作デバイス1は、ユーザが手だけで操作デバイス1を保持して使用する場合と、支点部12を床に押し当てて使用する場合とで、その姿勢が大きく変化すると考えられる。すなわち、操作デバイス1は、解放状態で使用される場合には図11(b)に示すように比較的水平に近い姿勢で保持され、押し当て状態で使用される場合には図11(c)に示すように比較的垂直に近い姿勢で保持されるのが自然である。そこで、傾き操作の内容を示す操作情報を算出する際の基準となる基準軸は、押し当て検知部13の検知結果に応じて変更されることとしてもよい。例えば、操作デバイス1が解放状態にある場合には、図11(b)に示されるように操作デバイス1の長手方向がY軸となるように基準軸が設定される。一方、操作デバイス1が押し当て状態にある場合には、図11(c)に示すように操作デバイス1の長手方向がZ軸となるように基準軸が設定される。そして、情報処理装置2は、操作デバイス1が押し当て状態にあるか解放状態にあるかを判定し、それぞれの状態に応じて決まる各基準軸の傾きの変化を操作情報として取得する。こうすれば、操作デバイス1を押し当て状態で使用する場合も解放状態で使用する場合も、ユーザは自然な姿勢で十分な範囲の傾き操作を行うことが可能となる。このように、同じ操作デバイス1の傾きを示す情報に対して、押し当て状態と解放状態とで情報処理装置2が実行する処理を異ならせることで、操作デバイス1による操作のバリエーションを増大させることができる。
また、操作デバイス1の内部には、突起部12と略同軸にスプリングコイル13cが配置されている。押し当て状態にあった操作デバイス1が、支点部12が支持対象に押し当てられていない状態(以下では、解放状態という)に遷移すると、スプリングコイル13cは、復元力の作用によって底部12aを押し下げる。これにより、図中矢印の方向に押し込まれていた支点部12は、元の位置に押し戻され、スイッチ13aはオフになる。以上の構成によれば、押し当て検知部13は、操作デバイス1が押し当て状態にあるか解放状態にあるかをスイッチ13aのオン/オフにより検知できる。

Claims (10)

  1. ユーザが保持して使用する操作デバイスであって、
    ユーザが前記操作デバイスを保持した状態で支持対象に押し当て可能に形成された支点部と、
    前記支点部が前記支持対象に押し当てられた状態を検知する押し当て検知部と、
    前記操作デバイスの傾きを検知する傾き検知部と、
    を含み、
    ユーザが前記支点部を前記支持対象に押し当てた状態で前記操作デバイスの傾きを変化させることにより、接続機器に対する操作を実現することを特徴とする操作デバイス。
  2. 請求の範囲第1項に記載の操作デバイスにおいて、
    前記支点部は、半球状に形成されている
    ことを特徴とする操作デバイス。
  3. 請求の範囲第2項に記載の操作デバイスにおいて、
    前記支点部は、所定の基準軸に対して軸対称であって、その表面の曲率が前記基準軸に対する角度に応じて変化するように形成されている
    ことを特徴とする操作デバイス。
  4. 請求の範囲第1項から第3項に記載の操作デバイスにおいて、
    前記傾き検知部による傾きの検知の基準となる基準方向を識別可能に形成されている
    ことを特徴とする操作デバイス。
  5. 請求の範囲第1項に記載の操作デバイスにおいて、
    前記支点部は、その支持対象に接触する面が、滑り止め部材によって形成される
    ことを特徴とする操作デバイス。
  6. ユーザが保持して使用する操作デバイスと、当該操作デバイスが接続される接続機器と、を含む情報処理システムであって、
    前記操作デバイスに設けられ、ユーザが前記操作デバイスを保持した状態で支持対象に押し当て可能に形成された支点部と、
    前記支点部が前記支持対象に押し当てられた状態を検知する押し当て検知部と、
    前記操作デバイスの傾きを検知する傾き検知部と、
    前記押し当て検知部が前記押し当てられた状態を検知したことを示す情報及び前記傾き検知部が検知した傾きを示す情報に応じた操作情報を取得する操作情報取得手段と、
    前記取得した操作情報に基づいて、前記支点部が前記支持対象に押し当てられた状態における前記操作デバイスの傾きの変化に応じた処理を実行する処理実行手段と、
    を含むことを特徴とする情報処理システム。
  7. 請求の範囲第6項に記載の情報処理システムにおいて、
    前記操作情報取得手段は、前記操作デバイスの傾きを表す情報を操作情報として取得する手段であって、前記押し当て検知部が前記押し当てられた状態を検知しているか否かに応じて、前記傾き検知部が検知する前記操作デバイスの傾きとは異なる傾きを表す操作情報を取得する
    ことを特徴とする情報処理システム。
  8. 請求の範囲第7項に記載の情報処理システムにおいて、
    前記操作情報取得手段は、前記押し当て検知部が前記押し当てられた状態を検知していない間、前記操作情報として、前記押し当てられた状態における最後の前記操作デバイスの傾きを表す情報を取得する
    ことを特徴とする情報処理システム。
  9. 請求の範囲第7項に記載の情報処理システムにおいて、
    前記操作情報取得手段は、前記押し当て検知部が前記押し当てられた状態を検知していない間、前記操作情報として、前記操作デバイスの所定の基準姿勢を表す情報を取得する
    ことを特徴とする情報処理システム。
  10. ユーザが保持して使用する操作デバイスに設けられ、ユーザが保持した状態で支持対象に押し当て可能に形成された支点部が、前記支持対象に押し当てられた状態を検知する押し当て状態検知ステップと、
    前記操作デバイスの傾きを検知する傾き検知ステップと、
    前記押し当て状態検知ステップにより前記押し当てられた状態が検知されたことを示す情報及び前記傾き検知ステップにより検知された傾きを示す情報に応じた操作情報を取得する操作情報取得ステップと、
    前記取得した操作情報に基づいて、前記支点部が前記支持対象に押し当てられた状態における前記操作デバイスの傾きの変化に応じた処理を実行する処理実行ステップと、
    を含むことを特徴とする情報処理方法。
JP2009500029A 2007-02-20 2007-02-20 操作デバイス及び情報処理システム、情報処理方法 Active JP5016023B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2007/053038 WO2008102432A1 (ja) 2007-02-20 2007-02-20 操作デバイス及び情報処理システム、情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2008102432A1 true JPWO2008102432A1 (ja) 2010-05-27
JP5016023B2 JP5016023B2 (ja) 2012-09-05

Family

ID=39709717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009500029A Active JP5016023B2 (ja) 2007-02-20 2007-02-20 操作デバイス及び情報処理システム、情報処理方法

Country Status (5)

Country Link
US (1) US8416190B2 (ja)
EP (1) EP2128745A1 (ja)
JP (1) JP5016023B2 (ja)
CN (1) CN101611368B (ja)
WO (1) WO2008102432A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103272385B (zh) * 2008-10-27 2016-09-28 索尼电脑娱乐公司 带有可配置的操作模式的游戏输入装置
US20100137105A1 (en) * 2008-12-01 2010-06-03 Mclaughlin Thomas Riding the joystick system to health and fitness
US20110143839A1 (en) * 2008-12-01 2011-06-16 Mclaughlin Thomas Exercise control device for video games
JP5550433B2 (ja) 2010-04-22 2014-07-16 任天堂株式会社 操作装置および情報処理システム
JP5662696B2 (ja) * 2010-04-30 2015-02-04 株式会社ソニー・コンピュータエンタテインメント コントローラ支持装置、及びコントローラ支持システム
JP2013034714A (ja) * 2011-08-09 2013-02-21 Universal Entertainment Corp ゲーム端末、及び報知方法
WO2014028371A1 (en) * 2012-08-17 2014-02-20 The Procter & Gamble Company A monitoring device for monitoring cleaning activity
WO2016100017A1 (en) * 2014-12-18 2016-06-23 Bridgestone Americas Tire Operations, Llc Tire with arched spokes
US10286725B2 (en) * 2017-03-22 2019-05-14 The Goodyear Tire & Rubber Company Non-pneumatic support structure

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0623148A (ja) * 1992-02-24 1994-02-01 Shinichi Tsubota ゲーム制御装置
JP3708169B2 (ja) 1995-06-27 2005-10-19 日本電信電話株式会社 ペン型入力装置
GB2313432B (en) * 1995-11-10 2000-06-21 Nintendo Co Ltd Joystick device
JP4623765B2 (ja) * 1996-02-15 2011-02-02 株式会社アミテック 3次元操作検出装置
US6552666B1 (en) 1996-03-16 2003-04-22 Atsutoshi Goto Phase difference detection device and method for a position detector
JP3036285U (ja) 1996-03-16 1997-04-15 忠敏 後藤 シリンダ位置検出装置
JP2003140823A (ja) 2001-11-08 2003-05-16 Sony Computer Entertainment Inc 情報入力デバイス及び情報処理プログラム

Also Published As

Publication number Publication date
US8416190B2 (en) 2013-04-09
CN101611368A (zh) 2009-12-23
JP5016023B2 (ja) 2012-09-05
EP2128745A1 (en) 2009-12-02
US20100020013A1 (en) 2010-01-28
WO2008102432A1 (ja) 2008-08-28
CN101611368B (zh) 2012-06-27

Similar Documents

Publication Publication Date Title
JP5016023B2 (ja) 操作デバイス及び情報処理システム、情報処理方法
KR101666096B1 (ko) 강화된 제스처 기반 상호작용 시스템 및 방법
JP4171046B2 (ja) 入力装置及び方法、文字入力方法
JP5508122B2 (ja) プログラム、情報入力装置、及びその制御方法
JP5441299B2 (ja) コントローラ装置
JP5652026B2 (ja) 入力装置
JP2013025664A (ja) 入力装置、入力方法及び制御システム
JP2009048600A (ja) 慣性検出入力制御装置と受信装置及びそのインタラクティブシステム
US10191557B2 (en) User interface device
JP2019096312A (ja) 触覚アクセサリー装置
US11813518B2 (en) Information processing system, controller apparatus, information processing apparatus, and program
JP2020140727A (ja) 情報処理装置、制御方法、プログラム、及び記憶媒体
JP2013196568A (ja) ゲームシステム、ゲーム処理方法、ゲーム装置、およびゲームプログラム
US20230142242A1 (en) Device for Intuitive Dexterous Touch and Feel Interaction in Virtual Worlds
KR102277913B1 (ko) 입력장치
JP2012123451A (ja) 情報処理装置、情報処理システム及び情報処理方法
US20230244326A1 (en) Information processing system, non-transitory computer-readable storage medium having stored therein information processing program, and information processing method
JP2013210906A (ja) 制御方法、制御装置及びプログラム
US20150002486A1 (en) Multifunctional pencil input peripheral computer controller
WO2015137014A1 (ja) 情報入出力装置及び情報入出力方法
WO2013032410A1 (en) Multifunctional pencil input peripheral computer controller
WO2016121999A1 (ja) ユーザ入力装置及びカーソル制御システム
JP2014146354A (ja) プログラム、情報入力装置、及びその制御方法
KR20230117964A (ko) 가상 현실 컨트롤러

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101124

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120607

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5016023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250