JP2015170278A - 情報処理装置、情報処理システム及び情報処理方法 - Google Patents

情報処理装置、情報処理システム及び情報処理方法 Download PDF

Info

Publication number
JP2015170278A
JP2015170278A JP2014046504A JP2014046504A JP2015170278A JP 2015170278 A JP2015170278 A JP 2015170278A JP 2014046504 A JP2014046504 A JP 2014046504A JP 2014046504 A JP2014046504 A JP 2014046504A JP 2015170278 A JP2015170278 A JP 2015170278A
Authority
JP
Japan
Prior art keywords
information processing
unit
image sensor
linear image
housing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014046504A
Other languages
English (en)
Other versions
JP6355081B2 (ja
Inventor
井上 文彦
Fumihiko Inoue
文彦 井上
圭介 瀬古
Keisuke Seko
圭介 瀬古
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2014046504A priority Critical patent/JP6355081B2/ja
Priority to US14/631,167 priority patent/US20150253932A1/en
Publication of JP2015170278A publication Critical patent/JP2015170278A/ja
Application granted granted Critical
Publication of JP6355081B2 publication Critical patent/JP6355081B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/0224Key guide holders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys

Abstract

【課題】装置の筐体外においてユーザが操作などを行うことを可能とする情報処理装置、情報処理システム及び情報処理方法を提供する。
【解決手段】ゲーム装置1は、筐体2の側面にリニアイメージセンサ5をそれぞれ設けた構成である。リニアイメージセンサ5にて取得した画像に基づいて、ゲーム装置1は、筐体2の周辺領域にてなされたユーザの操作を検出する。ゲーム装置1は、筐体2の側面に対する接触又は近接等の操作を検出する。ゲーム装置1は、筐体2の周辺領域に載置されたフィギュアなどの物体を検出する。ゲーム装置1は、ユーザによる筐体2の把持位置を検出する。ゲーム装置1は、ユーザの手などによる赤外光の反射光に基づいてユーザの脈拍を検出する。ゲーム装置1は、同様の構成の他のゲーム装置1の位置を検出する。
【選択図】図1

Description

本発明は、リニアイメージセンサ、イメージセンサ又は光センサ等を利用した情報処理を行う情報処理装置、情報処理システム及び情報処理方法に関する。
近年、携帯電話機、スマートフォン、タブレット型端末装置及び携帯型のゲーム装置等のように、ユーザが持ち運び可能な情報処理装置が広く普及している。このような情報処理装置では、キーボードのような大型の入力装置を搭載することが容易でないため、タッチパネルなどを搭載してユーザの操作性を向上させている。例えば特許文献1には、タッチパネルを搭載した携帯型のゲーム装置が記載されている。
特開2012−019496号公報
タッチパネルは、液晶パネルなどの表示部と組み合わせて用いられる場合が多い。この場合、タッチパネルによりユーザのタッチ操作を検知できる範囲は表示部の表示範囲内に限られる。
本発明の目的とするところは、多様なユーザの操作に応じた処理を行うことを可能とする情報処理装置、情報処理システム及び情報処理方法を提供することにある。
本発明に係る情報処理装置は、少なくとも1つの面に表示部が設けられた筐体と、前記表示部が設けられた面を正面視した場合の側部又は角部に、前記筐体の外側へ向けて設けられたリニアイメージセンサと、前記リニアイメージセンサが取得した画像に基づく情報処理を行う情報処理部とを備える。
また、本発明に係る情報処理装置は、前記リニアイメージセンサが、前記表示部が設けられた面に沿う方向へ向けて設けられている。
また、本発明に係る情報処理装置は、前記筐体の少なくとも2つの側部に前記リニアイメージセンサがそれぞれ設けられている。
また、本発明に係る情報処理装置は、前記筐体が板状であり、前記表示部が設けられた面の四方の側部にそれぞれ前記リニアイメージセンサが設けられている。
また、本発明に係る情報処理装置は、前記リニアイメージセンサが、パンフォーカスでの撮像により画像を取得する。
また、本発明に係る情報処理装置は、前記リニアイメージセンサが取得した画像に基づき、前記筐体の外側に存在する物体の位置を検出する検出部を備え、前記情報処理部は、前記検出部が検出した位置に応じて情報処理を行う。
また、本発明に係る情報処理装置は、前記リニアイメージセンサが取得した画像に基づき、前記筐体の外側で行われたユーザの操作を検出する検出部を備え、前記情報処理部は、前記検出部が検出した操作に応じて情報処理を行う。
また、本発明に係る情報処理装置は、前記検出部が、前記筐体の外側に配置された操作指標に対する操作を検出する。
また、本発明に係る情報処理装置は、前記リニアイメージセンサが取得した画像に基づき、前記筐体の外側に存在する物体に記された識別情報を取得する識別情報取得部を備え、前記情報処理部は、前記識別情報取得部が取得した識別情報に基づく情報処理を行う。
また、本発明に係る情報処理装置は、前記識別情報取得部が取得した識別情報に基づいて前記物体の向きを判定する判定部を備え、前記情報処理部は、前記判定部が判定した向きに基づく情報処理を行う。
また、本発明に係る情報処理装置は、前記リニアイメージセンサが時系列的に取得した複数の画像に基づいて前記識別情報取得部が時系列的に取得した複数の識別情報に基づき、前記物体の変位を検出する検出部を備え、前記情報処理部は、前記検出部が検出した変位に基づく情報処理を行う。
また、本発明に係る情報処理装置は、前記物体が、ゲームに係るキャラクタを模した形状又は該キャラクタが描かれた部分を有し、前記情報処理装置は、前記識別情報取得部が取得した識別情報に対応するキャラクタに係るゲームの処理を行う。
また、本発明に係る情報処理装置は、前記筐体が手持ち型又は可搬型であり、前記リニアイメージセンサが取得した画像に基づき、ユーザによる前記筐体の持ち位置を判定する判定部を備え、前記情報処理部は、前記判定部が判定した持ち位置に基づく情報処理を行う。
また、本発明に係る情報処理装置は、前記筐体が手持ち型又は可搬型であり、前記リニアイメージセンサが取得した画像に基づき、ユーザが把持した場合の前記筐体の姿勢を判定する判定部を備え、前記情報処理部は、前記判定部が判定した姿勢に基づく情報処理を行う。
また、本発明に係る情報処理装置は、前記筐体内に設けられた加速度センサを備え、前記判定部は、前記リニアイメージセンサが取得した画像及び前記加速度センサが検知した加速度に基づいて判定を行う。
また、本発明に係る情報処理装置は、前記情報処理部が、前記判定部の判定結果に応じて、前記表示部に表示する画像の向きを切り替える処理を行う。
また、本発明に係る情報処理装置は、前記リニアイメージセンサが取得した画像に基づき、前記リニアイメージセンサに対する近接又は接触の操作を検出する検出部を備え、前記情報処理部は、前記検出部が検出した操作に応じて情報処理を行う。
また、本発明に係る情報処理装置は、前記筐体の外側へ向けて赤外光を発する発光部を有し、前記リニアイメージセンサは、前記発光部が発した赤外光又は該赤外光の反射光に応じた画像を取得する。
また、本発明に係る情報処理装置は、前記リニアイメージセンサが取得した前記反射光に応じた画像に基づき、ユーザの脈拍を検出する脈拍検出部を備え、前記情報処理部は、前記脈拍検出部が検出した脈拍に基づく情報処理を行う。
また、本発明に係る情報処理装置は、前記情報処理部が、前記脈拍検出部が検出した脈拍に基づいてゲームに係る情報処理を行う。
また、本発明に係る情報処理装置は、他の情報処理装置の発光部が発した赤外光に応じて前記リニアイメージセンサが取得した画像に基づき、前記他の情報処理装置の位置を検出する検出部を備え、前記情報処理部は、前記検出部が検出した位置に基づく情報処理を行う。
また、本発明に係る情報処理装置は、前記他の情報処理装置との間で無線通信を行う通信部と、前記通信部により前記他の情報処理装置との通信を行い、前記発光部が赤外光を発するタイミングを制御する発光制御部とを備え、前記検出部は、前記他の情報処理装置が赤外光を発するタイミングに応じて前記リニアイメージセンサが取得した画像に基づいて検出を行う。
また、本発明に係る情報処理装置は、前記表示部に対する接触操作を検知する接触操作検知部を備え、前記情報処理部は、前記リニアイメージセンサが取得した画像及び前記接触操作検知部が検知した接触操作の少なくともいずれかに基づく情報処理を行う。
また、本発明に係る情報処理装置は、少なくとも1つの面に表示部が設けられ、ユーザが把持可能な形状をなす筐体と、前記筐体の側部に設けられ、前記側部に対する近接又は接触の操作を検出する検出部と、前記検出部が検出した操作に応じて情報処理を行う情報処理部とを備える。
また、本発明に係る情報処理装置は、前記検出部が、ユーザにより前記筐体が把持された場合の前記側部に対する近接又は接触の操作を検出する。
また、本発明に係る情報処理装置は、前記側面に設けられたイメージセンサを備え、前記検出部は、前記イメージセンサが取得した画像に基づいて操作を検出する。
また、本発明に係る情報処理装置は、少なくとも1つの面に表示部が設けられた筐体と、前記筐体の外側へ向けて光を発する発光部と、前記筐体の側部に設けられた受光部と、他の情報処理装置の発光部が発した光を前記受光部にて受光することにより、前記他の情報処理装置の位置を検出する検出部と、前記検出部が検出した位置に基づく情報処理を行う情報処理部とを備える。
また、本発明に係る情報処理システムは、少なくとも1つの面に表示部が設けられた筐体と、前記表示部が設けられた面を正面視した場合の側部又は角部に、前記筐体の外側へ向けて設けられたリニアイメージセンサと、前記リニアイメージセンサが取得した画像に基づく情報処理を行う情報処理部とを備える。
また、本発明に係る情報処理方法は、少なくとも1つの面に表示部が設けられた筐体を備える情報処理装置に対して、リニアイメージセンサを前記表示部が設けられた面を正面視した場合の側部又は角部に、前記筐体の外側へ向けて設け、前記リニアイメージセンサが取得した画像に基づいて情報処理を行う。
本発明は、筐体の側面などにリニアイメージセンサ、イメージセンサ又は光センサ等を設け、これらのセンサにより筐体外での検知を行い、検知結果に基づく情報処理を行う構成とすることにより、情報処理装置の筐体外の領域を操作などに用いることができ、多種多様な操作受付を実現できる。
本実施の形態に係るゲーム装置の外観を示す模式図である。 本実施の形態に係るゲーム装置の構成を示すブロック図である。 ゲーム装置の空間ポインタ機能を説明するための模式図である。 ゲーム装置が行う空間ポインタ機能の処理手順を示すフローチャートである。 ゲーム装置の追加インタフェース機能を説明するための模式図である。 ゲーム装置が行う追加インタフェース機能の処理手順を示すフローチャートである。 ゲーム装置の側面タッチ操作を説明するための模式図である。 ゲーム装置のフィギュア検出機能を説明するための模式図である。 ゲーム装置が行うフィギュア検出機能の処理手順を示すフローチャートである。 ゲーム装置の追加操作装置を説明するための模式図である。 ゲーム装置が行う追加操作装置に関する処理の手順を示すフローチャートである。 ゲーム装置の使用態様判定機能を説明するための模式図である。 ゲーム装置が行う使用態様判定処理の手順を示すフローチャートである。 ゲーム装置が行う脈拍検出処理の手順を示すフローチャートである。 ゲーム装置の他装置検出機能を説明するための模式図である。 ゲーム装置が行う他装置検出処理の手順を示すフローチャートである。
<ハードウェア構成>
図1は、本実施の形態に係るゲーム装置の外観を示す模式図である。本実施の形態に係るゲーム装置1は、手持ち型、可搬型又は携帯型のものである。即ちゲーム装置1は、ユーザが手で持ち運びできる程度の大きさ及び重量のものである。ゲーム装置1は、扁平な直方体型(又は、矩形の板型)の筐体2を備えている。筐体2が有する2つの広い面の一方(以下、この面を正面という)には、略中央に表示部3が設けられている。また筐体2の正面には、表示部3の周囲の枠状部分に操作部4が設けられている。操作部4は、十字キー及びプッシュボタン等を適宜に配したものである。
また本実施の形態に係るゲーム装置1は、筐体2の4つの側部(側面)に、リニアイメージセンサ5がそれぞれ外側へ向けて配されている。(表示部3が設けられた面を正面視した場合の筐体2の側部に、リニアイメージセンサ5が設けられている。またリニアイメージセンサ5は、表示部3が設けられた面に沿う方向へ向けて設けられている。)なお図1においては2つのリニアイメージセンサ5のみを図示してあるが、ゲーム装置1は4つのリニアイメージセンサ5を備えている。筐体2の各側面は、細長の略長方形である。各リニアイメージセンサ5は、長い線状又は長方形状であり、各側面の長手方向に配されている。リニアイメージセンサ5は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等を利用した撮像デバイスであり、例えばスキャナなどにおいて原稿読み取りに用いられるデバイスである。リニアイメージセンサ5は、例えばラインイメージセンサ又は一次元イメージセンサ等の別名称で呼ばれ得る。
各リニアイメージセンサ5は、筐体2の側方を撮像することにより画像を取得する。各リニアイメージセンサ5が取得する画像は、例えば短辺が1画素〜数画素、長辺が数百画素〜数万画素の線状又は長方形状の画像である。ゲーム装置1が例えば水平な机上などに載置された場合、各リニアイメージセンサ5は、筐体2の側面から外側へ、机面に沿う方向へ撮像を行い、線状又は長方形状の画像を取得する。
また本実施の形態において、リニアイメージセンサ5は、近距離から遠距離まで焦点を合わせる撮像方法、いわゆるパンフォーカス(ディープフォーカス)での撮像を行う。このため、図示は省略するが、リニアイメージセンサ5にはパンフォーカス撮像を可能とするためのレンズ及び/又は絞り等の光学的な部材が設けられている。
また本実施の形態において、リニアイメージセンサ5は、赤外光を受光して撮像を行う。このため、図示は省略するが、リニアイメージセンサ5には赤外光を透過し、赤外光以外の光を遮断する光学フィルタなどが備えられている。この光学フィルタは、例えばCCD若しくはCMOS等の表面、又は、上記のパンフォーカス撮像のためのレンズ等に設けることができる。
また図1において図示は省略するが、本実施の形態に係るゲーム装置1は、赤外光を発する光源(図2において赤外光源6として図示する)を備えている。この赤外光源6は、各リニアイメージセンサ5の近傍に、筐体2の各側面にそれぞれ配される。例えば、各リニアイメージセンサ5と略平行に赤外光源6を直線状に配置することができる。また例えば、各リニアイメージセンサ5の両端にそれぞれ赤外光源6を配置することができる。各赤外光源6は、筐体2の側面から外側へ向けて赤外光を発する。ゲーム装置1は、リニアイメージセンサ5による撮像を行う際に赤外光源6から赤外光を発することにより、赤外光源6からの赤外光を筐体2の側方に存在する物体に反射した反射光をリニアイメージセンサ5にて受光し、赤外光による撮像を行うことができる。
本実施の形態に係るゲーム装置1は、筐体2の四方に配されたリニアイメージセンサ5を利用することによって、既存のゲーム装置にはない新たな機能を提供する。例えばゲーム装置1は、リニアイメージセンサ5にて取得した画像に基づき、筐体2の周辺領域にてなされたユーザの操作を判断し、これをゲームの操作などとして受け付けることができる。またゲーム装置1は、筐体2の側面に対する接触又は近接等の操作をリニアイメージセンサ5が取得した画像に基づいて判断し、リニアイメージセンサ5をタッチパネルの代替として利用することができる。またゲーム装置1は、リニアイメージセンサ5により判断したユーザの操作と、操作部4又はタッチパネル等にて検知したユーザの操作との両操作に基づいてゲームなどの情報処理を行うことができる。また例えばゲーム装置1は、リニアイメージセンサ5にて取得した画像に基づいて筐体2の周辺領域に載置されたフィギュアなどの物体を検出し、検出した物体の種別などをゲーム処理に反映させることができる。
また例えばゲーム装置1は、ユーザが筐体2を把持してゲーム装置1を利用している場合に、ユーザによる筐体2の把持位置を検出し、これによりユーザによるゲーム装置1の持ち方又は利用態様等を判断してゲーム処理又は他の情報処理等に反映させることができる。更にゲーム装置1は、筐体2を把持したユーザの手などによる赤外光の反射光に基づいてユーザの脈拍を検出することができる。またゲーム装置1は、同様の構成の他のゲーム装置1が備える赤外光源6が発した赤外光を、自らのリニアイメージセンサ5にて受光して得られた画像に基づき、他のゲーム装置1との相対的な位置及び向き等を判定し、この判定結果を他のゲーム装置1との通信処理などに反映させることができる。
図2は、本実施の形態に係るゲーム装置1の構成を示すブロック図である。上述のように本実施の形態に係るゲーム装置1は、表示部3、操作部4、リニアイメージセンサ5及び赤外光源6等を備えている。またゲーム装置1は、処理部10、タッチパネル11、記憶部12、記録媒体装着部13、無線通信部14、加速度センサ15及び角速度センサ16等を筐体2内に備えている。ゲーム装置1の処理部10は、CPU(Central Processing Unit)などの演算処理装置を用いて構成されている。処理部10は、記憶部12に記憶されたゲームプログラム91又は記録媒体装着部13に装着された記録媒体9に記録されたゲームプログラム91を読み出して実行することにより、ゲームに係る各種の情報処理を行う。例えば処理部10は、操作部4又はタッチパネル11に対してなされた操作を受け付ける処理、受け付けた操作に応じてゲームの判定などを行う処理、受け付けた操作又はゲーム内のイベント等に応じて表示部3に表示するゲーム画像を生成する処理等を行う。また処理部10は、リニアイメージセンサ5を利用した上述の機能を実現するための処理を行う。
表示部3は、液晶パネルなどを用いて構成され、処理部10から与えられた画像を表示する。操作部4は、例えば十字キー及びプッシュボタン等を適宜に複数組み合わせたものである。操作部4は、例えばボタンの押し下げ又は解放等のユーザによりなされた操作の内容を処理部10へ通知する。記憶部12は、不揮発性の半導体メモリ又はハードディスク等を用いて構成されている。記憶部12は、ゲームプログラム91などのプログラム及び各種のデータを記憶することができる。記録媒体装着部13は、カード型、カセット型又はディスク型等の記録媒体9を着脱できるように構成されている。処理部10は、記録媒体装着部13に装着された記録媒体9からゲームプログラム91及び種々のデータを読み出すことができる。
無線通信部14は、携帯電話網又は無線LAN(Local Area Network)等のネットワークを介して、サーバ装置又は他のゲーム装置1等との間でデータの送受信を行う。例えばゲーム装置1は、無線通信部14にてサーバ装置との通信を行ってゲームプログラム91などをダウンロードし、記憶部12に記憶することができる。加速度センサ15は、ゲーム装置1に加わる加速度を検知して処理部10へ通知する。角速度センサ16は、ゲーム装置1の角速度を検知して処理部10へ通知する。これらにより処理部10は、ゲーム装置1に加わる重力加速度及び/又は角速度に基づいて筐体2の向きなどを判断することができる。
本実施の形態に係るゲーム装置1は、処理部10がゲームプログラム91を実行することにより、操作検出部21、フィギュア検出部22、使用態様判定部23、脈拍検出部24及び他装置検出部25等がソフトウェア的な機能ブロックとして処理部10に実現される。これらの機能ブロックは、リニアイメージセンサ5を利用した上述の機能を実現するためのものである。なお本実施の形態においては、これらの機能ブロックがゲームプログラム91により実現されるものとするが、例えばオペレーティングシステム又はゲーム以外のアプリケーションプログラム等により実現されるものであってもよい。またこれら全ての機能ブロックが、1つのゲームプログラム91により実現される必要はない。例えば処理部10がゲームプログラム91を実行することよって、これら複数の機能ブロックのうちのいくつかが実現されてもよい。
処理部10の操作検出部21は、リニアイメージセンサ5が取得した画像に基づいて、ゲーム装置1の筐体2の側方においてなされたユーザの操作を検出する処理、及び、筐体2の側面に対する接触又は近接等の操作を検出する処理を行う。フィギュア検出部22は、リニアイメージセンサ5が取得した画像に基づき、筐体2の側方に載置されたゲーム用のフィギュアを検出する処理を行う。フィギュア検出部22は、フィギュアの種別、位置及び向き等を検出する。使用態様判定部23は、リニアイメージセンサ5が取得した画像、加速度センサ15が検知した加速度及び角速度センサ16が検知した角速度に基づいて、ゲーム装置1の使用態様を判定する処理を行う。即ち使用態様判定部23は、ゲーム装置1の筐体2が縦横のいずれの向きで使用されているか、ユーザが筐体2のいずれの箇所を把持して使用しているか等を判定する。脈拍検出部24は、筐体2を把持したユーザの手が赤外光源6からの赤外光を反射した反射光をリニアイメージセンサ5が受光して撮像された画像に基づき、このユーザの脈拍を検出する処理を行う。他装置検出部25は、他のゲーム装置1の赤外光源6が発した赤外光をリニアイメージセンサ5が受光して撮像された画像に基づき、他のゲーム装置1の位置及び向き等を判定する処理を行う。
<空間ポインタ機能>
本実施の形態に係るゲーム装置1は、筐体2の各側面に設けられたリニアイメージセンサ5が側方を撮像して画像を取得することにより、筐体2の周辺領域をユーザの操作受付領域として利用することを可能とする。これによりゲーム装置1を利用するユーザは、例えばゲーム装置1を平らな机上などに載置し、筐体2の周辺領域を指などで指し示す(ポイントする)操作を行うことにより、ゲームの操作などを行うことができる。本実施の形態において、ゲーム装置1のこの機能を空間ポインタ機能と呼ぶ。
なお空間ポインタ機能は、必ずしもゲーム装置1を机上などに載置して実現するものでなくてよい。例えばユーザが片手でゲーム装置1を把持し、もう一方の手で周辺領域における操作を行ってもよい。即ちゲーム装置1の空間ポインタ機能は、空間における任意の場所で実現可能なものである。
図3は、ゲーム装置1の空間ポインタ機能を説明するための模式図である。例えばゲーム装置1を平らな机上などに載置した場合に、筐体2の側面に設けられたリニアイメージセンサ5は、机面に対して略平行に、筐体2の側面から外側へ、机面に沿う方向に対して撮像を行う。よってリニアイメージセンサ5の撮像範囲は、筐体2の側面から所定距離を隔てた箇所までの略長方形の範囲となり、図3において破線で示すこの領域が空間ポインタ機能における操作受付領域51となる。なおゲーム装置1の赤外光源6は、少なくとも操作受付領域51内が照射範囲となるように赤外光を発する。ゲーム装置1は筐体2の4つの側面にそれぞれリニアイメージセンサ5が設けられているため、操作受付領域51は筐体2の四方に設けられる。
ゲーム装置1は、赤外光源6が発した赤外光の反射光をリニアイメージセンサ5が受光して撮像を行う。リニアイメージセンサ5が撮像により取得した線状の画像は、処理部10へ与えられる。操作受付領域51内にユーザの指などの物体が存在しない場合、リニアイメージセンサ5は反射光を受光しないか、又は、操作受付領域51外の物体からの微弱な反射光を受光する。この場合にリニアイメージセンサ5が取得する画像は、各画素の画素値が小さいものとなる。(本例では、リニアイメージセンサ5が出力する画像は、赤外光の受光強度が高いほど画素値が大きく、受光強度が低いほど画素値が小さいものとする。)よって処理部10の操作検出部21は、リニアイメージセンサ5が取得した画像の画素値が所定値を超えない場合、操作受付領域51内にユーザの指などの物体が存在しないと判断する。
これに対して操作受付領域51内にユーザの指などの物体が存在する場合、リニアイメージセンサ5が取得する線状の画像には、物体の存在する位置に対応する画素の画素値が所定値を超えるため、操作検出部21により物体の存在が検出される。また物体からの反射光は、筐体2の側面から物体までの距離が近いほどその強度が高くなる。よって操作検出部21は、リニアイメージセンサ5が取得した画像の画素値に応じて、筐体2から指などの物体までの距離を算出することができる。即ち操作検出部21は、線状の画像における画素値が所定値を超える画素の位置と、この画素の画素値の大小とに応じて、操作受付領域51内における物体の位置(縦横の座標)を取得することができる。
またリニアイメージセンサ5は周期的に繰り返して撮像を行い、取得した画像を周期的に処理部10へ与える。処理部10の操作検出部21は、リニアイメージセンサ5から時系列的に与えられる複数の画像を比較することによって、操作の有無及び操作位置の変化等を検出する。例えば操作検出部21は、前回の画像に物体が存在せず、今回の画像に物体が存在する場合、ユーザにより新たな操作がなされたことを検出できる。これにより操作検出部21は、ユーザのポイント操作などを検出できる。また例えば操作検出部21は、前回の画像に基づく物体の位置に対して、今回の画像に基づく物体の位置が変化している場合、ユーザによる操作位置が変化したことを検出できる。これにより操作検出部21は、ユーザのスライド操作(ポイントした位置を移動させる操作)などを検出することができる。なお前回の画像を記憶しておくのではなく、前回の検出結果を記憶しておき、検出結果の比較を行ってもよい。
図4は、ゲーム装置1が行う空間ポインタ機能の処理手順を示すフローチャートである。ゲーム装置1の処理部10の操作検出部21は、リニアイメージセンサ5により撮像された画像を取得する(ステップS1)。操作検出部21は、取得した画像の各画素の画素値が所定値を超えるか否かを判定する(ステップS2)。全画素の画素値が所定値を超えない場合(S2:NO)、操作検出部21は、操作受付領域51内に物体が存在しないと判定し(ステップS3)、処理を終了する。少なくとも1つの画素の画素値が所定値を超える場合(S2:YES)、操作検出部21は、所定値を超える画素値に基づいて、物体までの距離を算出する(ステップS4)。操作検出部21は、画素値が所定値を超える画素の位置と、ステップS4にて算出した距離とに基づき、操作受付領域51内における物体の座標を確定する(ステップS5)。
また操作検出部21は、ステップS1にてリニアイメージセンサ5からの画像を取得した際にこの画像を記憶するか、又は、ステップS5にて座標を確定した際にこの座標を記憶している。操作検出部21は、前回に記憶した画像又は座標と、今回の画像又は座標とを比較する(ステップS6)。比較の結果から、操作検出部21は、今回の画像に基づいて検出された物体が前回の画像では検出されていないか、即ち今回の画像で初検出であるか否かを判定する(ステップS7)。この物体が初検出である場合(S7:YES)、操作検出部21は、この物体による操作をステップS5にて算出した座標に対するポイント操作と判断し(ステップS8)、処理を終了する。
この物体が初検出でない場合(S7:NO)、操作検出部21は、前回の画像に基づく座標と今回の画像に基づく座標とを比較し、両座標に変化が生じているか否かを判定する(ステップS9)。両座標が変化している場合(S9:YES)、操作検出部21は、今回の操作をスライド操作と判断し(ステップS10)、処理を終了する。また両座標が変化していない場合(S9:NO)、操作検出部21は、ポイント操作が変化なく継続されていると判断し(ステップS11)、処理を終了する。なお操作検出部21は、図4のフローチャートに示した処理を、リニアイメージセンサ5が撮像を行う都度、繰り返して行っている。
このようにゲーム装置1は、リニアイメージセンサ5を利用した操作検出を行うことによって、表示部3のタッチパネル11に加えて、ユーザがポイント操作などを行うことができる操作受付領域51を設けることができる。タッチパネル11での操作を行う場合、ユーザの指又は手等により表示部3の一部が隠されるため、操作に伴って表示部3の視認性が低下する。これに対して筐体2の四方に設けた操作受付領域51での操作は、表示部3の視認性を低下させることなく行うことができる。また筐体2の4つの側面にそれぞれリニアイメージセンサ5を設けることによって、筐体2の四方に操作受付領域51を設けることができる。例えば複数のユーザが1つのゲーム装置1を利用して対戦又は協力等のゲームを行う場合、各ユーザが1つの操作受付領域51を利用して操作を行うなどの利用態様を実現できる。
なお本実施の形態においてゲーム装置1は、操作受付領域51内の物体までの距離を、リニアイメージセンサ5による赤外光の反射光の受光強度に基づいて算出する構成としたが、これに限るものではない。例えばゲーム装置1は、タイムオブフライト(Time of Flight)の方式による距離測定を行ってもよい。詳細な説明は省略するが、タイムオブフライト方式では、赤外光源6からの赤外光が対象物で反射し、リニアイメージセンサ5へ到達するまでの時間に基づいて対象物までの距離を測定することができる。
<追加インタフェース機能>
本実施の形態に係るゲーム装置1は、上述の空間ポインタ機能を利用して、操作部4の十字キー及びプッシュボタン等に加えて、操作受付領域51内にプッシュ操作又はスライド操作等を受け付ける操作部を設けることができる。図5は、ゲーム装置1の追加インタフェース機能を説明するための模式図である。本実施の形態に係るゲーム装置1の追加インタフェース機能では、ユーザはゲーム装置1と共に追加インタフェースシート52を利用する。追加インタフェースシート52は、例えば紙、合成樹脂又は木材等の素材をシート状又は板状等としたものであり、その表面に追加インタフェースの絵柄が印刷されている。追加インタフェースシート52は、例えばゲームプログラム91を記録した記録媒体9とセットで販売されるものであってよく、また例えば特定のインターネットサイトなどにおいて画像ファイルとして提供されたものを紙に印刷したものであってもよく、これら以外の方法で提供されるものであってもよい。
例えばゲームのメニュー画面又は設定画面等において追加インタフェース機能を利用する選択がユーザによりなされた場合、ゲーム装置1は、追加インタフェースシート52を用意して所定の位置に載置することを促すメッセージなどを表示部3に表示する。このときにゲーム装置1は、どのような絵柄の追加インタフェースシート52を用いるべきであるか、及び、ゲーム装置1に対して追加インタフェースシート52をどのように配置すべきか等の説明を表示部3に表示する。また追加インタフェースシート52には、ゲーム装置1との位置合わせのためのマークなどが印刷されていてもよい。
図示の例においては、机上などに載置されたゲーム装置1に対して、追加インタフェースシート52が筐体2の下側の位置に載置されている。図示の追加インタフェースシート52には、XYZの3つのボタンが追加インタフェースとして描かれている。この追加インタフェースは、XYZの各ボタンに対するユーザのプッシュ操作又はタッチ操作を受け付けるためのものである。
ゲーム装置1は、追加インタフェースシート52に描かれた3つのボタンの座標及び範囲等の情報を記憶している。ゲーム装置1の操作検出部21は、追加インタフェースシート52に対するユーザの操作を、上述の空間ポインタ機能の場合と同様の方法で検出する。追加インタフェースシート52に対するポイント操作を検出した場合、操作検出部21は、ポイント操作がなされた座標と、追加インタフェースシート52に描かれた3つのボタンの座標及び範囲等とを比較する。ポイント操作がなされた座標が、3つのボタンのいずれかの範囲内であると判断した場合、操作検出部21は、このボタンに対するプッシュ操作を受け付け、受け付けた操作をこの追加インタフェースシートを利用するゲームなどの処理に反映させる。
図6は、ゲーム装置1が行う追加インタフェース機能の処理手順を示すフローチャートである。ゲーム装置1の処理部10の操作検出部21は、追加インタフェース機能の利用が選択された場合などに、追加インタフェースシート52をゲーム装置1に対して所定位置に載置すべき旨を示すメッセージを表示部3に表示する(ステップS21)。このメッセージに応じてユーザは所定の追加インタフェースシート52を載置し、例えば表示部3に上記のメッセージと共に表示された完了ボタンなどに対する操作を行うことによって追加インタフェース機能の利用を開始することができる。操作検出部21は、例えば完了ボタンに対する操作がなされたか否かなどに基づき、追加インタフェースシート52の載置が完了したか否かを判定する(ステップS22)。追加インタフェースシート52の載置が完了していない場合(S22:NO)、操作検出部21は、ステップS21へ処理を戻し、メッセージの表示を継続して行う。
追加インタフェースシート52の載置が完了した場合(S22:YES)、操作検出部21は、図5のフローチャートに示した操作検出処理を行う(ステップS23)。操作検出部21は、操作検出処理の結果から、ポイント操作が検出されたか否かを判定する(ステップS24)。ポイント操作が検出されていない場合(S24:NO)、操作検出部21は、ステップS23へ処理を戻し、操作検出処理を繰り返し行う。ポイント操作が検出された場合(S24:YES)、操作検出部21は、ポイント操作がなされた座標と、追加インタフェースシート52に描かれたボタンの座標とを比較する座標判定を行う(ステップS25)。座標判定の結果に基づいて操作検出部21は、ポイント操作が追加インタフェースシート52のボタンの範囲内になされたか否かを判定する(ステップS26)。ポイント操作がボタンの範囲内である場合(S26:YES)、操作検出部21は、このポイント操作を該当するボタンに対する操作として受け付けて(ステップS27)、ステップS23へ処理を戻す。ポイント操作がボタンの範囲外である場合(S26:NO)、操作検出部21は、ボタンに対する操作はなされていないと判定し(ステップS28)、ステップS23へ処理を戻す。
このようにゲーム装置1は、追加インタフェースシート52を利用した操作受付を行うことによって、ゲームの操作に適したインタフェースを適宜に追加することができ、操作性を向上することができる。追加インタフェースシート52は例えば紙などに絵柄を印刷して実現することができ、容易且つ低コストで実現可能である。
なお図5に示した追加インタフェースシート52は、3つのボタンが描かれたものであるが、一例であってこれに限るものではない。追加インタフェースシート52には、例えばスライドバー又は回転ダイヤル等のボタン以外の操作部が描かれていてよい。また追加インタフェースシート52は、平面的なものである必要はなく、立体的なものであってもよく、更にはユーザの操作に応じて移動又は変位等を行う機械的機構を備えたものであってもよい。また追加インタフェースシート52に代えて、プロジェクタにより机上に操作部の絵柄を投影するなどの構成としてもよい。また、ポイント操作と追加インタフェースシート52のボタンとを対応付けた例を説明したが、スライド操作と追加インタフェースシート52に描かれた操作部とを対応付けるなど、ポイント操作以外の操作を利用するものであってよい。
<側面タッチ操作>
本実施の形態に係るゲーム装置1は、筐体2の側面に設けられたリニアイメージセンサ5を利用することにより、筐体2の側面に対する近接又は接触の操作を受け付ける。なお本実施の形態においては、筐体2の側面にユーザの指などが実際に接触する場合と、指などが実際には側面に接触せず、側面からある程度の距離内に指などが近付けられた場合とを含めて側面タッチ操作とよぶ。図7は、ゲーム装置1の側面タッチ操作を説明するための模式図である。
ゲーム装置1の操作検出部21は、上述の空間ポインタ機能と同様の方法で、筐体2の側面に対するタッチ操作を検出することができる。例えば図4に示した空間ポインタ機能の処理手順において何らかの操作を検出した場合に、操作検出部21は、操作がなされた位置が筐体2から所定距離内であれば側面タッチ操作がなされたと判断することができる。
操作検出部21が側面タッチ操作を検出した場合にゲーム装置1がどのような処理を行うかは、処理部10が実行するゲームプログラム91などによる。側面タッチ操作は、タッチパネル11によるタッチ操作と同様に、ゲームプログラム91などの内容に応じて適宜に利用できる。図示の例では、筐体2の右側面に沿ってユーザが指を上下方向にスライド操作した場合である。このような側面でのスライド操作に対して、ゲーム装置1は、例えばゲームの際にスピーカなどから出力される音楽又は音声等の音量を増減することができる。また例えばゲーム装置1は、表示部3の明るさを増減することができる。
また側面タッチ操作は、図示のスライド操作に限らない。例えばゲーム装置1は、筐体2の側面の所定箇所に対するタッチ操作がなされた場合に、スリープモードから復帰する、又は、ゲーム装置1のロックを解除する等の処理を行う構成としてもよい。また例えばゲーム装置1は、筐体2の側面のタッチ操作がなされた箇所に応じて、ゲームのキャラクタの移動方向又は攻撃方向等を決定する構成としてもよい。
このようにゲーム装置1は、リニアイメージセンサ5を利用して筐体2の側面に対するユーザのタッチ操作を検出する構成である。これによりゲーム装置1は、表示部3の表面に設けられた静電容量方式などのタッチパネル11と同様のものを筐体2の側面に設けることなく、筐体2の側面に対するタッチ操作を検出することができる。
<フィギュア検出機能>
本実施の形態に係るゲーム装置1は、特定のゲームプログラム91に対応付けられた特定のフィギュアを併用するゲームを実現する。図8は、ゲーム装置1のフィギュア検出機能を説明するための模式図である。図示の例では、ねずみのキャラクタを模したフィギュア60がゲームに用いられている。フィギュア60は、例えば合成樹脂製の成型品である。フィギュア60は、これを利用したゲームを実現するゲームプログラム91を記録した記録媒体9と共に提供されるか、又は、記録媒体9とは別に個別に提供される。
フィギュア60は、略円柱型の台座部61と、この台座部61上に設けられたキャラクタ部62とを備えている。フィギュア60のキャラクタ部62は、ゲームに登場するキャラクタを立体的に模したものであり、図示のねずみ以外のキャラクタを模したフィギュア60が複数存在してよい。フィギュア60の台座部61は、例えば平らな机面にゲーム装置1及びフィギュア60を並べて載置した場合に、ゲーム装置1のリニアイメージセンサ5が台座部61の周面を撮像できるよう、その高さが適宜に設定されている。台座部61の周面には、キャラクタを識別するための情報などをバーコード化したものが赤外線反射塗料で印刷されている。なおこのバーコードは、ユーザの目では視認できず、ゲーム装置1の赤外光源6からの赤外光を反射し、この反射光をリニアイメージセンサ5が受光することによって取得することができる。またこのバーコードは、台座部61の周面の一周に亘って設けられており、フィギュア60がいずれの向きで載置された場合であってもその一部分がリニアイメージセンサ5により撮像される。
ゲーム装置1の処理部10のフィギュア検出部22は、操作受付領域51内にフィギュア60が載置された場合に、このフィギュア60の種別、位置及び向きを検出する処理を行う。なおフィギュア60が載置された位置の検出は、上述の空間ポインタ機能においてポイント操作位置を検出する方法と同じ方法で行うことができるため、説明を省略する。
フィギュア検出部22は、操作受付領域51内に載置されたフィギュア60の種別を、このフィギュア60の台座部61に記されたバーコードを基に検出する。上述のようにフィギュア60の台座部61には一周に亘ってバーコードが記されているが、ゲーム装置1のリニアイメージセンサ5にて取得できるのはバーコードの一部分である。このため台座部61のバーコードは、全体の1/3〜1/4程度の長さ分を取得することができればゲーム装置1のフィギュア検出部22がキャラクタの種別を判断できるよう構成されている。フィギュア検出部22は、リニアイメージセンサ5にて取得した画像からフィギュア60のバーコードが撮像された部分を抽出し、抽出したバーコードを識別番号などのデジタルデータに変換する。ゲーム装置1の記憶部12又は記録媒体9にはゲームプログラム91と共にフィギュア60に付される識別番号とキャラクタとの対応情報が記憶されており、フィギュア検出部22は、フィギュア60のバーコードから取得した識別番号を基にこの対応情報を参照することによって、フィギュア60がいずれのキャラクタのものであるかを判断することができる。
またフィギュア検出部22は、フィギュア60の台座部61に記されたバーコードに基づいて、フィギュア60の向きを検出する。台座部61の一周に亘って記されたバーコードは、ゲーム装置1のリニアイメージセンサ5にてその一部分のみが取得される。そこでフィギュア検出部22は、リニアイメージセンサ5にて取得した一部分に基づいて、フィギュア60の種別及び向き等を判断する。
例えば図8に示す例では、フィギュア60の向きを検出するための向き検出用バーコード63と、フィギュア60の種別などを判断するための種別判断用バーコード64とを、台座部61の一周に亘って適宜の間隔で交互に並べて設けてある。向き検出用バーコード63と種別判断用バーコード64とは、例えばバーコードを構成する各線の太さに差を設けるなどし、両バーコードが混同されることを防止する。
図示の例では、4つの向き検出用バーコード63と4つの種別判断用バーコード64とが台座部61に設けられている。フィギュア60をいずれの方向に載置した場合であっても、少なくとも1つの向き検出用バーコード63と、1つ分の種別判断用バーコード64とがリニアイメージセンサ5により撮像されるよう、台座部61のバーコードは構成されている。
4つの向き検出用バーコード63はそれぞれ異なるパターンである。ゲーム装置1のフィギュア検出部22は、リニアイメージセンサ5にて取得された向き検出用バーコード63がいずれのパターンであるかに応じてフィギュア60の向きを検出する。またフィギュア検出部22は、取得した向き検出用バーコード63のパターンの歪み(例えばパターンを構成するラインの間隔の変化など)に基づいてより正確な向きを推測することも可能である。
また4つの種別判断用バーコード64はいずれも同じパターンである。フィギュア検出部22は、リニアイメージセンサ5が撮像した画像から、少なくとも1つの種別判断用バーコード64を取得することができる。ただし撮像画像には、例えば向き検出用バーコード63を間にして種別判断用バーコード64の前半部分及び後半部分が分割されて撮像されている場合がある。このような場合、フィギュア検出部22は、分割された前半部分及び後半部分を結合して、1つの種別判断用バーコード64を得ることができる。
フィギュア検出部22が検出したフィギュア60の種別、位置及び向き等の情報は、このフィギュア60を利用するゲームプログラム91のゲーム処理に反映される。例えばゲーム装置1の処理部10は、フィギュア検出部22が検出したフィギュア60に対応するキャラクタを、ユーザが操作するプレイヤキャラクタとしてゲームに登場させる。ユーザはフィギュア60を操作受付領域51内にて移動又は回転させることでプレイヤキャラクタの操作を行う。フィギュア検出部22は、フィギュア60の位置及び向きを検出し、これによりフィギュア60の移動及び回転を検出することができる。処理部10は、フィギュア検出部22が検出したフィギュア60の移動及び回転に応じて、表示部3に表示したプレイヤキャラクタを移動及び回転させることができる。
また、ゲーム装置1のフィギュア検出機能をボードゲーム又は双六等のゲームと組み合わせることもできる。例えばボードゲームのゲーム盤上の所定位置にゲーム装置1を載置し、ボードゲームの駒として複数種類のフィギュア60を用いる。ゲーム装置1は、ゲーム盤上におけるフィギュア60の位置を把握し、ゲームの進行及び判定等を行う構成とすることができる。
図9は、ゲーム装置1が行うフィギュア検出機能の処理手順を示すフローチャートである。ゲーム装置1の処理部10のフィギュア検出部22は、リニアイメージセンサ5により撮像された画像を取得する(ステップS31)。フィギュア検出部22は、取得した画像を基に、操作受付領域51内に何らかの物体が存在しているか否かを判定する(ステップS32)。操作受付領域51内に物体が存在していない場合(S32:NO)、フィギュア検出部22は、ステップS31へ処理を戻し、画像の取得を繰り返し行う。操作受付領域51内に物体が存在している場合(S32:YES)、フィギュア検出部22は、この物体の座標を判定する(ステップS33)。なお座標の判定方法は、図4のフローチャートのステップS1〜S5などに示したものと同様の方法を採用できるため、図9においてはその詳細な図示を省略する。
次いでフィギュア検出部22は、操作受付領域51内に存在すると判定した物体からバーコードを抽出する処理を行う(ステップS34)。この処理の結果から、フィギュア検出部22は、操作受付領域51内の物体からバーコードを抽出できたか否かを判定する(ステップS35)。バーコードを抽出できない場合(S35:NO)、フィギュア検出部22は、処理を終了する。バーコードを抽出できた場合(S35:YES)、フィギュア検出部22は、この物体が特定のフィギュア60であると判断して、抽出したバーコードに含まれる種別判断用バーコード64をデジタルの識別情報などに変換し、この識別情報に基づいて記憶部12又は記録媒体9に記憶された対応情報を参照する(ステップS36)。フィギュア検出部22は、識別情報及び対応情報に基づいて、このフィギュア60の種別を判定する(ステップS37)。またフィギュア検出部22は、取得したバーコードに含まれる向き検出用バーコード63に基づいてフィギュア60の向きを判定し(ステップS38)、処理を終了する。フィギュア検出部22が検出したフィギュア60の位置、向き及び種別等の情報は、処理部10が行うゲーム処理などに用いられる。
このようにゲーム装置1は、リニアイメージセンサ5を利用して筐体2の周辺に配置されたフィギュア60を検出し、フィギュア60の位置、向き及び種別等をゲームに反映させることにより、ゲーム装置1単体では実現できない多種多様なゲーム又は情報処理を実現できる。またフィギュア60にはバーコードなどにより識別情報などを容易に付与することができる。このため、例えばフィギュア60にICタグなどを埋め込んでゲーム装置1との情報交換を行う構成と比較して、フィギュア60を低コストで提供することができる。
なお本実施の形態においては、ゲーム装置1の周辺に配置する物体をフィギュア60としたが、これに限るものではない。例えばキャラクタの絵柄及びバーコード等をカード型の媒体に印刷したものを用いてもよく、これら以外の構成のものを用いてもよい。またフィギュア60は、台座部61の上にキャラクタを立体的に模したキャラクタ部62を設けた構成としたが、これに限るものではない。例えば台座部61の上面にキャラクタの絵柄又は名称等を平面的に印刷した構成としてもよい。
<追加操作装置>
上述のようにゲーム装置1は、追加インタフェース機能により追加インタフェースシート52に描かれたボタン等を利用した操作受付を行うことができる。本実施の形態に係るゲーム装置1は、リニアイメージセンサ5を利用して、立体的な追加操作装置による操作受付を行うことができる。図10は、ゲーム装置1の追加操作装置を説明するための模式図である。本実施の形態に係るゲーム装置1は、例えば図示のような回転ダイヤル65を追加操作装置として利用することができる。
回転ダイヤル65は、時計回り又は反時計回りの任意の方向へ、ユーザが回転操作を行うことができる追加操作装置である。ゲーム装置1は、回転ダイヤル65の回転方向及び回転量等を検出してゲーム処理に反映させる。回転ダイヤル65は、略円柱型をなしている。回転ダイヤル65は、ユーザの回転操作に応じて、ゲーム装置1に対する周面の相対位置が変位するよう構成されている。例えば回転ダイヤル65は、不動の下面に対して上面及び周面が回転するよう構成されていてもよい。また例えば回転ダイヤル65は、一体成型品などとし、ユーザの回転操作に対して全体が回転するよう構成されていてもよい。また回転ダイヤル65の周面には、バーコードが赤外線反射塗料で印刷されている。回転ダイヤル65のバーコードは、上述のフィギュア60のバーコードと同様に、追加操作装置の種別及び向き等を示す識別情報をバーコード化したものであり、ユーザにとって可視のものであっても不可視のものであってもよい。
ゲーム装置1の操作検出部21は、リニアイメージセンサ5にて操作受付領域51内に何らかの物体が存在する場合、この物体からバーコードを抽出する処理を行う。操作検出部21は、物体からバーコードを抽出することができた場合、抽出したバーコードをデジタルの識別情報などに変換し、変換した識別情報などに基づいてこの物体が回転ダイヤル65であることを判断できる。また操作検出部21は、リニアイメージセンサ5にて取得したバーコードに含まれる向きを示す情報に基づいて、回転ダイヤル65の角度などを検出することができる。これらの処理は、上述のフィギュア検出機能で説明したものと略同じ処理であるため、詳細な説明は省略する。
ゲーム装置1はリニアイメージセンサ5による撮像を周期的に繰り返して行っている。操作検出部21は、リニアイメージセンサ5から時系列的に取得した複数の画像に基づき、操作受付領域51内に存在する追加操作装置の変化又は変位等、例えば回転ダイヤル65の回転を検出する。回転ダイヤル65の回転を検出した場合、操作検出部21は、更に回転ダイヤル65の角度の変位量(即ち回転量)を検出する。ゲーム装置1の処理部10は、操作検出部21にて検出した回転ダイヤル65の回転量に基づいてゲーム処理又はその他の情報処理を行うことができる。
図11は、ゲーム装置1が行う追加操作装置に関する処理の手順を示すフローチャートである。なお本図においては、操作受付領域51内に追加操作装置が載置されたことをゲーム装置1が検出し、この追加操作装置が回転ダイヤル65であること、及び、載置された回転ダイヤル65の角度を検出した後の処理を説明する。ゲーム装置1の処理部10の操作検出部21は、リニアイメージセンサ5により撮像された画像を取得する(ステップS41)。操作検出部21は、取得した画像を基に、操作受付領域51内に存在する回転ダイヤル65に付されたバーコードを抽出する処理を行う(ステップS42)。操作検出部21は、抽出したバーコードに基づいて、回転ダイヤル65の角度を検出し(ステップS43)、検出した角度を記憶部12などに記憶する(ステップS44)。
次いで操作検出部21は、前回に取得した画像に基づいて検出及び記憶した角度と、今回に取得した画像に基づいて検出した角度とを比較し(ステップS45)、両角度に変化があるか否かを判定する(ステップS46)。変化がある場合(S46:YES)、操作検出部21は、両角度の差分から回転ダイヤル65の回転量を算出し(ステップS47)、処理を終了する。両角度に変化がない場合(S46:NO)、操作検出部21は、回転量の算出を行うことなく、処理を終了する。操作検出部21が検出した回転ダイヤル65の回転量は、処理部10が行うゲーム処理などに用いられる。
このようにゲーム装置1は、リニアイメージセンサ5を利用して操作受付領域51内に載置された回転ダイヤル65などの追加操作装置を検出し、リニアイメージセンサ5にて追加操作装置の変位を検出してゲーム処理などに反映させる。これによりゲーム装置1は、平面的な追加インタフェースシート52では実現が難しい複雑な操作の受付を追加操作装置を利用することで実現可能となる。追加操作装置は、操作に応じて変位する部分にバーコードなどを記す簡単な構成で実現でき、操作検出のための電子的な機構及びゲーム装置1との通信機能等を搭載する必要がないため、低コストで提供することができる。
なお本例では、追加操作装置として回転ダイヤル65を例に説明を行ったが、追加操作装置はこれに限らない。例えば追加操作装置は、ユーザのスライド操作に応じて直線的に変位するスライドバーなどであってもよい。また例えば追加操作装置は、ハンドルなどの回転操作をラック&ピニオン機構などにより直線的な変位動作に変換し、直線的に変位する部位にバーコードなどを記しておく構成などであってもよい。また追加操作装置は、これら以外の種々の構成を採用することができる。
<使用態様判定機能>
本実施の形態に係るゲーム装置1は、横向き又は縦向きのいずれの姿勢で筐体2をユーザが把持して使用しているかを判定する機能を有している。本実施の形態において、ゲーム装置1のこの機能を使用態様判定機能という。図12は、ゲーム装置1の使用態様判定機能を説明するための模式図である。図12の上段にはユーザがゲーム装置1を横向きで使用している状態を図示し、図12の下段には持ち方を変更してユーザがゲーム装置1を縦向きで使用した状態を図示してある。またゲーム装置1の表示部3には、一例としてメニュー画面が表示されている。本例のメニュー画面では、ゲーム選択、画面設定及び音声設定等の選択項目が上下に並べて表示され、ユーザは操作部4を操作していずれかの項目を選択することができる。
本実施の形態に係るゲーム装置1は、ユーザによるゲーム装置1の使用態様が横向き又は縦向きのいずれであるかに応じて、表示部3に表示する画像の向きを変更する。図示のように、ゲーム装置1が横向き又は縦向きのいずれで利用されている場合であっても、表示部3のメニュー画面は、表示部3のユーザから遠い側を上側とし、ユーザから近い側を下側として、上下方向に選択項目が並べられて表示される。
ゲーム装置1が横向き又は縦向きのいずれで利用されているかは、処理部10の使用態様判定部23にて判定される。使用態様判定部23は、加速度センサ15が検知する重力加速度と、リニアイメージセンサ5にて取得した画像とに基づいて、ゲーム装置1の使用態様を判定する。加速度センサ15にて検知される重力加速度の向きを判断することによって、使用態様判定部23は、ゲーム装置1の筐体2がいずれの向きに傾いているかを判定することができる。なお、加速度センサ15が検知する重力加速度に代えて又は加えて、角速度センサ16が検知する角速度を用いて向きを判定する構成としてもよい。加速度センサ15及び角速度センサ16を利用した判定は、既存の技術であるため、詳細な説明は省略する。
加速度センサ15を利用した使用態様の判定は、例えば筐体2が略水平に保たれた状態でゲーム装置1が使用されている場合、また例えばユーザが移動しながらゲーム装置1を使用しているなど、加速度センサ15が重力加速度以外の加速度を検知する可能性がある場合等に、判定精度が低下する虞がある。そこで本実施の形態に係るゲーム装置1は、リニアイメージセンサ5が取得した画像に基づいて、ユーザによる筐体2の把持位置を判定し、この把持位置からゲーム装置1の使用態様を判定する。ゲーム装置1は、加速度センサ15による判定と、リニアイメージセンサ5による判定とを併用するが、いずれの判定結果を優先して用いてもよく、例えばいずれの判定結果を優先するかをユーザが設定可能な構成としてもよい。本実施の形態においては、ゲーム装置1は、リニアイメージセンサ5による判定結果を優先し、リニアイメージセンサ5が取得した画像に基づいて使用態様が判定できない場合に加速度センサ15による判定を行う。
例えば図12に示すように、ユーザはゲーム装置1を利用する場合に、筐体2の左右をそれぞれ左手及び右手で把持する可能性が高い。筐体2の上下左右の4つの側面にはそれぞれリニアイメージセンサ5が設けられているため、ユーザが筐体2を把持した場合には、把持箇所においてリニアイメージセンサ5が覆い隠される。この状態でリニアイメージセンサ5が撮像して取得する画像は、ユーザの手により覆い隠された部分と、覆い隠されていない部分とを区別することができる。ゲーム装置1の使用態様判定部23は、リニアイメージセンサ5が取得した画像に撮像された物体までの距離が所定距離内である場合に、筐体2の側面が覆い隠されていると判定する。これは上述の側面タッチ操作の場合と同様の判定方法である。
更に使用態様判定部23は、リニアイメージセンサ5が取得した線状の画像のうち、全体の1/4〜1/3程度が覆い隠されている場合、ユーザの手により筐体2の側面が把持されていると判定する。使用態様判定部23は、筐体2の4つの側面のうち、相対する2つの側面がユーザの手により把持されていると判定した場合、ユーザが筐体2を左右の両手で把持して使用していると判定する。また使用態様判定部23は、ユーザが把持する2つの側面において、その把持位置が側面の長手方向のいずれの端に近いかを判定することにより、把持位置に近い端を下側としてユーザが筐体2を把持していると判定する。
これによりユーザがゲーム装置1を使用している場合に、筐体2の上下方向を使用態様判定部23が判定でき、この判定結果に基づいて処理部10は表示部3に表示する画像の向きを決定することができる。なお、例えばユーザが片手で筐体2を把持しているなど、図12に示した方法以外で筐体2を把持しており、リニアイメージセンサ5が取得した画像に基づく判定を行うことができない場合、使用態様判定部23は、加速度センサ15が検知する加速度に基づいて使用態様を判定する。
図13は、ゲーム装置1が行う使用態様判定処理の手順を示すフローチャートである。ゲーム装置1の処理部10の使用態様判定部23は、リニアイメージセンサ5により撮像された画像を取得する(ステップS51)。使用態様判定部23は、取得した画像を基に、筐体2の側面が覆い隠されているか否かを判定する(ステップS52)。筐体2の側面が覆い隠されている場合(S52:YES)、使用態様判定部23は、覆い隠されている箇所の長さが、例えば側面の長手方向の1/4〜1/3等の所定長を超えるか否かを判定する(ステップS53)。覆い隠されている長さが所定長を超える場合(S53:YES)、使用態様判定部23は、筐体2の相対する2つの側面が覆い隠されているか否かを判定する(ステップS54)。
筐体2の相対する2つの側面が覆い隠されている場合(S54:YES)、使用態様判定部23は、この側面の長手方向の端のいずれに近い個所が覆い隠されているかに応じてユーザによる筐体2の把持位置を判定する処理を行う(ステップS55)。使用態様判定部23は、判定した把持位置に基づいてゲーム装置1の使用態様、即ちゲーム装置1が横向き又は縦向きのいずれで使用されているかを判定し(ステップS57)、処理を終了する。
また、リニアイメージセンサ5にて取得した画像に基づき筐体2の側面が覆い隠されていないと判定した場合(S52:NO)、筐体2の側面の覆い隠されている箇所の長さが所定値を超えない場合(S53:NO)、又は、筐体2の相対する2つの側面が覆い隠されていない場合(S54:NO)、使用態様判定部23は、加速度センサ15が検知する重力加速度に基づいて上下方向などを判定する(ステップS56)。加速度センサ15の判定結果に基づき、使用態様判定部23は、ゲーム装置1の使用態様を判定し(ステップS57)、処理を終了する。
このようにゲーム装置1は、筐体2の4つの側面にそれぞれ設けたリニアイメージセンサ5にて取得した画像に基づき、ユーザがいずれの側面を把持しているかを判定してゲーム装置1の使用態様を判定する。ゲーム装置1は、判定した使用態様に応じて、表示部3に表示する画像の向きを変更する処理を行う。これにより、加速度センサ15ではゲーム装置1の使用態様を精度よく判定できない状況においても、ゲーム装置1は、リニアイメージセンサ5にて取得した画像に基づき使用態様の判定を行うことができる。また加速度センサ15を用いた判定を併用することにより、ゲーム装置1は、使用態様をより精度よく判定することができる。
なお本例においてゲーム装置1は、筐体2の側面が覆い隠されているか、覆い隠されている箇所の長さ、筐体2の相対する2つの側面が覆い隠されているか、及び、覆い隠されている箇所が側面のいずれの端に近いかの4つの条件を判定してゲーム装置1の使用態様を判定したが、これらの条件は一例である。これら4つの条件に対して更に別の条件を加えてもよく、4つの条件のうち3つ以下の条件のみを判定してもよく、4つの条件のうちのいくつかと別の条件とを組み合わせて判定を行ってもよい。また表示部3にメニュー画面を表示する例を示したが、これは一例であって、表示部3に表示する画像はどのようなものであってもよい。
また本例では、ユーザがいずれの側面を把持しているかに基づいて判定した使用態様に応じてゲーム装置1が表示部3に表示する画面の向きを変更する処理を説明したが、ゲーム装置1が行う処理はこれに限らない。ゲーム装置1は、使用態様の判定結果に応じてこれ以外の種々の処理を行ってよい。またゲーム装置1は、判定結果に応じて表示の向きを変更する処理に加えて、ユーザがユーザによる側面の把持位置を考慮した処理を行ってもよい。例えばゲーム装置1は、表示部3に表示するアイコン又はゲームのキャラクタ等を、ユーザの把持位置の近傍に表示するなどの処理を行うことができる。
<脈拍検出機能>
本実施の形態に係るゲーム装置1は、ユーザが筐体2を把持した状態でリニアイメージセンサ5が取得した画像に基づき、このユーザの脈拍を検出する機能を備えている。ゲーム装置1は赤外光源6により筐体2の外側へ赤外光を発し、この赤外光は筐体2を把持したユーザの手にて反射され、リニアイメージセンサ5にて受光される。リニアイメージセンサ5にて受光される赤外光の反射光の強度は、ユーザの血管中の血液の流れに応じて変化する。反射光の反射強度は、リニアイメージセンサ5が取得する画像において、その画素値として反映される。
ゲーム装置1の処理部10の脈拍検出部24は、リニアイメージセンサ5による画像の取得を周期的又は連続的に繰り返し行って、所定期間に亘って取得した複数の画像からその画素値を取得することによって、赤外光の反射強度の変化を判定する。赤外光の反射強度は、ユーザの血液の流れの変化、即ち脈に応じて増減を繰り返すため、脈拍検出部24は、複数の画像から取得した画素値から変化の周期を算出することにより、ユーザの脈拍を検出することができる。
脈拍検出部24が検出した脈拍は、例えばユーザの健康管理を行うアプリケーションにて利用することができる。またゲーム装置1は、例えば脈拍検出部24が検出した脈拍に応じてゲームのキャラクタの顔色を変化させるなど、検出した脈拍をゲーム処理に反映させることができる。
図14は、ゲーム装置1が行う脈拍検出処理の手順を示すフローチャートである。なお本フローチャートにおいては、ユーザがゲーム装置1の筐体2を把持していることを前提とし、ユーザが筐体2を把持しているか否かの判定する処理については説明を省略する。ゲーム装置1は、本フローチャートに示す処理に先立って、ユーザが筐体2を把持しているか否かを判定する処理を行ってよい。この判定処理は、上述の使用態様判定処理と同様の方法を採用できる。
ゲーム装置1の処理部10の脈拍検出部24は、リニアイメージセンサ5により撮像された画像を取得する(ステップS61)。脈拍検出部24は、取得した画像の画素値に基づいて、ユーザの手による赤外光の反射光の強度を取得する(ステップS62)。脈拍検出部24は、取得した強度を記憶部12などに記憶する(ステップS63)。脈拍検出部24は、例えば数秒〜数十秒程度の所定時間分の強度を取得したか否かを判定し(ステップS64)、取得していない場合には(S64:NO)、ステップS61へ処理を戻してリニアイメージセンサ5の画像に基づく赤外光の反射光の強度取得を繰り返して行う。
所定時間分の反射光の強度を取得した場合(S64:YES)、脈拍検出部24は、記憶部12に記憶した複数の強度を読み出して、時系列的な複数の強度の変化について、例えばピーク値などを検出することにより、変化の周期を算出する(ステップS65)。脈拍検出部24は、算出した周期を脈拍検出の結果として記憶部12などに記憶し(ステップS66)、処理を終了する。
このようにゲーム装置1は、赤外光源6が発した赤外光のユーザの手などによる反射光をリニアイメージセンサ5にて受光し、反射光の強度の変化に基づいてユーザの脈拍を検出する。ユーザはゲームなどを行う場合にゲーム装置1の筐体2を把持する場合が多いため、ゲーム装置1は筐体2の側面に設けたリニアイメージセンサ5が取得した画像に基づく脈拍検出を容易に行うことができ、検出した脈拍をゲーム処理などに反映させることが容易である。なお検出したユーザの脈拍の利用用途は、ユーザの健康管理又はゲームのキャラクタの顔色変化等に限らず、その他の種々の処理に利用することができる。
<他装置検出機能>
本実施の形態に係るゲーム装置1は、同様の構成の他のゲーム装置1の位置を検出する機能を備えている。ゲーム装置1は、リニアイメージセンサ5にて他のゲーム装置1の赤外光源6が発した赤外光を受光してえられた画像を基に、他のゲーム装置1の位置を検出する。ゲーム装置1の筐体2には4つの側面にそれぞれリニアイメージセンサ5が設けられているため、ゲーム装置1は、他のゲーム装置1が発した赤外光がいずれの側面に設けられたリニアイメージセンサ5にて受光されたかに応じて、他のゲーム装置1の位置を検出することができる。またゲーム装置1は、リニアイメージセンサ5による赤外光の受光強度などに基づいて、他のゲーム装置1の向きなどを検出することができる。なお上記のような位置検出を行うため、ゲーム装置1は、他のゲーム装置1との間で無線通信を行い、赤外光源6を発行させるタイミングの調整などを行う。
図15は、ゲーム装置1の他装置検出機能を説明するための模式図である。図15には、例えば机上などの平面に2つのゲーム装置1が載置された状態を図示してある。なお本実施の形態に係る他装置検出機能では、位置検出を行う複数のゲーム装置1が同一平面上に載置されていることを前提とする。図15には2つのゲーム装置1が図示してあるが、上側に示したものをゲーム装置1Aとし、下側に示したものをゲーム装置1Bとする。またゲーム装置1の筐体2の4つの側面について、操作部4が設けられていない側を側面2aとし、円形の2つのプッシュボタンが設けられている側を側面2bとし、四角形の3つのプッシュボタンが設けられている側を側面2cとし、十字キーが設けられている側を側面2dとする。
2つのゲーム装置1A及び1Bにて位置検出の処理を行う場合、まずゲーム装置1A及び1B間で無線通信を行い、赤外光源6を発光させる順番及び発光タイミング等を決定する。ここで、例えばゲーム装置1Aが先に赤外光源6の発光を行い、その発光を時刻t0に行うと決定された場合、ゲーム装置1Aは時刻t0に側面2aに設けられた赤外光源6を所定時間に亘って発光させ、次いで順に側面2b、2c、2dの赤外光源6をそれぞれ個別に所定時間に亘って発光させる。赤外光源6の発光を行わないゲーム装置1Bは、全てのリニアイメージセンサ5にてゲーム装置1Aからの赤外光の受光及び撮像を行う。
図15に示す例では、ゲーム装置1Aが側面2cの赤外光源6による発光を行った場合に、ゲーム装置1Bの側面2aのリニアイメージセンサ5にて赤外光が受光される。よってゲーム装置1Bは、ゲーム装置1Aが側面2a側に載置されていると判定できる。またゲーム装置1Bは、ゲーム装置1Aからの赤外光の受光強度、即ち側面2aのリニアイメージセンサ5にて取得した画像の画素値に応じて、側面2aからゲーム装置1Aまでの距離を算出することができる。またゲーム装置1Bは、側面2aのリニアイメージセンサ5にて取得した線状の画像の画素値の分布を調べることにより、ゲーム装置1Bに対するゲーム装置1Aの傾きを判定することができる。即ち、受光した赤外光の強度が高い個所ほどリニアイメージセンサ5からゲーム装置1Aまでの距離が近いと判断できるため、赤外光の強度が高い個所へ向けてゲーム装置1Aが傾いているとゲーム装置1Bは判定することができる。
ゲーム装置1Aが赤外光源6の発光を終えた後、ゲーム装置1Bが赤外光源6の発光を行う。ゲーム装置1Aの場合と同様に、ゲーム装置1Bは例えば時刻t1から側面2a、2b、2c、2dの順で赤外光源6をそれぞれ所定時間に亘って発光させる。ゲーム装置1Bが側面2aの赤外光源を発光させた場合に、ゲーム装置1Aは側面2cのリニアイメージセンサ5にて赤外光を受光する。ゲーム装置1Aは、リニアイメージセンサ5が取得した画像に基づいて、ゲーム装置1Bの位置、距離及び向き等を判定する。
ゲーム装置1A及び1bが共に赤外光源6の発光とリニアイメージセンサ5による受光とを終え、相手の位置、距離及び向き等の判定を終えることにより、ゲーム装置1A及び1Bの位置検出処理が終了する。なおゲーム装置1A及び1Bは、無線通信により自らの判定結果を相手に送信してもよい。ゲーム装置1A及び1Bは、自らの位置検出処理の結果と相手の結果とを比較し、処理結果に誤りなどがないかを確認することができる。
なお上記の例では2つのゲーム装置1が位置検出を行う場合について説明を行ったが、3つ以上のゲーム装置1が位置検出を行う場合も同様の手順で処理を行うことができる。例えば3つのゲーム装置1が無線通信を行って赤外光源6を発光させる順番及び発光タイミング等を決定し、決定した順番及び発光タイミング等に従って各ゲーム装置1が赤外光源6を発光させる。赤外光源6を発光させない残りの2つのゲーム装置1は、リニアイメージセンサ5による受光を行い、赤外光源6を発光させるゲーム装置1の位置、距離及び向き等を判定する。なおこのときに、赤外光源6を発光させない2つのゲーム装置1の間で、リニアイメージセンサ5による検出結果を無線通信により交換してもよい。複数のゲーム装置1間で検出結果を共有することにより、赤外光源6を発光させるゲーム装置1の位置、距離及び向き等をより精度よく判定することが可能となる。
図16は、ゲーム装置1が行う他装置検出処理の手順を示すフローチャートである。ゲーム装置1の処理部10の他装置検出部25は、無線通信部14にて他のゲーム装置1との通信を行い、赤外光源6の発光順序及び発光タイミング等を決定する発光順序決定処理を行う(ステップS71)。発光順序決定処理を終えた後、他装置検出部25は、自装置が赤外光源6を発光する順番であるか否かを判定する(ステップS72)。自装置が発光する順番である場合(S72:YES)、他装置検出部25は、ステップS71にて決定された発光タイミングで、4つの赤外光源6を順番にそれぞれ所定時間に亘って発光させ(ステップS73)、ステップS79へ処理を進める。
自装置が赤外光源6を発光する順番でない場合(S72:NO)、他装置検出部25は、リニアイメージセンサ5による撮像を行って画像を取得する(ステップS74)。取得した画像に基づき、他装置検出部25は、いずれのリニアイメージセンサ5にて他のゲーム装置1からの赤外光を受光したかを判定することにより、他のゲーム装置1の位置を判定する(ステップS75)。他装置検出部25は、取得した画像の画素値に基づき、他のゲーム装置1までの距離を判定する(ステップS76)。また他装置検出部25は、取得した画像における画素値の分布に基づき、他のゲーム装置1の傾きを判定する(ステップS77)。他装置検出部25は、ステップS75〜S77の判定結果を無線通信部14により他のゲーム装置1へ送信し(ステップS78)、ステップS79へ処理を進める。
ステップS73又はS78の処理を終えた後、他装置検出部25は、自装置の赤外光源6の発光、及び、リニアイメージセンサ5による他のゲーム装置1からの赤外光の受光を共に終了したか否かを判定する(ステップS79)。発光及び受光を共に終了していない場合(S79:NO)、他装置検出部25は、ステップS72へ処理を戻す。発光及び受光を共に終了している場合(S79:YES)、他装置検出部25は、処理を終了する。
このようにゲーム装置1は、赤外光源6及びリニアイメージセンサ5を利用して他のゲーム装置1と強調動作することにより、他のゲーム装置1の位置を検出することができると共に、他のゲーム装置1に自らの位置を検出させることができる。これにより、例えば複数のゲーム装置1が表示部3に共通の画像をそれぞれ部分的に表示し、複数のゲーム装置1で1つの画像表示を行う機能、いわゆるマルチディスプレイ機能などを容易に実現することができる。また例えば、複数のユーザがそれぞれゲーム装置1を利用し、無線通信などを介して対戦又は協力等のゲームを行う場合に、各ゲーム装置1の位置をゲーム内容に反映させることができる。例えば各ゲーム装置1にて操作されるキャラクタの位置と、各ゲーム装置1の実際の位置とを対応付けるなどの処理を行うことができる。なおゲーム装置1による他のゲーム装置1の位置検出結果は、上記の処理に限らず、種々の情報処理に利用することが可能である。
なお本実施の形態においては、複数のゲーム装置1が机上などに載置された状態で位置検出を行うものとしたが、これに限るものではない。赤外光源6による赤外光の出射範囲及びリニアイメージセンサ5の受光範囲等を適宜に設定することによって、同一平面上に載置されていない複数のゲーム装置1の位置検出を行うことも可能である。
<まとめ>
本実施の形態に係るゲーム装置1は、筐体2の側面にリニアイメージセンサ5を設けることにより、以下のような機能を実現することができる。
・空間ポインタ機能
・追加インタフェース機能
・側面タッチ操作
・フィギュア検出機能
・追加操作装置
・使用態様判定機能
・脈拍検出機能
・他装置検出機能
これらの機能を備えることにより、本実施の形態に係るゲーム装置1は、従来のゲーム装置にはない操作性を獲得することができる。なお本実施の形態においては、ゲーム装置1が上記の複数の機能をすべて備える構成としたが、これに限るものではなく、上記の機能のうちのいくつかを備える構成であってよい。また筐体2の4つの側面全てにリニアイメージセンサ5を設ける構成としたが、これに限るものではなく、実現する機能に応じてリニアイメージセンサ5の搭載数を適宜に増減してよい。また例えばゲーム装置1の筐体が、ノートパソコンなどのように第1筐体及び第2筐体がヒンジ機構などにて接続されて折り畳むことが可能な構成である場合、リニアイメージセンサ5を第1筐体又は第2筐体のいずれに設けてもよく、両方に設けてもよい。またゲーム装置が据置型のものである場合、ゲーム装置の本体ではなく、有線又は無線で接続されたコントローラなどにリニアイメージセンサ5を設けてもよい。また例えばゲーム装置1の筐体2の角部分にリニアイメージセンサ5を外側へ向けて設けてもよく、また例えば筐体2の複数の側面に跨って1つのリニアイメージセンサ5を設けてもよい。
またゲーム装置1はリニアイメージセンサ5を用いて上記の機能を実現する構成としたが、これに限るものではない。リニアイメージセンサ5に代えて、例えばフォトダイオードなどの受光素子を筐体2の側面に線状に複数並べて設ける構成としてもよく、また例えば広角撮像が可能なカメラ又はイメージセンサを筐体2の側面に設ける構成としてもよい。またリニアイメージセンサ5は赤外光を受光するものとしたが、これに限るものではなく、脈拍検出機能を用いない場合には、可視光など赤外光以外を受光する構成であってもよい。
また本実施の形態においては、ゲーム装置1を例に説明を行ったが、これに限るものではない。例えば汎用のコンピュータ、タブレット型端末装置、スマートフォン又は携帯電話機等の種々の情報処理装置に同様の技術を適用可能である。またゲームプログラム91をゲーム装置1の処理部10が実行することによって、操作検出部21〜他装置検出部25がソフトウェア的な機能ブロックとして設けられる構成としたが、これに限るものではない。操作検出部21〜他装置検出部25の一部の機能が、例えばOS(Operating System)の機能として提供されるものであってもよく、ハードウェア的な機能ブロックとして設けられる構成であってもよい。
1 ゲーム装置
2 筐体
3 表示部
4 操作部
5 リニアイメージセンサ(受光部)
6 赤外光源(発光部)
9 記録媒体
10 処理部(情報処理部)
11 タッチパネル(接触操作検知部)
12 記憶部
13 記録媒体装着部
14 無線通信部(通信部)
21 操作検出部(検出部、識別情報取得部、判定部)
22 フィギュア検出部(識別情報取得部、判定部)
23 使用態様判定部(判定部)
24 脈拍検出部
25 他装置検出部(検出部、発光制御部)
51 操作受付領域
52 追加インタフェースシート(操作指標)
60 フィギュア
61 台座部
62 キャラクタ部
65 回転ダイヤル
91 ゲームプログラム

Claims (29)

  1. 少なくとも1つの面に表示部が設けられた筐体と、
    前記表示部が設けられた面を正面視した場合の側部又は角部に、前記筐体の外側へ向けて設けられたリニアイメージセンサと、
    前記リニアイメージセンサが取得した画像に基づく情報処理を行う情報処理部と
    を備える、情報処理装置。
  2. 前記リニアイメージセンサは、前記表示部が設けられた面に沿う方向へ向けて設けられている、請求項1に記載の情報処理装置。
  3. 前記筐体の少なくとも2つの側部に前記リニアイメージセンサがそれぞれ設けられている、請求項1又は請求項2に記載の情報処理装置。
  4. 前記筐体は板状であり、
    前記表示部が設けられた面の四方の側部にそれぞれ前記リニアイメージセンサが設けられている、請求項1乃至請求項3のいずれか1つに記載の情報処理装置。
  5. 前記リニアイメージセンサは、パンフォーカスでの撮像により画像を取得する、請求項1乃至請求項4のいずれか1つに記載の情報処理装置。
  6. 前記リニアイメージセンサが取得した画像に基づき、前記筐体の外側に存在する物体の位置を検出する検出部を備え、
    前記情報処理部は、前記検出部が検出した位置に応じて情報処理を行う、請求項1乃至請求項5のいずれか1つに記載の情報処理装置。
  7. 前記リニアイメージセンサが取得した画像に基づき、前記筐体の外側で行われたユーザの操作を検出する検出部を備え、
    前記情報処理部は、前記検出部が検出した操作に応じて情報処理を行う、請求項1乃至請求項5のいずれか1つに記載の情報処理装置。
  8. 前記検出部は、前記筐体の外側に配置された操作指標に対する操作を検出する、請求項7に記載の情報処理装置。
  9. 前記リニアイメージセンサが取得した画像に基づき、前記筐体の外側に存在する物体に記された識別情報を取得する識別情報取得部を備え、
    前記情報処理部は、前記識別情報取得部が取得した識別情報に基づく情報処理を行う、請求項1乃至請求項8のいずれか1つに記載の情報処理装置。
  10. 前記識別情報取得部が取得した識別情報に基づいて前記物体の向きを判定する判定部を備え、
    前記情報処理部は、前記判定部が判定した向きに基づく情報処理を行う、請求項9に記載の情報処理装置。
  11. 前記リニアイメージセンサが時系列的に取得した複数の画像に基づいて前記識別情報取得部が時系列的に取得した複数の識別情報に基づき、前記物体の変位を検出する検出部を備え、
    前記情報処理部は、前記検出部が検出した変位に基づく情報処理を行う、請求項9又は請求項10に記載の情報処理装置。
  12. 前記物体は、ゲームに係るキャラクタを模した形状又は該キャラクタが描かれた部分を有し、
    前記情報処理装置は、前記識別情報取得部が取得した識別情報に対応するキャラクタに係るゲームの処理を行う、請求項9乃至請求項11のいずれか1つに記載の情報処理装置。
  13. 前記筐体は手持ち型又は可搬型であり、
    前記リニアイメージセンサが取得した画像に基づき、ユーザによる前記筐体の持ち位置を判定する判定部を備え、
    前記情報処理部は、前記判定部が判定した持ち位置に基づく情報処理を行う、請求項1乃至請求項12のいずれか1つに記載の情報処理装置。
  14. 前記筐体は手持ち型又は可搬型であり、
    前記リニアイメージセンサが取得した画像に基づき、ユーザが把持した場合の前記筐体の姿勢を判定する判定部を備え、
    前記情報処理部は、前記判定部が判定した姿勢に基づく情報処理を行う、請求項1乃至請求項12のいずれか1つに記載の情報処理装置。
  15. 前記筐体内に設けられた加速度センサを備え、
    前記判定部は、前記リニアイメージセンサが取得した画像及び前記加速度センサが検知した加速度に基づいて判定を行う、請求項14に記載の情報処理装置。
  16. 前記情報処理部は、前記判定部の判定結果に応じて、前記表示部に表示する画像の向きを切り替える処理を行う、請求項13乃至請求項15のいずれか1つに記載の情報処理装置。
  17. 前記リニアイメージセンサが取得した画像に基づき、前記リニアイメージセンサに対する近接又は接触の操作を検出する検出部を備え、
    前記情報処理部は、前記検出部が検出した操作に応じて情報処理を行う、請求項1乃至請求項16のいずれか1つに記載の情報処理装置。
  18. 前記筐体の外側へ向けて赤外光を発する発光部を有し、
    前記リニアイメージセンサは、前記発光部が発した赤外光又は該赤外光の反射光に応じた画像を取得する、請求項1乃至請求項17のいずれか1つに記載の情報処理装置。
  19. 前記リニアイメージセンサが取得した前記反射光に応じた画像に基づき、ユーザの脈拍を検出する脈拍検出部を備え、
    前記情報処理部は、前記脈拍検出部が検出した脈拍に基づく情報処理を行う、請求項18に記載の情報処理装置。
  20. 前記情報処理部は、前記脈拍検出部が検出した脈拍に基づいてゲームに係る情報処理を行う、請求項19に記載の情報処理装置。
  21. 他の情報処理装置の発光部が発した赤外光に応じて前記リニアイメージセンサが取得した画像に基づき、前記他の情報処理装置の位置を検出する検出部を備え、
    前記情報処理部は、前記検出部が検出した位置に基づく情報処理を行う、請求項18乃至請求項20のいずれか1つに記載の情報処理装置。
  22. 前記他の情報処理装置との間で無線通信を行う通信部と、
    前記通信部により前記他の情報処理装置との通信を行い、前記発光部が赤外光を発するタイミングを制御する発光制御部と
    を備え、
    前記検出部は、前記他の情報処理装置が赤外光を発するタイミングに応じて前記リニアイメージセンサが取得した画像に基づいて検出を行う、請求項21に記載の情報処理装置。
  23. 前記表示部に対する接触操作を検知する接触操作検知部を備え、
    前記情報処理部は、前記リニアイメージセンサが取得した画像及び前記接触操作検知部が検知した接触操作の少なくともいずれかに基づく情報処理を行う、請求項1乃至請求項22に記載の情報処理装置。
  24. 少なくとも1つの面に表示部が設けられ、ユーザが把持可能な形状をなす筐体と、
    前記筐体の側部に設けられ、前記側部に対する近接又は接触の操作を検出する検出部と、
    前記検出部が検出した操作に応じて情報処理を行う情報処理部と
    を備える、情報処理装置。
  25. 前記検出部は、ユーザにより前記筐体が把持された場合の前記側部に対する近接又は接触の操作を検出する、請求項24に記載の情報処理装置。
  26. 前記側面に設けられたイメージセンサを備え、
    前記検出部は、前記イメージセンサが取得した画像に基づいて操作を検出する、請求項24又は請求項25に記載の情報処理装置。
  27. 少なくとも1つの面に表示部が設けられた筐体と、
    前記筐体の外側へ向けて光を発する発光部と、
    前記筐体の側部に設けられた受光部と、
    他の情報処理装置の発光部が発した光を前記受光部にて受光することにより、前記他の情報処理装置の位置を検出する検出部と、
    前記検出部が検出した位置に基づく情報処理を行う情報処理部と
    を備える、情報処理装置。
  28. 少なくとも1つの面に表示部が設けられた筐体と、
    前記表示部が設けられた面を正面視した場合の側部又は角部に、前記筐体の外側へ向けて設けられたリニアイメージセンサと、
    前記リニアイメージセンサが取得した画像に基づく情報処理を行う情報処理部と
    を備える、情報処理システム。
  29. 少なくとも1つの面に表示部が設けられた筐体を備える情報処理装置に対して、リニアイメージセンサを前記表示部が設けられた面を正面視した場合の側部又は角部に、前記筐体の外側へ向けて設け、
    前記リニアイメージセンサが取得した画像に基づいて情報処理を行う、情報処理方法。
JP2014046504A 2014-03-10 2014-03-10 情報処理装置 Active JP6355081B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014046504A JP6355081B2 (ja) 2014-03-10 2014-03-10 情報処理装置
US14/631,167 US20150253932A1 (en) 2014-03-10 2015-02-25 Information processing apparatus, information processing system and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014046504A JP6355081B2 (ja) 2014-03-10 2014-03-10 情報処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018088855A Division JP2018156671A (ja) 2018-05-02 2018-05-02 情報処理システム及びゲームシステム

Publications (2)

Publication Number Publication Date
JP2015170278A true JP2015170278A (ja) 2015-09-28
JP6355081B2 JP6355081B2 (ja) 2018-07-11

Family

ID=54017372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014046504A Active JP6355081B2 (ja) 2014-03-10 2014-03-10 情報処理装置

Country Status (2)

Country Link
US (1) US20150253932A1 (ja)
JP (1) JP6355081B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019054838A (ja) * 2017-09-19 2019-04-11 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9733790B2 (en) * 2014-10-30 2017-08-15 Disney Enterprises, Inc. Haptic interface for population of a three-dimensional virtual environment
DE102016100949B4 (de) * 2016-01-20 2020-03-26 Vorwerk & Co. Interholding Gmbh Elektrisches Haushaltsgerät und Verfahren zu dessen Steuerung
FR3071624B1 (fr) * 2017-09-22 2019-10-11 Thales Systeme d'affichage, procede d'affichage et programme d'ordinateur associes

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002323954A (ja) * 2001-04-24 2002-11-08 Ricoh Co Ltd 筆記入力装置及び筆記入力システム
JP2006222622A (ja) * 2005-02-09 2006-08-24 Ntt Comware Corp 入力制御システムおよび制御装置、制御プログラム
JP2008090559A (ja) * 2006-09-29 2008-04-17 Tokyo Institute Of Technology データ入力装置、情報処理システム、およびプログラム
JP2008117083A (ja) * 2006-11-01 2008-05-22 Sharp Corp 座標指示装置、電子機器、座標指示方法、座標指示プログラム、及び座標指示プログラムを記録した記録媒体
US20080198138A1 (en) * 2007-02-20 2008-08-21 Microsoft Corporation Identification of devices on touch-sensitive surface
JP2009186196A (ja) * 2008-02-03 2009-08-20 Cohsei Denshi Co Ltd 測距装置
US20110102334A1 (en) * 2009-11-04 2011-05-05 Nokia Corporation Method and apparatus for determining adjusted position for touch input
US20110291991A1 (en) * 2010-06-01 2011-12-01 Hung-Yu Lin Portable optical touch system
JP2012505615A (ja) * 2008-10-10 2012-03-01 ジェスチャー テック,インコーポレイテッド シングルカメラトラッキング装置
JP2013022000A (ja) * 2011-07-25 2013-02-04 Ishikawa Prefectural Public Univ Corp ゼニゴケ目生物細胞において外来遺伝子を安定に高発現させるdna断片及びその利用
US20140068494A1 (en) * 2012-09-04 2014-03-06 Google Inc. Information navigation on electronic devices

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6315669B1 (en) * 1998-05-27 2001-11-13 Nintendo Co., Ltd. Portable color display game machine and storage medium for the same
US7724705B2 (en) * 2003-03-14 2010-05-25 Nokia Corporation Wireless transfer of data
US8145382B2 (en) * 2005-06-17 2012-03-27 Greycell, Llc Entertainment system including a vehicle
US8257177B1 (en) * 2005-10-04 2012-09-04 PICO Mobile Networks, Inc Proximity based games for mobile communication devices
US9604146B2 (en) * 2006-01-06 2017-03-28 International Business Machines Corporation Apparatus and method to play a multiplayer, online game
US7817991B2 (en) * 2006-02-14 2010-10-19 Microsoft Corporation Dynamic interconnection of mobile devices
US7755026B2 (en) * 2006-05-04 2010-07-13 CandleDragon Inc. Generating signals representative of sensed light that is associated with writing being done by a user
US20080018591A1 (en) * 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
US8391786B2 (en) * 2007-01-25 2013-03-05 Stephen Hodges Motion triggered data transfer
US8200795B2 (en) * 2008-06-05 2012-06-12 Sony Computer Entertainment Inc. Mobile phone game interface
US8624836B1 (en) * 2008-10-24 2014-01-07 Google Inc. Gesture-based small device input
US8368658B2 (en) * 2008-12-02 2013-02-05 At&T Mobility Ii Llc Automatic soft key adaptation with left-right hand edge sensing
US20100174599A1 (en) * 2009-01-05 2010-07-08 Apple Inc. System and method for providing content associated with a product or service
US8391719B2 (en) * 2009-05-22 2013-03-05 Motorola Mobility Llc Method and system for conducting communication between mobile devices
US8762715B2 (en) * 2009-11-24 2014-06-24 Sony Corporation Event triggered pairing of wireless communication devices based on time measurements
KR20110071349A (ko) * 2009-12-21 2011-06-29 삼성전자주식회사 휴대단말의 외부 출력 제어 방법 및 장치
US9586147B2 (en) * 2010-06-23 2017-03-07 Microsoft Technology Licensing, Llc Coordinating device interaction to enhance user experience
US9159165B2 (en) * 2010-07-13 2015-10-13 Sony Computer Entertainment Inc. Position-dependent gaming, 3-D controller, and handheld as a remote
US20120062468A1 (en) * 2010-09-10 2012-03-15 Yu-Jen Chen Method of modifying an interface of a handheld device and related multimedia system
US9152306B2 (en) * 2011-03-29 2015-10-06 Intel Corporation Techniques for touch and non-touch user interaction input
US10061387B2 (en) * 2011-03-31 2018-08-28 Nokia Technologies Oy Method and apparatus for providing user interfaces
KR101423536B1 (ko) * 2011-06-14 2014-08-01 한국전자통신연구원 인쇄매체 기반 혼합현실 구현 장치 및 방법
JP6068248B2 (ja) * 2013-04-24 2017-01-25 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002323954A (ja) * 2001-04-24 2002-11-08 Ricoh Co Ltd 筆記入力装置及び筆記入力システム
JP2006222622A (ja) * 2005-02-09 2006-08-24 Ntt Comware Corp 入力制御システムおよび制御装置、制御プログラム
JP2008090559A (ja) * 2006-09-29 2008-04-17 Tokyo Institute Of Technology データ入力装置、情報処理システム、およびプログラム
JP2008117083A (ja) * 2006-11-01 2008-05-22 Sharp Corp 座標指示装置、電子機器、座標指示方法、座標指示プログラム、及び座標指示プログラムを記録した記録媒体
US20080198138A1 (en) * 2007-02-20 2008-08-21 Microsoft Corporation Identification of devices on touch-sensitive surface
JP2009186196A (ja) * 2008-02-03 2009-08-20 Cohsei Denshi Co Ltd 測距装置
JP2012505615A (ja) * 2008-10-10 2012-03-01 ジェスチャー テック,インコーポレイテッド シングルカメラトラッキング装置
US20110102334A1 (en) * 2009-11-04 2011-05-05 Nokia Corporation Method and apparatus for determining adjusted position for touch input
US20110291991A1 (en) * 2010-06-01 2011-12-01 Hung-Yu Lin Portable optical touch system
JP2013022000A (ja) * 2011-07-25 2013-02-04 Ishikawa Prefectural Public Univ Corp ゼニゴケ目生物細胞において外来遺伝子を安定に高発現させるdna断片及びその利用
US20140068494A1 (en) * 2012-09-04 2014-03-06 Google Inc. Information navigation on electronic devices

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019054838A (ja) * 2017-09-19 2019-04-11 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム

Also Published As

Publication number Publication date
JP6355081B2 (ja) 2018-07-11
US20150253932A1 (en) 2015-09-10

Similar Documents

Publication Publication Date Title
US9600078B2 (en) Method and system enabling natural user interface gestures with an electronic system
US9134800B2 (en) Gesture input device and gesture input method
CN104272218B (zh) 基于联合数据的虚拟手
JP5739671B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
JP5271121B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP6171016B2 (ja) 磁場センサを用いて使用者入力を判断する電気装置
KR101533320B1 (ko) 포인터가 불필요한 3차원 객체 정보 획득 장치
CN102265242A (zh) 在移动设备上使用运动处理来控制和访问内容
JP2000298544A (ja) 入出力装置と入出力方法
JP6355081B2 (ja) 情報処理装置
JP6514376B1 (ja) ゲームプログラム、方法、及び情報処理装置
JP6727081B2 (ja) 情報処理システム、拡張入力装置、および情報処理方法
JP2015202341A (ja) リハビリテーション支援システム
US11030980B2 (en) Information processing apparatus, information processing system, control method, and program
TWI582676B (zh) 物件指示符顯示技術
JP5735861B2 (ja) 画像表示プログラム、画像表示装置、画像表示方法、画像表示システム、マーカ
WO2019033322A1 (zh) 手持式控制器、跟踪定位方法以及系统
US11886643B2 (en) Information processing apparatus and information processing method
US20220253808A1 (en) Virtual environment
JP2018156671A (ja) 情報処理システム及びゲームシステム
CN107077196A (zh) 识别触敏表面上的对象
JP2013226257A (ja) 情報提供システム、情報提供方法、および電子機器
US11054941B2 (en) Information processing system, information processing method, and program for correcting operation direction and operation amount
KR101759631B1 (ko) 카드 게임을 위한 사용자 인터페이스를 제공하는 방법, 서버 및 컴퓨터 판독 가능한 기록 매체
Kumar et al. Watch360: A Device to Enable and Detect Tilt, Translation and Rotation of a Watch Bezel

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180604

R150 Certificate of patent or registration of utility model

Ref document number: 6355081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250