JP6327669B2 - 付属機器、情報処理システム、情報処理装置、情報処理プログラム、操作判別方法、および、処理実行方法 - Google Patents

付属機器、情報処理システム、情報処理装置、情報処理プログラム、操作判別方法、および、処理実行方法 Download PDF

Info

Publication number
JP6327669B2
JP6327669B2 JP2015024052A JP2015024052A JP6327669B2 JP 6327669 B2 JP6327669 B2 JP 6327669B2 JP 2015024052 A JP2015024052 A JP 2015024052A JP 2015024052 A JP2015024052 A JP 2015024052A JP 6327669 B2 JP6327669 B2 JP 6327669B2
Authority
JP
Japan
Prior art keywords
information processing
housing
unit
marker
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015024052A
Other languages
English (en)
Other versions
JP2016148903A5 (ja
JP2016148903A (ja
Inventor
井上 文彦
文彦 井上
伸一 絹脇
伸一 絹脇
嘉隆 田邨
嘉隆 田邨
嘉泰 小笠原
嘉泰 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2015024052A priority Critical patent/JP6327669B2/ja
Priority to EP19195285.2A priority patent/EP3614655A1/en
Priority to EP16152949.0A priority patent/EP3057297B1/en
Priority to US15/010,153 priority patent/US9996107B2/en
Publication of JP2016148903A publication Critical patent/JP2016148903A/ja
Publication of JP2016148903A5 publication Critical patent/JP2016148903A5/ja
Priority to US15/959,311 priority patent/US10416708B2/en
Application granted granted Critical
Publication of JP6327669B2 publication Critical patent/JP6327669B2/ja
Priority to US16/531,269 priority patent/US10514723B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1601Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
    • G06F1/1607Arrangements to support accessories mechanically attached to the display housing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0227Cooperation and interconnection of the input arrangement with other functional units of a computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/23Construction or mounting of dials or of equivalent devices; Means for facilitating the use thereof

Description

本発明は、情報処理装置と当該情報処理装置に装着可能な付属機器とを含む情報処理システム、ならびに、当該情報処理システムにおける付属機器、情報処理装置、情報処理プログラム、操作判別方法、および、処理実行方法に関する。
従来、携帯装置に接続されることによって携帯装置に機能を付加する付属機器がある。例えば、特許文献1には、ゲーム装置のコントローラに設けられたコネクタに、付属機器として他のコントローラを接続する技術が開示されている。これによれば、2つのコントローラを用いることによってより多様なゲーム操作が可能となる。
特開2010−017387号公報
従来、付属機器は、携帯装置と通信を行うための回路構成や、携帯装置へ送信する情報を生成する情報処理のための回路構成を有するので、付属機器の構成を簡易にすることについて改善の余地があった。
それ故、本発明では、付属機器を簡易な構成にすることができる付属機器、情報処理装置、情報処理システム、情報処理プログラム、操作判別方法、および、処理実行方法を提供することである。
上記の課題を解決すべく、本発明は、以下の(1)〜(16)の構成を採用した。
(1)
本発明の一例は、情報処理装置に装着可能な付属機器である。付属機器は、ハウジングと、操作部と、可動部とを備える。ハウジングは、少なくとも一部を介して外部から内部を視認可能である。操作部は、少なくともその一部がハウジングの外部に露出する可動式の操作部である。可動部は、ハウジングの一部を介してハウジング外部から視認可能であるハウジング内部の位置に配置され、操作部が操作されたことに応じて位置および/または姿勢を変化させる。
(2)
ハウジングは、一部が開口するように形成されてもよい。可動部は、ハウジングの開口部分を介してハウジング外部から視認可能であるハウジング内部の位置に配置されてもよい。
(3)
可動部は、ハウジングの一部を介してハウジング外部から視認可能である部分において、他と区別可能な識別部を有していてもよい。
(4)
可動部は、ハウジングの一部を介してハウジング外部から視認可能である部分の少なくとも一部が、赤外線カメラが識別可能な部材で構成されてもよい。
(5)
付属機器は、付属機器に装着された情報処理装置によってハウジングの一部が覆われるように、ハウジングを情報処理装置と接続する接続部をさらに備えていてもよい。
(6)
可動部は、操作部が操作されたことに応じて、ハウジングの一部を介してハウジング内部を見たときの上下方向、左右方向、および、前後方向のうち少なくとも一方向に移動してもよい。
(7)
操作部と可動部とは一体的に構成されてもよい。
(8)
ハウジングの内側には、ハウジングの一部を介してハウジング外部から視認可能であるハウジング内部の位置であって、可動部とは異なる位置に、所定のマーカが設けられてもよい。
(9)
操作部は、互いに独立して操作可能な第1操作部材と第2操作部材とを含んでいてもよい。第1操作部材および第2操作部材は、ハウジングの一部を介してハウジング内部を見たときの前後方向に並んで配置されてもよい。可動部は、第1操作部材が操作されたことに応じて位置および/または姿勢を変化させる第1可動部材と、第2操作部材が操作されたことに応じて位置および/または姿勢を変化させる第2可動部材とを含んでもよい。第1可動部材は、ハウジングの一部を介してハウジング内部を見たときに第2可動部材からずれた位置に配置されてもよい。
(10)
操作部は、回転可能に構成されてもよい。可動部は、操作部の回転に応じて回転し、ハウジングの一部を介してハウジング内部を見たときに、その形状および/または模様が回転に応じて変化してもよい。
(11)
本発明の他の一例は、撮像手段を備える情報処理装置と、当該情報処理装置に装着可能な付属機器とを含む情報処理システムである。
付属機器は、ハウジングと、操作部と、可動部とを備える。ハウジングは、少なくとも一部を介して外部から内部を視認可能である。操作部は、少なくともその一部がハウジングの外部に露出する可動式の操作部である。可動部は、ハウジングの一部を介してハウジング外部から視認可能であるハウジング内部の位置に配置され、操作部が操作されたことに応じて位置および/または姿勢を変化させる。付属機器は、撮像手段がハウジングの一部から当該ハウジングの内部を撮像可能となる位置で情報処理装置に装着される。
情報処理装置は、操作判別手段と、処理実行手段とを備える。操作判別手段は、撮像手段によって撮像される、可動部の画像を含む撮像画像に基づいて、操作部に対する操作を判別する。処理実行手段は、操作判別手段によって判別された操作に基づいて所定の処理を実行する。
(12)
操作判別手段は、撮像画像に基づいて、操作部が操作されたか否かを判定してもよい。処理実行手段は、操作部が操作されたか否かに応じて所定の処理を実行してもよい。
(13)
操作判別手段は、撮像画像に基づいて、操作部に対する操作量を算出してもよい。処理実行手段は、操作量に基づいて所定の処理を実行してもよい。
(14)
ハウジングの内側には、ハウジングの一部を介してハウジング外部から視認可能であるハウジング内部の位置であって、可動部とは異なる位置に、所定のマーカが設けられてもよい。操作判別手段は、撮像画像内における所定のマーカを認識し、当該撮像画像における、当該マーカを基準とした可動部の画像の位置、向き、および、形状の少なくとも1つに基づいて、操作部に対する操作を判別してもよい。
(15)
本発明の他の一例は、撮像手段を備える情報処理装置と、当該情報処理装置に装着可能な付属機器とを含む情報処理システムである。
付属機器は、少なくとも一部を介して外部から内部を視認可能なハウジングを備える。ハウジングの内側には、ハウジングの一部を介してハウジング外部から視認可能であるハウジング内部の位置に、所定のマーカが設けられる。付属機器は、撮像手段がハウジングの一部からハウジングの内部を撮像可能となる位置で情報処理装置に装着可能である。
情報処理装置は、マーカ認識手段と、処理実行手段とを備える。マーカ認識手段は、撮像手段による撮像画像内における所定のマーカを認識する。処理実行手段は、マーカの認識結果に基づいて所定の処理を実行する。
(16)
処理実行手段は、認識されたマーカの種類に応じて異なる処理を実行してもよい。
なお、処理実行手段は、所定のマーカが認識された場合、付属機器を用いることが可能な所定のアプリケーションプログラムを起動してもよい。また、処理実行手段は、情報処理装置において、付属機器を用いることが可能な所定のアプリケーションが実行中である状態において、所定のマーカが認識されなくなった場合、当該アプリケーションプログラムの実行を停止するようにしてもよい。また、処理実行手段は、所定のマーカが認識された場合、付属機器を用いることが可能な所定のアプリケーションプログラムを、所定の外部装置にアクセスして取得する処理を実行してもよい。また、処理実行手段は、所定のマーカが認識された場合、外部装置にアクセスして所定のウェブページを取得し、情報処理装置が備える表示装置に当該ウェブページを表示する処理を実行してもよい。
また、マーカ認識手段は、撮像画像内において所定のマーカを認識することができたか否かを判定してもよい。処理実行手段は、所定のマーカを認識することができたと判定された場合、付属機器が情報処理装置に装着されたと判断してもよい。なお、処理実行手段は、所定のマーカを認識することができたと判定された場合、正当な付属機器が情報処理装置に装着されたと判断し、情報処理装置における所定の情報処理の実行を許可するようにしてもよい。
また、本発明の別の一例は、撮像手段を備え、上記付属機器を装着することが可能な可搬型の情報処理装置であってもよい。また、本発明の別の一例は、上記付属機器と上記情報処理装置とを含む情報処理システムであってもよい。さらに、本発明の別の一例は、上記情報処理システムにおいて実行される操作判別方法または処理実行方法であってもよい。
本発明によれば、簡易な構成の付属機器を提供することができる。
本実施形態における携帯機器の一例の正面図 携帯機器の一例の右側面図 携帯機器の一例の背面図 携帯機器の内部構成の一例を示すブロック図 携帯機器の使用状態の一例を示す図 操作機器の外観の一例を示す図 図6に示す操作機器の内部構成の一例を示す図 操作機器を携帯機器に装着する前後の様子の一例を示す図 携帯機器に操作機器が装着された構成の一例を示す図 操作ボタンおよび可動部の動きの一例を示す図 赤外線カメラによる撮像画像の一例を示す図 赤外線カメラによる撮像画像の他の一例を示す図 携帯機器によって実行される処理の流れの一例を示すフローチャート 携帯機器におけるアプリケーションプログラムによって実行される処理の流れの一例を示すフローチャート 操作機器が備える回転操作部の一例を示す図 操作機器が備える回転操作部の他の一例を示す図 回転可動部の側面の展開図の他の一例を示す図 本変形例における、赤外線カメラによる撮像画像の一例を示す図 本変形例において携帯機器によって実行される処理の流れの一例を示すフローチャート
以下、本発明の一実施形態に係る付属機器、情報処理システム、情報処理装置、情報処理プログラム、操作判別方法、および、処理実行方法について説明する。本実施形態における情報処理システムは、情報処理装置の一例である携帯機器と、付属機器の一例である操作機器とを含む(図8参照)。本実施形態においては、操作機器を携帯機器に装着することが可能であり、携帯機器に対する操作に操作機器を用いることができる。つまり、操作機器によって操作機能を携帯機器に付加することができる。
[1.携帯機器の構成]
まず、図1〜図5を参照して、携帯機器の構成の一例について説明する。図1は、本実施形態における携帯機器の一例の正面図である。図2は、携帯機器の一例の右側面図である。図3は、携帯機器の一例の背面図である。本実施形態において、携帯機器1は、ユーザが手で持って操作可能な携帯型(可搬型ということもできる)の情報処理装置である。携帯機器1は、例えば、携帯ゲーム機、携帯電話機、スマートフォン、タブレット端末、カメラ、ゲームコントローラ、マウス等の手持ち型の機器であってもよいし、腕時計型の端末等、ユーザが身に付けることが可能な端末であってもよい。
図1に示すように、携帯機器1は、ディスプレイ2と、タッチパネル3と、赤外線カメラ4と、測距センサ5と、入力ボタン6(6A〜6D)と、照射部7と、プロジェクタ8とを備え、これらはハウジング10に収納される。ハウジング10(携帯機器1)は、板状の形状であり、ユーザが片手又は両手で把持可能な大きさである。
ディスプレイ2としては、例えば、液晶表示装置や有機EL表示装置等が用いられ、その他、任意の表示装置が用いられてもよい。ディスプレイ2の画面は、ハウジング10の正面(T5面)に露出するように設けられる。タッチパネル3は、ディスプレイ2の画面上に設けられ、ユーザによってタッチされた画面上の位置を検出する。タッチパネル3としては、1点検出が可能なものや多点検出が可能なものが用いられ、例えば、静電容量方式、抵抗膜方式等、任意のものが用いられてもよい。
入力ボタン6A〜6Dは、ユーザによる入力(押下)を受け付ける。入力ボタン6A〜6Dは、ユーザが携帯機器1の両端を把持したときにユーザの指が届く位置に設けられる。具体的には、入力ボタン6Aおよび6Cは、ユーザが右手で携帯機器1を把持したときに右手の指が届く位置にあり、入力ボタン6Aは右手の親指が届く位置に、入力ボタン6Cは右手の人差し指又は中指が届く位置に設けられる。また、入力ボタン6Bおよび6Dは、ユーザが左手で携帯機器1を把持したときに左手の指が届く位置にあり、入力ボタン6Bは左手の親指が届く位置に、入力ボタン6Dは左手の人差し指又は中指が届く位置に設けられる。図1に示すように、入力ボタン6Aおよび6Bは、ハウジング10の正面(T5面)に設けられ、入力ボタン6Cおよび6Dは、ハウジング10の上面(T4面)に設けられる。なお、ユーザによる入力を受け付ける入力部としては、入力ボタン6A〜6Dの他に、方向入力のための十字キー、アナログスティック等が設けられてもよい。
赤外線カメラ4は、レンズと光(赤外線。具体的には近赤外線)に感光するセンサとを備える。赤外線カメラ4のセンサは、赤外線に感光する素子を縦横に複数並べたイメージセンサであり、当該イメージセンサの各素子が赤外線を受光して電気信号に変換することで2次元の赤外線画像を出力する。
測距センサ5は、測距センサ5に設けられた光源から射出された光(例えば、赤外光)が物体に反射し、当該反射光を受光素子で受光することで物体との間の距離を測定する。測距センサ5としては、三角測距方式、TOF(Time Of Flight)方式等任意のものが用いられてもよい。測距センサ5の光源としては、特定方向に赤外光を射出するLEDやレーザダイオード等が用いられる。
照射部7は、赤外線を所定の時間間隔(例えば、1/60秒間隔)で照射する。赤外線カメラ4が画像を撮像するタイミングと同期して、照射部7が赤外線を照射する。照射部7は、携帯機器1の右側面方向の所定の範囲に赤外線を照射する。照射部7によって照射された赤外線が物体によって反射され、当該反射された赤外線が赤外線カメラ4によって受光されることで、赤外線の画像が取得される。なお、照射部7は、赤外線カメラ4による赤外線画像の撮像のため、および、測距センサ5による距離の測定のために用いられてもよい。すなわち、照射部7からの赤外光を利用して、赤外線カメラ4によって画像が撮像されるとともに、測距センサ5によって距離が測定されてもよい。
また、プロジェクタ8は、可視光を射出する光源を有し、当該光源からの光を用いて文字や画像等を投影面(スクリーンや後述するようにユーザの手等)に投影する。
赤外線カメラ4、測距センサ5、照射部7、およびプロジェクタ8は、ハウジング10の側面(例えば右側面:T1面)に設けられる。具体的には、赤外線カメラ4の撮像方向(光軸)は、右側面に垂直な方向を向く。測距センサ5の検出方向、プロジェクタ8が光を照射する方向もまた同様に右側面に垂直な方向である。すなわち、赤外線カメラ4は、ユーザが左手で携帯機器1を把持した際に、携帯機器1の右側面方向の空間を撮像し、測距センサ5は、携帯機器1の右側面方向の空間に存在する物体までの距離を測定する。また、プロジェクタ8は、赤外線カメラ4および測距センサ5と同じ方向に可視光を照射することで画像等を投影する。
携帯機器1の背面(T6面)には、外側カメラ9が設けられる(図3)。外側カメラ9は、典型的には、赤外線カメラ4の撮像方向とは垂直な方向を撮像可能であり、背面と垂直な方向を撮像可能である。外側カメラ9は、レンズと可視光に感光するイメージセンサとを備える。外側カメラ9は、背面方向の空間を撮像し、カラー画像(RGB画像)を取得する。なお、背面の外側カメラ9に加えて正面にもカメラが設けられてもよいし、背面の外側カメラ9は設けられず、正面(ディスプレイ2の画面が設けられた面)にカメラが設けられてもよい。
図4は、携帯機器1の内部構成の一例を示すブロック図である。図4に示すように、携帯機器1は、上述した各部の他、バイブレータ11、マイク12、スピーカ13、制御部14、通信部15、姿勢検出部16、GPSレシーバ17、および地磁気センサ18を備える。また、携帯機器1は、図示しないバッテリーを備え、当該バッテリーから電源が供給される。これら各部はハウジング10内に収納される。
制御部14は、ディスプレイ2、タッチパネル3、赤外線カメラ4、測距センサ5、入力ボタン6、照射部7、プロジェクタ8、バイブレータ11、マイク12、スピーカ13、通信部15、姿勢検出部16、GPSレシーバ17、地磁気センサ18等、各部に接続され、各部を制御する。
具体的には、制御部14は、CPUやメモリ等を含み、携帯機器1に備えられた図示しない記憶装置(例えば、不揮発性メモリやハードディスク等)に記憶された所定のプログラム(例えば、ゲーム処理や画像処理、各種演算を行うためのアプリケーションプログラム)に基づいて所定の処理を行う。例えば、制御部14は、赤外線カメラ4からの画像を取得して当該画像を解析したり、測距センサ5からの信号に基づいて物体までの距離を算出したり、タッチパネル3や入力ボタン6からの入力信号に応じた処理を行う。そして、制御部14は、所定の処理の結果に基づく画像を生成し、ディスプレイ2に当該画像を出力する。なお、所定の処理を行うためのプログラムは、通信部15を介して外部からダウンロードされてもよい。
バイブレータ11は、制御部14からの命令に基づいて動作し、携帯機器1全体を振動させる。バイブレータ11は、ユーザの手に振動が伝わりやすい所定の位置(例えば、ハウジング10内の中央部や左右の何れかに偏った位置)に設けられる。
マイク12およびスピーカ13は、音声を入力/出力するために用いられる。通信部15は、所定の通信方式(例えば、無線LAN等)で他の機器と通信を行うために用いられる。また、姿勢検出部16は、例えば、加速度センサや角速度センサであり、携帯機器1の姿勢を検出する。
GPSレシーバ17は、GPS(Global Positioning System)衛星からの信号を受信し、当該信号を受信することで携帯機器1は自機の位置を計算することができる。例えば、携帯機器1は、特定の位置で所定の操作(例えば、後述する赤外線カメラ4を用いたジェスチャ入力やボタン入力、携帯機器1を振るなどの動作)が行われた場合に、当該特定の位置に対応付けられたオブジェクトを表示してもよい。例えば、携帯機器1においてゲームが行われる場合において、携帯機器1が特定の位置にある場合、当該特定の位置に対応したオブジェクトを当該ゲームに登場させてもよい。
また、地磁気センサ18は、磁気の方向および大きさを検出可能なセンサである。例えば、携帯機器1は、地磁気センサ18の検出結果に基づいて、特定の方位を向いているか否かを判定し、特定の方位で所定の操作(上記ジェスチャ入力等)が行われた場合に、オブジェクトを表示してもよい。例えば、携帯機器1においてゲームが行われる場合、特定の方位に対応したオブジェクトが当該ゲームに登場してもよい。また、携帯機器1は、GPSレシーバ17を用いたGPS情報と地磁気センサを用いた方位情報とを組み合わせてもよい。例えば、携帯機器1が、特定の位置にあり、かつ、特定の方位を向いている場合、当該特定の位置及び特定の方位に対応するオブジェクトを表示したり、当該オブジェクトをゲームに登場させてもよい。
図5は、携帯機器1の使用状態の一例を示す図である。図5に示すように、ユーザは、携帯機器1を一方の手で把持した状態で、他方の手を用いてジェスチャ入力を行うことができる。なお、ジェスチャ入力は、ユーザが操作する(動かす)操作対象物によって行われる任意の入力であってよい。操作対象物は、ユーザの体(手や顔等のように体の一部であってもよいし、体全体であってもよい)であってもよいし、ユーザが把持する物体であってもよいし、その両方であってもよい。携帯機器1は、操作対象物の形状をジェスチャ入力として認識してもよいし、操作対象物の動きをジェスチャ入力として認識してもよいし、形状と動きの組み合わせをジェスチャ入力として認識してもよい。例えば、ユーザは、手の形状、手の動き、(携帯機器1を基準とした)手の位置、手の向き(姿勢)等によってジェスチャ入力を行うことができる。
本実施形態においては、携帯機器1は、赤外線カメラ4で画像(赤外線画像)を撮像し、撮像画像に基づいてジェスチャ入力を判別する。具体的には、撮像画像が赤外線カメラ4から取得されると、携帯機器1は、取得された撮像画像に基づいて、対象物の形状、位置、および/または、向き(姿勢)を算出する。なお、携帯機器1は、繰り返し取得される複数の撮像画像に基づいて、対象物の動き(形状の変化や、移動方向や、移動速度等)を算出してもよい。携帯機器1は、これらの算出結果に基づいてジェスチャ入力を判別する。
[2.操作機器の構成]
次に、図6および図7を参照して、操作機器の構成の一例について説明する。図6は、操作機器の外観の一例を示す図である。本実施形態において、操作機器20は、携帯機器1に着脱可能であり、操作部(ボタン22A〜22D)を備える。すなわち、操作機器20は、携帯機器1に操作機能を付加する付属機器である。携帯機器1は、操作機器20に対して行われた操作を検出し、検出された操作に応じた処理を実行する。ここで、詳細は後述するが、上記操作は、赤外線カメラ4を用いて検出される。したがって、操作機器20は、上記操作を検出したり、検出結果を携帯機器1へ送信したりする電子回路等の電気的構成を必要としない。そのため、本実施形態によれば、操作機器20の構成を簡易化することができる。以下、詳細を説明する。
図6に示すように、操作機器20は、ハウジング21を備える。ハウジング21は、携帯機器1に対して着脱可能に装着される。すなわち、操作機器20は、ハウジング21(操作機器20)を携帯機器1と接続する接続部(図示しない)を有する。なお、接続部の構成は任意であり、従来から用いられている機構であってもよい。
接続部は、例えば、携帯機器1の所定部分(例えば、正面(T5面)の周に形成された凸部)に係止する爪部を有し、当該所定部分に爪部が引っかかることでハウジング21が携帯機器1に固定されてもよい。また例えば、接続部は、携帯機器1の一部を上下方向から挟むことでハウジング21を携帯機器1に対して固定する機構であってもよい。また、接続部は、磁力によって携帯機器1と接続するものであってもよく、例えば、携帯機器1が有する磁石と、接続部が有する磁石との間に働く引力によって操作機器20を携帯機器1と接続するものであってもよい。つまり、本明細書において、「装着」とは、2つの部材の位置関係がある程度固定されて接続されればよく、2つの部材が機構的に接続される態様に限らず、2つの部材が磁力によって接続される態様をも含む意味である。また、他の実施形態においては、携帯機器1と操作機器20とが接続部材を介して接続されてもよい。すなわち、携帯機器1と接続部材とが接続され、当該接続部材と操作機器20とが接続されることによって、携帯機器1と操作機器20との位置関係が固定されて接続されてもよい。
本実施形態において、ハウジング21(操作機器20)は、ある程度の力を加えても動かない程度に固定的に、携帯機器1に対して装着される。また、ハウジング21(操作機器20)は、より強い力が加えられた場合には携帯機器1から離脱される。
また、図6に示すように、ハウジング21には穴(開口部分)21aが形成される。したがって、操作機器20は、穴21aからハウジング21の内部(内側)が見える構成となっている。なお、ハウジング21は、ハウジング21の所定部分を介してハウジング21の外部から内部を視認可能な任意の構成でよい。例えば、他の実施形態においては、上記所定部分に穴21aが設けられる構成に代えて、上記所定部分が透明な部材で構成されてもよい。
ここで、本実施形態においては、ハウジング21の内側の壁面(図6では、面21cの内側の壁面)において、基準マーカ21dが設けられる。また、ハウジング21の内部において、後述する可動部23A〜23Dが設けられる(図7参照)。穴21aは、ハウジング21の外側から穴21aを介してハウジング21の内側を見た場合に、これらの可動部23A〜23Dおよび基準マーカ21dが視認可能となる位置に形成される。
なお、詳細は後述するが、基準マーカ21dは、可動部23A〜23Dの位置を算出するための基準として用いられる。基準マーカ21dは、ハウジング21の内側における、予め定められた位置に形成される。また、基準マーカ21dの形状は、予め定められているものとする。基準マーカ21dは、赤外線カメラ4がハウジング21の内部の壁面における他の部分(基準マーカ21d以外の部分)と区別することが可能な材質(色)で構成される。基準マーカ21dは、ハウジング21の内側面に生成される模様であってもよいし、ハウジング21の内側面に取り付けられた部材であってもよい。
また、操作機器20は、操作部の一例である操作ボタン22A〜22Dを備える。なお、以下において、各操作ボタン22A〜22Dを特に区別しない場合には、これらの操作ボタン22A〜22Dのいずれかを指す意味で「操作ボタン22」と記載することがある。操作ボタン22A〜22Dは、ハウジング21の所定面(図6ではボタン面21b)から露出するように設けられる。操作ボタン22A〜22Dは、ボタン面21bから突出して設けられ、ハウジング21の内側に向かって押下可能である。具体的には、操作ボタン22は、ハウジング21の内部において、図示しない付勢部材(例えばバネ等の弾性体)によって上方に付勢された状態でハウジング21に対して支持されている。操作ボタン22は、ユーザによって操作(押下)されたことに応じて下方に移動する。
図7は、図6に示す操作機器の内部構成の一例を示す図である。なお、図7においては、ハウジング21の内部における構成の一部のみを示している。図7に示すように、操作機器20は、ハウジング21の内部に設けられる可動部23A〜23Dを備える。なお、以下において、各可動部23A〜23Dを特に区別しない場合には、これらの可動部23A〜23Dのいずれかを指す意味で「可動部23」と記載することがある。
図7に示すように、各可動部23A〜23Dは、対応する操作ボタン22A〜22Dに接続されている。すなわち、可動部23Aは操作ボタン22Aに接続され、可動部23Bは操作ボタン22Bに接続され、可動部23Cは操作ボタン22Cに接続され、可動部23Dは操作ボタン22Dに接続される。可動部23は、それに接続される操作ボタン22が操作されたことに応じて(本変形例においては、下方に)移動する。本実施形態において、操作ボタンとそれに接続される可動部とは、一体的に構成されている。ただし、可動部は、操作ボタンの動きに応じて移動するように構成されればよく、他の実施形態においては、操作ボタンとそれに接続される可動部とは別体であってもよい。
本実施形態においては、可動部23の少なくとも一部(図7に示す斜線部分。以下、「認識部」と呼ぶ)は、赤外線カメラ4がハウジング21の内部の壁面における上記他の部分(基準マーカ21dの部分を除く)と区別することが可能な材質(色)で構成される。認識部は、例えば再帰性反射の特性を有する材質で構成されてもよい。これによれば、照射部7からの赤外光が赤外線カメラ4の方へより多く反射するので、赤外線カメラ4によって認識部をより認識しやすくなる。また、赤外線カメラ4から離れた位置の認識部でも認識しやすくなる。また、操作ボタン22の下側部分において可動部23が接続される。ここで、可動部23A〜23Cに関しては、上記認識部が、当該可動部23に対応する操作ボタン22の下方(真下)に配置される。一方、可動部23Dに関しては、上記認識部が、対応する操作ボタン22Dの真下からずれた位置に配置される(図7参照)。つまり、各可動部23A〜23Dの各認識部は、穴21aから見た場合に各認識部が見えるように、配置されている。
なお、ハウジング21の形状および大きさ、ならびに、操作ボタン22および可動部23の形状、大きさ、および数は、任意である。図6および図7に示したこれらの形状、大きさ、数は一例であり、他の実施形態においては、操作機器は、図6および図7に示した構成と異なる構成であってもよい。
[3.携帯機器に対する操作機器の装着]
次に、図8および図9を参照して、操作機器20を携帯機器1に装着する動作について説明する。本実施形態においては、携帯機器1の少なくとも側面(より具体的には、T1面)に操作機器20を装着可能である。
図8は、操作機器20を携帯機器1に装着する前後の様子の一例を示す図である。図8(b)に示すように、操作機器20は、穴21aが赤外線カメラ4(および照射部7)に対向する位置で、携帯機器1に装着される。したがって、操作機器20が携帯機器1に装着された状態では、赤外線カメラ4は、ハウジング21の内部を撮像可能である。また、上記状態では、照射部7は、ハウジング21の内部に赤外光を照射可能である。本実施形態においては、照射部7によって赤外光がハウジング21の内部に対して照射されるので、外光がハウジング21の内部に入らなくても赤外線カメラ4でハウジング21の内部を撮像することができる。なお、本実施形態においては、ハウジング21は、穴21a(あるいは、穴21aに代えて設けられる透明部材の部分)を除いて、光(少なくとも赤外光)を透過しない材質で構成される。
図8(b)に示すように、操作機器20が携帯機器1に装着された状態において、穴21aは、操作機器20によって覆われる。すなわち、上記接続部は、操作機器20に装着された携帯機器1によってハウジング21の穴21aが覆われるように、ハウジング21を携帯機器1と接続する。これによれば、赤外線カメラ4において外光が(ほとんど)検知されないので、外光による誤認識(基準マーカ21dおよび/または可動部23に関する誤認識)の可能性を低減することができる。つまり、赤外線カメラ4による撮像画像に基づいてハウジング21の内部をより正確に認識することができる。
図9は、携帯機器1に操作機器20が装着された構成の一例を示す図である。携帯機器1に操作機器20が装着された場合、ユーザは、携帯機器1の左側部分を左手で把持し、操作機器20を右手で把持してもよい。この場合、ユーザは、右手で操作機器20の各操作ボタン22A〜22Dを操作することができる。なお、操作機器20のボタン面21bが、携帯機器1の正面(T5面)と略同じ平面に位置するように(すなわち、z軸方向に関して略同じ位置となるように)、操作機器20が携帯機器1に装着されてもよい。この場合、ユーザは、z軸方向に関して両手を同じ位置にして携帯機器1および操作機器20に対する操作を行うことができるので、操作しやすくなる。
なお、他の実施形態においては、操作機器20は、穴21aが赤外線カメラ4および照射部7に対向しない位置では(すなわち、赤外線カメラ4がハウジング21の内部を撮像できない、および/または、照射部7がハウジング21の内部に光を照射できない位置では)携帯機器1に装着することができないように構成されてもよい。例えば、ハウジング21は、ハウジング21が適切な位置(穴21aが赤外線カメラ4および照射部7に対向する位置)に配置された場合に携帯機器1の凹部に嵌まる凸部を有していてもよい(ハウジング21の凸部と携帯機器1の凹部とが逆であってもよい)。これによれば、ハウジング21の凸部と携帯機器1の凹部とによって位置合わせを行うことができるので、適切な位置で操作機器20を携帯機器1に装着することができる。なお、他の実施形態においては、操作機器20は、携帯機器1の他の位置においても装着可能であってもよい。例えば、操作機器20は、穴21aが外側カメラ9に対向する位置で携帯機器1に装着可能な構成であってもよい。
[4.操作機器に対する操作の判別]
次に、図10〜図12を参照して、操作機器20に対して行われた操作を携帯機器1によって判別する動作について説明する。操作機器20が携帯機器1に装着された場合、赤外線カメラ4は穴21aからハウジング21の内部の可動部23A〜23Dを撮像する。ここで、可動部23は、対応する操作ボタン22が操作されたことに応じて移動する。したがって、撮像画像における可動部23の位置を算出することで、操作ボタン22が操作されたことを判別することができる。以下、操作を判別する方法の詳細を説明する。
図10は、操作ボタン22および可動部23の動きの一例を示す図である。図10は、赤外線カメラ4の撮像方向(すなわち、ハウジング21の外側から穴21aを介してハウジング21の内側を見る方向)を向いて、各操作ボタン22A〜22Dおよび可動部23A〜23Dを見た図である。本実施形態において、操作ボタン22Aが押下されると、可動部23Aは下方(z軸負方向)に移動する(図10に示す(1))。同様に、操作ボタン22Bが押下されると、可動部23Bは下方に移動し(図10に示す(2))、操作ボタン22Cが押下されると、可動部23Cは下方に移動し(図10に示す(3))、操作ボタン22Dが押下されると、可動部23Dは下方に移動する(図10に示す(4))。
なお、本実施形態においては、操作ボタン22Aと22Dは、撮像方向に見てほぼ同じ位置にある。そのため、撮像方向に見た場合、操作ボタン22D自体は、操作ボタン22Aに隠れてしまうため、ほぼ見えない。そこで、本実施形態においては、操作ボタン22Dに対応する可動部23Dは、他の可動部23A〜23Cとは(撮像方向から見て)ずれた位置に配置される。つまり、図10に示すように、撮像方向に見て可動部23A〜23Dが見える位置に配置される。これによって、操作ボタン22Dが押下されたことによる可動部23Dの移動を、撮像方向に見た場合に把握することができる。
図11は、赤外線カメラ4による撮像画像の一例を示す図である。図11に示す撮像画像は、各操作ボタン22A〜22Dが操作されていない状態(非操作状態)において取得される画像である。図11に示すように、撮像画像には、基準マーカ21dの画像(基準マーカ画像)30と、各可動部23A〜23Dの画像(可動部画像)31A〜31Dとが含まれる。このように、基準マーカ21dおよび各可動部23A〜23Dは、操作機器20が携帯機器1に装着された状態において赤外線カメラ4の撮像範囲に含まれる位置に配置される。このように、携帯機器1に操作機器20が接続された状態において、赤外線カメラ4は、ハウジング21の穴21aから、ハウジング21の内部の基準マーカ21dおよび各可動部23A〜23Dを撮像することが可能である。つまり、携帯機器1における赤外線カメラ4、ならびに、操作装置20におけるハウジング21の穴21a、基準マーカ21d、および、各可動部23A〜23Dは、上記の状態において赤外線カメラ4が基準マーカ21dおよび各可動部23A〜23Dを撮像可能な位置に配置される。
また、図12は、赤外線カメラ4による撮像画像の他の一例を示す図である。図12に示す撮像画像は、操作ボタン22Aが操作(押下)されている状態において取得される画像である。操作ボタン22Aが操作された場合、可動部23Aが下方に移動するので、図12に示すように、撮像画像においては、可動部画像31Aは非操作状態よりも下方に位置する。このように、操作ボタン22が操作された場合、対応する可動部画像31の位置が非操作状態に比べて変化する。したがって、撮像画像における可動部画像31の位置に基づいて、当該可動部画像31に対応する操作ボタン22が操作されたか否かを判定することができる。
具体的には、携帯機器1は、撮像画像から、基準マーカ画像30の位置を算出する。撮像画像において基準マーカ画像30を認識する方法はどのような方法であってもよい。例えば、携帯機器1は、撮像画像に対して、パターンマッチングを用いた画像認識処理を行うことによって、基準マーカ画像30を特定する。さらに、携帯機器1は、特定された基準マーカ画像30の位置(撮像画像上における位置)を算出する。本実施形態においては、算出された基準マーカ画像30の位置が基準位置として用いられる。
また、携帯機器1は、撮像画像から、各可動部画像31A〜31Dの位置を算出する。撮像画像において可動部画像を認識する方法はどのような方法であってもよい。携帯機器1は、例えばパターンマッチングを用いた画像認識処理を行うことによって、各可動部画像31A〜31Dを特定する。さらに、携帯機器1は、特定された各可動部画像31A〜31Dの位置(撮像画像上における位置)を算出する。
なお、本実施形態においては、各可動部画像31A〜31Dは同じ形状であるので、形状のみからでは可動部画像31A〜31Dを区別することが困難である。ただし、各可動部画像31A〜31Dの位置関係(すなわち、左から、可動部画像31C、可動部画像31A、可動部画像31B、可動部画像31Dの順に配置される関係)は予め定められており、既知である。また、各可動部画像31A〜31Dと基準マーカ画像30との位置関係は予め定められている。したがって、携帯機器1は、これらの位置関係のいずれかを用いることで、各可動部画像31A〜31Dのそれぞれを特定することができる。なお、他の実施形態においては、各可動部における認識部の形状を互いに異ならせるようにしてもよい。このとき、可動部画像の形状に基づいて、各可動部画像を区別して特定することができる。
携帯機器1は、算出された各可動部画像31A〜31Dの位置に基づいて、操作ボタン22A〜22Dが操作されたか否かを判定する。ここで、操作ボタン22が操作された場合、基準マーカ画像30から可動部画像(当該操作ボタン22に対応する可動部画像)までの距離は、非操作状態における当該距離よりも長くなる。つまり、各可動部画像31A〜31Dについて、基準位置からの距離が非操作状態における距離よりも長くなっているか否かを判定することによって、各操作ボタン22A〜22Dが操作(押下)されているか否かをそれぞれ判定することができる。
以上より、本実施形態においては、携帯機器1は、上記基準位置(基準マーカ21dの位置)から各可動部画像31A〜31Dまでの各距離が、所定距離以上であるか否かをそれぞれ判定する。ここで、上記所定距離は、可動部画像31A〜31D毎に設定され、非操作状態における基準位置から可動部画像までの距離よりも長い距離に設定される。基準位置から可動部画像までの距離が上記所定距離以上である場合、携帯機器1は、当該可動部画像に対応する操作ボタン22が操作されたと判定する。一方、基準位置から可動部画像までの距離が上記所定距離よりも短い場合、携帯機器1は、当該可動部画像に対応する操作ボタン22が操作されていないと判定する。
上記のように、本実施形態においては、操作ボタンが操作されたか否かの判定は、上記基準位置と可動部画像の位置との位置関係に基づいて行われた。ここで、上記判定の具体的な方法は任意であり、他の方法によって行われてもよい。例えば他の実施形態においては、上記判定は、(基準位置を用いずに)可動部画像の位置のみに基づいて行われてもよい。具体的には、携帯機器1は、非操作状態における可動部画像の位置を登録位置として予め記憶しておき、取得された撮像画像における可動部画像の位置が登録位置から所定距離以上離れているか否かによって上記判定を行うようにしてもよい。
なお、携帯機器1と、それに装着された操作機器20との位置関係は、必ずしも一定ではなく、装着される毎に、あるいは、装置毎に、ある程度異なる可能性がある。したがって、撮像画像上における可動部画像の位置は、非操作状態であっても常に一定にはならず、装着される毎に、あるいは、装置毎に異なる可能性がある。そのため、可動部画像の位置のみに基づいて上記判定を行う方法では、予め記憶しておく登録位置が正しくない結果、操作ボタンが操作されたか否かの判定を精度良く行うことができない可能性がある。これに対して、本実施形態のように、上記基準位置と可動部画像の位置との位置関係に基づいて上記判定を行う方法によれば、判定を精度良く行うことができる。
なお、他の実施形態においては、携帯機器1は、操作機器20が携帯機器1に装着される度に、上記登録位置を設定(記憶)し直すことによって、上記判定を精度良く行うようにしてもよい。例えば、操作機器20が携帯機器1に装着された場合、携帯機器1は、「ボタンを押さないで下さい」といったメッセージをユーザに対して提示するとともに、提示中における可動部画像の位置を登録位置として記憶するようにしてもよい。これによれば、より正確な登録位置を記憶することができる。
以上のように、本実施形態においては、携帯機器1は、赤外線カメラ4で撮像した画像に基づいて、可動部23が移動したことを判別することができ、操作ボタン22が操作されたか否かを判別することができる。
[5.携帯機器における処理]
次に、図13および図14を参照して、携帯機器1において実行される情報処理の例について説明する。図13は、携帯機器1によって実行される処理の流れの一例を示すフローチャートである。図13に示す一連の処理は、制御部14のCPUが、携帯機器1に記憶されている所定のプログラムを実行することによって行われる。本実施形態においては、上記所定のプログラムは、携帯機器1のOS(オペレーティングシステム)を実行するためのシステムプログラムである。ただし、他の実施形態においては、上記所定のプログラムは任意であり、例えばOS上で起動されるアプリケーションプログラムであってもよい。本実施形態において、図13に示す一連の処理は、携帯機器1の電源がオンである状態において繰り返し実行される。ただし、他の実施形態においては、制御部14は、携帯機器1のスリープ状態(例えば、ディスプレイ2がオフにされている状態)において、上記一連の処理を停止し、起動状態(例えば、ディスプレイ2がオンにされている状態)において、上記一連の処理を実行するようにしてもよい。また、制御部14は、上記一連の処理の実行中に赤外線カメラ4および照射部7を動作させ、上記一連の処理の実行停止中には赤外線カメラ4および照射部7の動作を停止させるようにしてもよい。
なお、本出願において、図面に示すフローチャートにおける各ステップの処理は、単なる一例に過ぎず、同様の結果が得られるのであれば、各ステップの処理順序を入れ替えてもよいし、各ステップの処理に加えて(または代えて)別の処理が実行されてもよい。また、本明細書では、上記フローチャートの各ステップの処理を携帯機器1のCPUが実行するものとして説明するが、上記フローチャートにおける一部のステップの処理を、CPU以外のプロセッサや専用回路が実行するようにしてもよい。また、携帯機器1において実行される処理の一部は、携帯機器1と通信可能な他の情報処理装置(例えば、携帯機器1とネットワークを介して通信可能なサーバ)によって実行されてもよい。すなわち、図13、図14、および図19に示す各処理は、携帯機器1を含む複数の情報処理装置が協働することによって実行されてもよい。
図13に示す一連の処理においては、まずステップS1において、制御部14は、赤外線カメラ4による撮像画像を赤外線カメラ4から取得する。すなわち、赤外線カメラ4は所定の時間間隔で画像を撮像するので、制御部14は、撮像画像を赤外線カメラ4から取得し、撮像画像のデータをメモリに記憶する。
ステップS2において、制御部14は、ステップS1で取得された撮像画像において基準マーカ21dが検出されたか否かを判定する。すなわち、制御部14は、上記“[4.操作機器に対する操作の検出]”で述べた方法で画像認識処理を実行する。画像認識処理によって基準マーカ画像30が特定された場合、制御部14は、基準マーカ21dが検出されたと判定する。一方、画像認識処理によって基準マーカ画像30が特定されなかった場合、制御部14は、基準マーカ21dが検出されなかったと判定する。ステップS2の判定結果が肯定である場合、ステップS3の処理が実行される。一方、ステップS2の判定結果が否定である場合、ステップS1の処理が再度実行される。この場合、ステップS2の処理において基準マーカ21dが検出されたと判定されるまで、ステップS1およびS2の一連の処理が繰り返し実行される。
ステップS3において、制御部14は、携帯機器1に記憶されている所定のアプリケーション(プログラム)を起動する。所定のアプリケーションは任意であり、例えば、ゲームアプリケーションであってもよい。なお、所定のアプリケーションにおいて実行される一連の処理については、図14を参照して後述する。所定のアプリケーションの実行が終了されると、制御部14はステップS3の処理を終了し、続いてステップS1の処理を再度実行する。
以上のように、本実施形態においては、上記ステップS1〜S3における一連の処理の実行中において、操作機器20が携帯機器1に装着されると、ステップS2の処理において基準マーカ21dが検出され、ステップS3の処理においてアプリケーションが自動的に(ユーザの指示に関わらず)起動される。これによれば、ユーザは、操作機器20を携帯機器1に装着するだけで、操作機器20に応じたアプリケーションを起動することができる。すなわち、ユーザは、アプリケーションを選択して起動する操作を行う必要が無いので、本実施形態によれば、ユーザの操作を簡単にすることができる。
なお、他の実施形態においては、形状および/または大きさの異なる基準マーカが付された複数種類の操作機器があってもよく、制御部14は、ステップS2で検出された基準マーカの種類(形状および/または大きさ)に応じて異なるアプリケーションを起動するようにしてもよい(後述する“(マーカの種類に応じて処理を変化させる変形例)”参照)。つまり、異なる基準マーカが付された異なる操作機器が装着されることに応じて、操作機器毎に異なるアプリケーションが起動されてもよい。
また、図13においては示していないが、制御部14は、OSにおいて実行される各種の処理を実行してもよい。例えば、制御部14は、アプリケーションを起動するためのメニュー画像をディスプレイ2に表示する処理、および、メニュー画像においてアプリケーションがユーザによって指定されたことに応じて、当該アプリケーションを起動する処理等を実行してもよい。
次に、図14を参照して、上記ステップS3の処理によって起動されたアプリケーションにおいて実行される処理例について説明する。図14は、携帯機器1におけるアプリケーションプログラムによって実行される処理の流れの一例を示すフローチャートである。
図14に示す一連の処理においては、まずステップS11において、制御部14は、キャリブレーション処理を実行する。具体的には、制御部14は、上記“[4.操作機器に対する操作の検出]”で述べた方法によって上述した基準位置を算出し、基準位置のデータをメモリに記憶する。なお、基準位置の算出に用いられる撮像画像は、操作機器20が携帯機器1に装着された後の任意のタイミングで取得された画像であってよい。例えば、基準位置は、上記ステップS2で基準マーカ21dが検出された撮像画像を用いて算出されてもよいし、ステップS11の処理を実行する時点で赤外線カメラ4から取得された撮像画像を用いて算出されてもよい。また、キャリブレーション処理は、アプリケーションの起動前に、上記システムプログラムによって実行されてもよい。例えば、他の実施形態においては、上記ステップS2の判定結果が肯定となった場合、ステップS3の処理の前にキャリブレーション処理が実行されてもよい。
ステップS12において、制御部14は、撮像画像を赤外線カメラ4から取得する。続くステップS13において、制御部14は、ステップS12で取得された撮像画像に基づいて、操作機器20に対する操作を判別する。すなわち、制御部14は、上記“[4.操作機器に対する操作の検出]”で述べた方法によって、各操作ボタン22A〜22Dのそれぞれについて、操作が行われたか否かを判別する。なお、ステップS13の処理において用いられる基準位置は、上記ステップS11の処理によって算出されたものである。
ステップS14において、制御部14は、ステップS13で判別された操作内容に応じた処理を実行する。この処理の具体的な内容は任意であり、例えばゲームアプリケーションが実行される場合には、操作内容に応じてキャラクタを動作させる処理等が実行されてもよい。また、ステップS14においては、操作ボタン22A〜22Dに対する操作に加えて、携帯機器1の操作部(入力ボタン6およびタッチパネル3)に対する操作に応じて、処理が実行されてもよい。
ステップS15において、制御部14は、アプリケーションを終了するか否かを判定する。ステップS15における判定の具体的な方法は任意である。本実施形態においては、ユーザが所定の終了指示を行った場合、あるいは、操作機器20が携帯機器1から離脱された場合、アプリケーションを終了すると判定される。具体的には、制御部14は、ユーザが所定の終了指示を行ったか否かを判定する第1判定処理を実行するとともに、操作機器20が携帯機器1から離脱されたか否かを判定する第2判定処理を実行する。第2判定処理は、例えば、上記ステップS12で取得された撮像画像から基準マーカ21dまたは可動部23A〜23Dが特定できなかったか否かによって行うことができる。第1判定処理および第2判定処理のいずれかの判定結果が肯定となる場合、制御部14は、アプリケーションを終了すると判定する。この場合、制御部14は、アプリケーションの実行を終了する。一方、第1判定処理および第2判定処理のいずれかの判定結果が共に否定となる場合、制御部14は、アプリケーションを終了しないと判定する。この場合、制御部14は、ステップS12の処理を再度実行し、以降、ステップS15においてアプリケーションを終了すると判定されるまで、ステップS12〜S15の一連の処理を繰り返し実行する。
以上のように、本実施形態においては、上記ステップS12〜S15における一連の処理の実行中において、操作機器20が携帯機器1から外されると、ステップS15の処理によってアプリケーションが終了される。これによれば、ユーザは、操作機器20を携帯機器1から外すだけで、操作機器20を用いたアプリケーションを終了することができる。すなわち、ユーザは、アプリケーションを終了する操作を行う必要が無いので、本実施形態によれば、ユーザの操作を簡単にすることができる。
[6.本実施形態の作用効果および変形例]
以上のように、上記実施形態においては、操作機器20は、撮像手段(赤外線カメラ4)を備える情報処理装置(可搬型の携帯機器1)に装着可能であり、以下の構成を備える。
・少なくとも一部(開口部分(穴21a)が形成される部分)を介して外部から内部を視認可能なハウジング21
・少なくともその一部がハウジング21の外部に露出する可動式の操作部(操作ボタン22)
・ハウジング21の上記一部を介してハウジング21の外部から視認可能であるハウジング21の内部の位置に配置される可動部23
また、操作機器20は、上記撮像手段が開口部分からハウジング21の内部を撮像可能となる位置で情報処理装置に装着される(図8参照)。情報処理装置は、撮像手段による撮像画像(可動部の画像を含む撮像画像)に基づいて、操作部に対する操作を判別し(ステップS13)、判別された操作に基づいて所定の処理を実行する(ステップS14)。
上記において、可動部23は、操作部が操作されたことに応じて位置を変化させてもよいし、姿勢を変化させてもよいし、位置および姿勢を変化させてもよい。また、可動部23の画像を含む撮像画像に基づいて操作部に対する操作を判別する方法は、例えば、撮像画像における可動部23の位置、向き、および形状のうちの少なくとも1つに基づいて操作を判別する方法であってもよい。
上記の構成によれば、操作機器20が装着される情報処理装置は、撮像手段によって可動部を撮像し、撮像画像に基づいて操作部に対する操作を判別することができる。これによれば、操作機器は、上記操作を検出したり、検出結果を情報処理装置へ送信したりするための電気的構成を必要としないので、操作機器の構成を簡易化することができる。
なお、操作機器が装着される情報処理装置は、上記実施形態のような表示部を備える装置に限らず、例えば、ゲームコントローラ等の操作装置であってもよい。例えば、ゲームコントローラは、カメラによって外部のマーカを撮像するものであってもよく、ゲームコントローラに対して行われた操作(例えば、画面をポインティングする操作や、ゲームコントローラを動かす操作)は、撮像画像に基づいて判別されてもよい。このようなゲームコントローラに対して上記実施形態のような操作機器を取り付けられてもよく、ゲームコントローラのカメラによって操作機器の可動部が撮像されてもよい。このとき、操作部に対する操作をカメラによる撮像画像に基づいて判別することができる。
なお、操作機器20は、電気的構成を全く有していない装置である必要はない。他の実施形態においては、操作機器20は、電子回路等の電気的構成を有する構成であってもよい。例えば、操作機器20は、それが装着される携帯機器1とは異なる他の情報処理装置と通信を行うための通信部を備えていてもよい。また、操作機器20は、携帯機器1と電気的に接続される構成であってもよく、例えば、携帯機器1から音声信号を入力して音を出力するスピーカを備えていてもよい。上記のように電気的構成を備える場合であっても、上記実施形態によれば、操作部に関する構成に関して操作機器の構成を簡易化することができる。
なお、上記実施形態においては、可動部を撮像する撮像手段として、赤外線カメラ4が用いられた。ここで、撮像手段は、画像を撮像することができる任意の撮像装置であってよい。他の実施形態においては、撮像手段として可視光カメラ(可視光イメージセンサを用いたカメラ)が用いられてもよい。このとき、照射部7は、情報処理装置が備える撮影用のフラッシュであってもよい。
なお、可動部は、ハウジング21の一部(穴21aの部分)を介してハウジング外部から視認可能である部分において、他(識別部以外の可動部、および、ハウジングの内壁面)と区別可能な認識部を有していてもよい。なお、「区別可能」とは、撮像装置(赤外線カメラ4)によって区別可能という意味である。例えば、可動部は、上記部分において、形状、模様、色彩、および、材料の少なくともいずれかが他とは異なる識別部を有していてもよい。これによって、撮像手段は、識別部を他と区別して容易に認識することができる。
また、上記実施形態においては、可動部23は、ハウジング21の開口部分を介してハウジング21の外部から視認可能である部分の少なくとも一部(図7に示す斜線部分)が、赤外線カメラ4が他の部分と区別可能な部材で構成される。これによれば、赤外線カメラを用いて可動部を撮像し、撮像画像に基づいて操作部に対する操作を判別することができる。
また、上記実施形態においては、操作部は、互いに独立して操作可能な操作ボタン22Aと操作ボタン22Dとを含む。操作ボタン22Aおよび操作ボタン22Dは、上記開口部分を介してハウジング21の内部を見たときの前後方向に並んで配置される(図7参照)。可動部は、操作ボタン22Aが操作されたことに応じて位置(姿勢でもよい)を変化させる可動部23Aと、操作ボタン22Dが操作されたことに応じて位置(姿勢でもよい)を変化させる可動部23Dとを含む(図7参照)。ここで、可動部23Dは、開口部分を介してハウジング21の内部を見たときに可動部23Aからずれた位置に配置される(図10参照)。上記によれば、情報処理装置の撮像手段から見て複数の操作ボタンが前後方向に並んで配置される場合であっても、各可動部を撮像することによって各操作ボタンの操作を判別することができる。
また、上記実施形態においては、ハウジング21の内側には、ハウジング21の開口部分を介してハウジング21外部から視認可能であるハウジング21内部の位置であって、可動部23とは異なる位置に、所定の基準マーカ21dが設けられる(図6参照)。情報処理装置は、撮像画像内における基準マーカ21dを認識し、当該撮像画像における、当該基準マーカ21d(基準マーカ21dの画像の位置)を基準とした可動部23の画像の位置に基づいて、操作ボタン22に対する操作を判別する。なお、操作の判別は、基準マーカ21dを基準とした可動部23の画像の位置、向き、および、形状の少なくとも1つに基づいて行われてもよい。
上記によれば、情報処理装置は、可動部23の位置、向き、および/または、形状をより精度良く検出することができ、それによって、操作の判別を精度良く行うことができる。
(操作機器の操作部に関する変形例)
他の実施形態においては、操作機器20が備える操作部は、操作ボタン以外の操作手段を含んでいてもよい。操作部は、例えば、回転操作が可能な回転操作部であってもよい。以下、図15および図16を参照して、操作機器20が操作部として回転操作部を備える変形例について説明する。
図15は、操作機器20が備える回転操作部の一例を示す図である。本変形例においては、操作機器20は、ユーザによって回転操作可能な回転操作部41を備える。具体的には、回転操作部41は、ハウジング21の外部に設けられ、ハウジング21に対して回転可能に設けられる。なお、図15においては、回転操作部41はz軸回りの回転が可能に構成されるが、他の実施形態においては、回転方向はどの方向であってもよい。
また、図15に示すように、回転操作部41は回転軸42に固定的に接続されている。ハウジング21の内部には回転可動部43が配置されており、回転軸42は、例えば図示しない歯車によって回転可動部43に接続されている。図示しないが、回転可動部43は、回転軸42の回転に応じて回転することができるように、ハウジング21内部において支持されている。図15においては、回転可動部43は、y軸方向の回転が可能に構成されるが、他の実施形態においては、回転方向はどの方向であってもよい(図16参照)。また、回転可動部43は、回転によって向きが変化する認識部(図15に示す斜線部分)を有する。
本変形例においても上記実施形態と同様、携帯機器1は、赤外線カメラ4による撮像画像に基づいて操作部に対する操作を判別することができる。具体的には、携帯機器1の制御部14は、赤外線カメラ4によって回転可動部43を撮像し、回転可動部43の画像を含む撮像画像を取得する。そして、制御部14は、撮像画像から回転可動部43の認識部の画像を特定し、特定した画像の向きに基づいて、回転操作部41の回転角度を算出する。なお、算出される回転角度は、絶対的な値であってもよいし、所定の基準(例えば、前回に取得した撮像画像から算出される回転角度)からの相対的な値であってもよい。また、携帯機器1は、算出された回転角度を操作入力として、所定の処理を実行する。
なお、回転操作部41の回転角度を算出するための回転可動部43の機構は、上記に限らず、他の機構であってもよい。例えば、他の実施形態においては、回転操作部41に接続される回転可動部は、回転操作部41と同じ回転方向に回転するものであってもよい。図16は、操作機器20が備える回転操作部の他の一例を示す図である。図16においては、回転操作部41および回転軸42に対して、同じ回転軸で回転するように回転可動部45が接続される。つまり、回転可動部45は、回転操作部41に対する回転操作に応じて、回転操作部41と同じ回転方向に同じ量だけ回転する。
図16において、回転可動部45は円柱状の形状である。ここで、回転可動部45の側面には、回転角度に応じて高さ(z軸方向の長さ)が異なるように、認識部が形成されている(図16に示す側面の展開図を参照)。このとき、赤外線カメラ4による撮像画像において、回転可動部45の認識部の画像の高さ(例えば、左右方向に関する中心位置における認識部の画像の高さ)は、回転角度に応じて異なる。したがって、撮像画像に基づいて上記高さを算出し、この高さに基づいて回転可動部45の回転角度、すなわち、回転操作部41の回転角度を算出することができる。
上記のように、回転可動部45の側面には、回転角度に応じて異なる形状(または模様)に見えるように、認識部が形成される。なお、認識部の形状は、図16に示すものに限らない。図17は、回転可動部45の側面の展開図の他の一例を示す図である。他の実施形態においては、図17に示すような模様が回転可動部45の側面に認識部として形成されてもよい。このとき、携帯機器1の制御部14は、撮像画像に含まれる回転可動部45の画像のうち、所定部分(例えば、左右方向に関する中心部分)における認識部の模様(パターン)を検出する。制御部14は、検出されるパターンによって、回転可動部45の回転角度、すなわち、回転操作部41の回転角度を算出することができる。
以上のように、上記変形例においては、操作部は回転可能に構成される。また、可動部(回転可動部43,45)は、操作部の回転に応じて回転し、開口部分を介してハウジング21内部を見たときに、その形状および/または模様が回転に応じて変化する。このとき、携帯機器1は、撮像画像に基づいて(より具体的には、撮像画像における可動部の形状および/または模様に基づいて)操作部に対する操作(回転角度)を判別する。上記によれば、携帯機器1は、ユーザが回転させて操作する操作部に対する操作を判別することができる。つまり、携帯機器1に装着する操作機器として、ユーザが回転させて操作する操作部を有する操作機器を適用することができる。
また、他の実施形態においては、操作部は、上下左右に傾倒可能なスティックであってもよいし、上下左右にスライド可能なスライドパッドであってもよい。上記スティックまたはスライドパッドの場合、可動部は、傾倒方向またはスライド方向に応じて異なる方向に移動するように構成される。これによって、可動部の画像に基づいて傾倒方向またはスライド方向を判別することができる。
なお、上記実施形態においては、可動部23は、操作部が操作されたことに応じて、開口部分を介してハウジング21の内部の方を見たとき(つまり、撮像方向から見たとき)の上下方向に移動するものであったが、可動部の移動方向は他の方向であってもよい。例えば、可動部は、撮像方向からみたときの左右方向、および、前後方向のうち少なくとも一方向に移動するものであってもよい。
なお、上下方向および左右方向の位置(移動)については、可動部が有する認識部の画像の位置(撮像画像上における位置)に基づいて判別することができる。また、前後方向の位置(移動)については、認識部の画像の輝度に基づいて判別することができる。すなわち、照射部7によって赤外光が照射される場合、認識部が前側に位置するほど認識部の部分の輝度が高くなるので、携帯機器1は、当該部分の輝度に基づいて、可動部の前後方向に関する位置を判別することができる。また、上記実施形態においては、前後方向の位置(移動)は、上記測距センサ5の検出結果を用いて算出されてもよい。
また、上記実施形態においては、携帯機器1は、撮像画像に基づいて操作部が操作されたか否かを判定し、操作部が操作されたと判定されたか否かに応じて所定の処理を実行する。なお、上記実施形態においては、携帯機器1は、操作部が操作されたことに応じて所定の処理を実行したが、他の実施形態においては、操作部に対する操作が解除されたこと(例えば、操作ボタンが押下されない状態となったこと)に応じて所定の処理を実行してもよい。また、図15に示した変形例においては、携帯機器1は、撮像画像に基づいて、操作部に対する操作量を算出し、操作量に基づいて所定の処理を実行する。このように、携帯機器1は、操作機器20に対する操作について、デジタル入力量(オン/オフ)を算出するようにしてもよいし、アナログ入力量(3段階以上の入力値)を算出するようにしてもよい。
なお、上記実施形態における操作機器20が用いられる場合であっても、携帯機器1は、アナログ入力量を算出することができる。すなわち、上記実施形態においては、上述の基準位置から可動部画像までの距離に応じて、操作ボタン22の操作量(押下量)を算出することができる。
(マーカの種類に応じて処理を変化させる変形例)
次に、携帯機器1が、操作機器に設けられるマーカの種類に応じて、実行する処理を変化させる変形例について説明する。本変形例においては、操作機器20のハウジング21の内壁面には、処理マーカが設けられる。処理マーカは、当該処理マーカが検出された場合に実行する処理内容を表すマーカである。本変形例において、携帯機器1は、撮像画像内から処理マーカが特定された場合、処理マーカに対応する処理を実行する。以下、図18および図19を参照して、本変形例の詳細について説明する。
図18は、本変形例における、赤外線カメラ4による撮像画像の一例を示す図である。図18に示すように、本変形例においては、赤外線カメラ4がハウジング21の内部を撮像した場合、撮像画像には、基準マーカ画像30および可動部画像31A〜31Dに加えて、処理マーカの画像35が含まれる。処理マーカの形状は任意である。例えば、処理マーカは、二次元バーコードであってもよい。
図19は、本変形例において携帯機器1によって実行される処理の流れの一例を示すフローチャートである。本変形例においては、上記実施形態における図13に示す一連の処理に代えて、図19に示す一連の処理が実行される。以下、図13における一連の処理との相違点を中心に、本変形例における処理の流れについて説明する。
本変形例においても上記実施形態と同様、ステップS1およびS2の処理が実行される。本変形例においては、ステップS2の判定結果が肯定となる場合、制御部14は、ステップS21の処理を実行する。一方、ステップS2の判定結果が肯定となる場合には、上記実施形態と同様、ステップS1の処理が再度実行される。
ステップS21において、制御部14は、ステップS1で取得された撮像画像において処理マーカが検出されたか否かを判定する。ステップS21における判定処理の具体的な方法は、ステップS2における判定処理と同様であってもよい。ステップS21の判定結果が肯定である場合、ステップS22の処理が実行される。一方、ステップS21の判定結果が否定である場合、ステップS1の処理が再度実行される。
なお、他の実施形態においては、操作機器20には、基準マーカ21dが設けられず、処理マーカのみが設けられてもよい。このとき、携帯機器1は、ステップS1の次にステップS21の処理を実行してもよい。
ステップS22において、制御部14は、ステップS21で検出されたマーカの種類に応じた処理を実行する。ここで、検出されたマーカから、当該マーカに対応する処理を特定する方法は任意である。例えば、携帯機器1は、複数種類のマーカと、当該マーカが検出された場合に実行すべき処理とを関連付けたテーブルを予め記憶しておいてもよい。このとき、ステップS22において、携帯機器1は、検出されたマーカに関連付けられる処理を、上記テーブルを参照することによって特定する。また例えば、処理マーカが情報を表すことができるものである場合(例えば2次元バーコードである場合)には、当該処理マーカが検出された場合に実行される処理を特定する情報を、処理マーカが表す情報に含めておくようにしてもよい。このとき、携帯機器1は、検出されたマーカを解析して情報を読み取り、読み取った情報が示す処理を、実行すべき処理として特定する。
また、検出されたマーカの種類に応じて実行される処理は、どのような内容の処理であってもよい。ステップS22において実行される処理は、例えば、操作機器20を用いることが可能な所定のアプリケーションプログラムを起動する処理であってもよい。また、ステップS22において実行される処理は、操作機器20を用いることが可能な所定のアプリケーションプログラムを取得する処理であってもよい。すなわち、制御部14は、所定の外部装置(例えば、ネットワークを介して携帯機器1と通信可能なサーバ)にアクセスして、上記アプリケーションプログラムを取得するようにしてもよい。さらにこのとき、取得されたアプリケーションプログラムが自動的に実行されてもよい。また、ステップS22において実行される処理は、サーバからウェブページを取得してディスプレイ2に表示する処理であってもよい。例えば、表示されるウェブページは、アプリケーションプログラムをダウンロードするためのウェブページであってもよいし、操作機器20を提供した事業者の広告であってもよい。
なお、制御部14は、検出されたマーカの種類に応じて、実行する処理の種類を変更してもよい。すなわち、制御部14は、検出されたマーカの種類に応じて、アプリケーションプログラムを起動する処理、アプリケーションプログラムを取得する処理、および、ウェブページを表示する処理のいずれかを実行するようにしてもよい。また、制御部14は、検出されたマーカの種類に応じて、同種の処理における処理内容を変更するようにしてもよい。すなわち、制御部14は、検出されたマーカの種類に応じて、起動するアプリケーションプログラムを変更したり、取得するアプリケーションプログラムを変更したり、表示するウェブページを変更したりするようにしてもよい。
ステップS22においては、マーカの種類に応じた処理が終了されると、制御部14はステップS22の処理を終了し、続いてステップS1の処理を再度実行する。
以上のように、上記変形例によれば、携帯機器1は、撮像画像に基づいて認識された処理マーカの種類に応じて異なる処理を実行する。これによれば、操作機器毎に異なる処理マーカを付しておくことによって、操作機器が携帯機器1に装着された場合に、操作機器に応じた処理を携帯機器1に実行させることができる。
以上のように、上記実施形態および上記変形例においては、ハウジング21の内側には、ハウジング21の開口部分を介してハウジング21外部から視認可能であるハウジング21内部の位置に、所定のマーカ(基準マーカ21d、または、処理マーカ)が設けられる。情報処理装置(携帯機器1)は、赤外線カメラ4による撮像画像内における上記所定のマーカを認識し(ステップS2,S21)、マーカの認識結果に基づいて所定の処理(ステップS3,S15,S22)を実行する。
上記によれば、携帯機器1はマーカの認識結果に基づいて所定の処理を実行するので、所定の処理を実行する指示をユーザが行わなくても、装着された操作機器に応じた適切な処理を実行することができる。これによれば、ユーザが指示を行う手間を省略することができるとともに、ユーザの誤操作等によって適切でない処理が実行される可能性を低減することができる。なお、上記の効果は、付属機器が操作機器である場合に限らず、情報処理装置(携帯機器)に任意の機能を付加する付属機器について得ることができる。つまり、付属機器は、情報処理装置に操作機能を付加する操作機器に限らず、所定の機能を付加する装置であってもよい。
上記「マーカの認識結果」とは、マーカが認識されたか否かの判定結果でもよいし、認識されたマーカの種類を特定した結果でもよい。すなわち、携帯機器1は、上記実施形態のように、マーカが認識されたか否かの判定結果に基づいて、所定の処理(アプリケーションを起動する処理、または、アプリケーションを終了する処理)を実行してもよい。また、携帯機器1は、上記変形例のように、認識されたマーカの種類を特定した結果に基づいて、所定の処理(ステップS22で実行される処理)を実行してもよい。また、携帯機器1は、ある1種類のマーカのみを認識可能であってもよいし、複数種類のマーカを認識可能であってもよい。
また、上記「所定の処理」は、例えば次のような処理であってもよい。すなわち、携帯機器1は、上記所定のマーカを認識することができたと判定された場合、操作機器20が携帯機器1に装着されたと判断してもよい。なお、操作機器20が携帯機器1に装着されたと判断した場合、携帯機器1は、ユーザに通知を行ったり、(上記実施形態のように)所定のアプリケーションを起動したりしてもよい。
また、携帯機器1は、上記所定のマーカを認識することができたと判定された場合、正当な操作機器が携帯機器1に装着されたと判断し、携帯機器1における所定の処理の実行を許可するようにしてもよい。このとき、携帯機器1は、上記所定のマーカを認識することができなかったと判定された場合、正当でない操作機器が携帯機器1に装着されたと判断し、上記所定の処理の実行を禁止する。この所定の処理は、例えば上記ステップS22で実行する処理であってもよいし、他の処理であってもよい。
以上のように、上記実施形態は、簡易な構成の付属機器を提供すること等を目的として、携帯電話、スマートフォン、または携帯ゲーム装置といった携帯機器や、当該携帯機器に装着可能な付属機器(アタッチメント)として利用することができる。
1 携帯機器
2 ディスプレイ
4 赤外線カメラ
7 照射部
14 制御部
20 操作機器
21 ハウジング
22 操作ボタン
23 可動部

Claims (18)

  1. 撮像手段を備えるゲームコントローラと、当該ゲームコントローラと接続可能な付属機器とを含む情報処理システムであって、
    前記付属機器は、少なくとも一部に開口部分が設けられたハウジングを備え、
    記ハウジング内部の位置に、所定のマーカが設けられ、
    前記ゲームコントローラは、前記撮像手段が前記ハウジングの内部を撮像可能となる位置で前記付属機器と接続可能であり、
    記撮像手段による撮像画像内における前記所定のマーカを認識するマーカ認識手段と、
    前記所定のマーカの認識結果に基づいて所定の処理を実行する処理実行手段とを備える、情報処理システム。
  2. 前記付属機器は、
    少なくともその一部が前記ハウジングの外部に露出する操作部と、
    前記ハウジング内部の位置に配置され、前記操作部が操作されたことに応じて位置および/または姿勢を変化させる可動部とをさらに備え、
    前記所定のマーカは、前記可動部に設けられる、請求項1に記載の情報処理システム。
  3. 前記マーカの認識結果に基づいて、前記操作部に対する操作を判別する操作判別手段をさらに備え、
    前記処理実行手段は、前記操作判別手段によって判別された操作に基づいて前記所定の処理を実行する、請求項2に記載の情報処理システム。
  4. 前記操作判別手段は、前記マーカの認識結果に基づいて、前記操作部が操作されたか否かを判定し、
    前記処理実行手段は、前記操作部が操作されたか否かに応じて前記所定の処理を実行する、請求項3に記載の情報処理システム。
  5. 前記操作判別手段は、前記マーカの認識結果に基づいて、前記操作部に対する操作量を算出し、
    前記処理実行手段は、前記操作量に基づいて所定の処理を実行する、請求項4に記載の情報処理システム。
  6. 前記ハウジングの内部における前記可動部とは異なる位置に、基準マーカが設けられ、
    前記マーカ認識手段は、前記所定のマーカに加えて前記基準マーカを認識し、
    前記処理実行手段は、前記基準マーカを基準とした前記所定のマーカの位置、向き、および、形状の少なくとも1つに基づいて、前記所定の処理を実行する、請求項2から請求項5のいずれか1項に記載の情報処理システム。
  7. 前記可動部は、前記操作部が操作されたことに応じて、前記ハウジングの一部を介して当該ハウジング内部を見たときの上下方向、左右方向、および、前後方向のうち少なくとも一方向に移動する、請求項2から請求項6のいずれか1項に記載の情報処理システム。
  8. 前記操作部と前記可動部とは一体的に構成される、請求項2から請求項7のいずれか1項に記載の情報処理システム。
  9. 前記操作部は、前記ハウジングの内部に向かって押下可能である、請求項2から請求項8のいずれか1項に記載の情報処理システム。
  10. 前記操作部は、回転可能に構成され、
    前記可動部は、前記操作部の回転に応じて回転する、請求項2から請求項9のいずれか1項に記載の情報処理システム。
  11. 前記所定のマーカは、前記撮像手段による撮像方向において、その形状および/または模様が前記操作部の回転に応じて変化するように前記可動部に設けられる、請求項10に記載の情報処理システム。
  12. 前記撮像手段は、赤外線カメラであり、
    前記所定のマーカは、前記赤外線カメラにより識別可能な部材で構成される、請求項1から請求項11のいずれか1項に記載の情報処理システム。
  13. 前記ゲームコントローラは、前記撮像手段の撮像方向に赤外光を照射する照射手段をさらに備える、請求項1から請求項12のいずれか1項に記載の情報処理システム。
  14. 前記付属機器は、前記ゲームコントローラを当該付属機器に固定する固定部をさらに備える、請求項1から請求項13のいずれか1項に記載の情報処理システム。
  15. 前記処理実行手段は、前記所定の処理として、前記ゲームコントローラが前記付属機器と接続したかを判断する、請求項1から請求項14のいずれか1項に記載の情報処理システム。
  16. 前記ハウジングは、光を透過しない材質で構成される、請求項1から請求項15のいずれか1項に記載の情報処理システム。
  17. 前記ゲームコントローラと前記付属機器とが接続された状態において、前記開口部分は、当該ゲームコントローラに覆われる、請求項1から請求項16のいずれか1項に記載の情報処理システム。
  18. 撮像手段を備えるゲームコントローラと、当該ゲームコントローラと接続可能な付属機器とを含む情報処理システムにおいて実行される情報処理方法であって、
    前記付属機器は、少なくとも一部に開口部分が設けられたハウジングを備え、
    前記ハウジング内部の位置に、所定のマーカが設けられ、
    前記ゲームコントローラは、前記撮像手段が前記ハウジングの内部を撮像可能となる位置で前記付属機器と接続可能であり、
    前記撮像手段による撮像画像内における前記所定のマーカを認識するマーカ認識ステップと、
    前記所定のマーカの認識結果に基づいて所定の処理を実行する処理実行ステップとを備える、情報処理方法。
JP2015024052A 2015-02-10 2015-02-10 付属機器、情報処理システム、情報処理装置、情報処理プログラム、操作判別方法、および、処理実行方法 Active JP6327669B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2015024052A JP6327669B2 (ja) 2015-02-10 2015-02-10 付属機器、情報処理システム、情報処理装置、情報処理プログラム、操作判別方法、および、処理実行方法
EP19195285.2A EP3614655A1 (en) 2015-02-10 2016-01-27 Accessory and information processing system
EP16152949.0A EP3057297B1 (en) 2015-02-10 2016-01-27 Accessory and information processing system
US15/010,153 US9996107B2 (en) 2015-02-10 2016-01-29 Accessory and information processing system
US15/959,311 US10416708B2 (en) 2015-02-10 2018-04-23 Accessory and information processing system
US16/531,269 US10514723B2 (en) 2015-02-10 2019-08-05 Accessory and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015024052A JP6327669B2 (ja) 2015-02-10 2015-02-10 付属機器、情報処理システム、情報処理装置、情報処理プログラム、操作判別方法、および、処理実行方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018077041A Division JP6592554B2 (ja) 2018-04-12 2018-04-12 付属機器、情報処理システム、情報処理装置、情報処理プログラム、操作判別方法、および、処理実行方法

Publications (3)

Publication Number Publication Date
JP2016148903A JP2016148903A (ja) 2016-08-18
JP2016148903A5 JP2016148903A5 (ja) 2018-04-19
JP6327669B2 true JP6327669B2 (ja) 2018-05-23

Family

ID=55696834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015024052A Active JP6327669B2 (ja) 2015-02-10 2015-02-10 付属機器、情報処理システム、情報処理装置、情報処理プログラム、操作判別方法、および、処理実行方法

Country Status (3)

Country Link
US (3) US9996107B2 (ja)
EP (2) EP3057297B1 (ja)
JP (1) JP6327669B2 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11045723B1 (en) 2014-11-18 2021-06-29 Razer (Asia-Pacific) Pte. Ltd. Gaming controller for mobile device and method of operating a gaming controller
JP6327669B2 (ja) 2015-02-10 2018-05-23 任天堂株式会社 付属機器、情報処理システム、情報処理装置、情報処理プログラム、操作判別方法、および、処理実行方法
US9804667B2 (en) * 2015-02-10 2017-10-31 Nintendo Co., Ltd. Electronic apparatus
JP6083884B2 (ja) 2015-06-12 2017-02-22 任天堂株式会社 支持装置、充電装置、および、操作システム
US9757647B2 (en) 2015-06-12 2017-09-12 Nintendo Co., Ltd. Game controller
JP6843530B2 (ja) * 2016-06-15 2021-03-17 任天堂株式会社 ゲームシステム、方法、およびゲームプログラム
JP6591369B2 (ja) 2016-08-09 2019-10-16 任天堂株式会社 アタッチメントおよびゲームシステム
JP6715726B2 (ja) 2016-08-09 2020-07-01 任天堂株式会社 アタッチメントおよびゲームシステム
JP6598748B2 (ja) 2016-08-26 2019-10-30 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法
EP3305382B1 (en) 2016-10-06 2019-02-27 Nintendo Co., Ltd. Attachment
JP6153238B1 (ja) 2016-10-06 2017-06-28 任天堂株式会社 アタッチメント、および、操作システム
CN108021963B (zh) * 2016-10-28 2020-12-01 北京东软医疗设备有限公司 医疗影像设备零部件的标识装置
JP6613267B2 (ja) 2017-06-02 2019-11-27 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
JP6837921B2 (ja) 2017-06-02 2021-03-03 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6653293B2 (ja) 2017-06-05 2020-02-26 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
JP6544869B2 (ja) * 2017-07-27 2019-07-17 任天堂株式会社 ゲームシステム、アクセサリ、ゲームプログラム、ゲーム装置、ゲーム処理方法、および厚紙部材
JP6555831B2 (ja) 2017-12-27 2019-08-07 任天堂株式会社 情報処理プログラム、情報処理システム、情報処理装置、および、情報処理方法
JP6353994B1 (ja) * 2018-01-17 2018-07-04 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理方法、および情報処理装置
JP6710720B2 (ja) * 2018-06-08 2020-06-17 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラムおよびゲーム制御方法
CN108769349B (zh) * 2018-08-10 2023-05-30 南昌黑鲨科技有限公司 一种具有摇杆的操作装置及智能终端组件
TWI667594B (zh) * 2018-09-10 2019-08-01 華碩電腦股份有限公司 電子裝置組合及其使用方法
CN209392718U (zh) * 2018-11-15 2019-09-17 深圳市赛太克电子科技有限公司 一种互换式手机游戏手柄
US10560558B1 (en) 2018-12-31 2020-02-11 Devan Kosa Smartphone case having reconfigurable input control features for controlling smartphone apps
JP6670030B1 (ja) * 2019-08-30 2020-03-18 任天堂株式会社 周辺装置、ゲームコントローラ、情報処理システム、および、情報処理方法
JP7200076B2 (ja) * 2019-09-27 2023-01-06 株式会社Nttドコモ 操作検出装置
US11270547B2 (en) * 2020-06-18 2022-03-08 Feiloli Electronic Co., Ltd. Contactless game controller

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020036617A1 (en) * 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US7020689B2 (en) * 2003-03-07 2006-03-28 Wegener Communications, Inc. System and method for command transmission utilizing an email return path
TWM266959U (en) * 2004-10-12 2005-06-11 Alfadata Comp Corp Gleaming game/computer program control devices
JP2006209403A (ja) 2005-01-27 2006-08-10 Yamaha Corp 携帯型電子機器
JP2006209647A (ja) * 2005-01-31 2006-08-10 Denso Wave Inc 光学情報読取装置
US20060256090A1 (en) * 2005-05-12 2006-11-16 Apple Computer, Inc. Mechanical overlay
US8218033B2 (en) * 2007-09-10 2012-07-10 Sanyo Electric Co., Ltd. Sound corrector, sound recording device, sound reproducing device, and sound correcting method
JP5529400B2 (ja) 2008-07-11 2014-06-25 任天堂株式会社 拡張操作装置
US20110014881A1 (en) * 2009-07-17 2011-01-20 Cheng-Hsu Yang Multi-functional communication module
TWI409678B (zh) * 2009-10-20 2013-09-21 Young Optics Inc 光學觸控系統
US8659561B2 (en) * 2009-12-18 2014-02-25 Lg Display Co., Ltd. Display device including optical sensing frame and method of sensing touch
US8482540B1 (en) * 2011-01-18 2013-07-09 Sprint Communications Company L.P. Configuring a user interface for use with an overlay
JP3169346U (ja) * 2011-05-13 2011-07-28 株式会社レーベン販売 キーパッド
US9116555B2 (en) * 2011-11-23 2015-08-25 Sony Computer Entertainment America Llc Gaming controller
JP2013158610A (ja) * 2012-02-08 2013-08-19 Namco Bandai Games Inc ゲームシステム
JP6327669B2 (ja) 2015-02-10 2018-05-23 任天堂株式会社 付属機器、情報処理システム、情報処理装置、情報処理プログラム、操作判別方法、および、処理実行方法

Also Published As

Publication number Publication date
EP3057297A1 (en) 2016-08-17
US9996107B2 (en) 2018-06-12
US10514723B2 (en) 2019-12-24
US10416708B2 (en) 2019-09-17
US20190354137A1 (en) 2019-11-21
US20180239393A1 (en) 2018-08-23
EP3057297B1 (en) 2019-11-20
EP3614655A1 (en) 2020-02-26
US20160231773A1 (en) 2016-08-11
JP2016148903A (ja) 2016-08-18

Similar Documents

Publication Publication Date Title
JP6327669B2 (ja) 付属機器、情報処理システム、情報処理装置、情報処理プログラム、操作判別方法、および、処理実行方法
US11755127B2 (en) Multi-sensor device with an accelerometer for enabling user interaction through sound or image
US10015402B2 (en) Electronic apparatus
EP2595402B1 (en) System for controlling light enabled devices
US8886449B2 (en) Calibrated hardware sensors for estimating real-world distances
JP4964729B2 (ja) 画像処理プログラムおよび画像処理装置
JP6684042B2 (ja) 電子機器
CN103677259B (zh) 用于引导控制器的方法、多媒体装置及其目标跟踪装置
JP6388203B2 (ja) 電子機器
CN108509127B (zh) 启动录屏任务的方法、装置及计算机设备
CN107077196B (zh) 识别触敏表面上的对象
US20150253932A1 (en) Information processing apparatus, information processing system and information processing method
JP6592554B2 (ja) 付属機器、情報処理システム、情報処理装置、情報処理プログラム、操作判別方法、および、処理実行方法
US20180027221A1 (en) Apparatus and methods for bringing an object to life
JP6573457B2 (ja) 情報処理システム
JP2016058061A (ja) 電子機器
JP6589216B2 (ja) 電子機器
US20240027617A1 (en) Portable terminal and electronic glasses
CN112985326B (zh) 手持电子装置及其控制方法
JP2014002516A (ja) 情報処理装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180312

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180312

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180412

R150 Certificate of patent or registration of utility model

Ref document number: 6327669

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250