JP5561092B2 - 入力装置、入力制御システム、情報処理方法及びプログラム - Google Patents

入力装置、入力制御システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JP5561092B2
JP5561092B2 JP2010232469A JP2010232469A JP5561092B2 JP 5561092 B2 JP5561092 B2 JP 5561092B2 JP 2010232469 A JP2010232469 A JP 2010232469A JP 2010232469 A JP2010232469 A JP 2010232469A JP 5561092 B2 JP5561092 B2 JP 5561092B2
Authority
JP
Japan
Prior art keywords
detection
signal
respect
detection surface
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010232469A
Other languages
English (en)
Other versions
JP2012088764A (ja
Inventor
翼 塚原
正俊 上野
志伸 栗屋
哲郎 後藤
英雄 川部
俊之 中川
憲一 樺澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010232469A priority Critical patent/JP5561092B2/ja
Priority to CN2011103058388A priority patent/CN102455801A/zh
Priority to US13/252,441 priority patent/US20120092332A1/en
Publication of JP2012088764A publication Critical patent/JP2012088764A/ja
Application granted granted Critical
Publication of JP5561092B2 publication Critical patent/JP5561092B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0383Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN

Description

本発明は、2次元的又は3次元的に表示される操作対象物を操作するための入力装置、入力制御システム、情報処理方法及びプログラムに関する。
例えば、ディスプレイ上に2次元的に表示されるGUI(Graphical User Interface)を操作するための入力装置として、マウスが広く用いられている。近年においては、マウスに代表される平面操作型の入力装置に限られず、空間操作型の入力装置が多種提案されている。
例えば特許文献1には、3つの軸に沿った線形並進運動を検出する3の加速度計と、3つの軸の角度回転を検出する3つの角速度センサとを含み、3次元内の6次の運動を検出する入力装置が記載されている。この入力装置は、マウスの加速度、速度、位置および姿勢を検出し、その検出信号をコンピュータに伝送することで、3次元的に表示される画像を制御可能としている。
特表平6−501119号公報
しかしながら、この種の空間操作型の入力装置は、平面操作型の入力装置と比較して操作性が低いという問題がある。その原因として、加速度センサが重力加速度と運動加速度とを分離できないこと、各種センサ値の積分などの数値処理に誤差が生じ易いこと、人間の細かい動きなどを検知することが難しく誤検出し易いこと、などが挙げられる。したがって、従来の空間操作型の入力装置では、ユーザの直感に即した操作感を得ることが容易でなかった。
以上のような事情に鑑み、本発明の目的は、操作性に優れ、ユーザの直感に即した操作感を得ることが可能な入力装置、入力制御システム、情報処理方法及びプログラムを提供することにある。
上記目的を達成するため、本発明の一形態に係る入力装置は、筐体と、第1の検出部と、第2の検出部と、制御部とを具備する。
上記筐体は、2次元的な検出面を有する。
上記第1の検出部は、上記検出面上を移動する検出対象の位置座標を検出し、上記検出対象の移動方向及び移動量を算出するための第1の信号を出力する。
上記第2の検出部は、画面が属する空間座標系の一基準面に対する上記検出面の傾きを検出し、上記基準面に対する上記検出面の傾斜角を算出するための第2の信号を出力する。
上記制御部は、上記第1の信号及び上記第2の信号に基づいて、画面に表示される画像の表示を3次元的に制御するための制御信号を生成する。
上記入力装置において、制御部は、第1の信号に基づいて検出対象の移動方向及び移動量を算出し、第2の信号に基づいて基準面に対する検出面の傾斜角を算出する。検出対象は、例えばユーザの指であり、基準面としては、例えば水平な地面が挙げられる。制御部は、第2の信号に基づいて画面に対する検出面の相対位置を特定し、画面の上下、左右及び奥行きの各方向と検出面内の各軸方向とを相互に対応させる。そして制御部は、検出対象の移動方向及び移動量に応じて、画像の表示を3次元的に制御する。
上記入力装置によれば、筐体の姿勢操作と検出面上での指の移動操作によって画像を3次元的に制御することができる。これにより操作性が高まり、ユーザの直感に即した操作感を得ることができる。
検出対象としては、ユーザの指だけに限られず、入力ペン等の他の操作子が含まれる。第1の検出部としては、検出面上の検出対象の位置座標を検出可能なセンサであれば特に限定されず、例えば、静電式、抵抗式等のタッチセンサが用いられる。また、第2の検出部としては、例えば加速度センサ、地磁気センサ、角速度センサ等が用いられる。
基準面としては、重力方向に垂直な面に限られず、重力方向に平行な面、例えば画面に平行な面であってもよい。
操作対象である画像は、2次元画像でもよいし3次元画像(実像および虚像)でもよく、アイコンやポインタ(カーソル)等を含む。画像の表示の3次元的な制御は、画面の上下、左右及び奥行きの各方向に沿った画像の表示制御を意味し、例えば、3次元映像を指標するポインタの3軸方向に沿った移動制御、3次元映像の表示制御などを含む。
上記検出面は、典型的には、第1の軸と、上記第1の軸と直交する第2の軸とを有する。上記第2の検出部は、重力方向に対する上記第1の軸及び上記第2の軸の少なくとも一方の軸方向についての傾斜角に応じた信号を出力する加速度センサを含んでもよい。これにより、基準面に対する検出面の傾斜角に応じた検出信号を容易に得ることができる。
加速度センサは、典型的には、第1の軸方向、第2の軸方向及びこれらに直交する第3の軸方向に沿って各々筐体内部に配置され、各軸方向の加速度センサの出力に基づいて基準面に対する検出面の傾斜角が算出される。
上記画像が上記画面上に表示された3次元映像である場合、上記制御信号は、上記3次元映像の映像視差の大きさを制御する信号を含んでもよい。
これにより、画面の奥行き方向に沿った3次元映像の適切な表示制御が可能となる。
本発明の一形態に係る入力制御システムは、入力装置と、情報処理装置とを具備する。
上記入力装置は、筐体と、第1の検出部と、第2の検出部と、送信部とを有する。上記筐体は、2次元的な検出面を有する。上記第1の検出部は、上記検出面上を移動する検出対象の位置座標を検出し、上記検出対象の移動方向及び移動量を算出するための第1の信号を出力する。上記第2の検出部は、画面が属する空間座標系内の一基準面に対する上記検出面の傾斜角を検出し、上記基準面に対する上記検出面の傾斜角を算出するための第2の信号を出力する。上記送信部は、上記第1の信号及び上記第2の信号を送信する。
上記情報処理装置は、受信部と、制御部とを有する。上記受信部は、上記送信部から送信された上記第1の信号及び上記第2の信号を受信する。上記制御部は、上記第1の信号及び上記第2の信号に基づいて、画面に表示される画像の表示を3次元的に制御するための制御信号を生成する。
本発明の一形態に係る情報処理方法は、2次元的な検出面上を移動する検出対象の位置座標を検出する第1の検出部の出力に基づいて、上記検出対象の移動方向及び移動量を算出することを含む。
画面が属する空間座標系内の一基準面に対する上記検出面の傾きを検出する第2の検出部の出力に基づいて、上記基準面に対する上記検出面の傾斜角が算出される。
上記検出対象の移動方向及び移動量と、上記基準面に対する上記検出面の傾斜角とに基づいて、上記画面に表示される画像の表示が3次元的に制御される。
本発明の一形態に係るプログラムは、上記入力制御方法を、情報処理装置に実行させる。上記プログラムは、記録媒体に記録されていてもよい。
本発明によれば、操作性に優れ、ユーザの直感に即した操作感を得ることができる。
本発明の一実施形態に係る入力制御システムの概略構成図である。 本発明の一実施形態に係る入力装置の概略構成図である。 上記入力装置の有するローカル座標系と、画面が属するグローバル座標系との関係を説明する図である。 上記入力装置の各方向への傾きを説明する図である。 上記入力装置の操作例を説明する模式図である。 上記入力装置の他の操作例を説明する模式図である。 上記入力制御システムの制御フローを説明する図である。 (A)、(B)ともに上記入力制御システムの動作例を説明する図である。 (A)、(B)ともに上記入力制御システムの他の動作例を説明する図である。 (A)、(B)ともに上記入力制御システムのさらに他の動作例を説明する図である。 本発明の他の実施形態に係る入力制御システムの制御フローを説明する図である。 本発明の他の実施形態に係る入力制御システムの動作例を説明する図である。 本発明の他の実施形態に係る入力制御システムの動作例を説明する図である。 本発明の他の実施形態に係る入力制御システムの動作例を説明する図である。 上記入力装置を用いた検出対象の検出処理例を説明する図である。
以下、図面を参照しながら、本発明の実施形態を説明する。
<第1の実施形態>
[入力制御システム]
図1は、本発明の一実施形態に係る入力制御システムを示すブロック図である。本実施形態の入力制御システム100は、入力装置1と、画像制御装置2(情報処理装置)と、表示装置3とを有する。
入力制御システム100は、入力装置1から送信される操作信号を画像制御装置2で受信し、受信した操作信号に応じて、表示装置3の画面31に表示される画像を制御するものである。表示装置3の画面31は、図中X軸方向に奥行き方向、Y軸方向に水平方向、Z軸方向に垂直方向(重力方向)をそれぞれ有する。
表示装置3は、例えば液晶ディスプレイ、EL(Electro-Luminescence)ディスプレイ等が挙げられるが、これらに限られない。表示装置3は、テレビジョン放送等を受信できるディスプレイと一体となった装置でもよい。本実施形態では、表示装置3は、画面31上に3次元映像を表示することが可能な、例えば3Dテレビジョンで構成されている。
以下、入力装置1及び画像制御装置2について説明する。
[入力装置]
入力装置1は、ユーザが把持できる大きさの筐体10を有する。筐体10は、x軸方向に長手方向、y軸方向に短手方向、z軸方向に厚み方向を有する略直方体であり、筐体10の一方の表面には検出面11が形成されている。検出面11は、x軸及びこれに直交するy軸に座標軸を有する2次元的な座標系に属し、x軸方向に平行な長辺と、y軸方向に平行な短辺とを有する、z軸に垂直な矩形状を有する。
入力装置1は、例えばユーザの手指を検出対象とし、検出面11上における指の位置座標及びその変化を検出する機能を有する。これにより、検出面11上における指の移動方向、移動速度、移動量等が取得される。入力装置1はさらに、地面(XY平面)に対する検出面11の傾きを検出する機能を有する。これにより、操作空間(XYZ空間)内における筐体10の姿勢を判別でき、画面31に対する検出面11の相対位置情報が取得される。
図2は、入力装置1の内部構成を示すブロック図である。入力装置1は、筐体10と、センサパネル12(第1の検出部)と、角度検出ユニット13(第2の検出部)と、外部スイッチ14と、バッテリBTと、MPU15(制御部)と、RAM16と、ROM17と、送信機18(送信部)とを有する。
センサパネル12は、検出面11とほぼ同一の形状及び大きさに形成される。センサパネル12は、検出面11の直下に配置され、検出面11に接触又は近接する検出対象(指)を検出する。センサパネル12は、検出面11上の検出対象の位置座標に応じた電気信号(第1の検出信号)を出力する。
本実施形態においてセンサパネル12は、検出面11に近接又は接触する検出対象を静電的に検出することが可能な静電容量方式のタッチパネルが用いられる。静電容量方式のタッチパネルは、プロジェクテッドキャパシティブ式(投影型)でもよいし、サーフェイスキャパシティブ式(表面型)でもよい。この種のセンサパネル12は、典型的には、y軸方向に平行な第1の配線がx軸方向に複数配列されたx位置検出用の第1のセンサ12xと、x軸方向に平行な第2の配線がy軸方向に複数配列された位置検出用の第2のセンサ12yとを有し、これら第1及び第2のセンサ12x,12yはz軸方向に相互に対向して配置される。
上記以外にも、タッチパネルとしては、検出対象の位置座標を検出できるセンサであれば特に限定されず、抵抗膜式、赤外線式、超音波式、表面弾性波式、音響波照合式、赤外線イメージセンサなどの種々のタイプが適用可能である。
なお検出面11は、筐体10の表面を形成する壁面の一部で構成されてもよいし、検出面として別に設けられたプラスチック板などで構成されてもよい。あるいは、検出面11は、筐体10の壁面の一部に形成された矩形状の開口であってもよく、この場合、センサパネル12の表面が検出面11の一部を形成する。さらに、検出面11及びセンサパネル12は光透過性を有してもよいし、光透過性を有していなくてもよい。
検出面11及びセンサパネル12が光透過性を有する材料で形成されている場合、センサパネル12の直下に液晶ディスプレイや有機ELディスプレイ等の表示素子19がさらに配置されてもよい。これにより、検出面11に文字や絵柄を含む画像情報を表示することができる。
角度検出ユニット13は、表示装置3が属する空間座標系内の一基準面に対する検出面11の傾きを検出する。本実施形態において基準面は、水平な地面(XY平面)とされる。角度検出ユニット13は、基準面に対する検出面の傾斜角を算出するための電気信号(第2の検出信号)を出力する。
本実施形態において角度検出ユニット13は、筐体10のx軸、y軸及びz軸のうち少なくとも一方の軸回りの角度を検出するためのセンサユニットで構成される。角度検出ユニット13は、重力方向に対するx軸、y軸及びz軸のうち少なくとも一方の軸方向の傾斜角を検出し、その傾斜角に応じた検出信号を出力する。
角度検出ユニット13は、x軸方向の加速度を検出するx軸加速度センサ13xと、y軸方向の加速度を検出するy軸加速度センサ13yと、z軸方向の加速度を検出するz軸加速度センサ13zとを有する、3軸加速度センサユニットで構成される。なお加速度センサ以外の他のセンサ、例えば、角速度センサ、地磁気センサ等によって角度検出ユニット13が構成されてもよい。
MPU15は、センサパネル12から出力される第1の検出信号と、角度検出ユニット13から出力される第2の検出信号とに基づいて、筐体10の姿勢の判定と、所定の制御信号の生成のための各種演算処理を実行する。
図3は、表示装置3が属するXYZ座標系(以下「グローバル座標系」ともいう。)と、筐体10の有するxyz座標系(以下「ローカル座標系」ともいう。)との関係を示す図である。図では、ローカル座標系とグローバル座標系とが相互に対応した状態を示している。本実施形態では、XY平面に対する筐体10のx軸回りの回転角度をφ、XY平面に対するy軸回りの回転角度をθとそれぞれ定義する。なおz軸回りの回転角度は、ψと定義される。
角度φ及びθは、x軸方向加速度センサ13x、y軸方向加速度センサ13y及びz軸方向加速度センサ13zの出力の三角関数を用いた数値演算によって、それぞれ算出される。すなわちMPU15は、各加速度センサの出力に基づいて、グローバル座標系内の一基準面(XY平面)に対する検出面11の傾斜角をそれぞれ算出することで、角度φ及びθを算出する。角度φ及びθのうちいずれか一方のみを算出する場合には、x軸及びy軸方向のいずれか一方の軸方向について重力方向との傾斜角を算出すればよい。
図4は、基準面(XY平面)に対して筐体10がy軸回りに角度θ、x軸回りに角度φだけ傾いた状態を示す図である。角度検出ユニット13の各加速度センサ13x,13y及び13zの出力はそれぞれx、y及びz方向を正の方向として出力する。ここで、各加速度センサ13x、13y及び13zの信号(電圧)の大きさをそれぞれAx、Ay及びAzとし、重力1Gに対する加速度センサ13x及び13yの信号(電圧)の大きさをそれぞれA及びBとする。
このとき、地面(XY平面)に対する角度θの大きさは、例えば、
Ax<0、Az>0のとき、θ=−arc sin(Ax/A) …(1)
Ax<0、Az<0のとき、θ=180+arc sin(Ax/A) …(2)
Ax>0、Az<0のとき、θ=180+arc sin(Ax/A) …(3)
Ax>0、Az>0のとき、θ=360−arc sin(Ax/A) …(4)
の演算式で算出される。
また、地面(XY平面)に対する角度φの大きさは、例えば、
Ay<0、Az>0のとき、φ=−arc sin(Ay/B) …(5)
Ay<0、Az<0のとき、φ=180+arc sin(Ay/B) …(6)
Ay>0、Az<0のとき、φ=180+arc sin(Ay/B) …(7)
Ay>0、Az>0のとき、φ=360−arc sin(Ay/B) …(8)
の演算式で算出される。
MPU15は、上述したような演算処理によって、基準面(XY平面)に対する筐体10の姿勢を判定する。
なお以上の説明では、地面(XY平面)を基準面として筐体10の姿勢を判定する例を説明したが、この説明は、重力方向(Z軸方向)に平行な面を基準面とした筐体10の姿勢判定と実質的に同義である。したがって以下の説明では特に断らない限り、地面(XY平面)を基準とした説明には重力方向を基準とした説明が含まれ、重力方向を基準とした説明には地面(XY平面)を基準とした説明が含まれるものとする。
MPU15は、演算部と信号生成部とを有する。演算部は、上記角度θ及びφを算出する。信号生成部は、角度θ及びφに基づいて判定された筐体10の姿勢に基づいて、検出面11上における検出対象の移動方向に応じた制御信号を生成する。
また演算部は、検出面11上における検出対象の移動方向及び移動量を各々算出する。例えば図5及び図6に示すように、筐体10の検出面11が基準面(XY平面)に対して傾いた状態で操作される場合を考える。これらの例において上記演算部は、角度検出ユニット13の各加速度センサ13x、13y、13zの出力に基づいて、筐体10のx軸及びy軸の基準面(XY平面)に対する傾斜角θ及びφをそれぞれ算出する。
例えば図5に示すように検出面11上で検出対象(指)をx方向へ距離Dだけ移動させた場合、画面31の奥行き方向(X軸方向)に沿った移動量D1と、画面の垂直方向(Z軸方向)に沿った移動量D2とは、それぞれ以下のようにして算出される。
D1=D×cosθ …(9)
D2=D×sinθ …(10)
同様に、図6に示すように検出面11上で検出対象(指)をy方向へ距離Lだけ移動させた場合、画面31の水平方向(Y軸方向)に沿った移動量L1と、画面の垂直方向(Z軸方向)に沿った移動量L2とは、それぞれ以下のようにして算出される。
L1=L×cosφ …(11)
L2=L×sinφ …(12)
信号生成部は、演算部で算出された検出対象の移動量及び移動方向の傾斜角に基づいて、画面31の奥行き方向に沿った画像の表示を制御するための制御信号を生成する。すなわち信号生成部は、演算部で算出された検出対象の移動量及び移動方向の傾斜角に基づいて、画面31に表示される画像の表示を3次元的に制御するための制御信号を生成する。
画面31に表示される画像の3次元的な制御には、例えば、画面31に表示された3次元映像、3次元映像を指標するためのポインタ(カーソル)等の上下、左右及び奥行きの各方向への移動制御が含まれる。また、画面31に表示された2次元画像の移動制御であってもよく、この場合、画面奥行き方向の制御には当該画像のズーム制御が挙げられる。また上記制御信号には、表示素子19に表示される画像を制御するための信号が含まれていてもよい。
入力装置1はさらに、外部スイッチ14を有してもよい。外部スイッチ14は、図1に示すように例えば筐体10の一側面に取り付けられる。外部スイッチ14は、ユーザによる押圧操作を検出し、押圧操作に応じた信号(第3の検出信号)を生成する。「押圧操作に応じた信号」には、押圧の有無、押圧力の大きさ、押圧時間などの信号が含まれてもよい。MPU15の信号生成部は、外部スイッチ14の押圧操作に応じた制御信号(第2の制御信号)を生成し、より拡張的な画像表示制御を可能とする。
外部スイッチ14は、例えば、上記ポインタによって指標された画像の選択あるいは実行キーとして機能させてもよい。これにより、ドラッグ・アンド・ドロップなどの操作が可能となる。また、外部スイッチ14を筐体10の両側面に設置すれば、右クリック/左クリックなどのクリックキーとして機能させることができる。外部スイッチ14の場所、数、形状等は特に限定されず、適宜設定することが可能である。
一方、MPU15は、センサパネル12及び角度検出ユニット13を駆動するための駆動回路を含んでもよい。センサパネル12は、上記駆動回路から上記第1及び第2の配線へ信号電流が順次供給され、検出対象の位置座標に応じた検出信号を出力する。MPU15はセンサパネル12からの検出信号を受信して、検出面11上における検出対象の位置座標、位置座標の変化、一座標の軌跡等を算出する。検出方式は特に限定されず、配線間の静電容量の変化に基づいて検出対象の位置座標を検出するミューチュアル方式でもよいし、配線と検出対象との間の静電容量の変化に基づいて検出対象の位置座標を検出するセルフ方式でもよい。
MPU15は、各検出信号をデジタル信号に変換するA/Dコンバータを含んでもよい。RAM16及びROM17は、MPU15による種々の演算に用いられる。ROM17は、例えば不揮発性メモリで構成され、MPU15に各種演算処理を実行させるためのプログラムや設定値を格納する。
送信機18は、MPU15によって生成された所定の制御信号を画像制御装置2へ送信する。バッテリBTは、入力装置1の電源を構成し、筐体10内部の各部へ必要な電力を供給する。バッテリBTは、一次電池でもよいし、二次電池でもよい。またバッテリBTは、太陽電池で構成されてもよい。
[画像制御装置]
画像制御装置2は、図1に示すように、ビデオRAM23と、表示制御部24と、MPU25と、RAM26と、ROM27と、受信機28とを有する。
受信機28は、入力装置1から送信された制御信号を受信する。MPU25は、その制御信号を解析し、RAM26、及びROM27に格納された各種設定値及びプログラムを用いて各種の演算処理を行う。表示制御部24は、MPU25の制御に応じて、主に、表示装置3の画面31に表示するための画面データを生成する。ビデオRAM23は、表示制御部24の作業領域となり、生成された画面データを一時的に格納する。
画像制御装置2は、入力装置1に専用の機器であってもよいし、PC(パーソナルコンピュータ)等の一般的な情報処理装置であってもよい。また、画像制御装置2は、表示装置3と一体となったコンピュータであってもよい。画像制御装置2による制御対象機器は、オーディオ/ビジュアル機器、プロジェクタ、ゲーム機器、カーナビゲーション機器等であってもよい。
入力装置1の送信機18と画像制御装置2の受信機28との間の信号の送受信は、無線通信でもよいし有線通信でもよい。信号の伝送方法は特に限定されず、「ZigBee」(登録商標)、「Bluetooth」(登録商標)などの機器間通信でもよいし、インターネットを経由した通信でもよい。
送信機18は、画像制御装置2などの他の機器からの信号を受信可能に構成されてもよい。また、受信機28は、入力装置1などの他の機器へ信号を送信可能に構成されてもよい。
[入力制御システムの動作例]
次に、入力制御システム100の基本的な動作例について説明する。図7は、入力装置1及び画像制御装置2の基本的な動作フローを説明する図である。図8及び図9は、入力制御システム100の典型的な動作例を説明する図である。ここでは、入力装置1による、画面31に3次元的に表示された画像(映像)V1を指標するポインタPの移動制御について説明する。
入力装置1は、センサパネル12によって検出面11上におけるユーザの指(検出対象)の位置座標を検出し、指の移動方向及び移動量を算出するための第1の検出信号を出力する。さらに入力装置1は、角度検出ユニット13によって基準面(XY平面)に対する筐体10の傾きを検出し、基準面に対する検出面11の傾斜角を算出するための第2の検出信号を出力する。入力装置1のMPU15は、センサパネル12から出力される第1の検出信号と、角度検出ユニット13から出力される第2の検出信号とをそれぞれ取得する(ステップ101A、ステップ101B)。各検出信号の取得の順序は限定されず、各検出信号は同時に取得されてもよい。
MPU15は、第1及び第2の検出信号に基づいて、検出面11上における指の移動量及び移動方向と、検出面11の基準面に対する傾斜角を算出する(ステップ102、ステップ103)。指の移動量等の算出(ステップ102)と検出面11の傾斜角の算出(ステップ103)の順序は特に限定されず、これらは同時に算出されてもよい。
MPU15は、検出面11上の指の位置座標の時間変化に基づいて検出面11上における指の移動方向及び移動量を算出する。また、指の移動速度や位置の軌跡を同時に算出するようにしてもよい。また、MPU15は、角度検出ユニット13の各加速度センサの出力に基づいて、上記(1)〜(8)式に示したような演算方法で基準面に対する検出面11の傾斜角を算出する。ここでは、基準面に対する検出面11の傾斜角は、検出面のx軸回りの傾斜角φ及びy軸回りの傾斜角θを含む。角度φ及びθの算出順序は特に限定されず、これらは同時に算出されてもよい。
例えば図8(A)及び(B)に示すように、入力装置1の検出面11が基準面(XY平面)に対してほぼ平行な場合、角度φ及びθはそれぞれ0度となる。一方、図9(A)に示すように検出面11が基準面(XY平面)に対してほぼ垂直な場合、角度φは0度、角度θは90度となる。さらに図9(B)に示すように検出面11が基準面(XY平面)に対して傾斜している場合の傾斜角はそれぞれ所定の角度φ及びθとなる。なお、図8及び図9に示した例においては、検出面11は上方に向けられ、検出面11のx方向は画面31に向けられている。
次にMPU15は、検出面11上における指Fの移動方向及び移動量と、基準面に対する検出面11の傾斜角φ、θとに基づいて、画面31に表示される画像の表示を3次元的に制御するための制御信号を生成する(ステップ104)。すなわちMPU15は、上記(9)〜(12)式に示したような演算方法で算出した角度φ及びθに基づいて、画面31の上下、左右及び奥行きの各軸方向と検出面11の各軸方向とを相互に対応させる。そしてMPU15は、指Fの移動方向及び移動量に応じて、ポインタPの表示を3次元的に制御するための制御信号を生成する。
例えば図8(A),(B)に示すように検出面11が水平である場合、MPU15は、筐体10のローカル座標系(xyz座標系)を画面31が属するグローバル座標系(XYZ座標系)に一致させる。そして、検出面11上でユーザが指Fをx軸方向に移動させると(図8(A))、MPU15は、ポインタPを画面31の奥行き方向(X軸方向)に移動させるための制御信号を生成する。同様に、検出面11上でユーザが指Fをy軸方向に移動させると(図8(B))、MPU15は、ポインタPを画面31の水平方向(Y軸方向)に移動させるための制御信号を生成する。
一方、図9(A)に示すように検出面11が基準面(XY平面)に対して垂直である場合、MPU15は、筐体10のx軸方向を画面31の垂直方向(Z軸方向)に、筐体10のy軸方向を画面31の水平方向(Y軸方向)にそれぞれ一致させる。そして、検出面11上でユーザが指Fを例えばx軸方向に移動させると、MPU15は、ポインタPを画面31の垂直方向(Z軸方向)に移動させるための制御信号を生成する。
さらに図9(B)に示すように検出面11が基準面(XY平面)に対して角度φ及びθで傾斜している場合、MPU15は、x軸の余弦(cosθ)方向を画面31の奥行き方向(X軸方向)に一致させ、y軸の余弦(cosφ)方向を画面31の水平方向(Y軸方向)に一致させる。そして、検出面11上でユーザが指Fを例えばx軸方向に移動させると、MPU15は、(9),(10)式に基づいて、ポインタPを画面31の奥行き方向(X軸方向)及び垂直方向(Z軸方向)に移動させるための制御信号を生成する。
MPU15は、送信機18を介して制御信号を画像制御装置2へ送信する(ステップ105)。画像制御装置2は、受信機28を介して制御信号を受信する(ステップ106)。MPU25は、受信した制御信号を解析し、ポインタPの移動を制御するための表示制御信号を表示制御部24へ供給することで、画面31上のポインタPの移動を制御する(ステップ107)。
ポインタPが所望の位置に移動した後は、外部スイッチ14を押圧操作することで、ポインタPによって指標されているアイコン等のオブジェクトが選択される。この選択信号は入力装置1のMPU15において第2の制御信号として生成され、画像制御装置2へ送信される。アイコンの選択操作は、外部スイッチ14の押圧操作に限られず、例えば検出面11の長押し操作やタップ操作でもよい。
外部スイッチ14はアイコンの選択操作だけに限らず、アイコンのドラッグ操作にも用いることができる。例えば図10(A)に示すように、画面31上の画像V2の表示位置にポインタPを移動させた後、筐体10の両側部に配置された外部スイッチ14を同時に押圧することで、画像V2のドラッグ操作に相当する動作を可能としてもよい。また外部スイッチ14として押圧力(押圧量)を段階的に検出できるセンサを用いることで、外部スイッチ14の押圧量に応じて画像V2の表示を変化させることができる。例えば図10(B)に示すように、外部スイッチ14の押圧力に比例して画像V2を大きく変形させる等の画像表示制御が可能である。なお以上の説明は、筐体10の両側部に外部スイッチ14が配置される例に限られず、筐体10の一方の側部にのみ外部スイッチ14が配置される例にも適用可能である。
以上のように本実施形態の入力制御システムにおいては、筐体10の姿勢操作と検出面11上での指の移動操作によって、画面31に表示された画像を3次元的に制御することができる。本実施形態によれば、操作性が高く、ユーザの直感に即した操作感を得ることができる。
<第2の実施形態>
図11は、本発明の第2の実施形態に係る入力制御システムの制御フローを説明する図である。本実施形態では、第1の実施形態の構成および作用と同様な部分についてはその説明を省略または簡略化し、第1の実施形態と異なる部分を中心に説明する。
本実施形態の入力制御システム200は、画面に表示される画像の表示を3次元的に制御するための制御信号を画像制御装置2のMPU25で生成する点で、上述の第1の実施形態と異なる。すなわち本実施形態の入力制御システム200において、入力装置1のMPU15は、センサパネル12及び角度検出ユニット13から取得した第1の検出信号及び第2の検出信号をそれぞれ画像制御装置2へ送信する(ステップ201A,201B,202)。画像制御装置2のMPU25は、受信した第1及び第2の検出信号に基づいて、検出面11上における検出対象(指)の移動方向及び移動量と、基準面に対する検出面11の傾斜角をそれぞれ算出し(ステップ204,205)、画像の表示制御のための制御信号を生成する(ステップ206,207)。
画像制御装置2のMPU25は、例えばROM27に格納されたプログラムに基づいてステップ203〜ステップ207の各処理を実行する。この制御プログラムは、例えば画像制御装置2に接続された通信ケーブルを介してダウンロードされてもよいし、各種記録媒体からロードされてもよい。
本実施形態によれば、検出面11上における指の移動方向及び移動量の算出、さらに基準面に対する検出面11の傾斜角の算出といった複雑な演算処理を画像制御装置2で実行させることができる。したがって、入力装置1は制御信号の生成に必要な情報のみを送信すればよいので、MPU15の構成の簡素化、低コスト化、省電力化を図ることができる。
<第3の実施形態>
図12〜図14は、本発明の第3の実施形態を説明する図である。本実施形態では、第1の実施形態の構成および作用と同様な部分についてはその説明を省略または簡略化し、第1の実施形態と異なる部分を中心に説明する。
本実施形態では、入力装置1を用いた3次元映像の表示制御について説明する。図12に示すようにポインタPが画面31上の3次元映像V3に重なったことで操作が行えるモードに入ったとする。この状態では、図示するように水平な姿勢に保持された入力装置1の検出面11上で指Fをx軸方向に沿って移動させると、映像V3は、画面31の奥行き方向に動くように表示される。すなわち、指Fを+x方向へ移動させると映像V3は画面31の奥の方向(+X方向)へ移動し、反対に、指Fを−x方向へ移動させると映像V3は画面31の手前方向(−X方向)へ移動する。
なお、映像V3の移動操作モードへは、例えば映像V3にポインタPが重なった状態で外部スイッチ14を押圧操作したり、検出面11上を指Fで長押し又はタップ操作したりすることで移行される。映像V3の上下、水平方向への移動表示は、上述したポインタPの移動操作と同様であるので、ここではその説明を省略する。
さて、画面奥行き方向に沿った3次元映像V3の移動表示は、検出面11上における指の動きと、画面31に表示される映像の視差を関連付けることで可能となる。例えば図13に示すようにユーザと画面31との距離(視聴距離)をT、映像V3の映像視差をA、眼球距離をE、映像奥行きをRとすると、これらT、A、E、Rには以下の関係がある。
R:A=(R+T):E
A=(R×E)/(R+T) …(13)
一例として、E=65mm、T=2mとして、画面31の奥24m(R=24m)の位置に映像V3が表示されているように見せたい場合、映像視差Aの大きさは6cmとなり、右目用の表示映像と左目用の表示映像との間を6cmずらせばよいことになる。したがって、この映像視差Aと、検出面11上でのx軸方向への指の移動量Dとを、
A=α・D (αは比例定数) …(14)
のように関連付けることで、指の移動量と3次元映像V3とを相互に対応させることができる。この場合、入力装置1のMPU15(あるいは画像制御装置2のMPU25)は、(13)、(14)式に基づいた演算手法で映像視差情報を含む制御信号を生成する。
一方、画面31の手前方向に映像Vを表示させる場合、図14に示すように、映像視差Aは以下のように表される。
R:A=(T−R):E
A=(R×E)/(T−R) …(15)
一例として、E=65mm、T=2mとして、画面31の手前1.2m(R=1.2m)の位置に映像V3が表示されているように見せたい場合、映像視差Aの大きさは10cmとなり、右目用の表示映像と左目用の表示映像との間を10cmずらせばよいことになる。そしてこの場合においても、この映像視差Aと、検出面11上でのx軸方向への指の移動量Dとを、
A=α・D (αは比例定数) …(14)
のように関連付けることで、指の移動量と3次元映像V3とを相互に対応させることができる。
以上のように本実施形態の入力制御システムにおいては、画面31の奥行き方向に沿った3次元映像V3の適切な表示制御が可能となる。また、入力装置1の姿勢操作と検出面11上での指の移動操作によって、画面31に表示された画像を3次元的に制御することができるため、操作性が高く、ユーザの直感に即した操作感を得ることができる。
以上、本発明の実施形態について説明したが、本発明はこれに限定されることはなく、本発明の技術的思想に基づいて種々の変形が可能である。
例えば以上の実施形態では、角度検出ユニット13は、入力装置(筐体)の各軸方向に沿って配置された3つの加速度センサ13x,13y,13zで構成される場合に限られない。筐体10の検出すべき傾斜方向、傾斜角範囲等に応じては、これら加速度センサは単数または2つであってもよい。すなわち、筐体10のy軸回りの傾斜角を0〜90度の範囲で検出する場合には、x軸方向に加速度センサを1つ配置すればよい。また、筐体10のx軸及びy軸周りの傾斜角をそれぞれ0〜90度の範囲で検出する場合には、x軸及びy軸の各方向に加速度センサをそれぞれ配置すればよい。
また、角度検出ユニットに角速度センサが含まれてもよい。これにより、重力方向に関係なく筐体10の所望の軸方向の傾斜角を検出することができる。また、加速度センサと角速度センサとを同時に使用し、一方を主センサ、他方を補助センサとして用いることもできる。さらに、加速度センサや角速度センサ等のいわゆる慣性センサに代えて、地磁気センサ等を用いてもよい。この場合、例えば2軸あるいは3軸地磁気センサを用いて角度検出ユニットを構成することができる。
さらに、画面の隅部や地面等の所定位置に電磁気学的もしくは光学的な発信点を複数設置することで、グローバル座標系に対する入力装置の傾きを検出するようにしてもよい。この種の発信点としては、例えばレーザ光源、撮像素子等が挙げられる。
一方、センサパネル12を用いた検出対象(指)の位置座標の検出には、重心計算を適用することで検出精度を向上させることができる。例えば図13に示すようにx位置検出用の配線x1、x2、x3、x4、x5、…における信号の大きさをそれぞれM1、M2、M3、M4、M5、…とすると、重心を求める一般式は、次のように表される。
重心位置=ΣMiXi/ΣMi …(16)
y軸方向についても同様に演算される。
以上のようにしてx軸の信号の重心とy軸の信号の重心を算出することで、指の位置座標が算出される。
1…入力装置
2…画像制御装置
3…表示装置
11…検出面
12…センサパネル
13…角度検出ユニット
14…外部スイッチ
15,25…MPU
31…画面
100、200…入力制御システム
F…指
V1〜V3…画像

Claims (7)

  1. 2次元的な検出面を有する筐体と、
    前記検出面上を移動する検出対象の位置座標を検出し、前記検出対象の移動方向及び移動量を算出するための第1の信号を出力する第1の検出部と、
    画面が属する空間座標系内の一基準面に対する前記検出面の傾きを検出し、前記基準面に対する前記検出面の傾斜角を算出するための第2の信号を出力する第2の検出部と、
    前記第1の信号及び前記第2の信号に基づいて、前記画面に表示される3次元画像の映像視差の大きさを制御するための制御信号を生成する制御部と
    を具備する入力装置。
  2. 請求項1に記載の入力装置であって、
    前記検出面は、第1の軸と、前記第1の軸と直交する第2の軸とを有し、
    前記第2の検出部は、重力方向に対する前記第1の軸及び前記第2の軸の少なくとも一方の軸方向についての傾斜角に応じた信号を出力する加速度センサを含む
    入力装置。
  3. 請求項1に記載の入力装置であって、
    前記筐体に設けられ、押圧操作されることで第3の信号を生成するスイッチをさらに具備し、
    前記制御部は、前記第3の信号に基づいて、前記画面に表示された画像を選択するための第2の制御信号を生成する
    入力装置。
  4. 請求項1に記載の入力装置であって、
    前記第1の検出部は、前記検出面に対する検出対象の近接位置を静電的に検出する容量センサを含む
    入力装置。
  5. 2次元的な検出面を有する筐体と、前記検出面上を移動する検出対象の位置座標を検出し、前記検出対象の移動方向及び移動量を算出するための第1の信号を出力する第1の検出部と、画面が属する空間座標系内の一基準面に対する前記検出面の傾斜角を検出し、前記基準面に対する前記検出面の傾斜角を算出するための第2の信号を出力する第2の検出部と、前記第1の信号及び前記第2の信号を送信する送信部とを有する入力装置と、
    前記送信部から送信された前記第1の信号及び前記第2の信号を受信する受信部と、前記第1の信号及び前記第2の信号に基づいて、画面に表示される3次元画像の映像視差の大きさを制御するための制御信号を生成する制御部とを有する情報処理装置と
    を具備する入力制御システム。
  6. 2次元的な検出面上を移動する検出対象の位置座標を検出する第1の検出部の出力に基づいて、前記検出対象の移動方向及び移動量を算出し、
    画面が属する空間座標系内の一基準面に対する前記検出面の傾きを検出する第2の検出部の出力に基づいて、前記基準面に対する前記検出面の傾斜角を算出し、
    前記検出対象の移動方向及び移動量と、前記基準面に対する前記検出面の傾斜角とに基づいて、前記画面に表示される3次元画像の映像視差の大きさを制御する
    情報処理方法。
  7. 情報処理装置に、
    2次元的な検出面上を移動する検出対象の位置座標を検出する第1の検出部の出力に基づいて、前記検出対象の移動方向及び移動量を算出するステップと、
    画面が属する空間座標系内の一基準面に対する前記検出面の傾きを検出する第2の検出部の出力に基づいて、前記基準面に対する前記検出面の傾斜角を算出するステップと、
    前記検出対象の移動方向及び移動量と、前記基準面に対する前記検出面の傾斜角とに基づいて、前記画面に表示される3次元画像の映像視差の大きさを制御するステップと
    を実行させるプログラム。
JP2010232469A 2010-10-15 2010-10-15 入力装置、入力制御システム、情報処理方法及びプログラム Expired - Fee Related JP5561092B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010232469A JP5561092B2 (ja) 2010-10-15 2010-10-15 入力装置、入力制御システム、情報処理方法及びプログラム
CN2011103058388A CN102455801A (zh) 2010-10-15 2011-09-30 输入装置、输入控制系统、信息处理方法及程序
US13/252,441 US20120092332A1 (en) 2010-10-15 2011-10-04 Input device, input control system, method of processing information, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010232469A JP5561092B2 (ja) 2010-10-15 2010-10-15 入力装置、入力制御システム、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2012088764A JP2012088764A (ja) 2012-05-10
JP5561092B2 true JP5561092B2 (ja) 2014-07-30

Family

ID=45933752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010232469A Expired - Fee Related JP5561092B2 (ja) 2010-10-15 2010-10-15 入力装置、入力制御システム、情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US20120092332A1 (ja)
JP (1) JP5561092B2 (ja)
CN (1) CN102455801A (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5875069B2 (ja) 2012-03-22 2016-03-02 任天堂株式会社 ゲームシステム、ゲーム処理方法、ゲーム装置、およびゲームプログラム
JP5967995B2 (ja) * 2012-03-22 2016-08-10 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、および判別方法
US20130271355A1 (en) 2012-04-13 2013-10-17 Nokia Corporation Multi-segment wearable accessory
US20150070288A1 (en) * 2012-04-28 2015-03-12 Thomson Licensing Method and apparatus for providing 3d input
US20140047393A1 (en) * 2012-08-07 2014-02-13 Samsung Electronics Co., Ltd. Method and portable apparatus with a gui
DE102013007250A1 (de) * 2013-04-26 2014-10-30 Inodyn Newmedia Gmbh Verfahren zur Gestensteuerung
JP6548956B2 (ja) * 2015-05-28 2019-07-24 株式会社コロプラ システム、方法、およびプログラム
JP6311672B2 (ja) * 2015-07-28 2018-04-18 トヨタ自動車株式会社 情報処理装置
CN108344800B (zh) * 2018-01-17 2020-04-14 浙江大学 基于无线无源声表面波传感器的温度检测系统及收发系统
CN114063797A (zh) * 2021-11-08 2022-02-18 联想(北京)有限公司 一种处理方法及电子设备

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0227418A (ja) * 1988-07-15 1990-01-30 A T R Tsushin Syst Kenkyusho:Kk 三次元座標入力制御装置
JPH087477Y2 (ja) * 1990-03-29 1996-03-04 横河電機株式会社 三次元マウス
JP3842316B2 (ja) * 1994-07-08 2006-11-08 セイコーインスツル株式会社 位置検出装置および傾斜センサ
US6710770B2 (en) * 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
DE10101843B4 (de) * 2001-01-17 2007-04-26 Rathert, Horst, Dipl.-Ing. Dreischneider insbesondere für Kleinauflagen
US7667686B2 (en) * 2006-02-01 2010-02-23 Memsic, Inc. Air-writing and motion sensing input for portable devices
RU2008140739A (ru) * 2006-03-15 2010-04-20 Квэлкомм Инкорпорейтед (US) Система определения ориентации на основе датчиков
US8969415B2 (en) * 2006-12-01 2015-03-03 Allergan, Inc. Intraocular drug delivery systems
TWI317498B (en) * 2006-12-12 2009-11-21 Ind Tech Res Inst Inertial input apparatus with six-axial detection ability and the opearting method thereof
US8674948B2 (en) * 2007-01-31 2014-03-18 Perceptive Pixel, Inc. Methods of interfacing with multi-point input devices and multi-point input systems employing interfacing techniques
US8416198B2 (en) * 2007-12-03 2013-04-09 Apple Inc. Multi-dimensional scroll wheel
KR101481556B1 (ko) * 2008-09-10 2015-01-13 엘지전자 주식회사 이동 단말기 및 이를 이용한 객체 표시방법
US8351910B2 (en) * 2008-12-02 2013-01-08 Qualcomm Incorporated Method and apparatus for determining a user input from inertial sensors
WO2010113397A1 (ja) * 2009-03-31 2010-10-07 三菱電機株式会社 表示入力装置
US8289316B1 (en) * 2009-04-01 2012-10-16 Perceptive Pixel Inc. Controlling distribution of error in 2D and 3D manipulation
JP5988549B2 (ja) * 2010-08-20 2016-09-07 任天堂株式会社 位置算出システム、位置算出装置、位置算出プログラム、および位置算出方法

Also Published As

Publication number Publication date
JP2012088764A (ja) 2012-05-10
CN102455801A (zh) 2012-05-16
US20120092332A1 (en) 2012-04-19

Similar Documents

Publication Publication Date Title
JP5561092B2 (ja) 入力装置、入力制御システム、情報処理方法及びプログラム
CN101606120B (zh) 控制装置、输入装置、控制系统、控制方法和手持装置
JP5810707B2 (ja) 情報処理装置
CN102830795B (zh) 利用运动传感装置的远程控制
US20140210748A1 (en) Information processing apparatus, system and method
US20150049019A1 (en) Control device, input device, control system, handheld device, and control method
TW201911133A (zh) 用於多個自由度之控制器追蹤
CN103513894A (zh) 显示设备、远程控制设备及其控制方法
JP5640716B2 (ja) 情報処理装置及び情報処理システム
JP2010152761A (ja) 入力装置、制御装置、制御システム、電子機器及び制御方法
US8614671B2 (en) Input apparatus, control apparatus, control system, and control method
JP2004288188A (ja) マグネチックセンサを用いたペン型入力システムおよびその軌跡復元方法
JPWO2009072471A1 (ja) 入力装置、制御装置、制御システム、制御方法及びハンドヘルド装置
CN204945943U (zh) 用于为外部显示设备提供远程控制信号的远程控制设备
JP5817322B2 (ja) 情報処理装置、情報処理システム及び操作デバイス
US10114478B2 (en) Control method, control apparatus, and program
CN104049773A (zh) 电子笔的书写位置数据处理方法、装置及一种书写系统
EP3264368A1 (en) Display of polyhedral virtual objects
JP2010157106A (ja) 入力装置、制御装置、ハンドヘルド装置、制御システム及び制御方法
JP5933468B2 (ja) 情報表示制御装置、情報表示装置および情報表示制御方法
US20200409478A1 (en) Enhanced 2D/3D Mouse For Computer Display Interactions
JP4538610B2 (ja) 情報入出力システム
JP6041708B2 (ja) 車載用情報表示制御装置、車載用情報表示装置および情報表示制御方法
JP5889230B2 (ja) 情報表示制御装置、情報表示装置および情報表示制御方法
KR101584811B1 (ko) 디스플레이 장치, 그 제어 방법 및 리모컨

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140526

LAPS Cancellation because of no payment of annual fees