JP2014149815A - 情報処理装置、システムおよび方法 - Google Patents

情報処理装置、システムおよび方法 Download PDF

Info

Publication number
JP2014149815A
JP2014149815A JP2013267811A JP2013267811A JP2014149815A JP 2014149815 A JP2014149815 A JP 2014149815A JP 2013267811 A JP2013267811 A JP 2013267811A JP 2013267811 A JP2013267811 A JP 2013267811A JP 2014149815 A JP2014149815 A JP 2014149815A
Authority
JP
Japan
Prior art keywords
touch screen
screen panel
input interface
interface device
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013267811A
Other languages
English (en)
Inventor
Tokuu Narita
篤雨 成田
Kazunari Fujiwara
一成 藤原
Ryuji Miki
龍司 三木
Masami Yokota
雅美 横田
Eric Chan
エリック・チャン
Natsume Shigeru
シゲル・ナツメ
Warren Silas
サイラス・ウォーレン
Enever Simon
シモン・エネバー
Hao Fang
ハオ・ファン
Ryoichi Yagi
良一 矢木
Seishi Nakanishi
清史 中西
Takeshi Shimamoto
武史 島本
Seiji Kubo
聖治 久保
Tomoo Kimura
智生 木村
Hiromichi Nishiyama
弘道 西山
Shiyougo Mikami
昇悟 三上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to US14/164,404 priority Critical patent/US20140210748A1/en
Publication of JP2014149815A publication Critical patent/JP2014149815A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】種々の入力装置を持ち替えることを必要せず、より簡単に、かつ直感的に操作するためのユーザ・インタフェースを提供する。
【解決手段】情報処理装置10aは、映像を表示し、ユーザによるタッチ操作を受け付けるタッチスクリーンパネル14と、ユーザによる、タッチスクリーンパネル14への操作を検出する検出回路21と、操作に応じた処理を行う処理回路20とを備えている。ユーザが、各々が異なる形状の複数の面を有する多面体の入力インタフェース装置を用いて操作を行ったときにおいて、検出回路21は、操作時に入力インタフェース装置がタッチスクリーンパネルに接触した領域の形状を検出することにより、操作に利用された多面体の面を特定し、処理回路20は特定された面に関連付けられた処理を実行する。
【選択図】図2

Description

本開示は、タッチスクリーンパネルを備えた情報処理装置に入力を行うためのユーザ・インタフェース技術に関する。
特許文献1は、マウスなどの座標指示装置に代替されるユーザ入力装置として、立方体を始めとする多面体形状の物体を採用する技術を開示する。この文献では、ユーザ入力装置としての物体を所定の操作面上に置いた位置が、座標指示情報として、コンピュータに入力される。また、操作面上に置くべき物体を複数の候補の中から選択することによって、メニューが選択される。さらに、物体を構成するそれぞれの面に対して、ユーザ・コマンド、機能、処理などが割り付けられている。
特開2001−265523号公報
本開示は、種々の入力装置を持ち替えることを必要とせず、より簡単に、かつ直感的に操作するためのユーザ・インタフェースを提供する。
本開示における情報処理装置は、映像を表示し、ユーザによる操作を受け付けるタッチスクリーンパネルと、ユーザによる、前記タッチスクリーンパネルへの前記操作を検出する検出回路と、前記操作に応じた処理を行う処理回路とを備え、前記ユーザが、各々が異なる形状の複数の面を有する多面体の入力インタフェース装置を用いて前記操作を行ったときにおいて、前記検出回路は、前記入力インタフェース装置が前記タッチスクリーンパネルに接触している領域の形状を検出することにより、前記操作に利用された前記多面体の面を特定し、前記処理回路は特定された面に関連付けられた処理を実行する。
ある実施形態において、前記入力インタフェース装置が前記タッチスクリーンパネルに接触したことを前記検出回路が検出したときは、前記処理回路は、前記接触した位置の近傍に、所定のパターンを表示させる。
ある実施形態において、前記処理回路は、前記所定のパターンを表示させた後、前記検出回路が予め定められた期間内に前記ユーザによる追加の操作を検出しない場合には、前記処理回路は、前記タッチスクリーンパネルに表示されている画像を所定の倍率だけ拡大する。
ある実施形態において、前記多面体の第1の面が前記タッチスクリーンパネルに接触しており、前記ユーザが、ペン形状の入力インタフェース装置を用いてさらに操作を行うときにおいて、前記タッチスクリーンパネルに接触させた前記多面体および前記ペン形状の各入力インタフェース装置の相対的な距離が変更されたことを前記検出回路が検出したときは、前記処理回路は、前記タッチスクリーンパネルに表示されている画像を、前記相対的な距離に応じた倍率だけ変更する。
ある実施形態において、前記多面体の第1の面が前記タッチスクリーンパネルに接触しており、前記タッチスクリーンパネルに接触させた前記多面体の入力インタフェース装置が、前記タッチスクリーンパネルに垂直な軸の周りに回転したことを前記検出回路が検出したときは、前記処理回路は、前記タッチスクリーンパネルに表示されている画像を回転させる。
ある実施形態において、前記処理回路は、前記入力インタフェース装置の回転方向および回転角度と同じ回転方向および回転角度だけ、前記タッチスクリーンパネルに表示されている画像を回転させる。
ある実施形態において、前記多面体の第1の面が前記タッチスクリーンパネルに接触しており、前記ユーザが、ペン形状の入力インタフェース装置を用いてさらに操作を行うときにおいて、前記タッチスクリーンパネルに接触させた前記多面体および前記ペン形状の各入力インタフェース装置が、同じ回転方向に回転したことを前記検出回路が検出したときは、前記処理回路は、前記タッチスクリーンパネルに表示されている画像を回転させる。
ある実施形態において、前記多面体の第1の面が前記タッチスクリーンパネルに接触しており、前記タッチスクリーンパネルに接触させた前記多面体の入力インタフェース装置が、前記タッチスクリーンパネル上をドラッグされたことを検出したときは、前記処理回路は、前記ドラッグされた方向および距離に応じて、前記タッチスクリーンパネルに表示されている画像の表示範囲を変更する。
ある実施形態において、前記多面体の第2の面が前記タッチスクリーンパネルに接触しており、前記ユーザが、ペン形状の入力インタフェース装置を用いてさらに操作を行うときにおいて、前記タッチスクリーンパネルには、定規の画像オブジェクトが表示されており、前記ペン形状の入力インタフェース装置の位置が、前記画像オブジェクトに沿って直線上に移動したことを前記検出回路が検出したときは、前記処理回路は、前記画像オブジェクトに沿って直線のオブジェクトを表示する。
ある実施形態において、前記多面体の第3の面が前記タッチスクリーンパネルに接触しており、前記ユーザが、ペン形状の入力インタフェース装置を用いてさらに操作を行うときにおいて、前記ペン形状の入力インタフェース装置の位置の変化を前記検出回路が検出したときは、前記処理回路は、前記位置の変化に対応する筆跡のデータに基づいて文字の認識を行い、認識された前記文字を前記タッチスクリーンパネルに表示する。
ある実施形態において、前記多面体の第4の面が前記タッチスクリーンパネルに接触しているときにおいて、前記タッチスクリーンパネルには、180度反転された2種類の映像が表示され、前記2種類の映像は映像上の位置に関して所定の対応関係を有しており、前記多面体の位置の変化を前記検出回路が検出したときは、前記処理回路は、前記一方の映像上で移動された前記多面体の位置の変化に基づいて、対応する位置が表示されるよう前記他方の映像の表示を制御する。
ある実施形態において、前記入力インタフェース装置は、前記入力インタフェース装置の姿勢の変化を検出し、検出した前記姿勢の変化に関する情報を出力する姿勢検出モジュールを備え、前記情報処理装置は、前記姿勢の変化に関する情報を受信する通信回路をさらに備え、前記処理回路は、前記姿勢の変化に関する情報に基づいて前記タッチスクリーンパネルに表示された画像の表示態様を変更する。
本開示にかかる情報処理システムは、上述の情報処理装置と、前記タッチスクリーンパネルへの操作に際して利用される、各々が異なる形状の複数の面を有する多面体の第1入力インタフェース装置と、前記タッチスクリーンパネルへの操作に際して利用される、ペン形状の第2入力インタフェース装置とを備え、前記タッチスクリーンパネルに画像が表示されている状態で、前記第1入力インタフェース装置、および前記第2入力インタフェース装置が予め定められた規則で操作されたことを前記検出回路が検出したときは、前記処理回路は前記画像の表示を変更する。
本開示にかかる情報処理方法は、上述の情報処理装置と、前記タッチスクリーンパネルへの操作に際して利用される、各々が異なる形状の複数の面を有する多面体の第1入力インタフェース装置と、前記タッチスクリーンパネルへの操作に際して利用される、ペン形状の第2入力インタフェース装置とを備えた情報処理システムを利用して実行される方法であって、前記タッチスクリーンパネルに画像が表示されている状態で、前記第1入力インタフェース装置、および前記第2入力インタフェース装置を利用して行われた操作を前記検出回路によって検出するステップと、前記検出回路によって検出された前記操作が、予め定められた規則に合致するか否かを判定するステップと、前記操作が予め定められた規則に合致する場合に、前記処理回路が前記画像の表示を変更させるステップとを包含する。
本開示における他の情報処理装置は、映像を表示し、ユーザによる操作を受け付けるタッチスクリーンパネルと、ユーザによる、前記タッチスクリーンパネルへの前記操作を検出する検出回路と、前記操作に応じた処理を行う処理回路とを備え、前記ユーザが、各々が異なる数の端子を備えた複数の面または各々が異なる配置の端子を備えた複数の面を有する入力インタフェース装置を用いて前記操作を行ったときにおいて、前記検出回路は、前記入力インタフェース装置が前記タッチスクリーンパネルに接触している端子の数または配置を特定し、前記処理回路は特定された端子の数または配置に応じた処理を実行する。
ある実施形態において、前記入力インタフェース装置は、前記入力インタフェース装置の姿勢の変化を検出し、検出した前記姿勢の変化に関する情報を出力する姿勢検出モジュールを備え、前記情報処理装置は、前記姿勢の変化に関する情報を受信する通信回路をさらに備え、前記処理回路は、前記姿勢の変化に関する情報に基づいて前記タッチスクリーンパネルに表示された画像の表示態様を変更する。
本願発明のある実施形態にかかる情報処理装置によれば、種々の入力装置を持ち替えることを必要せず、より簡単に、かつ直感的に操作するためのユーザ・インタフェースを提供することができる。
例示的な本実施形態による情報処理システム100の構成を示す図である。 タブレット端末10aのハードウェア構成を示す図である。 (a)、(b)および(c)はそれぞれ、コントロール・キューブ10bの正面図、背面図、および底面図である。 (a)および(b)は、コントロール・キューブ10bが、ユーザによってタブレット端末10aのタッチパネル11に載置される前後の状態を示す図である。 (a)は検出回路21がコントロール・キューブ10bの接触を検出し、パターン50を表示させた直後の状況を想定した図であり、(b)は詳細化されて表示された画像オブジェクト60bを示す図である。 (a)はコントロール・キューブ10bがタッチパネルに接触していることを、検出回路21が検出している状態で、かつ、さらにスタイラスペン10cが接触したときの図であり、(b)はドラッグによって縮小された画像オブジェクト60cを示す図である。 (a)は図5(a)に示す状態から、さらにコントロール・キューブ10bがその位置で回転されたときの、コントロール・キューブ10bのタッチ位置周辺の表示パネル12に表示される画像60dを示す図であり、(b)はコントロール・キューブ10bの回転方向およびドラッグ量にしたがって回転して表示された画像60fを示す図である。 コントロール・キューブ10bとスタイラスペン10cとを利用して回転操作を行う例を示す図である。 図5(a)に示す状態から、さらにコントロール・キューブ10bがタッチパネル11上をドラッグされたときの画像60gを示す図である。 コントロール・キューブ10bの近傍に表示された、複数のメニューアイコン70a〜70cを示す図である。 (a)は定規モード移行時の初期表示例を示す図であり、(b)は主として、所定の角度だけ回転されたときの定規の画像オブジェクト80aおよび80bを示す図である。 吹き出し挿入モード移行時の表示例を示す図である。 デュアル・ビュー・モードにおける表示例を示す図である。 (a)および(b)は、変形例1によるコントロール・シリンダ210の外観を示す図であり、(c)は導電性構造体216を有するコントロール・シリンダ210aの外観を示す図である。 (a)は変形例2によるコントロール・シリンダ220の斜視図を示し、(b)はその分解図を示す。 姿勢検出モジュール222のハードウェア構成を示す図である。 (a)は変形例2による導電性構造体223の上面斜視図を示し、(b)はその背面斜視図を示し、(c)はその分解図を示す。 (a)は変形例3によるコントロール・シリンダ230の斜視図を示し、(b)はその側面図を示し、(c)はその分解図を示す。 (a)は変形例4によるコントロール・シリンダ240の斜視図を示し、(b)はその分解図を示す。 (a)は変形例5によるコントロール・シリンダ250の斜視図を示し、(b)はその分解図を示す。 (a)は変形例6によるコントロール・シリンダ260の斜視図を示し、(b)はその側面図を示し、(c)はその分解図を示す。 姿勢検出モジュール222を有するコントロール・キューブ10dを示す図である。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、発明者(ら)は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
本明細書においては、情報処理装置をタブレット端末として説明する。
図1は、本実施形態による情報処理システム100の構成を示す。情報処理システム100は、タブレット端末10aと、コントロール・キューブ10bと、スタイラスペン10cとを備える。コントロール・キューブ10bおよびスタイラスペン10cは、それぞれ入力インタフェース装置である。ユーザはコントロール・キューブ10bおよびスタイラスペン10cを利用してタブレット端末10aにタッチ操作を行い、タブレット端末10aを動作させる。
タブレット端末10aは、タッチパネル11と、表示部12と、筐体13とを備える。
タッチパネル11は、ユーザのタッチ操作を受け付ける。タッチパネル11は、少なくとも操作領域をカバーする広さで、表示パネル12に重畳して配置されている。
本実施形態では、タッチパネル11および表示パネル12は別体であるとして説明するが、これらは一体的に形成されていてもよい。後述する図2には、タッチパネル11および表示パネル12の機能を包含するタッチスクリーンパネル14が示されている。なお、タッチスクリーンパネル14は、別体であるタッチパネル11および表示パネル12を重畳して形成される構成のほか、表示パネルの構造部品の中にセルに、タッチセンサー用の配線を設けた、いわゆるインセル方式の構成も含む。
表示パネル12は、いわゆる表示装置である。表示パネル12は、後述するグラフィックコントローラ22によって処理された画像データに基づく画像を表示する。表示パネル12は、文字、数字等のテキストデータや、図形を表示可能である。本明細書においては、表示パネル12は建築物の設計図等を表示するとして説明する。
本実施形態においては、表示パネル12は、32インチまたは20インチの液晶パネルであり、その画面解像度は、3,840×2,560ドットであるとする。
表示パネル12として、液晶パネルの他、例えば、有機ELパネル、電子ペーパ、プラズマパネルなどの公知の表示装置を用いることができる。なお、表示パネル12は、電源回路、駆動回路、およびパネルの種類によっては光源を含んでもよい。
筐体13は、タッチパネル11および表示部12を収納する。筐体13には電源ボタンや、スピーカ等がさらに設けられてもよいが、図1では記載は省略している。
再び図1を参照する。図1に示す情報処理システム100に含まれるコントロール・キューブ10bの詳細は、後に図3を参照しながら詳述する。
スタイラスペン10cは、ポインティングデバイスの一種である。ユーザは、スタイラスペン10cの先端部15をタッチパネル11に当接させることにより、タッチ操作を行う。スタイラスペン10cの先端部15は、タブレット端末10aのタッチパネル11におけるタッチ操作の検出方式に対応した材料で形成されている。本実施形態では、タッチパネル11は静電容量方式でタッチ操作を検出するため、スタイラスペン10cの先端部15は、導電性の金属繊維、または導電性のシリコンゴム等で形成されている。
図2は、タブレット端末10aのハードウェア構成を示す。
タブレット端末10aは、タッチパネル11と、表示パネル12と、マイクロコンピュータ20と、タッチ操作検出回路21と、グラフィックコントローラ22と、RAM23と、ストレージ24と、通信回路25と、スピーカ26と、バス27を備える。
タッチパネル11およびタッチ操作検出回路(以下「検出回路」と記述する。)21は、たとえば投影型静電容量方式でユーザのタッチ操作を検出する。
タッチパネル11は、ユーザが操作する側から順に、ガラスやプラスチックなどの絶縁体フィルム層、電極層、演算処理を行う検出回路21を搭載した基板層の順に構成されている。電極層には、X軸(たとえば横軸)とY軸(たとえば縦軸)に透明電極がマトリクス状に配置されている。なお、各電極は表示パネルの各画素より小さい密度で配置されていてもよいし、各画素と概ね同等の密度で配置されていてもよい。本実施形態では前者の構成を採用しているとして説明する。
タッチパネル11として、例えば、静電式、抵抗膜式、光学式、超音波方式電磁式などのタッチパネルを用いることもできる。
検出回路21は、X軸、およびY軸のマトリックスを順次スキャンする。そして、静電容量の変化を検出すると、検出回路21はその位置にタッチ操作が行われたことを検出し、表示パネル12の各画素と同等以上の密度(解像度)で座標情報を生成する。検出回路21は、同時に複数箇所のタッチ操作を検出することが可能である。検出回路21は、タッチ操作に起因して検出された一連の座標データを継続的に出力している。この座標データは、後述するマイクロコンピュータ20によって受け取られ、種々のタッチ操作(タップ、ドラッグ、フリック、スワイプなど)として検出される。なお、そのようなタッチ操作を検出する機能は、一般にはタブレット端末10aを動作させているオペレーティング・システムの機能として実現される。
本実施形態においては、ユーザは、後述する2種類の入力装置(「コントロール・キューブ」および「スタイラス」)を用いてタッチ操作を行う。「コントロール・キューブ」および「スタイラス」は、静電容量の変化を生じさせる材料を用いて形成されている。詳細は後述する。なお、タッチパネル11は、ユーザの指を用いるタッチ操作を受け付けてもよい。
マイクロコンピュータ20は、検出回路21から受け取ったユーザのタッチ位置の情報を用いて後述する各種の処理を行う処理回路(たとえばCPU)である。
グラフィックコントローラ22は、マイクロコンピュータ20によって生成される制御信号に基づいて動作する。グラフィックコントローラ22は、表示パネル12に表示される画像データを生成し、表示パネル12の表示動作を制御する。
RAM23は、いわゆるワークメモリである。RAM23には、マイクロコンピュータ20によって実行される、タブレット端末10aを動作させるためのコンピュータプログラムが展開される。
ストレージ24は、たとえばフラッシュメモリである。ストレージ24には、表示に利用される画像データ24a、上述のコンピュータプログラム24bが格納されている。本実施形態において、画像データ24aは、設計図のような静止画像のデータ、後述する建築物のバーチャルツアーを可能にするための三次元動画像データを含む。
通信回路25は、例えばインターネットや、パーソナルコンピュータ等への通信を可能とする回路である。通信回路25は、たとえば、Wi−Fi規格、および/またはBluetooth(登録商標)規格に準拠した無線通信回路である。
スピーカ26は、マイクロコンピュータ20が生成した音声信号に基づく音声を出力する。
バス27は、タッチパネル11および表示パネル12を除く、上述した構成要素を相互に接続し、信号の授受を可能にするための信号線である。
次に、図3を参照しながら、コントロール・キューブ10bを説明する。
図3(a)、(b)および(c)はそれぞれ、コントロール・キューブ10bの正面図、背面図、および底面図である。
コントロール・キューブ10bは、種々の形状の面40〜43を有している。具体的には、面40は正方形、面41は三角形、面42は半円形、面43は長方形である。
コントロール・キューブ10bは多面体の入力インタフェース装置である。タブレット端末10aの検出回路21は、静電容量方式のタッチパネル11に当てられたコントロール・キューブ10bの面の形状を検出することが可能である。タブレット端末10aのマイクロコンピュータ20は、検出された面に応じて、タブレット端末10aに異なる動作を行わせる。このような目的のため、コントロール・キューブ10bは相互に異なる形状を有している。
タブレット端末10aの検出回路21がコントロール・キューブ10bの面の形状を検出するために、コントロール・キューブ10bの少なくとも表面は導電性材料で形成されている。さらにコントロール・キューブ10bは、透明の材料で形成されている。これは、コントロール・キューブ10bがタッチパネル11に載置されたとき、ユーザが表示パネル12に表示された画像をコントロール・キューブ10bが遮らないようにするためである。これらを満足するため、コントロール・キューブ10bは、透明のポリカーボネートの表面にITO(酸化インジウムスズ)製の透明導電性粉末が塗布されて構成されている。
静電容量の変化範囲(面積)が特定値以下である場合には、検出回路21は、その入力がスタイラスペン10cを用いて行われたと検出する。これは、電極の配置密度によっては、スタイラスペン10cを用いて操作した場合でも静電容量の変化範囲は点ではなく領域になり得ることを意味している。一方、静電容量の変化範囲(面積)が特定値以上である場合には、検出回路21は、その領域の形状を判定し、さらにその形状が面40〜43のいずれの形状と一致するかを判定する。これにより、検出回路21は、コントロール・キューブ10bのどの面がタッチパネル11に当てられたのかを特定することが可能である。なお、この動作の前提として、タブレット端末10aのRAM23またはストレージ24には、コントロール・キューブ10bの各面の形状、サイズの情報を保持している。
なお、「キューブ」(cube)は正六面体を意味することがあるが、上述のように本実施形態ではコントロール・キューブ10bは正六面体ではない。各面の形状は多角形または円形であってもよく、相互に異なっているとする。また一部に曲面を有していてもよい。
なお、本実施形態によるコントロール・キューブでは、面と面とが交わって形成される辺、および辺と辺との交点である頂点(いわゆるエッジ)は角張っているとして説明する。しかしながら、エッジが角張っている必要はない。コントロール・キューブが、入力インタフェースとして使用されることを考慮すると、持ちやすさ、安全性、タッチスクリーンの傷付き防止のためにエッジに丸みを持たせてもよい。
上述のように、コントロール・キューブ10bのどの面がタブレット端末10aのタッチパネル11に当てられているかによって、タブレット端末10aは異なる動作または処理を行う。以下、その動作の詳細を説明する。
1.タッチ検出処理/タッチ離脱検出処理
図4(a)および(b)は、コントロール・キューブ10bが、ユーザによってタブレット端末10aのタッチパネル11に載置される前後の状態を示す。図4に関連する処理は、コントロール・キューブ10bのどの面がタッチパネル11に触れているかに拘わらず行われる表示処理である。コントロール・キューブ10bの面に応じた処理に関しては後述する。
図4(a)に示されるように、コントロール・キューブ10bがタッチパネル11に近づけられ、載置される。すると、タブレット端末10aの検出回路21は、コントロール・キューブ10bが載置された領域を認識する。本明細書では、この領域を巨視的に点とみなして「タッチ位置」と呼ぶこともある。検出回路21は、認識結果であるコントロール・キューブ10bの位置の情報をマイクロコンピュータ20に送信する。
マイクロコンピュータ20は、グラフィックコントローラ22に制御信号を送信し、グラフィックコントローラ22に、コントロール・キューブ10b認識時の映像効果表示処理を行うよう指示する。するとグラフィックコントローラ22は、認識された領域、またはその領域の中心位置を基準とした所定の範囲に他と区別可能なパターンを表示する。たとえば、グラフィックコントローラ22は、図4(b)に示されるように、領域の中心位置を基準とする円のパターン50をフェードインで表示させる。この表示はコントロール・キューブ10bがタッチパネル11上から取り除かれるまで表示されていてもよい。なお、中心位置は例である。タッチ位置の近傍にパターンを表示することにより、ユーザはコントロール・キューブ10bの存在が認識されたことを知ることができる。
コントロール・キューブ10bがタッチスクリーンから離されたときは、検出回路21は、コントロール・キューブ10bに起因して変化していた静電容量が所定の基準状態に戻ったことを検出し、コントロール・キューブ10bがタッチスクリーンから離されたことをマイクロコンピュータ20に送信する。
マイクロコンピュータ20は、グラフィックコントローラ22に制御信号を送信し、グラフィックコントローラ22に、コントロール・キューブ10b離脱時の映像効果表示処理を行うよう指示する。するとグラフィックコントローラ22は、一定時間(たとえば0.5秒)経過後、当該パターン50の表示を消す。単に消してもよいし、フェードアウトさせてもよい。または、パターン50を少し大きく拡大した後、フェードアウトさせてもよい。表示が消えるまでの態様は任意である。
2.ビュー変更処理
次に、表示パネル12に表示された画像が、タッチ操作によって拡大され、縮小され、移動される処理を説明する。これらの処理を行うモードを「ビュー変更モード」と称する。タブレット端末10aは、たとえばコントロール・キューブ10bの底面42がタッチパネル11に接触していることを検出すると、動作モードをビュー変更モードに切り替える。換言すると、コントロール・キューブ10bの底面42には、ビュー変更モードの機能が割り当てられている。
2.1.位置認識後の画像拡大処理
図5(a)は、検出回路21がコントロール・キューブ10bの接触を検出し、パターン50を表示させた直後の状況を想定した図である。なお、図5(a)には説明の便宜のため、パターン50は明示されていない。
図5(a)に示す状況において、検出回路21が、一定期間(たとえば0.5秒)以内に追加の操作を検出しない場合には、タブレット端末10aはビュー変更モードに移行する。マイクロコンピュータ20はグラフィックコントローラ22に指示して、コントロール・キューブ10bのタッチ位置に表示されている画像オブジェクト60aを詳細化した画像を表示させる。詳細図への変更時には、グラフィックコントローラ22は、あたかも画像表示が拡大されたような視覚効果を与えてもよい。
図5(b)は、詳細化されて表示された画像オブジェクト60bを示す。なお、拡大率は予め定められていてもよい。グラフィックコントローラ22は、拡大率の表示を表示パネル12の表示領域内のいずれかの位置に表示してもよい。図5(b)では、画像の右上に倍率表示欄61が表示されている。他の例として、コントロール・キューブ10bのタッチ位置近傍に表示されてもよい。
時間の経過に伴って、グラフィックコントローラ22は段階的に画像オブジェクト60aを拡大してもよい。拡大・縮小時には、原図からの倍率が表示される(たとえば倍率表示欄61)。
2.2.コントロール・キューブ10bおよびスタイラスペン10cを用いた拡大/縮小処理
図6(a)は、コントロール・キューブ10bがタッチパネルに接触していることを、検出回路21が検出している状態で、かつ、さらにスタイラスペン10cの接触を検出したときの状況を示す。ユーザがスタイラスペン10cをタッチパネルに当てることにより、タブレット端末10aはビュー変更モードに移行する。
ユーザが、コントロール・キューブ10bのタッチ位置とスタイラスペン10cのタッチ位置との間隔を広げる/狭めると、マイクロコンピュータ20は、表示されている画像を拡大する/縮小するよう、グラフィックコントローラ22に指示する。グラフィックコントローラ22は、変更された間隔に応じて決まる拡大率にしたがい、画像を拡大する。拡大率の情報は、たとえばマイクロコンピュータ20からグラフィックコントローラ22に伝えられる。
たとえば図6(a)のスタイラスペン10cを矢印の方向にドラッグする。図6(b)は、ドラッグによって縮小された画像オブジェクト60cを示す。なお、この例ではスタイラスペン10cのタッチ位置のみを変更する例を説明したが、コントロール・キューブ10bのタッチ位置のみを変更してもよいし、またはスタイラスペン10cおよびコントロール・キューブ10bの各タッチ位置を同時に変更してもよい。倍率は、両者のタッチ位置の相対的な変化量に応じて決定されればよい。また、マイクロコンピュータ20が、間隔を広げる際の速さ(相対的な位置の変化速度)を計算することにより、当該変化速度を利用して拡大率を決定してもよい。
ユーザがコントロール・キューブ10bおよび/またはスタイラスペン10cをタッチスクリーンから離したことを検出回路21が検出すると、ビュー変更モードは終了する。拡大および縮小は、予め定められたレベルまで可能である。拡大および縮小中は、原図からの倍率が表示される。たとえばグラフィックコントローラ22は、図5(b)に示すような倍率表示欄61に倍率を表示してもよいし、コントロール・キューブ10bのタッチ位置近傍に表示してもよい。
2.3.コントロール・キューブ10bおよびスタイラスペン10cを用いた回転処理
図7(a)は、図5(a)に示す状態から、さらにコントロール・キューブ10bがその位置で回転されたときの、コントロール・キューブ10bのタッチ位置周辺の表示パネル12に表示される画像60dを示す。図7(a)は、コントロール・キューブ10bが載置された表示パネル12を真上から見下ろしたときの、コントロール・キューブ10bと画像60dとの位置関係を示している。
まず、図5(a)に示す状況において、検出回路21が、コントロール・キューブ10bの回転を検出する。ここでいう回転とは、ユーザが、コントロール・キューブ10bをタッチパネル11に垂直な軸の周りに回転させることを意味する。このとき、タッチパネル11上の位置は実質的に変更されない。検出回路21は、静電容量の変化を継続的に検出することにより、コントロール・キューブ10bの底面42(図3)の形状を逐次検出する。この結果、マイクロコンピュータ20は、コントロール・キューブ10bが回転していることを検出する。するとマイクロコンピュータ20は、グラフィックコントローラ22に指示して、回転角度を示す角度目盛り画像60dと、図5(a)に示す位置を基準として算出された角度の画像60eを、コントロール・キューブ10bのタッチ位置の周囲に表示させる。画像60dおよび60eは、回転中継続して表示される。図7(a)は、図5(a)に示されるコントロール・キューブ10bが、半時計回りに32度回転されたときの表示例である。なお、図7(a)には「半時計回り」であることを示す情報は示されていないが、その情報を、たとえば回転方向を示す矢印で明示してもよい。
コントロール・キューブ10bの回転操作とともに、マイクロコンピュータ20はグラフィックコントローラ22に指示して、図5(a)に表示されていた画像60aを回転させる。
図7(b)は、コントロール・キューブ10bの回転方向およびドラッグ量にしたがって回転して表示された画像60fを示す。なお図7(b)ではコントロール・キューブ10bおよびスタイラスペン10cの表示は省略されている。
なお、コントロール・キューブ10bとスタイラスペン10cとを利用して回転操作を行うこともできる。たとえば図8の矢印によって示されるように、コントロール・キューブ10bとスタイラスペン10cとをタッチパネル11に接触させて、円を描くように同じ回転方向にドラッグする。マイクロコンピュータ20は、検出回路21から受け取った一連の検出結果(座標データ)の変化に基づいて、コントロール・キューブ10bおよびスタイラスペン10cが回転しながらドラッグされていることを検出する。すると、マイクロコンピュータ20は、グラフィックコントローラ22に指示して、図5(a)に表示されていた画像60aを回転させる。その結果、表示パネル12には、やはり図7(b)に示す画像60fが表示される。
2.4.ドラッグによる表示範囲の移動処理
図9は、図5(a)に示す状態から、さらにコントロール・キューブ10bがタッチパネル11上をドラッグされたときの画像60gを示す。
コントロール・キューブ10bのみがタッチパネル11に接触している状態で、タッチパネル11上のコントロール・キューブ10bをドラッグすると、表示範囲が、ドラッグされた方向および距離に応じて移動する。検出回路21は図5(a)に示す位置から図面左下方向にドラッグされたことを検出する。すると、マイクロコンピュータ20はグラフィックコントローラ22に指示して、表示範囲を図9に示すように変更させる。その結果、当初表示されていた画像オブジェクト60aが左下に位置し、たとえばこれまで表示されていなかった画像オブジェクト60gや60hなどが表示される。
3.メニュー表示・選択処理
次に、コントロール・キューブ10bの異なる面をタッチパネル11に接触させることによって行われる、ビュー変更処理とは異なる処理を説明する。以下の例では、コントロール・キューブ10bの背面に位置する、矩形の面43をタッチパネル11に接触させるとして説明する。
3.1.メニューアイコンの表示
コントロール・キューブ10bの面43(図3(b))がタッチパネル11に触れると、検出回路21は、認識した領域の形状に基づいて面43がタッチパネル11に接触していることを認識する。すると、タブレット端末10aは、動作モードをメニュー表示・選択処理モードに切り替える。換言すると、コントロール・キューブ10bの面43には、メニュー表示・選択処理モードの機能が予め割り当てられている。
動作モードがメニュー表示・選択処理モードに切り替えられると、マイクロコンピュータ20はグラフィックコントローラ22に指示して、複数のメニューアイコンをコントロール・キューブ10bの近傍に表示させる。
図10は、コントロール・キューブ10bの近傍に表示された、複数のメニューアイコン70a〜70cを示す。図10には、コントロール・キューブ10bも示されている。つまり図10は、図7と同様、コントロール・キューブ10bが載置された表示パネル12を真上から見下ろしたときの、コントロール・キューブ10bとメニューアイコン70a〜70dとの位置関係を示している。面43がタッチパネル11に接触するようにコントロール・キューブ10bが載置されているため、上方から見下ろしたとき、面41が上側に位置することになる。
なお、メニューアイコン70aは電子的に表示された定規を利用する定規モードである。メニューアイコン70bは手書き文字の認識により、吹き出しを作成する吹き出し挿入モードである。メニューアイコン70cはメジャーを利用して表示図面上の長さを計測するメジャーモードである。
以下、各メニューアイコンが選択されたときの処理を説明する。なお、アイコンが選択されると、マイクロコンピュータ20はグラフィックコントローラ22に指示して、図10に示すメニューアイコン70a〜70cの表示を消去させ、以下に説明する画像を表示する。
3.2.定規モード選択時の処理
ユーザが、定規が示されたメニューアイコン70aの表示位置をスタイラスペン10cを用いてタップすると、検出回路21はその位置にスタイラスペン10cが触れたことを認識する。するとマイクロコンピュータ20は、その位置に対応して表示されていたメニューアイコンが選択されたと判断する。その結果、タブレット端末10aは、そのメニューアイコンに対応する定規モードに移行する。
図11(a)は、定規モード移行時の初期表示例を示す。マイクロコンピュータ20の指示により、グラフィックコントローラ22は、図11(a)に示されるような定規の画像オブジェクト80aおよび80bと、回転量を示す角度計の画像オブジェクト80cとを表示パネル12に表示する。
定規の画像オブジェクト80aおよび80bには目盛りが刻まれている。グラフィックコントローラ22は、現在の画像の表示倍率に合わせて、目盛りの間隔を調整する。初期的には、定規の画像オブジェクト80aおよび80bは、タッチ位置を頂角として表示パネル12の縦、横にそれぞれ平行な方向に沿って表示される。
角度計の画像オブジェクト80cは、初期表示時を基準として、複数種類の目盛りが刻まれている。たとえば大きい目盛りは30度ごとに設けられ、小さい目盛りは10度ごとに設けられている。
コントロール・キューブ10bのみがタッチパネル11に接触している状態で、ユーザが、タッチパネル11に垂直な軸の周りにコントロール・キューブ10bを回転させると、その回転方向および回転角度にしたがって定規の画像オブジェクト80aおよび80bが回転する。これにより、定規の画像オブジェクト80aおよび80bはタッチスクリーンの縦、横にそれぞれ平行ではなくなる。たとえば図11(b)は、主として、所定の角度だけ回転されたときの定規の画像オブジェクト80aおよび80bを示す。このとき、ユーザがコントロール・キューブ10bをドラッグすると、グラフィックコントローラ22は、定規の画像オブジェクト80aおよび80bの位置を平行移動させる。
回転中は、図7(a)に示した例と同様、初期表示位置の角度を基準として、その位置からの回転量を示す画像オブジェクト(図示せず)が、回転軸の周りに表示されてもよい。
定規の画像オブジェクト80aおよび80bを利用して、表示パネル12に表示されている画像に直線の画像オブジェクトを追記することも可能である。たとえば図11(b)は、スタイラスペン10cと定規の画像オブジェクト80bを利用して直線の画像オブジェクト80dを追記する例を示す。ユーザがスタイラスペン10cを画像オブジェクト80bの近傍にタッチし、定規の画像オブジェクト80bに沿ってスタイラスペン10cをドラッグさせる。検出回路21は、スタイラスペン10cの接触、およびその後のドラッグ操作に伴う接触位置の変化も検出する。その検出結果を受けて、マイクロコンピュータ20はスタイラスペン10cによるドラッグ操作が行われていることを検出し、直線を追記する処理を行うようグラフィックコントローラ22に指示を送る。グラフィックコントローラ22は、スタイラスペン10cの最初のタッチ位置から、ドラッグ方向に沿って、ドラッグ長と同じ長さの直線のオブジェクト80dを、表示パネル12に表示されている画像に重畳して描画する。スタイラスのタッチ位置近傍には、引いた直線の長さを示す情報80eが表示される。
コントロール・キューブ10bおよびスタイラスペン10cをタッチスクリーンから離すと、描画された直線の画像オブジェクト80dの編集が確定され、定規モードが終了する。
3.3.吹き出し挿入モード選択時の処理
再び図10を参照して、吹き出し挿入モードを説明する。
ユーザが、吹き出しが示されたメニューアイコン70bの表示位置をスタイラスペン10cを用いてタップすると、検出回路21はその位置にスタイラスペン10cが触れたことを認識する。するとマイクロコンピュータ20は、その位置に対応して表示されていたメニューアイコンが選択されたと判断する。その結果、タブレット端末10aは、そのメニューアイコンに対応する吹き出し挿入モードに移行する。
図12は、吹き出し挿入モード移行時の表示例を示す。マイクロコンピュータ20は、スタイラスペン10cによるユーザの手書き文字入力を待つ。検出回路21はスタイラスペン10cによる入力を検出し、検出した筆跡のデータをマイクロコンピュータ20に送信する。タブレット端末10aの予めRAM23またはストレージ24には、筆跡のデータを文字に変換するための変換規則、および変換後に利用されるテキストデータが保持されている。マイクロコンピュータ20は、その変換規則を参照して、受け取った筆跡のデータから文字を特定し、その文字の情報をグラフィックコントローラ22に送る。グラフィックコントローラ22は、その文字に対応するテキストデータを読み出して、そのデータによって表されるテキストを吹き出しの画像オブジェクト90として表示する。図12には、手書き入力された筆跡の画像91と、吹き出しの画像オブジェクト90に表示されたテキスト92とが示されている。なお、手書き入力中は、コントロール・キューブ10bはタッチパネル11上に載置されたままである。
コントロール・キューブ10bおよびスタイラスペン10cをタッチスクリーンから離すと、描画された吹き出しの画像オブジェクト90の編集が確定され、コントロール・キューブ10bの近傍に、メッセージを含む吹き出しとして埋め込まれる。メッセージの長さによっては、全文が表示されていなくてもよい。たとえば当該吹き出しをスタイラスペン10cによってタップされたときに、グラフィックコントローラ22はメッセージの全体を表示してもよい。
3.4.メジャーモード選択時の処理
再び図10を参照して、メジャーモードを説明する。
吹き出しが示されたメニューアイコン70cの表示位置を、ユーザがスタイラスペン10cを用いてタップすると、検出回路21はその位置にスタイラスペン10cが触れたことを認識する。するとマイクロコンピュータ20は、その位置に対応して表示されていたメニューアイコンが選択されたと判断する。その結果、タブレット端末10aは、そのメニューアイコンに対応するメジャーモードに移行する。
メジャーモードは、スタイラスペン10cによって最初にタップされた位置を始点とし、次にタップされた位置を終点としたときの、線分の長さを表示するモードである。検出回路21は、最初にタップされた位置を示す情報と、次にタップされた位置を示す情報とをマイクロコンピュータ20に送信する。マイクロコンピュータ20は、その2点間の画像上の距離(たとえば2つの画素間距離)を計算し、現在の表示倍率に基づいて、図面上の距離を計算する。これにより、表示パネル12に表示されている画像に関する距離を得ることができる。
上述の説明では、コントロール・キューブ10bの背面43をタッチパネル11に接触させると、メニューアイコンを表示させるとした。しかしながら、この処理は一例である。メニューアイコンの表示をしなくても、たとえばコントロール・キューブ10bの各面に、上述した定規を利用するモードや、文字入力を可能とするモードの起動機能を割り当ててもよい。
4.デュアル・ビュー・モード処理
デュアル・ビュー・モードとは、たとえばタブレット端末の2つの短辺側にそれぞれユーザが着座し、向かい合っている状況で使用される表示モードである。一方のユーザは画像の表示を操作する者(操作者)であり、他方のユーザは表示された画像を閲覧する者(閲覧者)である。そのようなデュアル・ビュー・モードでの動作をデュアル・ビュー・モード処理と呼ぶ。
タブレット端末10aは、たとえばコントロール・キューブ10bの面40(図3)を用いてタッチパネル11がタップされたときに、デュアル・ビュー・モードに移行する。または、タブレット端末10aは、スクリーンに表示されたデュアル・ビュー・モード移行用のボタン(画像オブジェクト)がタップされたときに動作モードをデュアル・ビュー・モードに移行してもよい。または、タブレット端末10aは、その一方の短辺が下になるよう持ち上げられたときに動作モードをデュアル・ビュー・モードに移行してもよい。最後の例では、タブレット端末に実装された加速度センサー(図示せず)によって当該動作が検出される。
デュアル・ビュー・モードでは、操作者が視認する映像の内容と、閲覧者が視認する映像の内容は、180度反転している。たとえば建物のバーチャルツアーを表示する例を挙げて説明する。
図13は、デュアル・ビュー・モードにおける表示例を示す。
設計図は操作者側の第1領域110に示されている。第1領域110では、設計図の寸法を表す数字や、建物内の名称などの文字は、操作者にとって正しい方向(通常読むことができる方向)に向けられている。つまり、閲覧者にとっては設計図に関しては、天地が逆に表示されている。
一方、図13では、閲覧者が視認するバーチャルツアーの映像(動画像)は、閲覧者側の第2領域120に示されている。動画像の再生は、操作者の操作によって制御される。この表示は、閲覧者にとって正しい方向、具体的には、建物内の映像の床が下に位置し、天井が上に位置する方向に向けられている。
バーチャルツアーでは、操作者がコントロール・キューブ10bの面40(図3)を表示パネル12に表示された画像上に置くと、設計図が所定倍率拡大されて表示される。たとえば、いま、操作者が設計図の通路上の位置にコントロール・キューブを置いたとする。すると、その位置の画像が拡大されて表示される。図13の第1領域110には、拡大後の設計図の表示例が示されている。
コントロール・キューブ10bが画像上に置かれたとき、まずマイクロコンピュータ20は表示されている設計図上のどの位置にコントロール・キューブ10bが位置しているかを判定し、その位置に対応する三次元映像を出力するようグラフィックコントローラ22に指示する。その後、操作者がコントロール・キューブ10bを表示された通路に沿って移動させると、検出回路21は、コントロール・キューブ10bの位置の変化を検出する。その情報はマイクロコンピュータ20に送られ、その移動方向、移動量、および移動の速さがマイクロコンピュータ20によって検出される。マイクロコンピュータ20はグラフィックコントローラ22に指示して、その方向および速さであたかも建物内を移動しているかのような三次元映像を閲覧者側の第2領域120に表示させる。コントロール・キューブ10bの移動方向、移動量、および移動速度に対応して、三次元映像中の移動方向、移動量、および移動速度が変化する。これにより、閲覧者はまだ設計図段階の建物のバーチャルツアーを体験することができる。
これまでは、各々が異なる形状の複数の面を有する多面体の入力インタフェース装置として、コントロール・キューブ10bを例示して説明した。以下では、入力インタフェース装置の変形例1〜6を説明する。
(変形例1)
図14(a)および(b)は、コントロール・シリンダ210の外観を示す。コントロール・シリンダ210は、情報処理システム100(図1)のタブレット端末10aにタッチ操作を行い、タブレット端末10aを動作させるための入力インタフェース装置である。コントロール・シリンダ210は、コントロール・キューブ10bに代えて、またはコントロール・キューブ10bと共に情報処理システム100を構成する。なお、スタイラスペン10cもまた、コントロール・シリンダ210とともに入力インタフェース装置として利用され得る。後述する変形例2〜6も同様である。
図14(a)および(b)に示されるように、コントロール・シリンダ210は円柱形状である。コントロール・シリンダ210は、面211と、面212と、側面213とを有する。図14(a)は面211を上に向けて配置したときのコントロール・シリンダ210の外観を示し、図14(b)は面212を上に向けて配置したときのコントロール・シリンダ210の外観を示す。コントロール・シリンダ210はたとえば透明樹脂で成形されている。
図14(a)に示されるように、面211には2つの端子214が設けられている。また図14(b)に示されるように、面212には4つの端子215が設けられている。2つの端子214の各々、および4つの端子215の各々は、タッチパネル11によって検出され得る材料または構造を有している。たとえばタッチパネル11が静電容量方式の場合には、各端子は導電性材料で形成されている。より具体的には、各端子は導電性のある金属繊維、導電性のシリコンゴム、銅やアルミニウムなどの導体によって形成されている。面211または面212に、ITO(酸化インジウムスズ)製の透明導電性粉末を塗布して電極を形成してもよい。
いま、コントロール・シリンダ210がタブレット端末10aの静電容量方式のタッチパネル11に載置された状況を想定する。タブレット端末10aの検出回路21は、静電容量の変化を検出することにより、タッチパネル11に接触しているコントロール・シリンダ210の端子の数を特定することができる。タブレット端末10aのマイクロコンピュータ20は、検出回路21から受け取ったユーザのタッチ位置の情報を用いて、面211および面212のいずれがタッチパネル11に接触しているかを特定することができる。図14(a)の載置例では面212がタッチパネル11に接触しており、図14(b)の載置例では面211がタッチパネル11に接触していることになる。タブレット端末10aのマイクロコンピュータ20は、検出された面に応じて、タブレット端末10aに異なる動作を行わせる。このような目的のため、コントロール・シリンダ210は、各々が異なる数の端子を備えた複数の面を有している。
なお、上述の説明では、検出回路21が端子の数を特定し、マイクロコンピュータ20が接触面を特定すると説明したが、これらの動作は一例である。タッチパネル11に接触している面が面211か面212かを特定することは必須ではなく、タッチパネル11に接触している端子の数が特定されれば十分である。タブレット端末10aは、検出された端子数に応じて異なる動作または処理を行うことができればよい。異なる動作または処理とは、たとえば上述したタッチ検出処理/タッチ離脱検出処理、ビュー変更処理、メニュー表示・選択処理、デュアル・ビュー・モード処理である。
各端子の形状および大きさを特定する端子情報を予め定めておくことにより、マイクロコンピュータ20は、端子を容易に検出することができる。本例では、全ての端子が同じ形状および大きさ(たとえば直径1cmの円形状)であると仮定する。端子情報は、タブレット端末10aのRAM23またはストレージ24に保持されている。以下の説明では、スタイラスペン10cの先端部15の大きさ、端子の大きさ、コントロール・キューブ10bの面の大きさの順にタッチパネル11への接触面積が大きくなるとして説明する。
静電容量の変化範囲(面積)が第1閾値以下である場合には、検出回路21は、変化範囲にスタイラスペン10cの先端部15が接触していると検出する。静電容量の変化範囲(面積)が第1閾値より大きく第2閾値以下の場合には、検出回路21は、その変化範囲に端子が接触していると検出する。そして静電容量の変化範囲(面積)が第2閾値より大きく第3閾値以下の場合には、検出回路21は、その変化範囲に、先に説明したコントロール・キューブ10bの面が接触していると検出する。これにより、検出回路21は、コントロール・シリンダ210の何個の端子がタッチパネル11に当てられたのかを特定することができる。
タブレット端末10aは、各端子の検出位置の情報を補完的に用いて、タッチパネル11に接触しているのが2つの端子214であるか、4つの端子215であるかを特定してもよい。各端子の検出位置の情報とは、たとえば図14(a)の載置例では、4つの端子が十字型に並んでいるという位置関係を示す情報であり、図14(b)の載置例では、2つの端子が直線的に並んでいるという位置関係を示す情報である。端子の数が多くなると、検出された端子群のパターンと、予め定めておいたパターンとを利用してパターンマッチング処理を行い、判定精度を高くすることができる。あるいは、何らかの理由で1つまたは複数の端子の検出ができなかった場合には、検出回路21は、検出された端子群のパターンと予め定めておいたパターンとに基づいて、端子の数を推測することができる。
上述したコントロール・シリンダ210の面211および212は、正円であることを想定して説明した。しかしながら、面211および212の形状は正円でなくてもよく任意である。一方の面に設けられた端子の数と、他方の面に設けられた端子の数とが異なっていれば、タブレット端末10aはそれぞれの面を識別することが可能である。それぞれの面に設けられた端子の数が異なっている限り、各面の形状は任意である。よって、面211および212の形状は、たとえば楕円であってもよいし、正方形、長方形であってもよい。
または、端子の数が同じであっても、その配置が異なっていればよい。たとえば、4つの端子が十字型に配置されている場合を考える。タブレット端末10aは、互いの間隔が相対的に狭く配置された4つの端子と、相対的に広く配置された4つの端子とを、異なる端子群であると認識することが可能である。
他の例として、タブレット端末10aは、十字型に配置されている4つの端子と、半円の円周に沿って配置された4つの端子とを、異なる端子群であると認識することが可能である。
上述の説明から明らかな通り、入力インタフェース装置の複数の面において、端子の数が異なるか、端子の配置が識別可能な程度に異なっていればよい。タブレット端末10aは端子の数または端子の配置が異なることを識別することにより、識別結果に応じて異なる動作を行うことができる。
図14(a)および(b)では、2つの端子214の各々、および4つの端子215の各々は、面214および面215上に設けられた平面的な形状で描かれているが、この形状も一例である。形状は任意である。
たとえば2つの端子214の各々、および4つの端子215の各々は、コントロール・シリンダの内部で電気的に接続されていてもよい。図14(c)は、後述する導電性構造体と同様の導電性構造体216を有するコントロール・シリンダ210aを示す。導電性構造体216は導電性材料で形成されており、2つの端子214、および4つの端子215をコントロール・シリンダ210a内部において電気的に接続する。このような態様も、本開示による端子の範疇である。
(変形例2)
変形例2〜6までは、自装置の姿勢を検出するためのセンサを備えた入力インタフェース装置を説明する。同じ機能および/または構造を有する構成要素には同じ参照符号を付し、その説明は省略する。
図15(a)は変形例2によるコントロール・シリンダ220の斜視図を示し、(b)はその分解図を示す。
図15(b)に示されるように、コントロール・シリンダ220は、筐体部品221と、姿勢検出モジュール222と、導電性構造体223と、筐体部品224とを備えている。
筐体部品221および224は、たとえば透明の非導電性樹脂で成形されている。筐体部品221および224はいずれも、後述する姿勢検出モジュール222および導電性構造体223を嵌め込むためのくぼみおよび貫通穴を有している。筐体部品221および224の相違点は、導電性構造体223を嵌め込むための貫通穴の数である。
姿勢検出モジュール222は、筐体部品221および224に嵌め込まれてコントロール・シリンダ220の姿勢の変化を検出する装置である。姿勢検出モジュール222は、検出した姿勢に関する情報を無線でタブレット端末10aに送信する。本変形例では、姿勢検出モジュール222は球状に形成されている。
図16は、姿勢検出モジュール222のハードウェア構成を示す。姿勢検出モジュール222は、マイクロコンピュータ222aと、センサ222bと、アナログ・デジタル変換器(ADC)222cと、送信回路222dと、これらを相互に通信可能に接続するバス222eとを備えている。なお姿勢検出モジュール222は上述した構成要素を動作させるためのバッテリ(図示せず)を有している。
マイクロコンピュータ222aは、姿勢検出モジュール222の全体の動作の開始および終了を制御する。
センサ222bは、たとえば3軸角速度(ジャイロ)センサ、および3軸加速度センサを内蔵しており、姿勢検出モジュール222の動きを合計6軸で検出する。姿勢検出モジュール222が筐体部品221および224に嵌め込まれた場合には、センサ222bはコントロール・シリンダ220の動きを検出することになる。なお、上述の3軸角速度(ジャイロ)センサ、および3軸加速度センサとして周知のセンサを用いることができる。または、センサ222bは、電子コンパスを含んでもよい。電子コンパスもまた、コントロール・シリンダ220の姿勢の変化を検出するセンサであるということができる。電子コンパスは、上述の3軸角速度(ジャイロ)センサ、および3軸加速度センサに加えて設けられてもよいし、それらのいずれかと組み合わせで設けられてもよいし、単独で設けられてもよい。
ADC222cは、センサから出力された各軸のアナログ信号をデジタル信号に変換する。
送信回路222dは、たとえばWi−Fi規格やBluetooth規格に準拠した無線通信により、デジタル信号を出力する。このデジタル信号は、タブレット端末10aの通信回路25(図2)によって受信される。
次に、再び図15(b)を参照しながら、導電性構造体223を説明する。導電性構造体223は導電性材料で形成されている。導電性構造体223が筐体部品221および224に嵌め込まれたとき、導電性構造体223の一部は外部に露出する。具体的には、導電性構造体223は、コントロール・シリンダ220の側面において円周方向に露出している。また、導電性構造体223は、コントロール・シリンダ220の一方の面では4箇所において露出し、他方の面では3箇所において露出している。露出している箇所は、上述したコントロール・シリンダ210の端子と同様に機能する。
コントロール・シリンダ220がタブレット端末10aの静電容量方式のタッチパネル11に載置されたときを考える。タブレット端末10aの検出回路21は、変形例1と同様、静電容量の変化を検出する。これにより、検出回路21またはマイクロコンピュータ20は、タッチパネル11に接触しているコントロール・シリンダ220の端子の数を特定することができる。
図17(a)は変形例2による導電性構造体223の上面斜視図を示し、(b)はその背面斜視図を示し、(c)はその分解図を示す。図17(c)に示されるように、本変形例による導電性構造体223は4つの脚部223aと、フレーム223bと、3つの脚部223cとに分解することが可能である。ただしこの構成は一例である。一部または全部が一体的に成形されてもよい。
コントロール・シリンダ220の無線通信機能を用いると、ユーザはタブレット端末10aをさらに新たな方法で操作することができる。すなわち、無線通信によってユーザの操作に起因する姿勢の変化をタブレット端末10aに伝送できるため、ユーザはタブレット端末10aに接触しなくても、タブレット端末10aを操作することが可能になる。
たとえば、タブレット端末10aに建築物の設計図面が表示されているとする。ユーザがコントロール・シリンダ220をタッチパネル11に接触させることなく、タッチパネル11に平行に移動させる。すると姿勢検出モジュール222はその移動方向の加速度を検出する。タブレット端末10aはその情報をコントロール・シリンダ220から受け取り、速度および移動距離を演算する。具体的には、タブレット端末10aのマイクロコンピュータ20は、加速度の時間積分値を求めて速度とし、さらに速度の時間積分値を求めて移動距離とする。マイクロコンピュータ20は、速度および移動距離に応じた移動速度(移動方向および速さ)および距離で、図9に示すような、コントロール・キューブ10bがタッチパネル11上をドラッグされたときと同じ動作を行う。
他の例として、タブレット端末10aの表示パネル12に建築物の3D画像オブジェクトが表示されているとする。ユーザがコントロール・シリンダ220を持ち上げて静止させ、コントロール・シリンダ220を回転させると、姿勢検出モジュール222はその回転の方向および角速度を検出する。タブレット端末10aはそれらの情報をコントロール・シリンダ220から受け取り、そのマイクロコンピュータ20は、その回転方向および角速度に応じた回転方向および角速度で、表示されている建築物の3D画像オブジェクトを回転させる。なお、コントロール・シリンダ220の回転と共に平行移動を行うことで、さらにその画像オブジェクトを平行移動させることも可能である。
上述の画像オブジェクトの回転処理や平行移動処理にあたっては、画像オブジェクトを構成する頂点の位置情報(座標)を、所定の座標変換行列を用いて変換する必要がある。座標変換に使用する行列として、主に移動行列、回転行列、射影行列などが知られている。上述の動作を実現するにあたっても公知の行列を利用することができる。
(変形例3)
図18(a)は変形例3によるコントロール・シリンダ230の斜視図を示し、(b)はその側面図を示し、(c)はその分解図を示す。
コントロール・シリンダ230が、変形例2にかかるコントロール・シリンダ220(図15)と相違する点は、導電性構造体223と筐体部品224の組み立て順序である。コントロール・シリンダ230では導電性構造体223の4つの脚部223aおよびフレーム223bが露出している。
その他の構成や、コントロール・シリンダ230を用いたタブレット端末10aの動作は変形例2と同じであるため、その説明は省略する。
(変形例4)
図19(a)は変形例4によるコントロール・シリンダ240の斜視図を示し、(b)はその分解図を示す。
コントロール・シリンダ240が、変形例3にかかるコントロール・シリンダ230(図18)と相違する点は、姿勢検出モジュール222が筐体部品221に嵌め込まれるのではなく露出し、かつ、筐体部品221と導電性構造体223とが嵌合する点である。球状の姿勢検出モジュール222が露出しているため、本変形例のコントロール・シリンダ240によれば、ユーザは姿勢検出モジュール222をトラックボールのように回転させることができる。これによりタブレット端末10aは表示している画像オブジェクトを回転させることができる。
その他の構成や、コントロール・シリンダ230を用いたタブレット端末10aの動作は変形例2と同じであるため、その説明は省略する。
(変形例5)
図20(a)は変形例5によるコントロール・シリンダ250の斜視図を示し、(b)はその分解図を示す。
コントロール・シリンダ250が、変形例4にかかるコントロール・シリンダ230(図19)と相違する点は、コントロール・シリンダ250が姿勢検出モジュール222および筐体部品224で構成されている点である。本変形例では変形例4にかかるコントロール・シリンダ230(図19)の筐体部品221および導電性構造体223が設けられていない。
本変形例のコントロール・シリンダ250によっても、変形例4と同様、ユーザは姿勢検出モジュール222をトラックボールのように回転させてタブレット端末10aに表示されている画像オブジェクトを回転させることができる。
なお、導電性構造体223が設けられていないため、本変形例のコントロール・シリンダ250は、タッチパネル11の静電容量の変化を生じさせることはない。コントロール・シリンダ250をタッチパネル11に載置して安定して操作することができるため、たとえば精密な操作が必要な場合に有用である。
(変形例6)
図21(a)は変形例6によるコントロール・シリンダ260の斜視図を示し、(b)はその側面図を示し、(c)はその分解図を示す。
本変形例のコントロール・シリンダ260は、図15のコントロール・シリンダ220における導電性構造体223および筐体部品224に代えて、導電性構造体261および筐体部品262を有している。図21(b)に示されるように、姿勢検出モジュール222が嵌合される面と反対側の筐体部品262の面は緩やかな曲面を有している。この曲面を設けることにより、たとえば3D画像オブジェクトの角度を微調整して表示したい場合には、微小な回転角度の調整が容易になる。なお、筐体部品221には導電性構造体261の一部を露出させる貫通穴が設けられているため、コントロール・シリンダ260の天地を入れ替えた場合には、タッチパネル11の静電容量の変化を生じさせることは可能である。
上述の変形例2〜6においては、コントロール・シリンダに姿勢検出モジュール222を設ける例を説明した。しかしながら、初めの実施形態において説明したコントロール・キューブ10b内に姿勢検出モジュール222を設けてもよい。
図22は、姿勢検出モジュール222を有するコントロール・キューブ10dを示す。このコントロール・キューブ10dは、図1に示すコントロール・キューブ10bに代えて使用することができる。コントロール・キューブ10b内の姿勢検出モジュール222は姿勢に関する信号を検出して出力する。タブレット端末10aの通信回路25は、その信号を受信する。これにより、タブレット端末10aは、コントロール・キューブ10bを介したユーザの操作に応じて画像オブジェクトの移動、回転などの表示態様を変更することが可能になる。
本開示は、タッチパネルおよび表示パネルを有し、ユーザによるタッチ操作が可能な情報処理装置に適用可能である。具体的には、タブレット端末、スマ―トフォン、電子黒板などに、本開示は適用可能である。
10a タブレット端末
10b コントロール・キューブ
10c スタイラスペン
11 タッチパネル11
12 表示パネル
14 タッチスクリーンパネル
20 マイクロコンピュータ
21 タッチ操作検出回路
22 グラフィックコントローラ
23 RAM
24 ストレージ
25 通信回路
26 スピーカ
27 バス
210、210a、220、230、240、250、260 コントロール・シリンダ
211、212 コントロール・シリンダの面
213 側面
214、215 端子
221、224、262
222 姿勢検出モジュール
216、223、261 導電性構造体

Claims (16)

  1. 映像を表示し、ユーザによる操作を受け付けるタッチスクリーンパネルと、
    ユーザによる、前記タッチスクリーンパネルへの前記操作を検出する検出回路と、
    前記操作に応じた処理を行う処理回路と
    を備え、
    前記ユーザが、各々が異なる形状の複数の面を有する多面体の入力インタフェース装置を用いて前記操作を行ったときにおいて、前記検出回路は、前記入力インタフェース装置が前記タッチスクリーンパネルに接触している領域の形状を検出することにより、前記操作に利用された前記多面体の面を特定し、前記処理回路は特定された面に関連付けられた処理を実行する、情報処理装置。
  2. 前記入力インタフェース装置が前記タッチスクリーンパネルに接触したことを前記検出回路が検出したときは、前記処理回路は、前記接触した位置の近傍に、所定のパターンを表示させる、請求項1に記載の情報処理装置。
  3. 前記処理回路は、前記所定のパターンを表示させた後、前記検出回路が予め定められた期間内に前記ユーザによる追加の操作を検出しない場合には、前記処理回路は、前記タッチスクリーンパネルに表示されている画像を所定の倍率だけ拡大する、請求項2に記載の情報処理装置。
  4. 前記多面体の第1の面が前記タッチスクリーンパネルに接触しており、
    前記ユーザが、ペン形状の入力インタフェース装置を用いてさらに操作を行うときにおいて、
    前記タッチスクリーンパネルに接触させた前記多面体および前記ペン形状の各入力インタフェース装置の相対的な距離が変更されたことを前記検出回路が検出したときは、前記処理回路は、前記タッチスクリーンパネルに表示されている画像を、前記相対的な距離に応じた倍率だけ変更する、請求項1または2に記載の情報処理装置。
  5. 前記多面体の第1の面が前記タッチスクリーンパネルに接触しており、
    前記タッチスクリーンパネルに接触させた前記多面体の入力インタフェース装置が、前記タッチスクリーンパネルに垂直な軸の周りに回転したことを前記検出回路が検出したときは、前記処理回路は、前記タッチスクリーンパネルに表示されている画像を回転させる、請求項1に記載の情報処理装置。
  6. 前記処理回路は、前記入力インタフェース装置の回転方向および回転角度と同じ回転方向および回転角度だけ、前記タッチスクリーンパネルに表示されている画像を回転させる、請求項5に記載の情報処理装置。
  7. 前記多面体の第1の面が前記タッチスクリーンパネルに接触しており、
    前記ユーザが、ペン形状の入力インタフェース装置を用いてさらに操作を行うときにおいて、
    前記タッチスクリーンパネルに接触させた前記多面体および前記ペン形状の各入力インタフェース装置が、同じ回転方向に回転したことを前記検出回路が検出したときは、前記処理回路は、前記タッチスクリーンパネルに表示されている画像を回転させる、請求項1に記載の情報処理装置。
  8. 前記多面体の第1の面が前記タッチスクリーンパネルに接触しており、
    前記タッチスクリーンパネルに接触させた前記多面体の入力インタフェース装置が、前記タッチスクリーンパネル上をドラッグされたことを検出したときは、前記処理回路は、前記ドラッグされた方向および距離に応じて、前記タッチスクリーンパネルに表示されている画像の表示範囲を変更する、請求項1に記載の情報処理装置。
  9. 前記多面体の第2の面が前記タッチスクリーンパネルに接触しており、
    前記ユーザが、ペン形状の入力インタフェース装置を用いてさらに操作を行うときにおいて、
    前記タッチスクリーンパネルには、定規の画像オブジェクトが表示されており、
    前記ペン形状の入力インタフェース装置の位置が、前記画像オブジェクトに沿って直線上に移動したことを前記検出回路が検出したときは、前記処理回路は、前記画像オブジェクトに沿って直線のオブジェクトを表示する、請求項1に記載の情報処理装置。
  10. 前記多面体の第3の面が前記タッチスクリーンパネルに接触しており、
    前記ユーザが、ペン形状の入力インタフェース装置を用いてさらに操作を行うときにおいて、
    前記ペン形状の入力インタフェース装置の位置の変化を前記検出回路が検出したときは、前記処理回路は、前記位置の変化に対応する筆跡のデータに基づいて文字の認識を行い、認識された前記文字を前記タッチスクリーンパネルに表示する、請求項1に記載の情報処理装置。
  11. 前記多面体の第4の面が前記タッチスクリーンパネルに接触しているときにおいて、
    前記タッチスクリーンパネルには、180度反転された2種類の映像が表示され、前記2種類の映像は映像上の位置に関して所定の対応関係を有しており、
    前記多面体の位置の変化を前記検出回路が検出したときは、前記処理回路は、前記一方の映像上で移動された前記多面体の位置の変化に基づいて、対応する位置が表示されるよう前記他方の映像の表示を制御する、請求項1に記載の情報処理装置。
  12. 前記入力インタフェース装置は、前記入力インタフェース装置の姿勢の変化を検出し、検出した前記姿勢の変化に関する情報を出力する姿勢検出モジュールを備え、
    前記情報処理装置は、前記姿勢の変化に関する情報を受信する通信回路をさらに備え、
    前記処理回路は、前記姿勢の変化に関する情報に基づいて前記タッチスクリーンパネルに表示された画像の表示態様を変更する、請求項1に記載の情報処理装置。
  13. 請求項1に記載の情報処理装置と、
    前記タッチスクリーンパネルへの操作に際して利用される、各々が異なる形状の複数の面を有する多面体の第1入力インタフェース装置と、
    前記タッチスクリーンパネルへの操作に際して利用される、ペン形状の第2入力インタフェース装置と
    を備え、
    前記タッチスクリーンパネルに画像が表示されている状態で、前記第1入力インタフェース装置、および前記第2入力インタフェース装置が予め定められた規則で操作されたことを前記検出回路が検出したときは、前記処理回路は前記画像の表示を変更する、情報処理システム。
  14. 請求項1に記載の情報処理装置と、
    前記タッチスクリーンパネルへの操作に際して利用される、各々が異なる形状の複数の面を有する多面体の第1入力インタフェース装置と、
    前記タッチスクリーンパネルへの操作に際して利用される、ペン形状の第2入力インタフェース装置と
    を備えた情報処理システムを利用して実行される方法であって、
    前記タッチスクリーンパネルに画像が表示されている状態で、前記第1入力インタフェース装置、および前記第2入力インタフェース装置を利用して行われた操作を前記検出回路によって検出するステップと、
    前記検出回路によって検出された前記操作が、予め定められた規則に合致するか否かを判定するステップと、
    前記操作が予め定められた規則に合致する場合に、前記処理回路が前記画像の表示を変更させるステップと
    を包含する、情報処理方法。
  15. 映像を表示し、ユーザによる操作を受け付けるタッチスクリーンパネルと、
    ユーザによる、前記タッチスクリーンパネルへの前記操作を検出する検出回路と、
    前記操作に応じた処理を行う処理回路と
    を備え、
    前記ユーザが、各々が異なる数の端子を備えた複数の面または各々が異なる配置の端子を備えた複数の面を有する入力インタフェース装置を用いて前記操作を行ったときにおいて、前記検出回路は、前記入力インタフェース装置が前記タッチスクリーンパネルに接触している端子の数または配置を特定し、前記処理回路は特定された端子の数または配置に応じた処理を実行する、情報処理装置。
  16. 前記入力インタフェース装置は、前記入力インタフェース装置の姿勢の変化を検出し、検出した前記姿勢の変化に関する情報を出力する姿勢検出モジュールを備え、
    前記情報処理装置は、前記姿勢の変化に関する情報を受信する通信回路をさらに備え、
    前記処理回路は、前記姿勢の変化に関する情報に基づいて前記タッチスクリーンパネルに表示された画像の表示態様を変更する、請求項15に記載の情報処理装置。
JP2013267811A 2013-01-30 2013-12-25 情報処理装置、システムおよび方法 Pending JP2014149815A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/164,404 US20140210748A1 (en) 2013-01-30 2014-01-27 Information processing apparatus, system and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361758343P 2013-01-30 2013-01-30
US61/758,343 2013-01-30

Publications (1)

Publication Number Publication Date
JP2014149815A true JP2014149815A (ja) 2014-08-21

Family

ID=51572703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013267811A Pending JP2014149815A (ja) 2013-01-30 2013-12-25 情報処理装置、システムおよび方法

Country Status (1)

Country Link
JP (1) JP2014149815A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018042923A1 (ja) * 2016-08-31 2018-03-08 ソニー株式会社 情報処理システム、情報処理方法、およびプログラム
JP2019114283A (ja) * 2019-02-28 2019-07-11 株式会社セガゲームス 指示デバイス、読み取り方法、プログラム及びタッチセンサシステム
US20200311866A1 (en) * 2019-03-26 2020-10-01 Casio Computer Co., Ltd. Protractor image changing method, protractor image changing apparatus and server apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018042923A1 (ja) * 2016-08-31 2018-03-08 ソニー株式会社 情報処理システム、情報処理方法、およびプログラム
US11275498B2 (en) 2016-08-31 2022-03-15 Sony Corporation Information processing system, information processing method, and program
JP2019114283A (ja) * 2019-02-28 2019-07-11 株式会社セガゲームス 指示デバイス、読み取り方法、プログラム及びタッチセンサシステム
US20200311866A1 (en) * 2019-03-26 2020-10-01 Casio Computer Co., Ltd. Protractor image changing method, protractor image changing apparatus and server apparatus
US11875474B2 (en) * 2019-03-26 2024-01-16 Casio Computer Co., Ltd. Protractor image changing method, protractor image changing apparatus and server apparatus

Similar Documents

Publication Publication Date Title
US20140210748A1 (en) Information processing apparatus, system and method
US20220129060A1 (en) Three-dimensional object tracking to augment display area
US9395823B2 (en) User terminal device and interaction method thereof
CN107621893B (zh) 在非电子表面上使用电子输入设备的内容创建
US9182854B2 (en) System and method for multi-touch interactions with a touch sensitive screen
US9575706B2 (en) Flexible display apparatus and control method thereof
KR102331888B1 (ko) 디스플레이 센서 및 베젤 센서에 대한 도전성 트레이스 라우팅
JP5808712B2 (ja) 映像表示装置
KR20160046150A (ko) 도형 컨텐트를 생성 및 해석하는 방법 및 장치
KR20160028338A (ko) 벤디드 디스플레이를 구비한 휴대 단말기의 제어 방법 및 장치
TWI396123B (zh) 光學式觸控系統及其運作方法
KR20140038568A (ko) 터치스크린 장치의 사용자로부터 수신된 입력 및 제스쳐에 응답하여 동작을 수행하는 컴퓨터로 구현된 방법 및 컴퓨터 판독가능 매체
KR102502068B1 (ko) 휴대 장치 및 휴대 장치의 커서 제어방법
KR101559091B1 (ko) 벤디드 디스플레이를 구비한 휴대 단말기의 제어 방법 및 장치
US20140184503A1 (en) Terminal and method for operating the same
JP6146350B2 (ja) 情報処理装置およびコンピュータプログラム
US20120249585A1 (en) Information processing device, method thereof, and display device
WO2015159774A1 (ja) 入力装置、入力装置の制御方法
US9347762B2 (en) Near-surface object sensing device and sensing method
US20190064947A1 (en) Display control device, pointer display method, and non-temporary recording medium
JP2014149815A (ja) 情報処理装置、システムおよび方法
JP2009098990A (ja) 表示装置
US10963073B2 (en) Display control device including pointer control circuitry, pointer display method, and non-temporary recording medium thereof
KR101467144B1 (ko) 원형 터치 입력에 의한 3차원 페이지화면 전환 방법
JP6331022B2 (ja) 表示装置、表示制御方法、及び表示制御プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141001