JP2014209336A - 情報処理装置および入力支援方法 - Google Patents

情報処理装置および入力支援方法 Download PDF

Info

Publication number
JP2014209336A
JP2014209336A JP2014058350A JP2014058350A JP2014209336A JP 2014209336 A JP2014209336 A JP 2014209336A JP 2014058350 A JP2014058350 A JP 2014058350A JP 2014058350 A JP2014058350 A JP 2014058350A JP 2014209336 A JP2014209336 A JP 2014209336A
Authority
JP
Japan
Prior art keywords
effect
information
user
gesture
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014058350A
Other languages
English (en)
Inventor
修平 矢羽田
Shuhei Yahata
修平 矢羽田
杏子 菊田
Kyoko Kikuta
杏子 菊田
武志 中森
Takeshi Nakamori
武志 中森
昭彦 長尾
Akihiko Nagao
昭彦 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2014058350A priority Critical patent/JP2014209336A/ja
Publication of JP2014209336A publication Critical patent/JP2014209336A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ホバー状態を適切に検出することができる情報処理装置および入力支援方法を提供する。
【解決手段】タッチパネルはユーザのホバー状態を検出することができる。ホバー制御部102は、この状態から位置を取得し、ジェスチャー制御部103は、その位置に応じたエフェクト情報を取得し、そして、エフェクト部106は、取得されたエフェクト情報に従ってユーザに対してエフェクト通知を行う。これにより、いわゆるホバー状態に対する入力をユーザは適切に把握することができる。
【選択図】図1

Description

本発明は、ホバー状態を検出する情報処理装置およびその入力支援方法に関する。
従来から、タッチパネルをタッチすることにより、そのユーザからの入力を受け付けることは一般的に知られている。近年では、さらにタッチすることなく、そのタッチ面上方にあるユーザの指の位置を検出するタッチパネルが知られている。いわゆるホバー状態を検出することができるタッチパネルが知られている。
例えば、下記特許文献1には、このようなホバー状態を検出することができるタッチパネルを利用した装置についての記載がある。
特表2012−533122号公報
このホバー状態を検出する入力方法にあっては、正しくホバー状態が検出されたものであるか操作者が把握することが困難であり、正確な操作を行うことが難しかった。例えば、機器に誤って操作してしまったか否か、ホバー状態が検出できた否か、またはアプリケーションを起動するための操作が受け付けられたか否か、を操作者が認識することは困難であった。
そこで、本発明においては、ホバー状態を適切に検出することができる情報処理装置および入力支援方法を提供することを目的とする。
上述の課題を解決するために、本発明の情報処理装置は、タッチ面から所定間隔空けたホバー入力空間の入力指示部分を検出するタッチパネルと、前記タッチパネルにおいて検出された入力指示部分の位置情報を取得する位置取得手段と、前記位置取得手段により取得された位置情報に応じたエフェクト情報を取得するエフェクト取得手段と、前記エフェクト取得手段により取得されたエフェクト情報に基づいたエフェクトをユーザに対して通知するエフェクト通知手段と、を備えている。
また、本発明の入力支援方法は、タッチ面から所定間隔空けたホバー入力空間の入力指示部分を検出するタッチパネルを備える情報処理装置の入力支援方法において、前記タッチパネルにおいて検出された入力指示部分の位置情報を取得する位置取得ステップと、前記位置取得ステップにより取得された位置情報に応じたエフェクト情報を取得するエフェクト取得ステップと、前記エフェクト取得ステップにより取得されたエフェクト情報に基づいたエフェクトをユーザに対して通知するエフェクト通知ステップと、を備えている。
この発明によれば、タッチパネルにおいて検出された入力指示部分における、所定間隔空けたホバー入力空間の位置に応じたエフェクトをユーザに対して通知する。これにより、いわゆるホバー状態に対する入力をユーザは適切に把握することができる。
また、本発明の情報処理装置において、前記エフェクト取得手段は、前記位置取得手段により取得された位置情報で示される入力指示部分と前記タッチパネルの中心部分との位置関係に応じたエフェクト情報を取得する。
この発明によれば、入力指示部分とタッチパネルの中心部分との位置関係(例えば、距離)に応じたエフェクトを通知する。これにより、ユーザが指などの入力指示部分をどの位置においているか、視覚により認識することなく、聴覚や触覚などで適切に把握することができる。
また、本発明の情報処理装置において、前記エフェクト取得手段は、前記位置取得手段により取得された位置情報で示される入力指示部分の、前記タッチパネルのタッチ面に対する高さに対応したエフェクト情報を取得する。
この発明によれば、入力指示部分の、タッチパネルのタッチ面に対する高さに対応したエフェクトを通知する。これにより、ユーザが指などの入力指示部分を、タッチ面に対してどれぐらいの高さにおいているか、視覚により認識することなく、聴覚や触覚などで適切に把握することができる。
また、本発明の情報処理装置において、前記エフェクト取得手段は、前記位置取得手段が入力指示部分の位置情報を取得できなくなる前記タッチパネルの検出範囲の直前に、前記入力指示部分が移動したと判断されたとき、その位置に応じたエフェクト情報を取得する。
この発明によれば、タッチパネルにおいて入力指示部分を検出できなくなる範囲の直前に、入力指示部分が移動したときに、あらかじめ定めたエフェクトによる通知を行う。これにより、ホバー状態検出範囲外にユーザの指などの入力指示部分が移動したことをユーザは適切に把握することができる。
また、本発明の情報処理装置は、前記位置取得手段において取得された一連の位置情報群に基づいて、あらかじめ定められたジェスチャーであるか否かを判断するジェスチャー判断手段をさらに備え、前記エフェクト取得手段は、前記ジェスチャー判断手段が前記位置取得手段により取得された一連の位置情報群があらかじめ定めたジェスチャーを示したものであると判断した場合、前記ジェスチャーに応じたエフェクト情報を取得し、前記エフェクト通知手段は、位置情報に応じたエフェクトの通知を行うことなく、ジェスチャーに応じたエフェクトを通知する。
この発明によれば、取得された一連の位置情報があらかじめ定めたジェスチャーであると判断した場合、そのジェスチャーに応じたエフェクト情報を取得し、位置情報に応じたエフェクトの通知を行うことなく、ジェスチャーに応じたエフェクトを通知する。これにより、ジェスチャーに応じたエフェクトを適切に行うことが得きる。よって、ユーザは、ジェスチャーによる操作が受け付けられたことを把握することができる。
また、本発明の情報処理装置において、前記エフェクト通知手段は、機器を振動させるバイブレーション機能によりエフェクト通知を行う。
この発明によれば、振動によりユーザはホバー状態を把握することができる。
また、本発明の情報処理装置において、前記通知手段は、音を発することによりエフェクト通知を行う。
この発明によれば、ユーザは音によりホバー状態を把握することができる。
また、本発明の情報処理装置は、ユーザに装着可能なウエアラブル端末と通信接続する情報処理装置において、タッチ面から所定間隔空けたホバー入力空間の入力指示部分を検出するタッチパネルと、前記タッチパネルにおいて検出された入力指示部分の位置情報を取得する位置取得手段と、前記位置取得手段により取得された位置情報に応じたエフェクト情報を取得するエフェクト取得手段と、前記エフェクト取得手段により取得されたエフェクト情報を、ユーザに装着されているウエアラブル端末に対してエフェクト情報を無線通信により送信する送信手段と、を備え、前記ウエアラブル端末は、前記エフェクト情報に基づいたエフェクトをユーザに対して通知する。
また、本発明の入力支援方法は、タッチ面から所定間隔空けたホバー入力空間の入力指示部分を検出するタッチパネルを有し、ユーザに装着可能なウエアラブル端末と通信接続する情報処理装置の入力支援方法において、前記タッチパネルにおいて検出された入力指示部分の位置情報を取得する位置取得ステップと、前記位置取得ステップにより取得された位置情報に応じたエフェクト情報を取得するエフェクト取得ステップと、前記エフェクト取得ステップにより取得されたエフェクト情報を、ユーザに装着されているウエアラブル端末に対してエフェクト情報を無線通信により送信する送信ステップと、を備え、前記ウエアラブル端末は、前記エフェクト情報に基づいたエフェクトをユーザに対して通知する。
この発明によれば、ユーザはウエアラブル端末を使ってエフェクト情報の通知を受けることができる。これにより、いわゆるホバー状態に対する入力をユーザは適切に把握することができる。
また、本発明の情報処理装置に接続されるウエアラブル端末は、ユーザの頭部に装着可能なメガネ型で構成されており、骨伝導によりエフェクト通知を行う。これにより、ユーザは骨伝導によりエフェクト通知を受けることができ、いわゆるホバー状態に対する入力をユーザは適切に把握することができる。
また、本発明の情報処理装置は、前記エフェクト取得手段により取得されたエフェクト情報に基づいたエフェクトをユーザに対して通知するエフェクト通知手段と、前記ウエアラブル端末がユーザに装着されているか否かを判断する判断手段と、をさらに備え、前記判断手段により、ウエアラブル端末がユーザに装着されていると判断されると、前記エフェクト通知手段による通知処理は行われずに、前記送信手段がエフェクト情報を送信し、未装着であると判断されると、前記送信手段による送信を行うことなく、前記エフェクト通知手段が、エフェクト通知を行う。
この発明によれば、ユーザがウエラブル端末を装着している場合には、そのウエアラブル端末でエフェクト情報の通知を受けることができ、未装着である場合には、そのエフェクト情報の通知を情報処理装置側で受けることができる。よって、ユーザの状態に応じて適切なエフェクト情報の通知を受けることができる。
この発明によれば、いわゆるホバー状態に対する入力をユーザは適切に把握することができる。
本実施形態の情報処理装置である携帯端末100の機能構成を示すブロック図である。 携帯端末100のハードウェア構成図である。 エフェクトDB104の具体例を示す説明図である。 ジェスチャーDB105の具体例を示す説明図である。 携帯端末100の動作を示すフローチャートである。 ジェスチャーにおける概念図である。 第二の実施形態における携帯端末100aの機能構成を示すブロック図である。 ウエアラブル端末200に対してエフェクト情報を送信するときの携帯端末100aの処理を示すフローチャートである。 変形例における携帯端末100bの機能構成を示すブロック図である。
添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。
[第一実施形態]
図1は、本実施形態の情報処理装置である携帯端末100の機能構成を示すブロック図である。図1に示されるように、携帯端末100は、インタフェース部101、ホバー制御部102(位置取得手段)、ジェスチャー制御部103(エフェクト取得手段、ジェスチャー判断手段)、エフェクトDB104、ジェスチャーDB105、およびエフェクト部106(エフェクト通知手段)を含んで構成されている。なお、エフェクト部106は、バイブレータ制御部106a、バイブレータ106b、スピーカ制御部106c、およびスピーカ106dを含んだものである。
図2は、携帯端末100のハードウェア構成図である。図1に示される携帯端末100は、物理的には、図2に示すように、CPU11、主記憶装置であるRAM12及びROM13、入力デバイスであるキーボード及びマウス等の入力装置14、ディスプレイ等の出力装置15、ネットワークカード等のデータ送受信デバイスである通信モジュール16、半導体メモリ等の補助記憶装置17などを含むコンピュータシステムとして構成されている。図1における各機能は、図2に示すCPU11、RAM12等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU11の制御のもとで入力装置14、出力装置15、通信モジュール16を動作させるとともに、RAM12や補助記憶装置17におけるデータの読み出し及び書き込みを行うことで実現される。以下、図1に示す機能ブロックに基づいて、各機能ブロックを説明する。
インタフェース部101は、タッチパネル15bにおいて検出された、ユーザの指やタッチペンなどの指示部分のホバー状態(入力値:位置情報の変換前の情報)を受け付ける部分である。なお、指示部分の検出は、タッチパネル15bに限るものではなく、例えば、赤外線センサ、RGBカメラ、静電容量検知等の技術を用いてホバー状態を受け付けることができる。
ホバー制御部102は、あらかじめ定められたルールに従って、ホバー状態(入力値)を位置情報に変換し、その位置情報をジェスチャー制御部103に通知する。この通知は、所定タイミングごとに行われ、例えば60ミリ秒ごとに行われる。
ジェスチャー制御部103は、ホバー制御部102から通知された位置情報に基づいて、エフェクトDB104およびジェスチャーDB105からエフェクト情報およびジェスチャー情報を取得し、取得したエフェクト情報またはジェスチャー情報に基づいて取得したエフェクト情報をエフェクト部106に通知する部分である。まず、基本動作として、ジェスチャー制御部103は、ホバー制御部102から取得した位置情報を用いて、そのエフェクト情報の問い合わせをエフェクトDB104に対して行う。そして、ジェスチャー制御部103は、エフェクトDB104から、問い合わせに対するエフェクト情報を取得する。
エフェクトDB104は、位置情報およびジェスチャー情報とエフェクト情報とを対応付けて記憶する部分である。エフェクト情報とは、そのジェスチャーに応じたユーザに対する通知方法を示したものである。例えば、バイブレータ106bによる振動より通知するか、スピーカ106dによるアラーム音により通知するか示したものである。
図3は、エフェクトDB104の具体例を示す説明図である。図3に示すようにエフェクトDB104は、エフェクト情報と、その位置情報との関係を示した情報を記述している。例えば、図3(a)においては、エフェクト情報と高さ情報とが対応付けられている。ここでの高さ情報は、タッチパネル15bのタッチ面から垂直方向における、ユーザの指などの指示部分の位置を示したものである。図3(a)においては、ジェスチャー制御部103は、高さzn1の位置にユーザの指があった場合には、振動パターン1を出力することを決定する。
また、図3(b)においては、エフェクト情報と指示部分の検出エリア範囲の最大値とを対応付けていることを示している。すなわち、ジェスチャー制御部103は、この範囲を超えてユーザの指が位置したと判断した場合、エフェクトDB104で定められたアラーム音で鳴動することを決定する。例えば、図3(b)においては、座標(*、y2、*)のうち、y軸方向においてy2が最大値であることを示しており、このy軸において、入力指示部分がy2に達した場合、ホバー検出エリア外にあるとみなして(またはそのエリアの境界線にいる)、アラーム音1が鳴動することが決められている。
なお、図3においては示していないが、これらエフェクトDBは、タッチパネル15bの中心座標をあらかじめ決めておき、その中心座標とユーザの指などの入力指示部分との位置関係(例えば、距離)とエフェクト情報とを対応付けてもよい。これにより、エフェクト部106は、中心座標からのユーザの指の動きに応じたエフェクトを通知することができる。
また、ジェスチャー制御部103は、ジェスチャー検知処理として、ジェスチャーDB105を参照して、一連の位置情報からなる位置情報群に対応するジェスチャー情報を取得し、そのジェスチャー情報に基づいてエフェクト情報を取得する。具体的には、このジェスチャー制御部103は、ホバー制御部102から時系列的に連続して取得された所定個数の位置情報、例えば60m秒ごとに取得された10個の位置情報を用いて、ジェスチャーDB105に問い合わせを行うことにより、ジェスチャー情報の判断を行う。そして、ジェスチャー制御部103は、ジェスチャー情報に対応するエフェクト情報を取得する。
なお、ここでの問い合わせ処理は、ホバー制御部102における位置情報の取得タイミングより大きく、例えば600msごとに行われるが、これに限るものではなく、位置情報の取得タイミングと同時に行うようにしてもよい。その場合、ジェスチャーを構成する位置情報は、時間的に一単位ずれたものを取得される。例えば、時間t0〜t9の位置情報からなる軌跡を比較対象としていた場合、次のタイミングでは、時間t1〜t10の位置情報からなる軌跡を比較対象とすることになる。
また、ジェスチャーDB105においては、軌跡は、絶対座標で定義されているが、これに限るものではなく、入力指示部分の起点に基づいた相対的な位置関係をもってして、軌跡を定義づけてもよい。
ジェスチャーDB105は、位置情報とジェスチャー情報とを対応付けて記憶する部分である。ジェスチャー制御部103はこのジェスチャーDB105に基づいて、ジェスチャー情報を取得して、取得することができる。図4にその具体例を示す。図4に示される通り、ジェスチャーDB105は、ジェスチャー情報と、その軌跡(時系列的に並べられた位置情報)及びその時間とを対応付けて記憶する部分である。すなわち、ジェスチャー情報は、軌跡とその軌跡が形成される時間によって、ジェスチャーと判断できるような情報により構成されている。ジェスチャー制御部103は、このジェスチャーDB105を参照することにより、ホバー制御部102により取得した一連の位置情報群と、ジェスチャーDB105に記述されている軌跡とを比較することにより、ジェスチャーDB105において定義されたジェスチャー情報であるか否かを判断することができる。
なお、ジェスチャーDB105においては、一つのジェスチャー情報に対して、複数の軌跡を定義づけると、いろいろなユーザに対して対応することができる。すなわち、ユーザによって、ジェスチャーは微妙に変わるため、それぞれの軌跡パターンを設定すると、ジェスチャーの認識性をあげることができる。
エフェクト部106は、ジェスチャー制御部103により判断されたジェスチャー情報に基づいて取得されたエフェクト情報をユーザに通知する部分である。さらに具体的には、エフェクト部は、バイブレータ制御部106a、バイブレータ106b、スピーカ制御部106c、およびスピーカ106dを含んで構成されている。
バイブレータ制御部106aは、バイブレータ106bを制御する部分であり、ジェスチャー制御部103により取得されたジェスチャー情報に従ったエフェクト処理を行う。すなわち、バイブレータ106bを所定のパターンで振動させる。
スピーカ制御部106cは、スピーカ106dを制御する部分であり、ジェスチャー制御部103により取得されたジェスチャー情報に従ったエフェクト処理を行う。すなわち、スピーカ106dから所定のアラーム音を発するよう制御する。
このように構成された携帯端末100の入力支援方法の動作について説明する。図5は、携帯端末100の動作を示すフローチャートである。まず、タッチパネル15bにおいて、ユーザの指などの指示部分のホバー状態を示す入力値が検出され、ホバー制御部102により、その入力値から座標情報に変換され、座標情報が取得される(S101)。そして、取得された座標情報は、所定タイミングごと(例えば60msごと)にジェスチャー制御部103に通知される(S102)。
そして、ジェスチャー制御部103により、座標情報に基づいた問い合わせが、エフェクトDB104に対して行われる(S103)。この問い合わせに対して、ジェスチャー制御部103により、座標情報に対応するエフェクト情報が取得される(S104)。つぎに、ジェスチャー制御部103により、ジェスチャーDB105に対して問い合わせが行われる(S105)。ここでは、ジェスチャー制御部103により、その問い合わせ直前に取得された時系列的に連続した所定個数の座標情報が、ジェスチャーDB105に記憶されている軌跡情報と一致しているか、またはそれに近似したものの有無が判断される(S106)。
そして、ジェスチャー情報があると判断されると(S106:YES)、ジェスチャー制御部103により、エフェクトDB104に対して、取得されたジェスチャー情報を用いた問い合わせ処理が行われる(S107)。そして、ジェスチャー制御部103により、ジェスチャー情報に一致するエフェクト情報が取得され(S108)、エフェクト部106により、そのエフェクト情報に従ったエフェクト処理が行われる(S109)。S106において、ジェスチャー情報がないと判断されると(S106:NO)、S104においてジェスチャー制御部103により取得されたエフェクト情報に従って、エフェクト部106によるエフェクト処理が行われる(S110)。
つぎに、本実施形態の携帯端末100についての作用効果について説明する。本実施形態の携帯端末100によれば、タッチパネル15bからの出力に基づいてホバー制御部102は、タッチパネル15bのタッチ面から所定間隔空けたホバー入力空間のうちどの位置にいるか、その位置情報を取得する。そして、ジェスチャー制御部103は、その位置情報に応じたエフェクト情報を取得し、エフェクト部106は、そのエフェクト情報に応じたエフェクトをユーザに対して通知する。これにより、いわゆるホバー状態に対する入力をユーザは適切に把握することができる。本実施形態では、エフェクトとは、アラーム音であったり、バイブレータによる振動であったりする。なお、そのほか発光などであってもよい。
また、本実施形態の携帯端末100によれば、ジェスチャー制御部103は、ホバー制御部102により取得された位置情報で示される入力指示部分とタッチパネル15bの中心部分との距離などの位置関係に応じたエフェクト情報を取得する。これにより、ユーザが指などの入力指示部分をどの位置においているか、視覚により認識することなく、聴覚や触覚などで適切に把握することができる。
また、本実施形態の携帯端末100によれば、ジェスチャー制御部103は、ホバー制御部102により取得された位置情報で示される入力指示部分の、タッチパネル15bのタッチ面に対する高さに対応したエフェクト情報を取得し、エフェクト部106は、そのエフェクト情報に従ったエフェクト処理を行う。これにより、ユーザが指などの入力指示部分を、タッチ面に対してどれぐらいの高さにおいているか、視覚により認識することなく、聴覚や触覚などで適切に把握することができる。
例えば、図6(a)にホバー検出位置として、タッチ面からの高さを検出するときの概念図を示す。図に示される通り、高さz1からz3に向けてユーザの指が移動している。この高さz1、z2、およびz3ごとにエフェクトを変えることにより、ユーザは、自分の指がどのホバー状態にあるかを簡単に判断することができる。
また、本実施形態の携帯端末100によれば、ジェスチャー制御部103は、ホバー制御部102が入力指示部分の位置情報を取得できなくなるタッチパネル15bの検出範囲の直前に、入力指示部分が移動したと判断されたとき、その位置に応じたエフェクト情報を取得し、エフェクト部106は、そのエフェクト情報に従ったエフェクト処理を行う。これにより、ホバー状態検出範囲外にユーザの指などの入力指示部分が移動したことをユーザは適切に把握することができる。
例えば、図6(b)にホバー検出範囲外にユーザの指が移動したときの概念図を示す。図に示される通り、ユーザの指が座標(X1、Y1、Z1)にあったとする。y軸座標Y2がタッチパネル15bのホバー検出範囲外であるとして、ユーザの指が座標(X1、Y2、Z1)に移動した場合、Y2に移動する前のタッチパネル15bの検出範囲内の最大座標にユーザの指が位置したときにエフェクトを通知するようにする。これにより、入力指示部分が検出範囲外に行くことを、ユーザは把握することができる。
また、本実施形態の携帯端末100によれば、ジェスチャー制御部103がジェスチャーDB105を参照して、ホバー制御部102により取得された一連の位置情報があらかじめ定めたジェスチャーに該当すると判断した場合、当該ジェスチャー制御部103は、エフェクトDB104を参照して、そのジェスチャーに応じたエフェクト情報を取得する。そして、エフェクト部106は、位置情報に応じたエフェクトの通知を行うことなく、ジェスチャーに応じたエフェクトを通知する。これにより、ジェスチャーに応じたエフェクトを適切に行うことが得きる。よって、ユーザは、ジェスチャーによる操作が受け付けられたことを把握することができる。
例えば、ジェスチャーとは、図6(c)に示されるユーザの指などの軌跡により特定されるものである。図6(c)においては、座標(X1、Y1、Z1)から座標(X10、Y10、Z10)に対して移動しているときを示している。
なお、ここでは、ユーザの指1本のみにより描かれた軌跡を示しているが、これに限るものではなく、複数の指により描かれた軌跡を判断するように指定もよい。たとえば、二つの軌跡がそれぞれ別地点から同一点近傍に0.5秒以内に遷移した後、そのまま同一点で0.5秒以上静止した状態であることを検知することで、いわゆる“つまむ”というジェスチャーを認識することができる。さらに、ピンチインとの区別も、同一点における静止時間に基づいて識別することもできる。
フリックについては、XYZ軸ともに直線的な軌跡が、所定時間内で描かれている否かで判断することができる。また、X軸、Y軸に対して平行であるか否か判断することもできる。
[第二実施形態]
つぎに、第二実施形態について説明する。この第二実施形態においては、携帯端末は、ユーザに装着可能なウエアラブル端末、例えば腕時計型端末、ブレスレット型端末、眼鏡型端末などに対して、エフェクト通知を行なうものである。
図7は、第二の実施形態における携帯端末100aの機能構成を示すブロック図である。図7に示されるように、携帯端末100は、インタフェース部101、ホバー制御部102(位置取得手段)、ジェスチャー制御部103a(エフェクト取得手段、ジェスチャー判断手段)、エフェクトDB104、ジェスチャーDB105、エフェクト部106(エフェクト通知手段)、および近距離無線通信部107(送信手段)を含んで構成されている。なお、エフェクト部106は、バイブレータ制御部106a、バイブレータ106b、スピーカ制御部106c、およびスピーカ106dを含んだものである。この携帯端末100aは、第一実施形態に記載されているものと同様に、図2に示されるようなハードウェア構成をとるものである。
この携帯端末100aは、第一実施形態における携帯端末100とは、近距離無線通信部107を備えて、ウエアラブル端末200と通信し、ウエアラブル端末200においてエフェクト通知を行う点で相違している。以下、その相違点となる構成要件について説明する。
ジェスチャー制御部103aは、第一実施形態のジェスチャー制御部103の機能に加えて、ウエアラブル端末200がユーザに装着されているか否かを判断する部分である。具体的には、ジェスチャー制御部103aは、ウエアラブル端末200から近距離無線通信部107を介して、ウエアラブル端末200が装着状態か否かを示す情報に基づいて、その装着状態を判断する。
そして、ジェスチャー制御部103aは、ウエアラブル端末200が装着状態であると判断すると、近距離無線通信部107を介してエフェクト情報の送信処理を行なう。また、装着状態ではないと判断すると、エフェクト部106にエフェクト処理を指示する。
近距離無線通信部107は、ウエアラブル端末200と、近距離無線通信(例えば、ブルートゥースなど)により通信を行う部分でありウエアラブル端末200からは、その装着状態を示す信号を受信したり、ウエアラブル端末200に対して、エフェクト情報を送信したりする部分である。
このように本実施形態の携帯端末100aは、ウエアラブル端末200に対してエフェクト処理を実行させることができる。
つぎに、このウエアラブル端末200の構成について説明する。図7に示される通り、ウエアラブル端末200は、近距離無線通信部201、バイブレータ制御部202、およびバイブレータ203を含んで構成されている。以下、各構成について説明する。
近距離無線通信部201は、携帯端末100aと近距離無線通信により通信を行う部分である。
バイブレータ制御部202は、バイブレータ203を制御する部分であり、ジェスチャー制御部103aにより取得されたジェスチャー情報に従ったエフェクト処理を行う。すなわち、バイブレータ203を所定のパターンで振動させる。
装着状態取得部204は、ウエアラブル端末200がユーザに装着されたか否かを示す情報を取得する部分であり、例えば、接触センサによる検出や、ジャイロによる所定の振動または傾きの検出、若しくはユーザによる所定の操作を受け付けることにより、装着状態であることを示す情報を取得する。装着状態取得部204は、装着状態であることを示す情報を取得すると近距離無線通信部201を介して、携帯端末100aに対して装着状態を示す情報を送信する。
図8は、ウエアラブル端末200に対してエフェクト情報を送信するときの携帯端末100aの処理を示すフローチャートである。図8に示される通り、S101からS108における処理は、第一実施形態における携帯端末100の処理と同じである。
ジェスチャー制御部103により、ジェスチャー情報に一致するエフェクト情報が取得されると(S108)、ジェスチャー制御部103aによりウエアラブル端末200が装着状態であるか否かが判断される(S109a)。
ここで、装着されていると判断されると、近距離無線通信部107を介して、エフェクト情報がウエアラブル端末200に送信される(S111)。ウエアラブル端末200では、受信したエフェクト情報に基づいてエフェクト処理が実行される。一方、装着されていないと判断されると、エフェクト部106により、そのエフェクト情報に従ったエフェクト処理が行われる(S109)。
このようにして、ウエアラブル端末200の装着状態に応じて、エフェクト処理がウエアラブル端末200で行われるか、携帯端末100aにおいて行われるかが切り換えられる。
つぎに、第二実施形態の変形例について説明する。図9は、変形例における携帯端末100bの機能構成を示すブロック図である。図9に示される通り、携帯端末100bは、インタフェース部101、ホバー制御部102(位置取得手段)、ジェスチャー制御部103b(エフェクト取得手段、ジェスチャー判断手段)、エフェクトDB104、ジェスチャーDB105、および近距離無線通信部107(送信手段)を含んで構成されている。なお、この携帯端末100aは、第一実施形態に記載されているものと同様に、図2に示されるようなハードウェア構成をとるものである。
この携帯端末100bは、第二実施形態における携帯端末100aとは、エフェクト部106を備えていない点で相違する。この変形例における携帯端末100bにおいては、ジェスチャー制御部103bは、第一実施形態におけるジェスチャー制御部103の機能に加えて、ウエアラブル端末200が装着状態であるか否かを判断することなく、近距離無線通信部107を介して、ジェスチャー情報をウエアラブル端末200に対して送信する。ウエアラブル端末200においては、送信されたジェスチャー情報に基づいてエフェクト処理が行われる。
上述第二実施形態及びその変形例においては、いずれもバイブレータによりエフェクト処理を実行しているが、これに限るものではない。例えば、ウエアラブル端末200はディスプレイを備え、そのディスプレイにエフェクト情報として、所定の色を発光させたりしてもよい。また、スピーカを備え、所定の効果音をエフェクト情報として出力してもよい。さらに、ウエアラブル端末200を眼鏡型端末の形態とした場合、バイブレータ等の代わりに、またはそれに加えて、骨伝導スピーカを備え、骨伝導によりエフェクト情報を通知するようにしてもよい。ウエアラブル端末200にした場合においても、所定色の発行によりエフェクト情報を通知するようにしてもよい。その場合、眼鏡のフレーム部分に発光させるためのLED等の発光装置を備え、例えばフリックで赤色、掴むで黄色、放すで緑色など、その指の動作に応じた色を発光させるような形態が考えられる。
つぎに、この第二実施形態の携帯端末100aおよび100bの作用効果について説明する。この第二の実施形態の携帯端末100aによれば、ユーザはウエアラブル端末200を使ってエフェクト情報の通知を受けることができる。すなわち、ユーザは、ウエアラブル端末200を装着した場合には、その旨を近距離無線通信部107を介して携帯端末100aに通知し、携帯端末100aにおいては、その装着した旨の装着状態情報を受信した場合には、ウエアラブル端末200に対してエフェクト情報を通知するものである。装着した旨の装着状態情報を受信しない場合には、その携帯端末100aが内部に備えているエフェクト部106を用いてエフェクト処理を行なう。これにより、いわゆるホバー状態に対する入力をユーザは適切に把握することができる。
また、変形例における携帯端末100bにおいては、装着状態情報を受けることなく、エフェクト通知をウエアラブル端末200に送ることができる。
15b…タッチパネル、100…携帯端末、101…インタフェース部、102…ホバー制御部、103…ジェスチャー制御部、104…エフェクトDB、105…ジェスチャーDB、106…エフェクト部、106a…バイブレータ制御部、106b…バイブレータ、106c…スピーカ制御部、106d…スピーカ、107…近距離無線通信部、200…ウエアラブル端末、201…近距離無線通信部、202…バイブレータ制御部、203…バイブレータ、204…装着状態取得部。

Claims (12)

  1. タッチ面から所定間隔空けたホバー入力空間の入力指示部分を検出するタッチパネルと、
    前記タッチパネルにおいて検出された入力指示部分の位置情報を取得する位置取得手段と、
    前記位置取得手段により取得された位置情報に応じたエフェクト情報を取得するエフェクト取得手段と、
    前記エフェクト取得手段により取得されたエフェクト情報に基づいたエフェクトをユーザに対して通知するエフェクト通知手段と、を備える情報処理装置。
  2. 前記エフェクト取得手段は、
    前記位置取得手段により取得された位置情報で示される入力指示部分と前記タッチパネルの中心部分との位置関係に応じたエフェクト情報を取得することを特徴とする請求項1に記載の情報処理装置。
  3. 前記エフェクト取得手段は、
    前記位置取得手段により取得された位置情報で示される入力指示部分の、前記タッチパネルのタッチ面に対する高さに対応したエフェクト情報を取得することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記エフェクト取得手段は、
    前記位置取得手段が入力指示部分の位置情報を取得できなくなる前記タッチパネルの検出範囲の直前に、前記入力指示部分が移動したと判断されたとき、その位置に応じたエフェクト情報を取得することを特徴とする請求項1から3のいずれか一項に記載の情報処理装置。
  5. 前記位置取得手段において取得された一連の位置情報群に基づいて、あらかじめ定められたジェスチャーであるか否かを判断するジェスチャー判断手段をさらに備え、
    前記エフェクト取得手段は、
    前記ジェスチャー判断手段が前記位置取得手段により取得された一連の位置情報群があらかじめ定めたジェスチャーを示したものであると判断した場合、前記ジェスチャーに応じたエフェクト情報を取得し、
    前記エフェクト通知手段は、
    位置情報に応じたエフェクトの通知を行うことなく、ジェスチャーに応じたエフェクトを通知することを特徴とする請求項1から4のいずれか一項に記載の情報処理装置。
  6. 前記エフェクト通知手段は、機器を振動させるバイブレーション機能によりエフェクト通知を行うことを特徴とする請求項1から5のいずれか一項に記載の情報処理装置。
  7. 前記通知手段は、音を発することによりエフェクト通知を行うことを特徴とする請求項1から6のいずれか一項に記載の情報処理装置。
  8. ユーザに装着可能なウエアラブル端末と通信接続する情報処理装置において、
    タッチ面から所定間隔空けたホバー入力空間の入力指示部分を検出するタッチパネルと、
    前記タッチパネルにおいて検出された入力指示部分の位置情報を取得する位置取得手段と、
    前記位置取得手段により取得された位置情報に応じたエフェクト情報を取得するエフェクト取得手段と、
    前記エフェクト取得手段により取得されたエフェクト情報を、ユーザに装着されているウエアラブル端末に対してエフェクト情報を無線通信により送信する送信手段と、
    を備え、
    前記ウエアラブル端末は、前記エフェクト情報に基づいたエフェクトをユーザに対して通知する情報処理装置。
  9. 前記ウエアラブル端末は、
    ユーザの頭部に装着可能なメガネ型で構成されており、
    骨伝導によりエフェクト通知を行うことを特徴とする請求項8に記載の情報処理装置。
  10. 前記エフェクト取得手段により取得されたエフェクト情報に基づいたエフェクトをユーザに対して通知するエフェクト通知手段と、
    前記ウエアラブル端末がユーザに装着されているか否かを判断する判断手段と、をさらに備え、
    前記判断手段により、ウエアラブル端末がユーザに装着されていると判断されると、前記エフェクト通知手段による通知処理は行われずに、前記送信手段がエフェクト情報を送信し、未装着であると判断されると、前記送信手段による送信を行うことなく、前記エフェクト通知手段が、エフェクト通知を行う、ことを特徴とする請求項8または9に記載の情報処理装置。
  11. タッチ面から所定間隔空けたホバー入力空間の入力指示部分を検出するタッチパネルを備える情報処理装置の入力支援方法において、
    前記タッチパネルにおいて検出された入力指示部分の位置情報を取得する位置取得ステップと、
    前記位置取得ステップにより取得された位置情報に応じたエフェクト情報を取得するエフェクト取得ステップと、
    前記エフェクト取得ステップにより取得されたエフェクト情報に基づいたエフェクトをユーザに対して通知するエフェクト通知ステップと、を備える入力支援方法。
  12. タッチ面から所定間隔空けたホバー入力空間の入力指示部分を検出するタッチパネルを有し、ユーザに装着可能なウエアラブル端末と通信接続する情報処理装置の入力支援方法において、
    前記タッチパネルにおいて検出された入力指示部分の位置情報を取得する位置取得ステップと、
    前記位置取得ステップにより取得された位置情報に応じたエフェクト情報を取得するエフェクト取得ステップと、
    前記エフェクト取得ステップにより取得されたエフェクト情報を、ユーザに装着されているウエアラブル端末に対してエフェクト情報を無線通信により送信する送信ステップと、
    を備え、
    前記ウエアラブル端末は、前記エフェクト情報に基づいたエフェクトをユーザに対して通知する入力支援方法。


JP2014058350A 2013-03-28 2014-03-20 情報処理装置および入力支援方法 Pending JP2014209336A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014058350A JP2014209336A (ja) 2013-03-28 2014-03-20 情報処理装置および入力支援方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013068668 2013-03-28
JP2013068668 2013-03-28
JP2014058350A JP2014209336A (ja) 2013-03-28 2014-03-20 情報処理装置および入力支援方法

Publications (1)

Publication Number Publication Date
JP2014209336A true JP2014209336A (ja) 2014-11-06

Family

ID=51903508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014058350A Pending JP2014209336A (ja) 2013-03-28 2014-03-20 情報処理装置および入力支援方法

Country Status (1)

Country Link
JP (1) JP2014209336A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016119069A (ja) * 2014-11-25 2016-06-30 イマージョン コーポレーションImmersion Corporation 変形ベースの触覚効果のためのシステム及び方法
JP2018109871A (ja) * 2017-01-04 2018-07-12 京セラ株式会社 電子機器
JP2020086998A (ja) * 2018-11-27 2020-06-04 ローム株式会社 入力デバイス、自動車
JP2021043698A (ja) * 2019-09-11 2021-03-18 コニカミノルタ株式会社 入力装置、画像形成装置、入力装置の制御方法及びプログラム
JP2022003535A (ja) * 2015-12-11 2022-01-11 イマージョン コーポレーションImmersion Corporation 位置ベースの触覚効果のためのシステム及び方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016119069A (ja) * 2014-11-25 2016-06-30 イマージョン コーポレーションImmersion Corporation 変形ベースの触覚効果のためのシステム及び方法
US10518170B2 (en) 2014-11-25 2019-12-31 Immersion Corporation Systems and methods for deformation-based haptic effects
JP2022003535A (ja) * 2015-12-11 2022-01-11 イマージョン コーポレーションImmersion Corporation 位置ベースの触覚効果のためのシステム及び方法
JP2018109871A (ja) * 2017-01-04 2018-07-12 京セラ株式会社 電子機器
JP2020086998A (ja) * 2018-11-27 2020-06-04 ローム株式会社 入力デバイス、自動車
JP7280032B2 (ja) 2018-11-27 2023-05-23 ローム株式会社 入力デバイス、自動車
US11941208B2 (en) 2018-11-27 2024-03-26 Rohm Co., Ltd. Input device and automobile including the same
JP2021043698A (ja) * 2019-09-11 2021-03-18 コニカミノルタ株式会社 入力装置、画像形成装置、入力装置の制御方法及びプログラム
JP7351153B2 (ja) 2019-09-11 2023-09-27 コニカミノルタ株式会社 入力装置、画像形成装置、入力装置の制御方法及びプログラム

Similar Documents

Publication Publication Date Title
US9978261B2 (en) Remote controller and information processing method and system
US10055064B2 (en) Controlling multiple devices with a wearable input device
US20170269722A1 (en) Information Handling System Interactive Totems
US11586299B2 (en) Electronic device having multi-functional human interface
US9983717B2 (en) Disambiguation of false touch inputs at an information handling system projected user interface
US9753591B2 (en) Capacitive mat information handling system display and totem interactions
US20160313890A1 (en) Dynamic Cursor Focus in a Multi-Display Information Handling System Environment
JP2015121979A (ja) 装着型情報入力装置、情報入力システム、及び情報入力方法
US11243640B2 (en) Information handling system modular capacitive mat with extension coupling devices
US9720446B2 (en) Information handling system projected work space calibration
US10139854B2 (en) Dynamic display resolution management for an immersed information handling system environment
JP2014209336A (ja) 情報処理装置および入力支援方法
JP6483556B2 (ja) 操作認識装置、操作認識方法及びプログラム
US9804718B2 (en) Context based peripheral management for interacting with an information handling system
US20160313797A1 (en) Information Handling System Non-Linear User Interface
US20160313866A1 (en) Managing Inputs at an Information Handling System by Adaptive Infrared Illumination and Detection
US20150363026A1 (en) Control device, operation mode altering method thereof, control method thereof and battery power warning method thereof
US12013987B2 (en) Non-standard keyboard input system
KR20160025229A (ko) 이동 단말기 및 그 제어 방법
JP6446967B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2016121034A1 (ja) ウェアラブル装置、入力方法及びプログラム
US20120274561A1 (en) Operation control system using infrared rays and method thereof
TWI498793B (zh) 光學觸控系統及光學觸控控制方法
JP6523509B1 (ja) ゲームプログラム、方法、および情報処理装置
JP6341003B2 (ja) 入力装置、入力方法、及び入力プログラム