JP2015153353A - 情報処理装置及び方法、並びにコンピュータプログラム - Google Patents

情報処理装置及び方法、並びにコンピュータプログラム Download PDF

Info

Publication number
JP2015153353A
JP2015153353A JP2014029212A JP2014029212A JP2015153353A JP 2015153353 A JP2015153353 A JP 2015153353A JP 2014029212 A JP2014029212 A JP 2014029212A JP 2014029212 A JP2014029212 A JP 2014029212A JP 2015153353 A JP2015153353 A JP 2015153353A
Authority
JP
Japan
Prior art keywords
input
information
user
gesture
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014029212A
Other languages
English (en)
Inventor
誠 倉橋
Makoto Kurahashi
誠 倉橋
広行 鹿又
Hiroyuki Shikamata
広行 鹿又
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2014029212A priority Critical patent/JP2015153353A/ja
Publication of JP2015153353A publication Critical patent/JP2015153353A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザの動きと共に入力機器を用いた所望情報の入力が行われる場合においても、ユーザの動きに対してユーザが要望する要望情報を好適に割り当てる。【解決手段】情報処理装置15は、ユーザの動きの状況を示す動き情報、及び、ユーザの動きと並行して又は相前後して入力機器12、13を用いてユーザによって行われる入力の状況を示す入力情報を取得する取得手段1522、1523と、入力情報及び動き情報に基づいて、動き情報に対して、ユーザの要望を示す要望情報を割り当てる割当手段1524とを備える。【選択図】図1

Description

本発明は、例えば情報を処理する情報処理装置であって、特に、ユーザの動き(例えば、ジェスチャやモーション)を示す動き情報に対して特定の要望情報(例えば、ユーザが要望している操作命令)を割り当てる情報処理装置及び方法、並びにコンピュータプログラムの技術分野に関する。
カメラを介して一又は複数の手の画像を検出すると共に、当該検出した手の画像に基づいて、ユーザインタフェース上に表示された画像を操作するためのコントロールパラメータを割り当てる(言い換えれば、関連付ける)方法が提案されている(特許文献1参照)。例えば、特許文献1において提案されている方法では、手の親指と人差し指とが互いに触れることで視覚的に独立した背景領域が形成される場合には、当該独立した背景領域に対してマウスをエミュレートした機能がコントロールパラメータとして割り当てられる。より具体的には、一旦形成した独立した背景領域を解消した後に再び独立した背景領域を形成する手の動きに対しては、マウスの「クリック機能」や「ドラッグ機能」や「スクロール機能」等が割り当てられる。
特表2010−500645号公報
特許文献1に開示された方法は、検出した手の動きに対してコントロールパラメータを割り当てている。しかしながら、ユーザは、マウス等をエミュレートするために手を動かすだけではなく、このような手の動きと並行して又は相前後して、キーボード等の入力機器を用いた入力を行うこともある。しかしながら、特許文献1には、入力機器を用いた入力を行う際のコントロールパラメータの割当方法が何ら開示されていない。従って、特許文献1に開示された方法は、入力機器を用いた入力を行いながらマウス等をエミュレートするために手を動かしている場合には、必ずしも好適なコントロールパラメータを割り当てることができるとは限らないという技術的な問題点が生ずる。
例えば、特許文献1に開示された方法は、手の動きと並行して又は相前後して行われる入力機器を用いた入力を何ら考慮していないため、入力機器を用いた入力の状況の違いに関わらず、同一の手の動きに対しては同一のコントロールパラメータを割り当てる。従って、入力機器を用いた入力が多様な態様で行われることを考慮すれば、特許文献1に開示された方法は、入力機器を用いた入力を行いながらマウス等をエミュレートするために手を動かしている場合には、必ずしも好適なコントロールパラメータを割り当てることができるとは限らないという技術的な問題点が生ずる。
尚、このような技術的な問題点は、手の動きに対してマウス等をエミュレートする機能を割り当てる場合のみならず、ユーザの動きに対して任意の情報(例えば、ユーザが要望する要望情報)を割り当てる場合にも同様に生じ得る。
本発明は、例えば上記問題願に鑑みてなされたものであり、ユーザの動きと共に入力機器を用いた入力が行われる場合においても、ユーザの動きに対してユーザが要望する要望情報を好適に割り当てることを可能とならしめる情報処理装置及び方法、並びにコンピュータプログラムを提供することを課題とする。
本発明の情報処理装置は、上記課題を解決するために、ユーザの動きの状況を示す動き情報、及び、前記ユーザの動きと並行して又は相前後して入力機器を用いて前記ユーザによって行われる入力の状況を示す入力情報を取得する取得手段と、前記入力情報及び前記動き情報に基づいて、前記動き情報に対して、前記ユーザの要望を示す要望情報を割り当てる割当手段とを備える。
本発明の情報処理方法は、上記課題を解決するために、ユーザの動きの状況を示す動き情報、及び、前記ユーザの動きと並行して又は相前後して入力機器を用いて前記ユーザによって行われる入力の状況を示す入力情報を取得する取得工程と、前記入力情報及び前記動き情報に基づいて、前記動き情報に対して、前記ユーザの要望を示す要望情報を割り当てる割当工程とを備える。
本発明のコンピュータプログラムは、本発明の情報処理方法をコンピュータに実行させる。
本発明の作用及び他の利得は次に説明する実施するための形態から明らかにされる。
本実施例のコンピュータシステムの外観を示す斜視図及び本実施例のコンピュータシステムの構成を示すブロック図である。 主としてジェスチャ操作部によって行われるジェスチャ解釈処理の全体の流れを示すフローチャートである。 ステレオカメラが撮影した画像と共に、初期設定処理の内容を説明する平面図である。 ステレオカメラが撮影した画像と共に、ユーザの手及び指の検出処理の内容を説明する平面図である。 ステレオカメラが撮影した画像と共に、ユーザの手及び指の姿勢の解釈処理の内容を説明する平面図である。 図2のステップS4におけるユーザのジェスチャに対する操作命令の割当処理の流れを示すフローチャートである。 図6のステップS45におけるジェスチャ解釈モードの決定処理の流れを示すフローチャートである。 ジェスチャ解釈モードの一例であるGUI操作モードでの操作命令の割当処理を、ディスプレイに表示されるGUIと共に説明する平面図である ジェスチャ解釈モードの一例であるGUI操作モードでの操作命令の割当処理を、ディスプレイに表示されるGUIと共に説明する平面図である ジェスチャ解釈モードの一例であるサーチモードでの操作命令の割当処理を、ディスプレイに表示されるGUIと共に説明する平面図である ジェスチャ解釈モードの一例であるポインティングモードでの操作命令の割当処理を、ディスプレイに表示されるGUIと共に説明する平面図である
(情報処理装置の実施形態)
<1>
本実施形態の情報処理装置は、ユーザの動きの状況を示す動き情報、及び、前記ユーザの動きと並行して又は相前後して入力機器を用いて前記ユーザによって行われる入力の状況を示す入力情報を取得する取得手段と、前記入力情報及び前記動き情報に基づいて、前記動き情報に対して、前記ユーザの要望を示す要望情報を割り当てる割当手段とを備える。
本実施形態の情報処理装置によれば、取得手段は、入力情報及び動き情報の双方を取得する。このとき、取得手段は、入力機器を用いた入力を直接的に受け付けることで、入力情報を直接的に取得してもよい。或いは、取得手段は、入力機器を用いた直接的に受け付ける他の手段から入力情報を取得することで、入力情報を間接的に取得してもよい。同様に、取得手段は、ユーザの動きを直接的に検出することで、動き情報を直接的に取得してもよい。或いは、取得手段は、ユーザの動きを直接的に検出する他の手段から動き情報を取得することで、動き情報を間接的に取得してもよい。
動き情報は、ユーザの動きの状況(言い換えれば、動きの状態、態様又は様子)を示している。言い換えれば、動き情報は、ユーザの動きの状況を直接的に又は間接的に示すことが可能な情報である。ここで言う「ユーザの動き」とは、ユーザの体の全体又は一部の、ユーザの意思に起因した動きを意味する。このような「ユーザの動き」の一例として、例えば、ユーザの手の動きや、ユーザの指の動きや、ユーザの頭の動きや、ユーザの目の動き等が一例としてあげられる。
入力情報は、入力機器を用いてユーザによって行われる入力の状況(言い換えれば、入力の状態、態様若しくは様子、又は、結果)を示している。言い換えれば、入力情報は、入力機器を用いた入力の状況を直接的に又は間接的に示すことが可能な情報である。尚、入力機器を用いてユーザによって行われる入力とは、例えば、ユーザが入力機器を操作することで行われる、情報処理装置に又はその他の情報機器に対する何らかの情報又は指示の入力である。特に、入力情報は、動き情報が示すユーザの動きと並行して又は相前後して行われる入力の状況を示している。尚、「入力機器」は、情報処理装置に対する所望情報の入力を行うためにユーザが操作する機器である。このような入力機器の一例として、例えば、キーボードや、マウスや、タッチパッドや、タッチパネルや、スタイラスペン等が一例としてあげられる。
割当手段は、取得手段が取得した入力情報及び動き情報の双方に基づいて、動き情報に対して要望情報を割り当てる。つまり、割当手段は、入力情報を考慮することなく(或いは、動き情報に基づく一方で入力情報に基づくことなく)動き情報に対して要望情報を割り当てることに代えて、入力情報をも考慮した上で(或いは、動き情報及び入力情報の双方に基づいて)、動き情報に対して要望情報を割り当てる。
要望情報は、ユーザの要望を示している。言い換えれば、要望情報は、ユーザが要望している何らかの情報を直接的に又は間接的に示すことが可能な情報である。このような要望情報として、ユーザが要望する操作命令(例えば、コンピュータに対する操作命令)を示す情報が一例としてあげられる。本実施形態では更に、要望情報は、動き情報に対して割り当てられる情報である。尚、動き情報は、上述したように、ユーザの意思に起因して行われるユーザの動きの状況を示している。従って、ユーザがユーザ自身の要望をユーザの動きによって表現することができるがゆえに、割当手段は、動き情報に対して、ユーザの要望を示す要望情報を好適に割り当てることができる。
このように、本実施形態の情報処理装置は、入力情報及び動き情報の双方に基づいて、動き情報に対して要望情報を割り当てることができる。このため、例えば、本実施形態の情報処理装置は、入力機器を用いた入力の状況の違いを考慮した上で、同一のユーザの動きに対しては同一の又は異なる要望情報を割り当てることができる。従って、本実施形態の情報処理装置は、ユーザの動きと共に入力機器を用いた入力が行われる場合においても、ユーザの動きに対してユーザが要望する要望情報を好適に割り当てることができる。
<2>
本実施形態の情報処理装置の他の態様では、前記割当手段は、前記入力情報に基づいて、前記動き情報に対する前記要望情報の割当方法を変える。
この態様によれば、情報処理装置は、例えば、入力機器を用いた入力の状況の違いを考慮した上で、同一のユーザの動きに対して同一の又は異なる要望情報を割り当てることができる。例えば、情報処理装置は、入力機器を用いた入力の状況が異なる場合には、同一のユーザの動きに対して異なる要望情報を割り当てることができる。
<3>
上述の如く動き情報に対する要望情報の割当方法を入力情報に応じて変える情報処理装置の他の態様では、前記入力情報は、前記入力機器を用いた入力が行われている入力時間を示しており、前記割当手段は、前記入力情報が示す前記入力時間と前記入力機器を用いた入力と並行して又は相前後して前記ユーザが動いている時間との間の時間的関係に基づいて、前記動き情報に対する前記要望情報の割当方法を変える。
この態様によれば、情報処理装置は、例えば、所望情報が入力されている入力時間と入力機器を用いた入力と並行して又は相前後してユーザが動いている時間との間の時間的関係を考慮した上で、同一のユーザの動きに対して同一の又は異なる要望情報を割り当てることができる。例えば、情報処理装置は、入力時間とユーザが動いている時間との間の時間的関係が異なる場合には、同一のユーザの動きに対して異なる要望情報を割り当てることができる。
<4>
上述の如く動き情報に対する要望情報の割当方法を入力情報に応じて変える情報処理装置の他の態様では、前記入力情報は、前記入力機器を用いた入力によって入力される所望情報の入力対象先を示しており、前記割当手段は、前記入力情報が示す前記入力対象先に基づいて、前記動き情報に対する前記要望情報の割当方法を変える。
この態様によれば、情報処理装置は、例えば、所望情報の入力対象先を考慮した上で、同一のユーザの動きに対して同一の又は異なる要望情報を割り当てることができる。例えば、情報処理装置は、所望情報の入力対象先が異なる場合には、同一のユーザの動きに対して異なる要望情報を割り当てることができる。
<5>
上述の如く動き情報に対する要望情報の割当方法を入力情報に応じて変える情報処理装置の他の態様では、前記入力情報は、前記入力機器を用いた入力によって入力される所望情報の内容を示しており、前記割当手段は、前記入力情報が示す前記内容に基づいて、前記動き情報に対する前記要望情報の割当方法を変える。
この態様によれば、情報処理装置は、例えば、所望情報の内容を考慮した上で、同一のユーザの動きに対して同一の又は異なる要望情報を割り当てることができる。例えば、情報処理装置は、所望情報の内容が異なる場合には、同一のユーザの動きに対して異なる要望情報を割り当てることができる。
<6>
本実施形態の情報処理装置の他の態様では、前記入力情報は、前記入力機器を用いた入力が行われている入力時間を示しており、前記割当手段は、前記入力情報が示す前記入力時間と前記入力機器を用いた入力と並行して又は相前後して前記ユーザが動いている時間との間の時間的関係に基づいて、前記動き情報に対して前記要望情報を割り当てる。
この態様によれば、情報処理装置は、例えば、動き情報に対して、入力時間とユーザが動いている時間との間の時間的関係を考慮した好適な要望情報を割り当てることができる。
<7>
本実施形態の情報処理装置の他の態様では、前記入力情報は、前記入力機器を用いた入力によって入力される所望情報の入力対象先を示しており、前記割当手段は、前記入力情報が示す前記入力対象先に基づいて、前記動き情報に対して前記要望情報を割り当てる。
この態様によれば、情報処理装置は、例えば、動き情報に対して、所望情報の入力対象先を考慮した好適な要望情報を割り当てることができる。
<8>
本実施形態の情報処理装置の他の態様では、前記入力情報は、前記入力機器を用いた入力によって入力される所望情報の内容を示しており、前記割当手段は、前記入力情報が示す前記内容に基づいて、前記動き情報に対して前記要望情報を割り当てる。
この態様によれば、情報処理装置は、例えば、動き情報に対して、所望情報の内容を考慮した好適な要望情報を割り当てることができる。
(情報処理方法の実施形態)
<9>
本実施形態の情報処理方法は、ユーザの動きの状況を示す動き情報、及び、前記ユーザの動きと並行して又は相前後して入力機器を用いて前記ユーザによって行われる入力の状況を示す入力情報を取得する取得工程と、前記入力情報及び前記動き情報に基づいて、前記動き情報に対して、前記ユーザの要望を示す要望情報を割り当てる割当工程とを備える。
本実施形態の情報処理方法によれば、上述した本実施形態の情報処理装置が享受する各種効果と同様の効果を享受することができる。尚、上述した本実施形態の情報処理装置が採用し得る各種態様に対応して、本実施形態の情報処理方法もまた各種態様を採用することができる。
(コンピュータプログラムの実施形態)
<10>
本実施形態のコンピュータプログラムは、上述した本実施形態の情報処理方法をコンピュータに実行させる。
本実施形態のコンピュータプログラムによれば、上述した本実施形態の情報処理装置が享受する各種効果と同様の効果を享受することができる。尚、上述した本実施形態の情報処理装置が採用し得る各種態様に対応して、本実施形態のコンピュータプログラムもまた各種態様を採用することができる。
本実施形態のこのような作用及び他の利得は次に説明する実施例から明らかにされる。
以上説明したように、本実施形態の情報処理装置は、取得手段と割当手段とを備えている。本実施形態の情報処理方法は、取得工程と割当工程とを備えている。本実施形態のコンピュータプログラムは、本実施形態の情報処理方法をコンピュータに実行させる。従って、ユーザの動きと共に入力機器を用いた所望情報の入力が行われる場合においても、ユーザの動きに対してユーザが要望する要望情報を好適に割り当てることができる。
以下、本発明の情報処理装置及び方法並びにコンピュータプログラムの実施例を、図面を参照して説明する。尚、以下では、本発明の情報処理装置及び方法並びにコンピュータプログラムをコンピュータシステムに適用した例を用いて説明を進める。
(1)コンピュータシステムの構成
初めに、図1を参照しながら、本実施例のコンピュータシステム1の構成について説明する。図1は、本実施例のコンピュータシステム1の外観を示す斜視図及び本実施例のコンピュータシステム1の構成を示すブロック図である。
図1(a)に示すように、本実施例のコンピュータシステム1は、ノートパソコンの如き外形を有するパソコンである。但し、本実施例のコンピュータシステム1は、ノートパソコンの如き外形を有するパソコンに限らず、後述する構成を有すると共に後述する動作を実行可能な任意の機器であってもよい。
図1(a)及び図1(b)に示すように、コンピュータシステム1は、ディスプレイ11と、「入力機器」の一具体例であるキーボード12と、「入力機器」の一具体例であるタッチパッド13と、ステレオカメラ14と、「情報処理装置」の一具体例であるCPU(Central Processing Unit:システム部)15と、メモリ16とを備えている。尚、ディスプレイ11と、キーボード12と、タッチパッド13と、ステレオカメラ14と、CPU15とは、メモリ16とは、データバス17を介して相互に接続されている。
ディスプレイ11は、任意の表示対象物を表示可能な表示装置である。本実施例では、ディスプレイ11は、例えば、後述するアプリケーション150が実行されることでCPU15上に論理的に実現されるGUI(Graphic User Interface)管理部152の制御の下で、所望のGUI(GUIコントロール)を表示する。
キーボード12及びタッチパッド13の夫々は、ユーザの入力を受け付けるための入力機器である。尚、コンピュータシステム1は、キーボード12及びタッチパッド13に加えて又は代えて、ユーザの入力を受け付けるためのその他の入力機器(例えば、マウスやタッチパネルやスタイラスペン等)を備えていてもよい。
ステレオカメラ14は、ディスプレイ11、キーボード12及びタッチパッド13の周辺の空間に位置するユーザの手を撮影するための撮像機器である。従って、ステレオカメラ14は、ディスプレイ11、キーボード12及びタッチパッド13の周辺の空間に位置するユーザの手及び指の少なくとも一方(以降、説明の便宜上、特段の説明がない場合には、“ユーザの手及び指”は、ユーザの手及び指の少なくとも一方を意味するものとする)を撮影することが可能な位置に配置される。尚、コンピュータシステム1は、ステレオカメラ14に加えて又は代えて、キーボード12及びタッチパッド13の周辺の空間に位置するユーザの手及び指(或いは、手及び指の動き)を検出することが可能な任意の機器(例えば、センサ等)を備えていてもよい。
CPU15は、コンピュータシステム1の動作を制御する制御装置である。
本実施例では、CPU15上では、不図示のオペレーティングシステムが実行される。オペレーティングシステムは、キーボード12や、タッチパッド13や、ステレオカメラ14からCPU15に対して出力される各種情報を取得すると共に、当該取得した各種情報を後述するアプリケーション150に対して出力してもよい。更に、オペレーティングシステムは、後述するアプリケーション150から出力される表示出力命令を取得すると共に、当該取得した表示出力命令をディスプレイ11に対して出力してもよい。
本実施例では更に、CPU15上では、所望のアプリケーション150が実行される。尚、CPU15上では、単一のアプリケーション150が実行されてもよいし、複数のアプリケーション150が同時に実行されてもよい。
CPU15上で実行される各アプリケーション150(或いは、少なくとも一つのアプリケーション150)は、CPU15上で実現される論理的な処理ブロックとして、「取得手段」の一具体例であるGUI管理部151と、ジェスチャ操作部152を備えている。但し、アプリケーション150がジェスチャ操作部152を備えることに加えて又は代えて、アプリケーション150とは別個のアプリケーションがジェスチャ操作部152を備えていてもよい。アプリケーション150とは別個のアプリケーションがジェスチャ操作部152を備えている場合、個々のアプリケーション150がジェスチャ操作部152を個別に備えていなくてもよい(つまり、単一のジェスチャ操作部152が複数のアプリケーション150に対応することができる)。
GUI管理部151は、ディスプレイ11上に表示されるGUIであって且つGUI管理部151を備えているアプリケーション150によって使用されるGUIを管理する。
例えば、GUI管理部151は、ディスプレイ11上に表示されたGUIコントロール(例えば、GUIとして表示されている表示オブジェクト)を対象としてキーボード12を用いて行われるユーザのキー入力の状況を示すキー入力情報を、オペレーティングシステムを介して取得してもよい。キー入力情報の一例として、例えば、ユーザのキー入力が行われている時間を示す情報や、ユーザのキー入力が行われているGUIコントロールを示す情報や、ユーザのキー入力による入力内容を示す情報等が例示される。尚、GUI管理部151は、キー入力情報に加えて又は代えて、タッチパッド13を用いて行われるユーザのタッチ入力の状況を示すタッチ入力情報(或いは、その他の入力機器を用いて行われるユーザの入力の状況を示す入力情報)を取得してもよい。以下では、説明の簡略化のために、GUI管理部151がキー入力情報を取得するものとして説明を進める。
或いは、例えば、GUI管理部151は、アプリケーション150のウインドウ中でのGUIコントロールの配置態様を決定すると共に、GUIコントロールを表示するための表示出力命令を、オペレーティングシステムを介してディスプレイ11に対して出力してもよい。尚、GUIコントロールの配置態様の一例として、例えば、GUIコントロールの種類や、GUIコントロールのサイズや、GUIコントロールの形状や、GUIコントロールの配置位置や、GUIコントロール内の表示内容等が例示される。このとき、GUI管理部151は、キー入力情報に応じて、GUIコントロールの配置態様を決定してもよい。或いは、GUI管理部151は、後述するジェスチャ操作部152によるジェスチャ解釈処理によってユーザのジェスチャに対して割り当てられた操作命令に応じて、GUIコントロールの配置態様を決定してもよい。
更に、GUI管理部151は、当該GUI管理部151自身が管理しているGUIに関する情報を、ジェスチャ操作部152(より具体的には、ジェスチャ操作部152が備える後述のジェスチャ解釈部1524)に対して通知する。尚、当該GUI管理部151自身が管理しているGUIに関する情報として、例えば、GUIコントロールの配置態様を示す情報や、複数のGUIコントロールの間の関係性や、GUIコントロールに対するユーザのキー入力の状況を示すキー入力情報等が例示される。
ジェスチャ操作部152は、ステレオカメラ14が撮影したユーザの手及び指の画像を解析することで、ユーザの手及び指の動き(以降、ユーザの手及び指の動きを、“ユーザのジェスチャ”と称する)を検出する。ジェスチャ操作部152は、当該検出したユーザのジェスチャに対して、所望の操作命令を割り当てる。ジェスチャ操作部151は、割り当てた操作命令をGUI管理部151に通知する。その結果、GUI管理部151は、このようなジェスチャ操作部152によるジェスチャ解釈処理によってユーザのジェスチャに割り当てられた操作命令に応じて、GUIコントロールの配置態様を決定することができる。
ジェスチャ解釈処理を行うために、ジェスチャ操作部152は、初期設定部1521と、「取得手段」の一具体例である手指検出部1522と、「取得手段」の一具体例である手指姿勢解釈部1523と、「割当手段」の一具体例であるジェスチャ解釈部1524とを備えている。初期設定部1521は、操作命令の割当処理に関する初期設定処理を実行する。手指検出部1522は、ステレオカメラ14が撮影したユーザの手及び指の画像を解析することで、ユーザの手及び指を検出する。手指姿勢解釈部1523は、手指検出部1522が検出したユーザの手及び指の姿勢(例えば、手及び指の位置や向き等)を解釈(言い換えれば、解析)することで、ユーザの手及び指の動き(つまり、ユーザのジェスチャ)を検出する。ジェスチャ解釈部1524は、手指姿勢解釈部1523によって検出されたユーザの手及び指の動き(つまり、ユーザのジェスチャ)を解析することで、当該ユーザのジェスチャに対して、当該ジェスチャに対応する所望の操作命令を割り当てる。
本実施例では特に、ジェスチャ解釈部1524は、ユーザのジェスチャに対して所望の操作命令を割り当てる際に、GUI管理部151が取得したキー入力情報に基づいて、ユーザのジェスチャに対する操作命令の割当方法を変える。例えば、GUI管理部151が第1のキー入力情報を取得している場合には、ジェスチャ解釈部1524は、第1の態様で行われるユーザのジェスチャに対して、第1の操作命令を割り当ててもよい。一方で、GUI管理部151が第1のキー入力情報とは異なる第2のキー入力情報を取得している場合には、ジェスチャ解釈部1524は、第1の態様で行われるユーザのジェスチャに対して、第1の操作命令とは異なる第2の操作命令を割り当ててもよい。
メモリ16は、上述したオペレーティングシステムやアプリケーション150を格納する。メモリ16は、更に、CPU15の動作中に必要な各種情報を一時的に格納する。
(2)ジェスチャ解釈処理の流れ
続いて、図2から図11を参照しながら、主としてジェスチャ操作部152によって行われるジェスチャ解釈処理の流れについて説明する。
(2−1)ジェスチャ解釈処理の全体の流れ
初めに、図2を参照しながら、主としてジェスチャ操作部152によって行われるジェスチャ解釈処理の全体の流れについて説明する。図2は、主としてジェスチャ操作部152によって行われるジェスチャ解釈処理の全体の流れを示すフローチャートである。
図2に示すように、ジェスチャ操作部152が起動すると、まずは、初期設定部1521が、初期設定処理を実行する(ステップS1)。尚、初期設定処理については、図3を参照しながら後に詳述する。
その後、手指検出部1522は、ステレオカメラ14が撮影したユーザの手及び指の画像を解析することで、ユーザの手及び指を検出する(ステップS2)。尚、ユーザの手及び指の検出処理については、図4を参照しながら後に詳述する。
その後、手指姿勢解釈部1523は、手指検出部1522が検出したユーザの手及び指の姿勢を解釈する(ステップS3)。その結果、手指姿勢解釈部1523は、ユーザの手及び指の動き(つまり、ユーザのジェスチャ)を検出する。尚、ユーザの手及び指の姿勢の解釈処理については、図5を参照しながら後に詳述する。
その後、ジェスチャ解釈部1524は、手指姿勢解釈部1523によって解釈されたユーザの手及び指の動き(つまり、ユーザのジェスチャ)に対して、当該ジェスチャに対応する所望の操作命令を割り当てる(ステップS4)。例えば、ジェスチャ解釈部1524は、検出したジェスチャに対して、どのGUIコントロールを対象にどのような処理を行うかということを示す所望の操作命令を割り当てる。尚、ユーザのジェスチャに対する操作命令の割当処理については、図6及び図7を参照しながら後に詳述する。
その後、GUI管理部151は、ステップS4で割り当てられた操作命令に応じてGUIコントロールの配置態様(例えば、GUIコントロールの表示内容等)を決定する(ステップS5)。このとき、GUI管理部151は、割り当てられた操作命令に対応する操作をユーザが行う際のガイドとなり得るGUIコントロールの配置態様を合わせて決定してもよい。その後、GUI管理部151は、GUIコントロールを表示するための表示出力命令をディスプレイ11に対して出力する(ステップS5)。その結果、ディスプレイ11には、ステップS4で割り当てられた操作命令に応じたGUIコントロールや割り当てられた操作命令に対応する操作をユーザが行う際のガイドとなり得るGUIコントロールが表示される。
以上説明したステップS1からステップS5までの動作が、コンピュータシステム1が動作を停止するまで繰り返し行われる。
(2−2)初期設定処理
続いて、図3を参照しながら、図2のステップS1における初期設定処理について説明する。図3は、ステレオカメラ14が撮影した画像と共に、初期設定処理の内容を説明する平面図である。
初期設定部1521は、ステレオカメラ14に対するディスプレイ11及びキーボード12の位置関係を検出する処理を、初期設定処理として行う。尚、説明の簡略化のために説明を省略するが、初期設定部1521は、ステレオカメラ14に対するタッチパッド13の位置関係を検出する処理を、初期設定処理として行ってもよい。
まずは、ステレオカメラ14に対するキーボード12の位置関係を検出する処理について説明する。この場合、初期設定部1521は、ステレオカメラ14が撮影した画像を取得する。具体的には、初期設定部1521は、ステレオカメラ14が備える2つの撮像素子のうちの一方が撮影した第1画像(図3(a)参照)及びステレオカメラ14が備える2つの撮像素子のうちの他方が撮影した第2画像(図3(b)参照)を取得する。その後、初期設定部1521は、取得した第1画像及び第2画像の夫々のうちキーボード12が占める領域を検出する。例えば、キーボード12の外形が概ね四角形(或いは、矩形)の形状となることが多いことを考慮して、初期設定部1521は、第1画像及び第2画像の夫々のエッジを検出すると共に、検出されたエッジのうち四角形のエッジが占める領域を、キーボード12が占める領域として検出してもよい。具体的には、図3(a)に示す第1画像からは、矩形のエッジ12aが検出される。従って、初期設定部1521は、矩形のエッジ12aが占める領域(つまり、エッジ12aによって囲まれる領域)を、キーボード12が占める領域として検出してもよい。図3(b)に示す第2画像についても同様である。或いは、コンピュータシステム1におけるキーボード12の配置位置を初期設定部1521が予め認識している場合には、初期設定部1521は、予め認識しているキーボード12の配置位置に基づいて、キーボード12が占める領域を検出してもよい。
その後、初期設定部1521は、キーボード12が占める領域を、ユーザのジェスチャを検出するための領域として設定する。この場合、キーボード12が占める領域内におけるユーザの手及び指の動きは、ジェスチャ操作部152によってジェスチャとして取り扱われる一方で、キーボード12が占める領域外におけるユーザの手及び指の動きは、ジェスチャ操作部152によってジェスチャとして取り扱われなくてもよい。但し、キーボード12が占める領域外におけるユーザの手及び指の動きもまた、ジェスチャ操作部152によってジェスチャとして取り扱われてもよい。
更に、キーボード12が占める領域が検出されることで、ジェスチャ操作部152は、キーボード12の四隅のステレオカメラ14からの距離を算出することができる。その結果、ジェスチャ操作部152は、キーボード12上の各位置(各点)のステレオカメラ14からの距離を算出することができる。このようなキーボード12上の各位置(各点)のステレオカメラ14からの距離は、ユーザの手及び指のステレオカメラ14からの距離と共に、キーボード12の表面から浮いている指先が存在するか否かを検出する際に活用されてもよい。
続いて、ステレオカメラ14に対するディスプレイ11の位置関係を検出する処理について説明する。この場合も、初期設定部1521は、ステレオカメラ14が撮影した第1画像及び第2画像を取得する。その後、初期設定部1521は、取得した第1画像及び第2画像の夫々のうちディスプレイ11が占める領域を検出する。例えば、図3(a)及び図3(b)に夫々示す第1及び第2画像には、ディスプレイ11の下縁が含まれる。従って、初期設定部1521は、第1画像及び第2画像の夫々のエッジを検出すると共に、検出されたエッジのうち直線状のエッジや直線状のエッジの交差点よりもキーボード12から離れる側における領域を、ディスプレイ11が占める領域として検出してもよい。具体的には、図3(a)に示す第1画像からは、直線状のエッジ11aが検出される。従って、初期設定部1521は、エッジ11aよりもキーボード12から遠い方に位置する領域を、ディスプレイ11が占める領域として検出してもよい。図3(b)に示す第2画像についても同様である。或いは、コンピュータシステム1におけるディスプレイ11の配置位置を初期設定部1521が予め認識している場合には、初期設定部1521は、予め認識しているディスプレイ11の配置位置に基づいて、ディスプレイ11が占める領域を検出してもよい。
ディスプレイ11が占める領域が検出されることで、ジェスチャ操作部152は、ディスプレイ11が占める領域とキーボード12が占める領域との位置関係を認識することができる。その結果、ジェスチャ操作部152は、キーボード12が占める領域内でユーザの手又は指が示している位置を、ディスプレイ11が占める領域の横方向(図3中の横方向であり、水平方向)の位置に対応付けて認識することができる。つまり、ジェスチャ操作部152は、キーボード12が占める領域内でユーザの手又は指がディスプレイ11を指している場合には、横方向において、ディスプレイ11が占める領域内でユーザの手又は指が指している位置を認識することができる。
尚、初期設定処理が行われる回数を減らすという観点から見れば、ディスプレイ11、キーボード12及びタッチパッド13の位置は固定されていることが好ましい。但し、ディスプレイ11、キーボード12及びタッチパッド13の位置は固定されていなくてもよい。この場合、ディスプレイ11、キーボード12及びタッチパッド13の位置関係が変わる都度、初期設定処理が行われることが好ましい。
また、初期設定部1521は、コンピュータシステム1の状態を、初期値として「非ジェスチャ待機状態」に設定する処理を、初期設定処理として行う。
(2−3)ユーザの手及び指の検出処理
続いて、図4を参照しながら、図2のステップS2におけるユーザの手及び指の検出処理について説明する。図4は、ステレオカメラ14が撮影した画像と共に、ユーザの手及び指の検出処理の内容を説明する平面図である。
手指検出部1522は、ステレオカメラ14が撮影した第1画像及び第2画像を取得する。その後、手指検出部1522は、第1画像及び第2画像の夫々に対して、ノイズ除去処理を行う。例えば、手指検出部1522は、ローパスフィルタに第1画像及び第2画像の夫々を示す画像信号を通過させることで、ノイズ除去処理を行ってもよい。
その後、手指検出部1522は、第1画像及び第2画像の夫々に対して、肌色領域を抽出するための肌色領域抽出処理を行う。肌色領域抽出処理の結果、図4(a)及び図4(b)に示すように、第1画像及び第2画像の夫々は、肌色領域と非肌色領域(つまり、肌色領域以外の領域)とを区別可能な2値化画像に変換される。
その後、手指検出部1522は、2値化画像を解析することで、肌色領域の突起点を検出する。例えば、手指検出部1522は、2値化画像のエッジを追跡すると共に、局所的な曲率が極大となる点を突起点として検出してもよい(図4(a)及び図4(b)中の丸印参照)。検出された突起点は、ユーザの指先として取り扱われる。加えて、手指検出部1522は、ユーザの指の向きを検出する。例えば、手指検出部1522は、検出された突起点(つまり、ユーザの指先)の前後のエッジの向きに基づいて、ユーザの指の向きを検出してもよい。
その後、手指検出部1522は、ユーザの手及び指に相当する肌色領域の塊と、検出された指先とを対応付ける。このとき、手指検出部1522は、肌色領域の塊が複数存在する場合(例えば、右手に相当する塊と左手に相当する塊とが存在する場合)には、各指先をいずれかの塊に対応付ける。
その後、手指検出部1522は、第1画像から検出された指先と、第2画像から検出された指先とを対応付ける。例えば、指先は、キーボード12上で横方向に並ぶ可能性が相対的に高い。従って、手指検出部1522は、第1画像から検出された各指先に対して、横方向に沿って並ぶ順に固有の番号(図4(a)では、番号1から番号10)を割り振る。手指検出部1522は、第2画像から検出された各指先の対しても同様に、横方向に沿って並ぶ順に固有の番号(図4(b)では、番号11から番号20)を割り振る。その後、手指検出部1522は、指先が並ぶ順に、第1画像から検出された各指先と第2画像から検出された各指先とを対応付ける。例えば、図4(a)及び図4(b)に示す例では、第1画像の指先k(但し、kは、1≦k≦10を満たす整数)と第2画像の指先k+10とが対応付けられる。
(2−4)ユーザの手及び指の姿勢の解釈処理
続いて、図5を参照しながら、図2のステップS3におけるユーザの手及び指の姿勢の解釈処理について説明する。図5は、ステレオカメラ14が撮影した画像と共に、ユーザの手及び指の姿勢の解釈処理の内容を説明する平面図である。
手指姿勢解釈部1523は、手指検出部1522の検出結果に基づいて、キーボード12の表面から浮いている指先が存在するか否かを検出する。例えば、キーボード12とステレオカメラ14との間の距離は、初期設定処理によって判明している。また、手指検出部1522の検出結果に基づいて、ユーザの手及び指とステレオカメラ14との間の距離が判明する。従って、手指姿勢解釈部1523は、キーボード12とステレオカメラ14との間の距離及びユーザの手及び指とステレオカメラ14との間の距離に基づいて、公知の方法を用いて、ユーザの指先のキーボード12からの距離(つまり、高さ)を算出することができる。この場合、手指姿勢解釈部1523は、例えば、キーボード12からの距離が所定距離(例えば、3cm)以上となる指先を、キーボード12の表面から浮いている指先として検出してもよい。
キーボード12の表面から浮いている指先が存在する場合には、手指姿勢解釈部1523は、当該浮いている指先が指している位置(具体的には、ディスプレイ11の表示画面上の位置)を算出する。
まず、浮いている指先が指している位置であって且つディスプレイ11の横方向に沿った位置の算出方法について説明する。手指姿勢解釈部1523は、手指検出部1522によって検出されたユーザの指の向き(つまり、浮いている指先を含む指の向き)と、初期設定処理によって検出されたディスプレイ11の下縁との間の関係から、比較的容易に、浮いている指先が指している位置(ディスプレイ11の横方向の位置)を算出することができる。例えば、図5に示すように、浮いている指先から指の向きに沿って仮想的な直線を引くと共に当該仮想的な直線とディスプレイ11の下縁との交点の位置が、浮いている指先が指している位置(ディスプレイ11の横方向の位置)に相当する。従って、手指姿勢解釈部1523は、当該交点の位置とディスプレイ11の下縁の両端部の位置との関係から、浮いている指先が指している位置(ディスプレイ11の横方向の位置)を算出することができる。例えば、図5に示す例では、ディスプレイ11の下縁の一方の端部の座標を0とし且つディスプレイ11の下縁の他方の端部の座標を640とした場合において、浮いている指先が指している位置(ディスプレイ11の横方向の位置)の座標が300となっている。
尚、浮いている指先が指している位置であって且つディスプレイ11の横方向に沿った位置を算出する際には、手指姿勢解釈部1523は、第1画像及び第2画像のいずれか一方に対して上述した処理を行えば足りる。但し、手指姿勢解釈部1523は、第1画像及び第2画像の双方に対して上述した処理を行ってもよい。
続いて、浮いている指先が指している位置であって且つディスプレイ11の縦方向(つまり、垂直方向)に沿った位置の算出方法について説明する。手指姿勢解釈部1523は、指先のキーボード12からの距離を、浮いている指先が指している位置(ディスプレイ11の縦方向の位置)に対応付ける。例えば、手指姿勢解釈部1523は、指先のキーボード12からの距離がAである場合には、浮いている指先が指している位置(ディスプレイ11の縦方向の位置)がf(A)であるものとして取り扱ってもよい。具体的には、例えば、手指姿勢解釈部1523は、指先のキーボード12からの距離が2cmである場合には、浮いている指先が指している位置(ディスプレイ11の縦方向の位置)の座標が480であるものとして取り扱ってもよい。例えば、手指姿勢解釈部1523は、指先のキーボード12からの距離が5cmである場合には、浮いている指先が指している位置(ディスプレイ11の縦方向の位置)の座標が0であるものとして取り扱ってもよい。この場合、手指姿勢解釈部1523は、指先のキーボード12からの距離が2cmより大きく且つ5cmよりも小さいBである場合には、浮いている指先が指している位置(ディスプレイ11の縦方向の位置)の座標は、0より大きく且つ480よりも小さいBに対応する座標であるものとして取り扱ってもよい。
その後、手指姿勢解釈部1523は、ある時点で指先が指している位置と直近の過去の時点で指先が指している位置と比較することで、指の動きを検出する。その結果、手指姿勢解釈部1523は、ユーザの手及び指の動き(つまり、ユーザのジェスチャ)を検出することができる。例えば、手指姿勢解釈部1523は、ある時点で指先が指している位置が直近の過去の時点で指先が指している位置と比較して横方向に移動している場合には、ユーザが指を横方向に沿って動かしていると解釈してもよい。例えば、手指姿勢解釈部1523は、ある時点で指先が指している位置が直近の過去の時点で指先が指している位置と比較して縦方向に移動している場合には、ユーザが指を縦方向に沿って動かしていると解釈してもよい。
また、以下では、説明の簡略化のために、浮いている指先が1つだけ存在する例を用いて説明を進める。しかしながら、浮いている指先が2つ以上存在する場合においても、浮いている指先が1つだけ存在する場合と同様の態様で操作命令の割当処理が行われてもよい。
(2−5)ジェスチャに対する操作命令の割当処理
続いて、図6を参照しながら、図2のステップS4におけるユーザのジェスチャに対する操作命令の割当処理について説明する。図6は、図2のステップS4におけるユーザのジェスチャに対する操作命令の割当処理の流れを示すフローチャートである。
図6に示すように、ジェスチャ解釈部1524は、ユーザによるキーボード12を用いて一連のキー入力が終了したか否かを判定する(ステップS41)。ここで言う「一連のキー入力」とは、何かしらの関係性(例えば、時間的な又は意味的な関係性)を有するキー入力を意味する。例えば、ウェブブラウザ上の1つの入力フォームに対する情報(例えば、文字)の入力が、「一連のキー入力」であってもよい。例えば、表計算ソフトの1つのセルに対する情報(例えば、数値)の入力が、「一連のキー入力」であってもよい。例えば、現在の入力位置を示すカーソルを移動させるためのキーの連続押下が、「一連のキー入力」であってもよい。
ジェスチャ解釈部1524は、例えば、キーの押下間隔に基づいて、一連のキー入力が終了したか否かを判定してもよい。例えば、ジェスチャ解釈部1524は、所定間隔以下の押下間隔でキーが断続的に又は連続的に押下されている場合には、一連のキー入力が継続中である(つまり、終了していない)と判定してもよい。例えば、ジェスチャ解釈部1524は、所定間隔以下の押下間隔でキーが断続的に又は連続的に押下された後にキーが押下されなくなった(或いは、キーの押下間隔が所定間隔より大きくなった)場合には、一連のキー入力が終了したと判定してもよい。
或いは、ジェスチャ解釈部1524は、例えば、キー入力の内容が変わったことを推定可能なキーが押下されたか否かに応じて、一連のキー入力が終了したか否かを判定してもよい。例えば、ジェスチャ解釈部1524は、キーボード12の変換モードを切り替えるためのキー(例えば、英語モードと日本語モードとを切り替えるためのキー)が押下された場合には、一連のキー入力が終了したと判定してもよい。例えば、ジェスチャ解釈部1524は、入力したテキストの内容を確定させるためのキー(例えば、確定キー又はリターンキー)が押下された場合には、一連のキー入力が終了したと判定してもよい。
尚、ジェスチャ解釈部1524は、キーボード12の入力信号を直接的に受け取ることで、ユーザによるキーボード12を用いた一連のキー入力が終了したか否かを判定してもよい。或いは、ジェスチャ解釈部1524は、キーボード12の入力信号を直接的に受け取ることに加えて又は代えて、ステレオカメラ14が撮影した画像(或いは、キーボード12の入力信号とは異なるその他の任意の情報)に基づいてユーザがどのようなキー入力を行っているかを解析してもよい。この場合、ジェスチャ解釈部1524は、ユーザがどのようなキー入力を行っているかについての解析結果を用いて、ユーザによるキーボード12を用いた一連のキー入力が終了したか否かを判定してもよい。例えば、コンピュータシステム1の何らかの制約に起因して、ジェスチャ解釈部1524(或いは、アプリケーションプログラム150)が、キーボード12の入力信号を直接的に受け取ることができない場合が生じかねない。この場合、ジェスチャ解釈部1524は、キーボード12の入力信号を直接的に受け取ることに代えて、ステレオカメラ14が撮影した画像に基づいてユーザがどのようなキー入力を行っているかを解析することで、ユーザによるキーボード12を用いた一連のキー入力が終了したか否かを判定してもよい。
ステップS41の判定の結果、一連のキー入力が終了したと判定される場合には(ステップS41:Yes)、ジェスチャ解釈部1524は、一連のキー入力の状況を示すキー入力情報をメモリ16に格納する(ステップS42)。尚、キー入力情報は、例えば、上述したように、一連のキー入力が行われている時間を示す情報や、一連のキー入力が行われているGUIコントロールを示す情報や、一連のキー入力による入力内容を示す情報等を含んでいる。
他方で、ステップS41の判定の結果、一連のキー入力が終了したと判定されない場合には(ステップS41:No)、ジェスチャ解釈部1524は、一連のキー入力の状況を示すキー入力情報をメモリ16に格納しなくてもよい。
その後、ジェスチャ解釈部1524は、手指姿勢解釈部1523の解釈結果に基づいて、新たにジェスチャ待機動作がユーザによって開始されているか否かを判定する(ステップS43)。例えば、ジェスチャ解釈部1524は、キーボード12から浮いている新たな指先が存在することが検出された場合には、新たなジェスチャ待機動作がユーザによって開始されていると判定してもよい。
ステップS43の判定の結果、新たなジェスチャ待機動作が開始されていると判定される場合には(ステップS43:Yes)、ジェスチャ解釈部1524は、現在のコンピュータシステム1の状態を、「非ジェスチャ待機状態」から「ジェスチャ待機状態」に切り替える(ステップS44)。この場合、ジェスチャ解釈部1524は、ステップS42で格納されたキー入力情報に基づいて、ジェスチャを解釈する際のルールを示すジェスチャ解釈モードを決定する(ステップS45)。尚、ジェスチャ解釈モードの決定処理については、後に詳述する(図7参照)。
他方で、ステップS43の判定の結果、新たなジェスチャ待機動作が開始されていないと判定される場合には(ステップS43:No)、ジェスチャ解釈部1524は、手指姿勢解釈部1523の解釈結果に基づいて、これまで行われていたジェスチャ待機動作が終了したか否かを判定する(ステップS46)。例えば、ジェスチャ解釈部1524は、これまではキーボード12から浮いていた指先が存在しなくなったことが新たに検出された場合には、これまで行われていたジェスチャ待機動作が終了したと判定してもよい。
ステップS46の判定の結果、これまで行われていたジェスチャ待機動作が終了したと判定される場合には(ステップS46:Yes)、ジェスチャ解釈部1524は、現在のコンピュータシステム1の状態を、「ジェスチャ待機状態」から「非ジェスチャ待機状態」に切り替える(ステップS47)。この場合、ジェスチャ解釈部1524は、ジェスチャ解釈モードを決定しなくてもよい。
他方で、ステップS46の判定の結果、これまで行われていたジェスチャ待機動作が終了していないと判定される場合には(ステップS46:No)、これまで行われていたジェスチャ待機動作が依然として継続しているか、非ジェスチャ待機状態が依然として継続していると想定される。ジェスチャ待機動作が継続している場合、ジェスチャ解釈部1524は、既に決定済みのジェスチャ解釈モードを利用すればよいため、新たにジェスチャ解釈モードを決定しなくてもよい。
ここで、図7を参照しながら、図6のステップS45におけるジェスチャ解釈モードの決定処理について説明する。図7は、図6のステップS45におけるジェスチャ解釈モードの決定処理の流れを示すフローチャートである。
図7に示すように、ジェスチャ解釈部1524は、直近に行われた一連のキー入力が終了してからの経過時間が所定時間(例えば、3秒)以内であるか否かを判定する(ステップS451)。つまり、ジェスチャ解釈部1524は、直近に行われた一連のキー入力が終了してから所定時間以内にジェスチャ待機動作が開始されたか否かを判定する。
ステップS451の判定の結果、直近に行われた一連のキー入力が終了してからの経過時間が所定時間以内でないと判定される場合には(ステップS451:No)、今回新たに開始されたジェスチャ待機動作に関連するキー入力が存在しないと推定される。この場合、ジェスチャ解釈部1524は、ジェスチャ解釈モードを、「ポインティングモード」に決定する(ステップS455)。ポインティングモードとは、ジェスチャに対して、キーボード12から浮いている指を用いてディスプレイ11の表示画面上の所望位置を指す操作命令を、割り当てるジェスチャ解釈モードである。尚、ポインティングモードについては、後に詳述する(図11参照)。
一方で、ステップS451の判定の結果、直近に行われた一連のキー入力が終了してからの経過時間が所定時間以内であると判定される場合には(ステップS451:Yes)、ジェスチャ解釈部1524は、直近に行われた一連のキー入力が、入力フォームを含むGUIコントロールに対するテキスト入力(例えば、文字入力又は数値入力)であるか否かを判定する(ステップS452)。
ステップS452の判定の結果、直近に行われた一連のキー入力がテキスト入力であると判定される場合には(ステップS452:Yes)、ジェスチャ解釈部1524は、ジェスチャ解釈モードを、「GUI操作モード」に決定する(ステップS453)。GUI操作モードとは、ジェスチャに対して、直近に行われた一連のキー入力に関連する指示をキーボード12から浮いている指を用いて行う操作命令を割り当てるジェスチャ解釈モードである。尚、GUI操作モードについては、後に詳述する(図8及び図9参照)。
一方で、ステップS452の判定の結果、直近に行われた一連のキー入力がテキスト入力でないと判定される場合には(ステップS452:No)、ジェスチャ解釈部1524は、ジェスチャ解釈モードを、「サーチモード」に決定する(ステップS454)。サーチモードとは、ジェスチャに対して、アプリケーション150が表示するドキュメントをキーボード12から浮いている指を用いて切り替える又はドキュメント内の任意の位置をサーチする操作命令を割り当てるジェスチャ解釈モードである。尚、サーチモードについては、後に詳述する(図10参照)。
尚、ステップS454で決定されるサーチモードは、直近に行われた一連のキー入力がカーソルキーを連続して押下するキー入力である状態に対応するように設定されている。従って、直近に行われた一連のキー入力がカーソルキーを連続して押下するキー入力以外のキー入力である状態を想定して、サーチモードとは異なるジェスチャ解釈モードが設定されてもよい。
また、図7に示すGUI操作モード、サーチモード及びポインティングモードは、ジェスチャ解釈モードの一例である。従って、図7に示すGUI操作モード、サーチモード及びポインティングモードとは異なる任意の解釈モードが、ジェスチャ解釈モードとして採用されてもよい。任意の解釈モードがジェスチャ解釈モードとして採用される場合であっても、キー入力情報に応じて所望のジェスチャ解釈モードが決定されることに変わりはない。
再び図6において、その後、ジェスチャ解釈部1524は、手指姿勢解釈部1523の解釈結果に基づいて、ジェスチャが行われたか否かを判定する(ステップS48)。
ステップS48の判定の結果、ジェスチャが行われたと判定される場合には(ステップS48:Yes)、ジェスチャ解釈部1524は、ステップS45で決定したジェスチャ解釈モードに従って、ユーザのジェスチャに対して、操作命令を割り当てる(ステップS49)。例えば、ユーザのジェスチャが指先を横方向にスライドさせるジェスチャである場合には、ジェスチャ解釈部1524は、指先を横方向にスライドさせるジェスチャに対して、ジェスチャ解釈モード毎の操作命令を割り当ててもよい。ジェスチャ解釈モード毎の操作命令を割り当てるために、メモリ16は、ジェスチャ解釈モード毎に、ジェスチャの種類と当該ジェスチャに割り当てられるべき操作命令の種類とを対応付けるテーブル等を格納していることが好ましい。この場合、ジェスチャ解釈部1524は、メモリ16に格納されているテーブル等を参照することで、比較的容易に、ジェスチャに対して操作命令を割り当てることができる。
他方で、ステップS48の判定の結果、ジェスチャが行われていないと判定される場合には(ステップS48:No)、ジェスチャ解釈部1524は、操作命令を割り当てなくてもよい。
(2−6)ジェスチャに対する操作命令の割当処理の具体例
続いて、図8から図11を参照しながら、ジェスチャに対する操作命令の割当処理の具体例について説明する。以下では、図7を用いて例示した3種類のジェスチャ解釈モードの夫々に対応する具体例を順に説明する。尚、以下では、3種類のジェスチャ解釈モードの夫々において、ユーザのジェスチャが、指を横方向にスライドさせるジェスチャとなる場合を例に挙げて説明を進める。但し、ユーザのジェスチャが、指を横方向にスライドさせるジェスチャとは異なるジェスチャとなる場合であっても、以下に説明する割当処理と同様に、ジェスチャに対して適切な操作命令が割り当てられてもよいことは言うまでもない。
(2−6−1)GUI操作モードでの割当処理の具体例
初めに、図8及び図9を参照しながら、ジェスチャ解釈モードの一例であるGUI操作モードでの操作命令の割当処理について説明する。図8及び図9は、夫々、ジェスチャ解釈モードの一例であるGUI操作モードでの操作命令の割当処理を、ディスプレイ11に表示されるGUIと共に説明する平面図である。
図8(a)に示すように、チェックボックス1111a及び1111b、テキストボックス1112a及び1112b及びボタン1114が、GUIコントロールとしてディスプレイ11に表示されている場合を想定して説明を進める。尚、現在のテキスト入力位置を示すカーソル1113は、テキストボックス1112a内に表示されている。
このようなGUIコントロールが表示されている状況で、図8(a)に示すように、テキストボックス1112aにテキスト「12345」を入力するキー入力が行われたとする。更に、当該キー入力が終了してから所定時間以内に、指をキーボード12から浮かせる状態(つまり、ジェスチャ待機動作)が新たに開始されたとする。この場合、コンピュータシステム1の状態がジェスチャ待機状態となる。また、この場合、図7に示すフローチャートに従って、ジェスチャ解釈部1524は、ジェスチャ解釈モードを、「GUI操作モード」に決定する。その後、ジェスチャ待機状態が継続している間に(つまり、ユーザが指を浮かせたままで)、指(例えば、浮かせている指)を横方向にスライドさせるジェスチャが開始されたとする。
GUI操作モードでは、指を横方向にスライドさせるジェスチャに割り当てるべき操作命令として、次にキー入力を行うべきGUIコントロールを選択する操作命令が割り当てられる。このとき、GUIコントロールの関係性を考慮しながら、カーソル1113を遷移させるGUIコントロールの候補が選択されることが好ましい。例えば、GUIコントロールの位置の関係を考慮すれば、横方向に沿ってテキストボックス1112aと隣接するチェックボックス1111aが、テキストボックス1112aの次にキー入力が行われるGUIコントロールである可能性がある。或いは、例えば、GUIコントロールの意味の関係を考慮すれば、テキストボックス1112aと同一種類のGUIコントロールであるテキストボックス1112bが、テキストボックス1112aの次にキー入力が行われるGUIコントロールである可能性がある。従って、この場合には、ジェスチャ解釈部1524は、指を横方向にスライドさせるジェスチャに割り当てるべき操作命令として、チェックボックス1111a及びテキストボックス1112bのいずれかを次にキー入力を行うべきGUIコントロールとして選択する操作命令を割り当てる。
尚、例えば、グルーピングされているGUIコントロールは、互いに次にキー入力を行うべきGUIコントロールとして選択される可能性がある。従って、ジェスチャ解釈部1524は、GUIコントロールの関係性として、GUIコントロールの設定されているグルーピング構造を考慮してもよい。
或いは、例えば、ユーザによっては、あるGUIコントロールを選択した後に選択する頻度が高いGUIコントロールが存在する場合がある。従って、ジェスチャ解釈部1524は、GUIコントロールの関係性として、GUIコントロールに対するユーザの操作傾向を考慮してもよい。尚、ジェスチャ解釈部1524は、当該ジェスチャ解釈部1524を備えるコンピュータシステム1に対するユーザの操作傾向を取得してもよい。或いは、ジェスチャ解釈部1524は、当該ジェスチャ解釈部1524を備えるコンピュータシステム1とは異なる他のコンピュータシステム1に対するユーザの操作傾向を取得してもよい。この場合、ジェスチャ解釈部1524は、ネットワークを介して、他のコンピュータシステム1に対するユーザの操作傾向を取得してもよい。
チェックボックス1111a及びテキストボックス1112bのいずれかを次にキー入力を行うべきGUIコントロールとして選択する操作命令が割り当てられる場合、図8(b)に示すように、GUI管理部151は、ジェスチャ操作部1524が割り当てた操作命令に基づいて、チェックボックス1111a及びテキストボックス1112bのいずれかを次にキー入力を行うべきGUIコントロールとして選択するGUIコントロール1115を表示するための表示出力命令をディスプレイ11に対して出力してもよい。尚、図8(b)に示す例では、GUIコントロール1115は、右方向及び左方向に夫々向かう2つの矢印とこれら2つの矢印とGUIコントロール(つまり、チェックボックス1111a及びテキストボックス1112b)との対応付けを示すラインとを含んでいる。このようなGUIコントロール1115がディスプレイ11に表示されることで、ユーザは、指を横方向にスライドさせことでどのGUIコントロールを選択することができるかを比較的容易に認識することができる。例えば、ユーザは、指を左方向に向かってスライドさせることでチェックボックス1111aを選択することができる一方で、指を右方向に向かってスライドさせることでテキストボックス1112bを選択することができると認識することができる。
従って、ユーザが指を左方向に向かってスライドさせると、ジェスチャ解釈部1524は、指を左方向に向かってスライドさせるジェスチャに対して、チェックボックス1111aを選択する操作命令を割り当てる。更に、GUI管理部151は、カーソル1113をチェックボックス1111aに遷移させるための表示出力命令をディスプレイ11に出力する。その結果、チェックボックス1111aの状態は、入力不可能な状態から入力可能な状態に遷移する。
同様に、ユーザが指を右方向に向かってスライドさせると、ジェスチャ解釈部1524は、指を右方向に向かってスライドさせるジェスチャに対して、テキストボックス1112bを選択する操作命令を割り当てる。更に、GUI管理部151は、カーソル1113をテキストボックス1112bに遷移させるための表示出力命令をディスプレイ11に出力する。その結果、テキストボックス1112bの状態は、入力不可能な状態から入力可能な状態に遷移する。
続いて、図9(a)に示すように、テキスト入力可能な入力フォーム1121と、入力フォーム1121に入力されたテキストが格納される複数のセル1123とが、GUIコントロールとしてディスプレイ11に表示されている場合を想定して説明を進める。尚、現在のテキスト入力位置を示すカーソル1122は、入力フォーム1121内に表示されている。また、入力フォーム1121に入力されたテキストが格納されるセル1123を示すハイライト1124は、セル1123aを囲うように表示されている。
このようなGUIコントロールが表示されている状況で、図9(a)に示すように、入力フォーム1121にテキスト「12345」を入力するキー入力が行われたとする。更に、当該キー入力が終了してから所定時間以内に、指をキーボード12から浮かせる状態(つまり、ジェスチャ待機動作)が新たに開始されたとする。この場合、コンピュータシステム1の状態がジェスチャ待機状態となる。また、この場合、図7に示すフローチャートに従って、ジェスチャ解釈部1524は、ジェスチャ解釈モードを、「GUI操作モード」に決定する。その後、ジェスチャ待機状態が継続している間に、指を横方向にスライドさせるジェスチャが開始されたとする。
GUI操作モードでは、GUIコントロールの関係性を考慮しながら、指を横方向にスライドさせるジェスチャに割り当てるべき操作命令として、次にキー入力を行うべき(但し、図9の例では、次にテキストを格納するべき)GUIコントロールを選択する操作命令が割り当てられることは上述した通りである。例えば、GUIコントロールの位置の関係を考慮すれば、横方向に沿ってセル1123aと隣接するセル1123b及びセル1123cが、セル1123aの次にキー入力が行われるGUIコントロールである可能性がある。従って、この場合には、ジェスチャ解釈部1524は、指を横方向にスライドさせるジェスチャに割り当てるべき操作命令として、セル1123b及びセル1123cのいずれかを次にテキストを格納するべきGUIコントロールとして選択する操作命令を割り当てる。
この場合、図9(b)に示すように、GUI管理部151は、ジェスチャ操作部1524が割り当てた操作命令に基づいて、セル1123b及びセル1123cのいずれかを次にテキストを格納するべきGUIコントロールとして選択するGUIコントロール1125を表示するための表示出力命令をディスプレイ11に対して出力してもよい。尚、図9(b)に示すGUIコントロール1125は、図8(b)に示すGUIコントロール1115と同様である。
従って、ユーザが指を横方向に向かってスライドさせると、ジェスチャ解釈部1524は、指を横方向に向かってスライドさせるジェスチャに対して、セル1123b及びセル1123cのいずれかを選択する操作命令を割り当てる。更に、GUI管理部151は、ハイライト1124をセル1123b及びセル1123cのいずれかに遷移させるための表示出力命令をディスプレイ11に出力する。その結果、セル1123b及びセル1123cのいずれかの状態は、入力フォームに入力されたテキストを格納可能な状態に遷移する。
尚、図8及び図9に示す例では、ユーザが指を横方向にスライドさせない又はユーザが指を横方向以外の方向(例えば、縦方向)にスライドさせた場合には、ジェスチャ解釈部1524は、操作命令を割り当てなくてもよい。但し、ユーザが指を横方向にスライドさせない又はユーザが指を横方向以外の方向(例えば、縦方向)にスライドさせた場合であっても、ジェスチャ解釈部1524は、何らかの操作命令を割り当ててもよい。例えば、図8(b)に示すようにチェックボックス1111a及びテキストボックス1112bのいずれかを次にキー入力を行うべきGUIコントロールとして選択するGUIコントロール1115が表示されている状況で、ユーザが指を縦方向にスライドさせた場合には、ジェスチャ解釈部1524は、チェックボックス1111a及びテキストボックス1112bとは異なる他のGUIコントロール(例えば、チェックボックス1111bやボタン1114)を次にキー入力を行うべきGUIコントロールとして選択する操作命令を割り当ててもよい。以下に説明するサーチモードにおいても同様である。
(2−6−2)サーチモードでの割当処理の具体例
続いて、図10を参照しながら、ジェスチャ解釈モードの一例であるサーチモードでの操作命令の割当処理について説明する。図10は、ジェスチャ解釈モードの一例であるサーチモードでの操作命令の割当処理を、ディスプレイ11に表示されるGUIと共に説明する平面図である。
図10に示すように、テキスト入力可能な入力フォーム1131と、当該入力フォーム1131に表示されるテキストの格納先のドキュメント(図10に示す例では、ファイル)を切り替えるための複数のタブ1132とが、GUIコントロールとしてディスプレイ11に表示されている場合を想定して説明を進める。尚、入力フォーム1131に表示されるテキストの格納先のファイルを示すハイライト1133は、タブ1132bを囲うように表示されている。
このようなGUIコントロールが表示されている状況で、タブ1132を切り替える(つまり、入力フォーム1131に表示されるファイルを切り替える)ために矢印キーを押下するキー入力が終了してから所定時間以内に、指をキーボード12から浮かせる状態(つまり、ジェスチャ待機動作)が新たに開始されたとする。この場合、コンピュータシステム1の状態がジェスチャ待機状態となる。また、この場合、図7に示すフローチャートに従って、ジェスチャ解釈部1524は、ジェスチャ解釈モードを、「サーチモード」に決定する。その後、ジェスチャ待機状態が継続している間に、指を横方向にスライドさせるジェスチャが開始されたとする。
サーチモードにおいても、GUI操作モードと同様に、GUIコントロールの関係性を考慮しながら、指を横方向にスライドさせるジェスチャに割り当てるべき操作命令として、ファイルを切り替える操作命令が割り当てられる。例えば、GUIコントロールの意味の関係を考慮すれば、タブ1132bと同一種類のタブ1132a及びタブ1132cに対応付けられたファイルが、次に入力フォーム1131に表示されるファイルとなる可能性がある。従って、この場合には、ジェスチャ解釈部1524は、指を横方向にスライドさせるジェスチャに割り当てるべき操作命令として、タブ1132a及びタブ1132cのいずれかに対応するファイルを次に入力フォーム1131に表示されるファイルとして選択する操作命令を割り当てる。
この場合、図10(b)に示すように、GUI管理部151は、ジェスチャ操作部1524が割り当てた操作命令に基づいて、タブ1132a及びタブ1132cのいずれかに対応するファイルを次に入力フォーム1131に表示されるファイルとして選択するGUIコントロール1134を表示するための表示出力命令をディスプレイ11に対して出力してもよい。尚、図10(b)に示すGUIコントロール1133は、図8(b)に示すGUIコントロール1115と同様である。
従って、ユーザが指を横方向に向かってスライドさせると、ジェスチャ解釈部1524は、指を横方向に向かってスライドさせるジェスチャに対して、タブ1132a及びタブ1132cのいずれかを選択する操作命令を割り当てる。更に、GUI管理部151は、ハイライト1134をタブ1132a及びタブ1132cのいずれかに遷移させる共に、入力フォーム1131にタブ1132a及びタブ1132cのいずれかに対応するファイルが格納するテキストを表示するための表示出力命令をディスプレイ11に出力する。その結果、入力フォーム1131の状態は、タブ1132bに対応するファイルが格納するテキストが表示される状態から、タブ1132a及びタブ1132cのいずれかに対応するファイルが格納するテキストが表示される状態へと切り替わる。
尚、図10では、タブを用いて複数のファイルを切り替える例を用いて説明を進めている。しかしながら、ファイル以外の構造を有するドキュメント(例えば、表計算ファイルのようにタブを用いて複数のシートを切り替えるドキュメントや、ワープロファイルのようにタブを用いて複数の段落若しくはページを切り替えるドキュメント)においても、サーチモードに従った解釈処理が適用されてもよい。また、指の動きの方向に応じて、選択の階層を切り替えてもよい。例えば、ジェスチャ解釈部1524は、指を横方向にスライドさせるジェスチャに対してはタブ(つまり、ファイル)を切り替える操作命令を割り当てる一方で、指を縦方向にスライドさせるジェスチャに対してはファイルよりも下位の階層に相当するシート、ページ又は段落を切り替える操作命令を割り当ててもよい。
(2−6−3)ポインティングモードでの割当処理の具体例
続いて、図11を参照しながら、ジェスチャ解釈モードの一例であるポインティングモードでの操作命令の割当処理について説明する。図11は、ジェスチャ解釈モードの一例であるポインティングモードでの操作命令の割当処理を、ディスプレイ11に表示されるGUIと共に説明する平面図である。
図11(a)に示すように、夫々が対応するアプリケーションを起動するためのアイコン1141が、GUIコントロールとしてディスプレイ11に表示されている場合を想定して説明を進める。
このようなGUIコントロールが表示されている状況で、キー入力が終了してから所定時間経過した後に、指をキーボード12から浮かせる状態(つまり、ジェスチャ待機動作)が新たに開始されたとする。この場合、コンピュータシステム1の状態がジェスチャ待機状態となる。また、この場合、図7に示すフローチャートに従って、ジェスチャ解釈部1524は、ジェスチャ解釈モードを、「ポインティングモード」に決定する。その後、ジェスチャ待機状態が継続している間に、指を横方向にスライドさせるジェスチャが開始されたとする。
ポインティングモードでは、指を横方向にスライドさせるジェスチャに割り当てるべき操作命令として、浮いている指先が指しているディスプレイ11の表示画面上の領域の位置(つまり、横方向及び縦方向の位置)を選択する操作命令を割り当てる。この場合、図11(b)に示すように、GUI管理部151は、ジェスチャ操作部1524が割り当てた操作命令に基づいて、浮いている指先が指しているディスプレイ11の表示画面上の領域の位置(つまり、横方向及び縦方向の位置)にポインタ形状のGUIコントロール1142を表示するための表示出力命令をディスプレイ11に対して出力してもよい。この場合、ユーザが指を横方向にスライドさせると、GUIコントロール1142もまた、横方向に移動する。その結果、ユーザは、所望のアイコン1141を選択することができる。
以上説明したように、本実施例のコンピュータシステム1は、ユーザのジェスチャ及びキー入力情報の双方に基づいて、ユーザのジェスチャに対して操作命令を割り当てることができる。このため、例えば、本実施例のコンピュータシステム1は、キー入力の状況の違いを考慮した上で、同一のユーザのジェスチャに対しては同一の又は異なる操作命令を割り当てることができる。従って、本実施形態の情報処理装置は、ユーザのジェスチャと共に入力機器を用いたキー入力が行われる場合においても、ユーザのジェスチャに対してユーザが要望する操作命令を好適に割り当てることができる。
尚、上述の説明では、ジェスチャ操作部152は、ユーザの手指の動きをジェスチャとして検出している。しかしながら、ジェスチャ操作部152は、ユーザの手指以外の任意の部分(例えば、ユーザがユーザ自身の意思で動かすことが可能な部分の少なくとも一部)の動きをジェスチャとして検出してもよい。例えば、ジェスチャ操作部152は、ユーザの頭の動きや、ユーザの目の動きや、ユーザの足の動き等を、ジェスチャとして検出してもよい。
本発明は、上述した実施形態に限られるものではなく、請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う情報処理装置及び方法、並びにコンピュータプログラムもまた本発明の技術的範囲に含まれるものである。
1 コンピュータシステム
12 キーボード
13 タッチパッド
14 ステレオカメラ
15 CPU(システム部)
150 アプリケーション
151 GUI管理部
152 ジェスチャ操作部
1521 初期設定部
1522 手指検出部
1523 手指姿勢解釈部
1524 ジェスチャ解釈部

Claims (10)

  1. ユーザの動きの状況を示す動き情報、及び、前記ユーザの動きと並行して又は相前後して入力機器を用いて前記ユーザによって行われる入力の状況を示す入力情報を取得する取得手段と、
    前記入力情報及び前記動き情報に基づいて、前記動き情報に対して、前記ユーザの要望を示す要望情報を割り当てる割当手段と
    を備えることを特徴とする情報処理装置。
  2. 前記割当手段は、前記入力情報に基づいて、前記動き情報に対する前記要望情報の割当方法を変える
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記入力情報は、前記入力機器を用いた入力が行われている入力時間を示しており、
    前記割当手段は、前記入力情報が示す前記入力時間と前記入力機器を用いた入力と並行して又は相前後して前記ユーザが動いている時間との間の時間的関係に基づいて、前記動き情報に対する前記要望情報の割当方法を変える
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記入力情報は、前記入力機器を用いた入力によって入力される所望情報の入力対象先を示しており、
    前記割当手段は、前記入力情報が示す前記入力対象先に基づいて、前記動き情報に対する前記要望情報の割当方法を変える
    ことを特徴とする請求項2又は3に記載の情報処理装置。
  5. 前記入力情報は、前記入力機器を用いた入力によって入力される所望情報の内容を示しており、
    前記割当手段は、前記入力情報が示す前記内容に基づいて、前記動き情報に対する前記要望情報の割当方法を変える
    ことを特徴とする請求項2から4のいずれか一項に記載の情報処理装置。
  6. 前記入力情報は、前記入力機器を用いた入力が行われている入力時間を示しており、
    前記割当手段は、前記入力情報が示す前記入力時間と前記入力機器を用いた入力と並行して又は相前後して前記ユーザが動いている時間との間の時間的関係に基づいて、前記動き情報に対して前記要望情報を割り当てる
    ことを特徴とする請求項1から5のいずれか一項に記載の情報処理装置。
  7. 前記入力情報は、前記入力機器を用いた入力によって入力される所望情報の入力対象先を示しており、
    前記割当手段は、前記入力情報が示す前記入力対象先に基づいて、前記動き情報に対して前記要望情報を割り当てる
    ことを特徴とする請求項1から6のいずれか一項に記載の情報処理装置。
  8. 前記入力情報は、前記入力機器を用いた入力によって入力される所望情報の内容を示しており、
    前記割当手段は、前記入力情報が示す前記内容に基づいて、前記動き情報に対して前記要望情報を割り当てる
    ことを特徴とする請求項1から7のいずれか一項に記載の情報処理装置。
  9. ユーザの動きの状況を示す動き情報、及び、前記ユーザの動きと並行して又は相前後して入力機器を用いて前記ユーザによって行われる、所望情報の入力の状況を示す入力情報を取得する取得工程と、
    前記入力情報及び前記動き情報に基づいて、前記動き情報に対して、前記ユーザの要望を示す要望情報を割り当てる割当工程と
    を備えることを特徴とする情報処理方法。
  10. 請求項9に記載された情報処理方法をコンピュータに実行させることを特徴とするコンピュータプログラム。
JP2014029212A 2014-02-19 2014-02-19 情報処理装置及び方法、並びにコンピュータプログラム Pending JP2015153353A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014029212A JP2015153353A (ja) 2014-02-19 2014-02-19 情報処理装置及び方法、並びにコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014029212A JP2015153353A (ja) 2014-02-19 2014-02-19 情報処理装置及び方法、並びにコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2015153353A true JP2015153353A (ja) 2015-08-24

Family

ID=53895474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014029212A Pending JP2015153353A (ja) 2014-02-19 2014-02-19 情報処理装置及び方法、並びにコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP2015153353A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017212641A1 (ja) * 2016-06-10 2017-12-14 三菱電機株式会社 ユーザインタフェース装置及びユーザインタフェース方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1078850A (ja) * 1996-08-30 1998-03-24 Alps Electric Co Ltd 座標入力装置およびその制御方法
JP2004500657A (ja) * 2000-02-11 2004-01-08 カネスタ インコーポレイテッド 仮想入力装置を用いたデータ入力方法および装置
JP2012103840A (ja) * 2010-11-09 2012-05-31 Sony Corp 情報処理装置、プログラムおよびコマンド生成方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1078850A (ja) * 1996-08-30 1998-03-24 Alps Electric Co Ltd 座標入力装置およびその制御方法
JP2004500657A (ja) * 2000-02-11 2004-01-08 カネスタ インコーポレイテッド 仮想入力装置を用いたデータ入力方法および装置
JP2012103840A (ja) * 2010-11-09 2012-05-31 Sony Corp 情報処理装置、プログラムおよびコマンド生成方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017212641A1 (ja) * 2016-06-10 2017-12-14 三菱電機株式会社 ユーザインタフェース装置及びユーザインタフェース方法
JPWO2017212641A1 (ja) * 2016-06-10 2018-08-09 三菱電機株式会社 ユーザインタフェース装置及びユーザインタフェース方法

Similar Documents

Publication Publication Date Title
EP2972669B1 (en) Depth-based user interface gesture control
US20140351758A1 (en) Object selecting device
JP2019516189A (ja) タッチスクリーントラック認識方法及び装置
US20130191768A1 (en) Method for manipulating a graphical object and an interactive input system employing the same
US11150797B2 (en) Method and device for gesture control and interaction based on touch-sensitive surface to display
US20150154444A1 (en) Electronic device and method
EP3035186A1 (en) Object operation system, object operation control program and object operation control method
CN102768595B (zh) 一种识别触摸屏上触控操作指令的方法及装置
US9477398B2 (en) Terminal and method for processing multi-point input
CN103218044B (zh) 一种基于物理回馈的触摸装置及其触摸处理方法
US9025878B2 (en) Electronic apparatus and handwritten document processing method
KR102411868B1 (ko) 전자장치 및 그래픽 오브젝트 표시 방법
KR20160098752A (ko) 디스플레이 장치 및 디스플레이 방법 및 컴퓨터 판독가능 기록매체
EP2677397A2 (en) Character input method and information processing apparatus
WO2013081594A1 (en) Input mode based on location of hand gesture
KR102198596B1 (ko) 간접 입력의 명확화 기법
JP2015148857A (ja) 情報閲覧装置及びオブジェクト選択制御プログラム並びにオブジェクト選択制御方法
JP6366267B2 (ja) 情報処理装置、その情報処理方法、プログラム、及び記憶媒体
CN108132721B (zh) 生成拖动手势的方法、触控装置以及便携式电子设备
KR101422447B1 (ko) 압력 모델링을 통한 전자책 페이지 전환 방법 및 그 장치
JP2015153353A (ja) 情報処理装置及び方法、並びにコンピュータプログラム
US20100245266A1 (en) Handwriting processing apparatus, computer program product, and method
JP6768426B2 (ja) 表示制御装置、その制御方法、およびプログラム、並びに記憶媒体
KR101348763B1 (ko) 손동작에 의한 인터페이스 조작 장치 및 방법, 그리고 컴퓨터로 읽을 수 있는 기록매체
EP2843516A2 (en) Improved touch detection for a touch input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180417