JP2015135572A - 情報処理装置とその制御方法 - Google Patents

情報処理装置とその制御方法 Download PDF

Info

Publication number
JP2015135572A
JP2015135572A JP2014006207A JP2014006207A JP2015135572A JP 2015135572 A JP2015135572 A JP 2015135572A JP 2014006207 A JP2014006207 A JP 2014006207A JP 2014006207 A JP2014006207 A JP 2014006207A JP 2015135572 A JP2015135572 A JP 2015135572A
Authority
JP
Japan
Prior art keywords
information processing
hand
processing apparatus
user
fishing line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014006207A
Other languages
English (en)
Other versions
JP6270495B2 (ja
JP2015135572A5 (ja
Inventor
基起 仲間
Motoki Nakama
基起 仲間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014006207A priority Critical patent/JP6270495B2/ja
Publication of JP2015135572A publication Critical patent/JP2015135572A/ja
Publication of JP2015135572A5 publication Critical patent/JP2015135572A5/ja
Application granted granted Critical
Publication of JP6270495B2 publication Critical patent/JP6270495B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ジェスチャ操作による正確な操作を、より直感的に行うことができるユーザインタフェースを備えた情報処理装置を提供する。
【解決手段】情報処理装置100は、ユーザのジェスチャ操作を検出する形状検出部303と、検出したユーザのジェスチャ操作に応じて、ユーザにより操作される釣り糸ポインタの操作方向及び操作量を算出する操作算出部304と、操作算出部304で算出した操作方向及び操作量に応じて釣り糸ポインタの表示形態を変化させて、プロジェクタ101に表示させる表示制御部305と、を備える。
【選択図】図2

Description

本発明は、ユーザのジェスチャに応じた指示が入力されるユーザインタフェースを備えた情報処理装置に関する。
プロジェクタ等の大画面の表示装置に資料の画像を表示してプレゼンテーションを行う場合、ユーザは、レーザポインタや加速度センサを内蔵したリモートコントローラを用いて画像内の所定の位置のポインティング(指示)を行う。近年は、画像処理技術を用いてユーザの手や指先の位置や動き(以下、「ジェスチャ操作」という。)を認識し、これに応じて画像内のポインタの位置や移動方向を算出してポインティングを行う技術も提案されている。
複数のユーザが各々ポインタを用いてポインティングを行う場合、誰がどのポインタを操作しているのかが不明確である。特許文献1では、ユーザの顔を示すアイコンとユーザのジェスチャ操作に応じて移動するポインタとを紐画像で繋いで表示装置に表示する。これにより複数のユーザがポインティングする場合であっても、どのユーザがどのポインタを操作しているのかが明確になる。
特開2011−54117号公報
ジェスチャ操作によるポインティングには、「手ブレによって、正確にポインティングすることが難しい」、「どの程度手を動かせば(ジェスチャ操作すれば)ポインタの所望の移動が可能なのかわからない」という大きな課題がある。これらの課題に対して様々な提案がなされているが、未だ標準となるような技術の提案はない。
また、ジェスチャ操作の認識には、タッチパネルを用いることもできる。例えば、スマートフォンやタブレット端末は、タッチパネルをユーザインタフェースとして用いており、タッチパネルへのユーザのタッチ操作をジェスチャ操作として認識して処理を実行する。タッチパネルにおいても、どの程度手を動かせば(ジェスチャ操作すれば)処理が実行されるかわからない、という課題がある。
本発明は、上記の問題を解決するために、ジェスチャ操作による正確な操作を、より直感的に行うことができるユーザインタフェースを備えた情報処理装置を提供することを主たる課題とする。
上記課題を解決する本発明の情報処理装置は、ユーザの動きを検出する検出手段と、検出した前記ユーザの動きに応じて、前記ユーザにより操作される操作オブジェクトの操作方向及び操作量を算出する操作算出手段と、前記操作算出手段で算出した前記操作方向及び前記操作量に応じて前記操作オブジェクトの表示形態を変化させて、所定の表示装置に所定の画像とともに表示させる表示制御手段と、を備えることを特徴とする。
本発明によれば、操作方向及び操作量に応じて操作オブジェクトの表示形態が変化するために、ユーザがどの程度動けば操作オブジェクトを操作できるかが明確になる。そのためにユーザは、正確なジェスチャ操作を直感的に行うことができる。
(a)、(b)は、システム概要図。 (a)、(b)は、情報処理装置の構成図。 (a)〜(e)は、釣り糸ポインタの表示形態の説明図。 (a)〜(d)は、ジェスチャ操作の説明図。 釣り糸UIによるポインティング処理を表すフローチャート。 手の形状の認識処理の説明図。 釣り糸ポインタの変化例示図。 釣り糸ポインタの移動可能な方向の表示例示図。 釣り糸ポインタの移動可能領域の例示図。 ユーザの手によるジェスチャ操作を表す図。 (a)、(b)は、情報処理装置の構成図。 (a)、(b)は、ジェスチャ操作によるページ切替の状態説明図。
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
[第1実施形態]
図1は、本実施形態のシステム概要図である。図1(a)は、本実施形態の情報処理システムを会議システムとして用いた場合の概要図であり、図1(b)は、本実施形態の情報処理システムの構成図である。情報処理システムは、情報処理装置100、プロジェクタ101、スクリーン102、及び距離画像センサ103を備える。なお、本実施形態の情報処理システムは、会議システムの他に、テレビ番組の視聴時に画面上に表示されるメニュー等を指示(ポインティング)する際にも利用することもできる。
プロジェクタ101は、机104上に配置され、情報処理装置100から出力されるプレゼンテーション資料の画像をスクリーン102に投影する。ユーザは、プロジェクタ101からスクリーン102に投影されるプレゼンテーション資料の画像を手106や指でポインティングしながら会議を行うことができる。距離画像センサ103は、ユーザの手106の動作を距離画像として取得する。情報処理装置100は、距離画像センサ103で取得した手106の距離画像を解析してジェスチャ操作を認識する。なお、プロジェクタ101の投影範囲と距離画像センサ103の撮像範囲は適切にキャリブレーションされている。その結果、距離画像センサ103で撮像された画像の任意の位置(x、y)は、プロジェクタ101で投影される領域内の位置(X、Y)に対応するようになる。
なお、プロジェクタ101及び情報処理装置100、或いは距離画像センサ103及び情報処理装置100は、一体に構成されていてもよい。また、プロジェクタ101の他に、表示装置として大画面のディスプレイを用いることもできる。距離画像は、距離画像センサ103により取得する他に、複数のイメージセンサを用いてユーザの手106を撮像することで距離画像を取得するようにしてもよい。
図2は、情報処理装置100の構成図である。図2(a)は、情報処理装置100のハードウェア構成を表し、図2(b)は、情報処理装置100内に形成される機能ブロックの構成を表す。
情報処理装置100は、CPU(Central Processing Unit)200、RAM(Random Access Memory)201、及びROM(Read Only Memory)202を備えたコンピュータシステムである。情報処理装置100は、この他に、ディスプレイI/F(インタフェース)204、入力I/F205、ストレージI/F206、及びストレージ207を備える。これらの各構成要素は、バス203を介して相互に通信可能に接続される。
ディスプレイI/F204は、プロジェクタ101に表示させる画像を表す画像信号を生成してプロジェクタ101に送信する。画像には、各種オブジェクトが含まれている。入力I/F205は、距離画像センサ103から距離画像を受信する。ストレージI/F206は、ストレージ207へのデータの入出力を行う。ストレージ207は、プレゼンテーション資料やその他のデータを格納する大容量の記憶装置である。ストレージ207には、ハードディスクドライブやSSD(Solid State Drive)等の他に、USB(Universal Serial Bus)等のインタフェースや通信回線を介して接続される外部記憶装置を用いることができる。また、ストレージ207は、複数の記憶装置を並列に構成されてもよい。
CPU200は、情報処理装置100内の各構成要素の動作を統括的に制御する。そのためにCPU200は、ROM202やストレージ207から所定のコンピュータプログラムを読み出し、RAM201を作業領域として用いて実行する。CPU200がコンピュータプログラムを実行することで、図2(b)の各機能ブロックが形成される。情報処理装置100には、データ読出部300、画像取得部301、画像処理部302、形状検出部303、操作算出部304、表示制御部305、及び記憶部306の各機能ブロックが形成される。
データ読出部300は、CPU200及びストレージI/F206により実現される。記憶部306は、ストレージ207により実現される。データ読出部300は、記憶部306に格納される各種データを読み出す。
画像取得部301は、CPU200及び入力I/F205により実現され、距離画像センサ103から距離画像を随時取得する。画像取得部301は、取得した距離画像をRAM201に格納する。距離画像には、ジェスチャ操作を行うユーザの手106の距離画像が含まれる。
画像処理部302、形状検出部303、及び操作算出部304は、CPU200により実現される。画像処理部302は、RAM201に格納された距離画像を解析することで、ユーザの手106の距離画像を検出する。また、距離画像から手106の画像領域(以下、「手領域」という。)を抽出し、その結果をRAM201に格納する。形状検出部303は、画像処理部302によって抽出された手領域の画像から手106の形状を認識する。認識結果は、RAM201に格納される。操作算出部304は、画像処理部302及び形状検出部303の処理結果に基づいて、手106によるジェスチャ操作(手106の位置、動き)を算出し、その操作情報を表示制御部305に送る。
表示制御部305は、CPU200及びディスプレイI/F204により実現され、データ読出部300が読み出したプレゼンテーション資料等のデータによる画像をプロジェクタ101により表示するための画像信号を生成する。表示制御部305は、生成した画像信号をプロジェクタ101に出力する。なお、表示制御部305は、操作算出部304から送られた操作情報に基づいて、図1(a)に示すポインタ105を画像に重畳表示するように、画像信号を生成する。
ポインタ105は、ユーザのジェスチャ操作に応じて形状や色等の表示形態が変化するオブジェクトである。本実施形態では、ジェスチャ操作を行うユーザの手106とポインタ105とが仮想的な釣り糸で結ばれているようなユーザインタフェースを実現する。以降、このようなユーザインタフェースを「釣り糸UI」、ポインタ105を「釣り糸ポインタ105」と記載する。
釣り糸UIでは、仮想的な釣り糸をユーザが引っ張るように操作(ジェスチャ操作)することで、釣り糸ポインタ105が移動する。その際、釣り糸UIでは、「引張り方向」、「引張り力の大きさ」、釣り糸ポインタ105の「移動可能な方向」を考慮して、釣り糸ポインタ105を表示する。このような表示により、ユーザは、簡単且つ直感的なポインタの操作を行うことができる。図3は、ジェスチャ操作に応じた釣り糸ポインタ105の表示形態の説明図である。
図3(a)で示すように、釣り糸ポインタ105の矢印1051は、釣り糸ポインタが指し示しているオブジェクトの方向を向いている。図3の場合、釣り糸ポインタ105は「Next」ボタン403を指し示している(ポインティングしている)。
釣り糸ポインタ105は、ユーザが何もジェスチャ操作していない場合、もしくはジェスチャ操作をしているが引張り力の大きさが所定の値よりも小さい場合、図3(a)のように表示される(通常状態)。図3(a)の糸部1052は、引張り力の大きさが所定の値よりも小さいく、釣り糸ポインタが「弛んだ状態」であることを示している。
これに対し、図3(b)、(c)、(d)、(e)は、ユーザがジェスチャ操作を行い、その引張り力が所定の値よりも大きくなった場合を示している。例えば、ユーザがジェスチャ操作により仮想的な釣り糸を左側に引張り、かつその引張り力が所定の値よりも大きくなった場合、図3(b)で示すように、釣り糸ポインタ105は左側に傾く(回転する)。同様に下側に引っ張れば図3(c)、右側に引っ張れば図3(d)、上側に引っ張れば図3(e)で示すように釣り糸ポインタ105は傾く。この時、釣り糸ポインタの糸部1052は「弛んだ状態」から「伸びた状態」に変化する。
このような釣り糸UIによるポインティング処理を図4及び図5により説明する。図4は、釣り糸UIを用いたポインティングの概要を示した説明図である。図5は、釣り糸UIによるポインティング処理を表すフローチャートである。
情報処理装置100は、予め、プロジェクタ101によりスクリーン102にプレゼンテーション資料のスライドを投影する。図4(a)は、プレゼンテーション資料のスライド400の例示図である。スライド400には、文字オブジェクト及び円グラフオブジェクトが表示される。また領域401に、前のスライドを表示するための「Prev」ボタン402及び次のスライドを表示するための「Next」ボタン403の各ボタンオブジェクトが表示されている。この状態から、ユーザが手106によりジェスチャ操作を開始する。
情報処理装置100は、画像取得部301により距離画像センサ103から距離画像を逐次取得する(S100)。画像取得部301は、取得した距離画像をRAM201に格納する。画像処理部302は、RAM201に格納された距離画像に手106の領域が含まれるか否かを判断する(S101)。この処理は、画像処理部302が手106の領域を検出するまで繰り返される(S101:N)。画像処理部302は、例えば、色抽出や手のモデル情報、距離情報を用いた画像解析を行うことによって、手106の検出を行う画像処理部302は、検出した手106の手領域をRAM201に格納する。
手106の領域が検出されると(S101:Y)、形状検出部303は、RAM201に格納された手領域から手106の形状を認識する。形状検出部303は、手106の形状の認識結果をRAM201に格納する(S102)。図6は、手の形状の認識処理の一例を示す説明図である。図6では、手106の領域を囲む凸図形の領域700a、700b内で手106の領域が占める割合によって、手の形状を検出する。図6の例では、手106の領域の割合が、手106の形状が「パー」の場合よりも「グー」の場合の方が高くなっている。
操作算出部304は、RAM201に格納された手106の形状の認識結果が「グー」であるか否かを確認する(S103)。「グー」以外の場合(S103:N)、情報処理装置100は、再度、画像処理部302による手106の領域検出処理を行う(S101)。「グー」である場合(S103:Y)、操作算出部304は、釣り糸ポインタ105をプロジェクタ101に表示させるための操作情報を表示制御部305に送る。表示制御部305は、この操作情報に応じて、表示しているスライド上に釣り糸ポインタ105を重畳した画像をプロジェクタ101に出力する。
図4(b)は、ステップS103による手の形状認識を説明する図である。図4(b)に示すように、距離画像センサ103の撮像範囲に手106が存在しても、手106の形状が「グー」以外の場合(図4(b)では「パー」の手106a)、釣り糸ポインタ105が表示されない。距離画像センサ103の撮像範囲に手106が存在し、手106の形状が「グー」の場合(図4(b)の手106b)、釣り糸ポインタ105が表示される。釣り糸ポインタ105と手106bとは、仮想的な釣り糸404aにより繋がれることになる。釣り糸404aは表示されない。ユーザは、手106を「グー」にすることで釣り糸を掴み、「パー」にすることで釣り糸を離すことと同じ感覚で、釣り糸ポインタ105を操作することができる。
なお、釣り糸ポインタ105は、手106の位置(x、y)に対応するプロジェクタ101で投影される画像内の位置(X、Y)に最も近いオブジェクトを指し示すように表示される。図4(b)の場合、「グー」の形状を最初に検出した位置が、投影される画像内の「Next」ボタン401の近くである。そのため、「Next」ボタン401を指し示すように、釣り糸ポインタ105が表示される。なお、この他に、釣り糸ポインタ105の初期表示位置を予め決めておいてもよい。
操作算出部304は、検出された手106の形状及びその動きにより、操作方向及び操作量を算出する(S104)。操作算出部304は、距離画像センサ103から随時取得する距離画像に基づいて、例えば、検出された「グー」の手領域の重心の移動方向や移動量、移動速度から、操作方向や操作量を算出する。そして、算出した操作方向や操作量を、釣り糸ポインタ105に対する操作情報として表示制御部305へ送る。
表示制御部305は、操作算出部304から送られた操作情報に基づいて、操作量が第1閾値以上であるか否かを判断する(S105)。第1閾値は予め定められた値であり、図4(b)の仮想的な釣り糸404aの「弛み具合(あそび)」を表す値である。第1閾値を適切に設定することにより、手ぶれによる釣り糸ポインタ105のぶらつきを吸収できる。つまり、図4(b)の手106bが多少動いても、釣り糸ポインタ105の動きに影響がないため操作性が向上する。
操作量が第1閾値未満の場合(S105:N)、情報処理装置100は、再度手106の形状が「グー」であるか否かを確認する(S103)。操作量が第1閾値以上の場合(S105:Y)、表示制御部305は、釣り糸ポインタ105の表示形態を操作量に応じて図3に示すように変更する(S106)。つまり、ステップS103〜S105において、ユーザが手106を「グー」の形状のまま動かすことで、釣り糸ポインタ105を操作方向に傾ける(回転する)ような表示形態を実現することができる。図4(c)は、ユーザが手106bにより仮想的な釣り糸404bを図中左方向に引っ張って釣り糸ポインタ105を左側に傾けた状態を表す。
釣り糸ポインタ105の回転が終了すると、表示制御部305は、釣り糸ポインタ105の表示形態を操作量(引張り力の大きさ)に応じて変化させる(S107)。図7は、釣り糸ポインタ105の変化例示図である。操作算出部304で算出される操作量が徐々に大きくなると、表示制御部305は、それに応じて釣り糸ポインタ105を徐々に変化させる。釣り糸ポインタ105の変化は、例えば、色、形状、塗りつぶし量などで表現可能である。
例えば図7において、釣り糸ポインタ105aは、画面の下側に引っ張られている。色が変化する場合、釣り糸ポインタ105aは、釣り糸ポインタ105bのようになる。例えば、操作量が第1閾値以上で徐々に大きくなると、釣り糸ポインタ105の色が「白」→「ピンク」→「赤」の順に変化する。形状が変化する場合、釣り糸ポインタ105aは、操作量が第1閾値以上で徐々に大きくなると、釣り糸ポインタ105c→釣り糸ポインタ105dの順に形状の歪みが大きくなる。塗りつぶし量が変化する場合、釣り糸ポインタ105aは、操作量が第1閾値以上で徐々に大きくなると、釣り糸ポインタ105e→釣り糸ポインタ105fの順に塗りつぶし量が大きくなる。釣り糸ポインタ105の変化は、これら色、形状、塗りつぶし量の変化を組み合わせて行ってもよい。上記で説明した釣り糸ポインタ105に対する表示形態の変更処理は、操作するユーザの手(グー形状)の位置が動く度に繰り返し実行される。
釣り糸ポインタ105の表示形態を変化させた後に表示制御部305は、プロジェクタ101に、釣り糸ポインタ105が移動可能な方向を表示させる(S108)。図8は、釣り糸ポインタ105の移動可能な方向の表示例示図である。
図8に示すように、釣り糸ポインタ105が「Prev」ボタン402をポインティングしている状態から、手106cが手106dの位置に移動すると、釣り糸ポインタ105は図中の右側に引っ張られた状態となる。このとき、釣り糸ポインタ105の移動可能な方向を、図8の破線800、801、802a、802bのように表示する。破線800、801は釣り糸ポインタ105が移動可能な経路、破線802a、802bは移動可能な方向を示している。
例えば、破線802aの方向に釣り糸ポインタ105を更に引っ張った場合、破線800で示す経路上を釣り糸ポインタ105が移動し、「Nextボタン」403に移動する。同様に、破線802bの方向に釣り糸ポインタ105が更に引っ張った場合、破線801で示す経路上を釣り糸ポインタ105が移動し、「Quit」ボタン404に移動する。
釣り糸ポインタ105が実際に移動する前にこのような移動可能な経路を表す破線800、801及び移動可能な方向を表す破線802a、802bを表示することで、ユーザが釣り糸ポインタ105の移動可能な方向を知ることができ、操作性が向上する。ユーザは、手106dを仮想的な釣り糸を引っ張る方向の候補802a1、802a2のいずれかに移動することで、釣り糸ポインタ105を移動させることができる。ユーザは、仮想的な釣り糸を引っ張るというジェスチャ操作の途中で、移動可能な方向を確認しながら釣り糸ポインタ105を動かすことが可能となる。
移動可能な方向を表示すると、表示制御部305は、操作量が第1閾値とは異なる第2閾値以上であるか否かを確認する(S109)。第2閾値は、釣り糸ポインタ105を移動させるか否かを判断するための予め定められた値である。操作量が第2閾値以上であれば、表示制御部305は、釣り糸ポインタ105を移動させる。通常、第2閾値は、第1閾値よりも大きい値に設定される。
操作量が第2閾値未満の場合(S109:N)、情報処理装置100は、再度手106の形状が「グー」であるか否かを確認する(S103)。操作量が第2閾値以上の場合(S109:Y)、表示制御部305は、操作算出部304で算出された操作方向に基づいて、釣り糸ポインタ105を移動させる(S110)。例えば、表示制御部305は、軌跡を伴ったアニメーション表示により釣り糸ポインタ105が移動する画像を、プロジェクタ101に表示させる。図4(d)は、移動後の釣り糸ポインタ105の状態を表す。釣り糸ポインタ105は、移動後に、図3(a)と同じ表示状態に戻る。また、仮想的な釣り糸404cは、表示されないが、弛んだ状態に戻る。
釣り糸ポインタ105の移動が終了すると、情報処理装置100は、釣り糸ポインタ105への操作が終了したか否かを判断する(S111)。情報処理装置100は、ユーザによるポインティングの終了操作を検知して操作終了を判断する。ポインティングの終了操作には、例えば、ユーザによる操作終了のオブジェクトの操作や、手106の形状を「グー」以外にする等がある。
情報処理装置100は、操作が終了したと判断した場合(S111:Y)に処理を終了する。操作が終了していない場合(S111:N)、情報処理装置100は、S101の処理に戻って、距離画像から手106の領域を検出して、以降の処理を繰り返す。
以上のような「釣り糸UI」により、釣り糸ポインタ105の引張り方向(操作方向)と引張り力の大きさ(操作量)、移動可能な方向をユーザに示すことができる。ユーザは、これらの表示により釣り糸ポインタ105が移動する瞬間を把握することができる。また、手ぶれによる釣り糸ポインタ105のぶらつきは、仮想的な釣り糸の弛みにより吸収することができる。そのために、簡単且つ正確に目的のオブジェクトをポインティングするユーザインタフェースを実現することができる。
なお、スライド400内で釣り糸ポインタ105が移動可能な領域が予め定められていてもよい。つまりポインティング可能なオブジェクトを予め制限する。図9は、釣り糸ポインタ105の移動可能領域の例示図である。スライド400内の白抜きされた領域400a、400b、400cが釣り糸ポインタ105の移動可能領域を表す。このような制限を設けることで、釣り糸ポインタ105が移動可能な方向を効率よく求めることができる。
本実施形態では、手106の検出や形状の認識を画像処理技術で実現する例を示したが、この他にも、例えば、データグローブと呼ばれるセンサが埋め込まれたグローブの装着や、加速度センサが内蔵されたリモコンを用いてもよい。この場合、情報処理装置100は、データグローブやリモコンの動きからジェスチャ操作を検出して、操作方向や操作量を算出する。データグローブやリモコンを用いる場合、仮想的な釣り糸の反力がデータグローブやリモコンを介してユーザに振動等により伝えることができる。
情報処理装置100は、画像処理部302が複数の手を検出して管理可能であれば、両手もしくは複数のユーザによる個別のポインティング処理を行う。情報処理装置100は、複数の手の各々に対応する釣り糸ポインタ105を、色や形状により区別して、釣り糸ポインタ105と手との組み合わせが明確になるように表示する。また、この場合、釣り糸ポインタの手から手への受け渡しが可能となる。例えば、釣り糸ポインタ105を操作している右手(形状は「グー」)に、左手を「グー」にして接触させることで、釣り糸ポインタ105を左手の動きにより操作可能とするといった処理を実現することができる。形状検出部303が2つの手106の画像の接触を検知すると、操作算出部304は接触した手106に対応する釣り糸ポインタ105の対応先を、一方の手から他方の手に切り替える。これはプレゼンテーションなど、場所を移動しながらポインティングする場合に有効となる。
[第1実施形態の変形例1]
第1実施形態では、釣り糸ポインタ105の操作感は、仮想的な釣り糸の長さ(弛み)に依存している。そのために、素早く釣り糸ポインタ105を移動させたい場合には、使い勝手が低下する可能性がある。そこで変形例1では、手106の移動時の速度、加速度を考慮して、釣り糸ポインタ105を移動させる。
変形例1の操作算出部304は、図5のS104において、操作方向と操作量以外に、手106の重心位置の移動速度から速度及び加速度を求め、操作方向へ加算される力を算出する。操作算出部304は、加算される力を操作量に換算して、手106の移動距離から求められる操作量に加算する。表示制御部305は、この操作量の合計に基づいて、図5のS106以降の処理を行う。
このように、手106の速度や加速度を考慮することによって、現実の世界で、釣り竿や釣り糸のしなりを利用して釣り針を遠くに飛ばすように、短いストロークで釣り糸ポインタ105を操作することができる。つまり、短いストロークでも速度、加速度が大きい場合、釣り糸ポインタ105はオブジェクトを複数跨いで移動できるようになる。そのために、使い勝手を改善することができる。
[第1実施形態の変形例2]
第1実施形態では、釣り糸ポインタ105によりポインティング可能な位置がオブジェクトの位置に限定した例を説明した。しかし、一般的なプレゼンテーションでは、資料の画像に含まれる図全体や図の内部をポインタをくるくると動かして指し示すこともある。第1実施形態であれば、図等は1つのオブジェクトであるために、釣り糸ポインタ105は、図全体やその内部に含まれる文字等を個別にポインティングできない。
図10は、ユーザの手106によるジェスチャ操作を表している。図10の例は、ユーザが手106で、一定時間円を描くジェスチャ(円ジェスチャ)700cと、一定時間左右に振るジェスチャ(手振りジェスチャ)700dとである。変形例2では、ユーザの手106のこのような動きに応じた釣り糸ポインタ105を表示する。
情報処理装置100は、形状検出部303によりこれらのジェスチャを判定する。形状検出部303で判定したジェスチャが円ジェスチャの場合、表示制御部305は、その時点でポインティングしているオブジェクトの周りをくるくると円を描くように、釣り糸ポインタ105を移動させる。形状検出部303で判定したジェスチャが手振りジェスチャの場合、表示制御部305は、その時点で釣り糸ポインタ105がポインティングしているオブジェクトを中心に、釣り糸ポインタ105が左右一直線上に振れるように釣り糸ポインタ105を移動させる。このとき中心となるオブジェクトに隣接するオブジェクトも一緒にポインティングされる。このように情報処理装置100は、一定時間の手106の画像の動きにより、釣り糸ポインタ105を、その時点で指示するオブジェクトの周囲で移動させる。
グラフのようなオブジェクトの内部を釣り糸ポインタ105でポインティングする場合、従来のポインタに切り替えてもよい。例えば、オブジェクトをポインティングしている際に、当該オブジェクトの内部領域への釣り糸ポインタ105の移動を操作算出部304が検出すると、釣り糸ポインタ105から従来のポインタに表示を切り換える。表示制御部305は、ポインタを従来のマウスポインタのように表示させる。これにより、当該オブジェクト内をポインティングすることができる。操作算出部304が従来のポインタがオブジェクトの領域外に出たことを検出すると、再びポインタを釣り糸ポインタ105に切り換える。
以上のように釣り糸UIを拡張することで、ユーザは、図全体やその内部に含まれている文字や図形等を自在にポインティングすることができる。
[第2実施形態]
第2実施形態では、タッチパネルを搭載したスマートフォンやタブレット端末などの情報処理端末によるジェスチャ操作について説明する。
図11は、第2実施形態の情報処理装置500の構成図である。図11(a)は、情報処理装置500のハードウェア構成を表し、図11(b)は、情報処理装置500内に形成される機能ブロックの構成を表す。それぞれ、第1実施形態と同じ構成については同じ符号を付しており、詳細な説明を省略する。
情報処理装置500のハードウェア構成は、第1実施形態の情報処理装置100から、タッチパネル208を備え、プロジェクタ101及び距離画像センサ103への接続を除いた構成である。情報処理装置500の機能ブロックは、第1実施形態の情報処理装置100から、タッチ取得部307を備え、画像取得部301、画像処理部302、及び形状検出部303を除いた構成となる。タッチ取得部307は、タッチパネル208で検出されたタッチ操作(ジェスチャ操作)を取得し、画面内の位置情報に変換する。操作算出部304は、タッチ取得部307で変換された位置情報に応じて、ジェスチャ操作の方向や操作量を算出する。
図12は、ジェスチャ操作によるページ切替の状態説明図である。図12(a)では、2つのページ900、901を、ジェスチャ操作であるスワイプ操作により切り替える例を示す。スワイプ操作による操作量がページを切り替えるために必要な操作量の閾値よりも小さい場合、ページ切替は行われない。例えば、ページ900の表示中にスワイプ操作を開始し、操作量が閾値よりも小さい段階で手902がタッチパネルから離れると、ページ切替は行われずにページ900の表示に戻る。そのために、スワイプ操作をどの程度続けるとページが切り替わるかをユーザが直感的に把握することは、操作性を向上させる観点から重要である。
第2実施形態では、図12(b)に示すように、画面上にアイコン903a、903b、903cを表示する。アイコン903a、903b、903cは、操作方向、操作量、及びページが切り替わる方向を表す。アイコン903a、903b、903cは、第2実施形態の操作オブジェクトの一例である。
ユーザによりスワイプ操作が開始されると、画面上にアイコン903aが表示され、ページ900及びページ901の各々の一部が表示される。ページ900及びページ901が図中左方向にスクロールすることで、スワイプ操作の操作方向を表している。また、アイコン903aを画面右側に表示することで、スワイプ操作の操作方向を表している。
アイコン903a内の矢印は、スワイプ操作の操作量に応じて回転する。表示制御部305は、操作算出部304で算出された操作量に応じてアイコン903aの回転量を決める。つまり、表示制御部305は、スワイプ操作による操作量が大きくなるに従って、アイコン903aの矢印を反時計回りに回転させる。図12(b)の場合、図中左方向へのスワイプ操作による操作量が大きくなるに従って、アイコン903a→アイコン903b→アイコン903cの順に矢印が反時計回りに回転する。このようにアイコン903a、903b、903c内の矢印の回転量は、スワイプ操作による操作量を表す。
アイコン903a、903b、903cには、ページ切替のための操作量の閾値を表す閾値線904が表示される。アイコン903a、903b、903c内の矢印が閾値線904よりも右側を指せばページ切替が行われず、閾値線904よりも左側を指せばページ切替が行われる。このように矢印の向きと閾値線904との関係により、閾値と操作量とが関連づけて表示されており、ユーザは、この表示によりスワイプ操作をどの程度続ければよいかがわかる。また、閾値線904に対する矢印の向きは、ページが切り替わる方向を表す。
スワイプ操作の方向、操作量、ページの切替方向は、アイコン903a、903b、903cの表示位置、矢印の回転量、矢印の向きにより表す他に、矢印の大きさや長さ、色、透明度等により表してもよい。また、矢印の他に、バネの画像をアイコン内に表示してスワイプ操作の方向、操作量、ページの切替方向を表してもよい。例えば、スワイプ操作の操作方向をバネの画像の表示位置、操作量をバネの画像の変形量、ページの切替方向をバネの画像の裂け(切断、破れ、非表示)により表してもよい。
このように、アイコン903a、903b、903cにより、スワイプ操作(ジェスチャ操作)の操作方向、操作量、ページの切替方向を表すことで、ユーザは、ページの切り替えの瞬間や方向を直感的に把握することができる。そのために、ユーザによるページ切替の操作性が向上する。
<他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
100,500…情報処理装置、200…CPU、201…RAM、202…ROM、203…バス、204…ディスプレイI/F、205…入力I/F、206…ストレージI/F、207…ストレージ、101…プロジェクタ、103…距離画像センサ、208…タッチパネル、300…データ読出部、301…画像読取部、302…画像処理部、303…形状検出部、304…操作算出部、305…表示制御部、306…記憶部、307…タッチ取得部

Claims (16)

  1. ユーザの動きを検出する検出手段と、
    検出した前記ユーザの動きに応じて、前記ユーザにより操作される操作オブジェクトの操作方向及び操作量を算出する操作算出手段と、
    前記操作算出手段で算出した前記操作方向及び前記操作量に応じて前記操作オブジェクトの表示形態を変化させて、所定の表示装置に所定の画像とともに表示させる表示制御手段と、を備えることを特徴とする、
    情報処理装置。
  2. 前記表示制御手段は、前記操作量が第1閾値以上になると前記操作オブジェクトの表示形態を変化させることを特徴とする、
    請求項1記載の情報処理装置。
  3. 前記表示制御手段は、前記操作量が第1閾値以上で徐々に大きくなると前記操作オブジェクトの表示形態を徐々に変化させることを特徴とする、
    請求項2記載の情報処理装置。
  4. 前記表示制御手段は、前記操作量が前記第1閾値とは異なる第2閾値以上になると前記操作オブジェクトを前記操作方向及び前記操作量に応じて移動させることを特徴とする、
    請求項2又は3記載の情報処理装置。
  5. 前記表示制御手段は、前記操作オブジェクトの移動可能な方向を前記表示装置に表示させることを特徴とする、
    請求項1〜4のいずれか1項記載の情報処理装置。
  6. 前記表示制御手段は、前記操作オブジェクトを予め定められた領域に移動させることを特徴とする、
    請求項5記載の情報処理装置。
  7. 前記検出手段は、前記ユーザの手の画像から該手の形状を認識し、
    前記操作算出手段は、前記検出手段で認識した前記手の形状が所定の形状のときに、前記操作方向及び前記操作量を算出することを特徴とする、
    請求項1〜6のいずれか1項記載の情報処理装置。
  8. 前記検出手段は、前記ユーザの前記手の画像の速度及び加速度を検出し、
    前記操作算出手段は、前記速度及び前記加速度から前記操作量を算出することを特徴とする、
    請求項1〜7のいずれか1項記載の情報処理装置。
  9. 前記検出手段は、複数の手の画像の動きを検出し、
    前記操作算出手段は、前記複数の手の画像の各々の動きに応じて、各々の前記操作方向及び前記操作量を算出し、
    前記表示制御手段は、前記複数の手の画像に対応して、各々、対応する手の画像の操作方向及び操作量に応じて表示形態が変化する複数の操作オブジェクトを前記表示装置に表示させることを特徴とする、
    請求項1〜8のいずれか1項記載の情報処理装置。
  10. 前記表示制御手段は、前記複数の操作オブジェクトの各々に対応する手が明確になるように各操作オブジェクトを区別して表示させることを特徴とする、
    請求項9記載の情報処理装置。
  11. 前記操作算出手段は、前記検出手段が2つの手の画像の接触を検出すると、該2つの手の画像の一方に対応する操作オブジェクトを、他方の手の画像に対応させることを特徴とする、
    請求項10記載の情報処理装置。
  12. 前記操作オブジェクトは前記画像に含まれる他のオブジェクトを指示するポインタであり、
    前記検出手段は、前記手の画像の一定時間の動きを検出し、
    前記表示制御手段は、前記手の画像の一定時間の動きに応じて、前記操作オブジェクトにその時点で指示するオブジェクトの周囲を移動させることを特徴とする、
    請求項1〜8のいずれか1項記載の情報処理装置。
  13. 前記表示制御手段は、前記操作量に応じて前記所定の画像のページを切り替えて表示させることを特徴とする、
    請求項1記載の情報処理装置。
  14. 前記表示制御手段は、前記ページの切り替えのための操作量の閾値を、前記操作オブジェクトが表す前記操作量に関連づけて表示させることを特徴とする、
    請求項13記載の情報処理装置。
  15. 表示装置に画像を表示する情報処理装置により実行される方法であって、
    ユーザの動きを検出するステップと、
    検出した前記ユーザの動きに応じて、前記ユーザにより操作される操作オブジェクトの操作方向及び操作量を算出するステップと、
    算出した前記操作方向及び前記操作量に応じて前記操作オブジェクトの表示形態を変化させて、前記表示装置に前記画像とともに表示するステップと、を含むことを特徴とする、
    情報処理方法。
  16. 表示装置に画像を表示するコンピュータを、
    ユーザの動きを検出する検出手段、
    検出した前記ユーザの動きに応じて、前記ユーザにより操作される操作オブジェクトの操作方向及び操作量を算出する操作算出手段、
    前記操作算出手段で算出した前記操作方向及び前記操作量に応じて前記操作オブジェクトの表示形態を変化させて前記表示装置に前記画像とともに表示する表示制御手段、
    として機能させるためのコンピュータプログラム。
JP2014006207A 2014-01-16 2014-01-16 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体 Expired - Fee Related JP6270495B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014006207A JP6270495B2 (ja) 2014-01-16 2014-01-16 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014006207A JP6270495B2 (ja) 2014-01-16 2014-01-16 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体

Publications (3)

Publication Number Publication Date
JP2015135572A true JP2015135572A (ja) 2015-07-27
JP2015135572A5 JP2015135572A5 (ja) 2017-02-16
JP6270495B2 JP6270495B2 (ja) 2018-01-31

Family

ID=53767366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014006207A Expired - Fee Related JP6270495B2 (ja) 2014-01-16 2014-01-16 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体

Country Status (1)

Country Link
JP (1) JP6270495B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015118756A1 (ja) * 2014-02-10 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2017145423A1 (ja) * 2016-02-25 2017-08-31 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
JP2018036813A (ja) * 2016-08-31 2018-03-08 ソニー株式会社 情報処理システム、情報処理方法、およびプログラム
JP2019164440A (ja) * 2018-03-19 2019-09-26 株式会社リコー 情報処理装置及び情報処理方法
CN111095394A (zh) * 2017-09-25 2020-05-01 索尼公司 显示处理设备、显示处理方法和程序
WO2021210155A1 (ja) * 2020-04-17 2021-10-21 日本電信電話株式会社 表示装置、表示方法、およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0638127A (ja) * 1992-07-17 1994-02-10 Sanyo Electric Co Ltd テレビジョン受像機におけるカーソル制御装置
JP2006235832A (ja) * 2005-02-23 2006-09-07 Fujitsu Ltd 処理装置、情報処理方法、およびプログラム
JP2011054117A (ja) * 2009-09-04 2011-03-17 Sony Corp 情報処理装置、表示制御方法及び表示制御プログラム
JP2012049872A (ja) * 2010-08-27 2012-03-08 Kyocera Corp 携帯端末、ロック解除プログラムおよびロック解除方法
JP2013037499A (ja) * 2011-08-05 2013-02-21 Toshiba Corp ジェスチャ認識装置、ジェスチャ認識方法およびジェスチャ認識プログラム
JP2013069341A (ja) * 2013-01-10 2013-04-18 Hitachi Ltd 入力方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0638127A (ja) * 1992-07-17 1994-02-10 Sanyo Electric Co Ltd テレビジョン受像機におけるカーソル制御装置
JP2006235832A (ja) * 2005-02-23 2006-09-07 Fujitsu Ltd 処理装置、情報処理方法、およびプログラム
JP2011054117A (ja) * 2009-09-04 2011-03-17 Sony Corp 情報処理装置、表示制御方法及び表示制御プログラム
JP2012049872A (ja) * 2010-08-27 2012-03-08 Kyocera Corp 携帯端末、ロック解除プログラムおよびロック解除方法
JP2013037499A (ja) * 2011-08-05 2013-02-21 Toshiba Corp ジェスチャ認識装置、ジェスチャ認識方法およびジェスチャ認識プログラム
JP2013069341A (ja) * 2013-01-10 2013-04-18 Hitachi Ltd 入力方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015118756A1 (ja) * 2014-02-10 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2017145423A1 (ja) * 2016-02-25 2017-08-31 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
JPWO2017145423A1 (ja) * 2016-02-25 2018-06-14 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
US10372229B2 (en) 2016-02-25 2019-08-06 Nec Corporation Information processing system, information processing apparatus, control method, and program
JP2018036813A (ja) * 2016-08-31 2018-03-08 ソニー株式会社 情報処理システム、情報処理方法、およびプログラム
CN111095394A (zh) * 2017-09-25 2020-05-01 索尼公司 显示处理设备、显示处理方法和程序
JP2019164440A (ja) * 2018-03-19 2019-09-26 株式会社リコー 情報処理装置及び情報処理方法
WO2021210155A1 (ja) * 2020-04-17 2021-10-21 日本電信電話株式会社 表示装置、表示方法、およびプログラム

Also Published As

Publication number Publication date
JP6270495B2 (ja) 2018-01-31

Similar Documents

Publication Publication Date Title
US11048333B2 (en) System and method for close-range movement tracking
JP6270495B2 (ja) 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体
JP6074170B2 (ja) 近距離動作のトラッキングのシステムおよび方法
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
JP6659644B2 (ja) 応用素子の代替的グラフィック表示の事前の生成による入力に対する低レイテンシの視覚的応答およびグラフィック処理ユニットの入力処理
KR102021851B1 (ko) 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법
JP2013037675A5 (ja)
US9544556B2 (en) Projection control apparatus and projection control method
JP2014186361A (ja) 情報処理装置、操作制御方法及びプログラム
JP2009042796A (ja) ジェスチャー入力装置および方法
JP5921981B2 (ja) 映像表示装置および映像表示方法
JP2015099574A (ja) 認識装置、認識方法、認識プログラム及び端末装置
WO2018099258A1 (zh) 无人机的飞行控制方法和装置
CN104508599A (zh) 要素选择装置、要素选择方法、及程序
JP2016528612A (ja) 定義されたクロス制御挙動による制御応答レイテンシの短縮
JP2016528612A5 (ja)
CN111913674B (zh) 虚拟内容的显示方法、装置、系统、终端设备及存储介质
EP4345584A1 (en) Control device, control method, and program
JP2011133949A (ja) 表示制御装置及び表示制御方法
JP2015122124A (ja) 仮想マウスによるデータ入力機能を有する情報装置
JP6565878B2 (ja) 表示システム
US10553249B2 (en) Storage medium, information processing apparatus, information processing system and information processing method
JP6008904B2 (ja) 表示制御装置、表示制御方法、及び、プログラム
JP6232694B2 (ja) 情報処理装置、その制御方法及びプログラム
JP2016118947A (ja) 角度調整可能な仮想平面を用いた空間手書き入力システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171226

R151 Written notification of patent or utility model registration

Ref document number: 6270495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees