JP5956481B2 - 入力装置、入力方法、及びコンピュータが実行可能なプログラム - Google Patents

入力装置、入力方法、及びコンピュータが実行可能なプログラム Download PDF

Info

Publication number
JP5956481B2
JP5956481B2 JP2014023778A JP2014023778A JP5956481B2 JP 5956481 B2 JP5956481 B2 JP 5956481B2 JP 2014023778 A JP2014023778 A JP 2014023778A JP 2014023778 A JP2014023778 A JP 2014023778A JP 5956481 B2 JP5956481 B2 JP 5956481B2
Authority
JP
Japan
Prior art keywords
hand
predetermined object
movement
image
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014023778A
Other languages
English (en)
Other versions
JP2015152973A (ja
Inventor
潤 杉山
潤 杉山
下遠野 享
享 下遠野
良太 野村
良太 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Priority to JP2014023778A priority Critical patent/JP5956481B2/ja
Priority to CN201510003742.4A priority patent/CN104834410B/zh
Priority to US14/617,792 priority patent/US9870061B2/en
Publication of JP2015152973A publication Critical patent/JP2015152973A/ja
Application granted granted Critical
Publication of JP5956481B2 publication Critical patent/JP5956481B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、入力装置、入力方法、及びコンピュータが実行可能なプログラムに関する。
情報処理装置の画面操作やデータ入力は、キーボード以外にマウス、タッチパッド、トラックポイント、及びタッチペン等のポインティングデバイスに基づく操作が一般的である。
近時、情報処理装置の入力インタフェースとして、ハンドジェスチャ入力を使用する方法が提案されている。ハンドジェスチャ入力による入力インタフェースでは、カメラを用いて手指を撮影し、その撮影画像からリアルタイムに手指のジェスチャを認識してマウスをエミュレートした入力処理を行うものもある。
しかしながら、かかるハンドジェスチャ入力による方法では、手を支えるものが無いため長時間作業では疲労が大きく、一般的なマウスを操作する感覚とは大きく異なっている。また、ハンドジェスチャ入力をONとしている場合に、マウス機能のActive/Idleの基準がないため、カメラの撮影範囲で意図せずに手を置いたり、動かしたりすると、誤動作の原因となる。
ここでは、マウスについて言及したが、他のポインティングデバイスをハンドジェスチャでエミュレートする場合にも同様の問題が発生する。
特開2013−15877号公報 特開2010−267220号公報
P. Mistry, P.Maes. Mouseless-a Computer Mouse as Small as Invisible. To be appear in CHI2011. Interactivity.Vancouver,BC,canada.2011
本発明は、上記に鑑みてなされたものであり、ポインティングデバイスの入力操作を,
手を使用してエミュレートする場合に、ユーザの使い勝手がよく、かつ、誤操作の少ない入力装置、入力方法、及びコンピュータが実行可能なプログラムを提供することを課題とする。
上述した課題を解決し、目的を達成するために、本発明は、被写体を撮像して画像を取得する撮像手段と、前記撮像手段で取得した画像を解析して、所定の物体に手が接触しているか否かを検出し、前記所定の物体に前記手が接触しているのを検出した場合に、前記所定の物体の移動及び前記所定の物体に対する手の動作の少なくとも一方を検出する検出手段と、前記検出手段で検出された、前記所定の物体の移動及び前記所定の物体に対する手の動作の少なくとも一方に応じた入力操作を行って、ポインティングデバイスの入力操作をエミュレートする操作指示手段と、を備えたことを特徴とする。
また、本発明の好ましい態様によれば、前記検出手段は、前記撮像手段で取得した画像を解析して、前記所定の物体を動作させるための動作平面を検出する平面検出手段と、前記撮像手段で取得した画像を解析して、前記所定の物体を検出する物体検出手段と、前記物体検出手段で前記所定の物体を検出した場合に、前記画像を解析して、前記所定の物体に手が接触しているか否かを検出する手検出手段と、前記手検出手段で前記所定の物体に手が接触しているのを検出した場合に、前記所定の物体の移動及び前記所定の物体に対する手の動作の少なくとも一方を検出する動作検出手段と、を含むことが望ましい。
また、本発明の好ましい態様によれば、前記所定の物体を前記撮像手段で撮影して登録する登録手段を備え、前記検出手段は、前記登録手段で登録された所定の物体を検出することが望ましい。
また、本発明の好ましい態様によれば、前記検出手段は、前記所定の物体に手が接触しているのを検出した後に、前記所定の物体から手が離れるのを検出した場合には、前記所定の物体の移動及び前記所定の物体に対する手の動作の少なくとも一方の検出を停止することが望ましい。
また、本発明の好ましい態様によれば、前記ポインティングデバイスはマウスであり、
前記操作指示手段は、前記検出手段で検出された前記所定の物体の移動に応じてカーソルを移動させ、また、前記所定の物体に対する第1の指又は第2の指の操作に応じた左ボタン又は右ボタンのクリック操作を行うことが望ましい。
また、本発明の好ましい態様によれば、前記撮像手段は、3Dカメラであり、被写体の3次元の画像を取得することが望ましい。
また、上述した課題を解決し、目的を達成するために、本発明は、入力装置の入力方法であって、被写体を撮像して画像を取得する撮像工程と、前記撮像工程で取得した画像を解析して、所定の物体に手が接触しているか否かを検出し、前記所定の物体に前記手が接触しているのを検出した場合に、前記所定の物体の移動及び前記所定の物体に対する手の動作の少なくとも一方を検出する検出工程と、前記検出工程で検出された、前記所定の物体の移動及び前記所定の物体に対する手の動作の少なくとも一方に応じた入力操作を行って、ポインティングデバイスの入力操作をエミュレートする操作指示工程と、を含むことを特徴とする。
また、上述した課題を解決し、目的を達成するために、本発明は、入力装置に搭載されるプログラムであって、被写体を撮像して画像を取得する撮像工程と、前記撮像工程で取得した画像を解析して、所定の物体に手が接触しているか否かを検出し、前記所定の物体に前記手が接触しているのを検出した場合に、前記所定の物体の移動及び前記所定の物体に対する手の動作の少なくとも一方を検出する検出工程と、前記検出工程で検出された、前記所定の物体の移動及び前記所定の物体に対する手の動作の少なくとも一方に応じた入力操作を行って、ポインティングデバイスの入力操作をエミュレートする操作指示工程と、をコンピュータに実行させることを特徴とする。
本発明にかかる入力装置によれば、ポインティングデバイスの入力操作を手を使用してエミュレートする場合に、ユーザの使い勝手がよく、かつ、誤操作の少ない入力装置を提供することが可能になるという効果を奏する。
図1は、本実施の形態に係る入力装置の概念図である。 図2−Aは、本実施の形態に係る入力装置を適用した情報処理装置であるノートPCの概略の外観図である(その1)。 図2−Bは、本実施の形態に係る入力装置を適用した情報処理装置であるノートPCの概略の外観図である(その2)。 図3は、ノートPCの概略のハードウェア構成例を示す図である。 図4は、マウスエミュレート用アプリケーションプログラムの機能構成を示す図である。 図5は、マウスエミュレート用アプリケーションプログラムの処理の概略を説明するためのフローチャートである。
以下に、この発明にかかる入力装置、その入力方法、及びコンピュータが実行可能なプログラムを図面に基づいて詳細に説明する。本発明の構成要素は、本明細書の図面に一般に示してあるが、様々な構成で広く多様に配置し設計してもよいことは容易に理解できる。したがって、本発明の装置、方法、及びプログラムの実施形態についての以下のより詳細な説明は、特許請求の範囲に示す本発明の範囲を限定するものではなく、単に本発明の選択した実施形態の一例を示すものであって、本明細書の特許請求の範囲に示す本発明と矛盾無く装置、方法、及びプログラムについての選択した実施形態を単に示すものである。当業者は、特定の細目の1つ以上が無くても、又は他の方法、部品、材料でも本発明を実現できることが理解できる。
(実施の形態)
図1は、本実施の形態に係る入力装置の概念図である。図1に示す入力装置1は、ハードウェアやソフトウェアのモジュール、又は、その組み合わせで構成することができる。
図1に示すように、入力装置1は、撮像手段2、検出手段3、及び操作指示手段4等を備えている。
撮像手段2は、被写体を撮像して得られた画像(動画)を、検出手段3に出力する。撮像手段2は、例えば、3Dカメラであり、被写体の3次元の画像を取得することにしてよい。
検出手段3は、撮像手段2で取得した画像を解析して、所定の物体11に手12が接触しているか否かを検出し、所定の物体11に手12が接触しているのを検出した場合に、所定の物体11の移動及び所定の物体11に対する手12の動作の少なくとも一方を検出して、その検出結果を操作指示手段4に出力する。所定の物体11は、ユーザが机上で移動させることが可能なものが望ましく、例えば、オレンジ、箱、携帯電話、スマートフォン、ペン等の各種の物体を使用することができる。
操作指示手段4は、検出手段3で検出された、所定の物体11の移動及び所定の物体11に対する手12の動作の少なくとも一方に応じた入力操作を行って、ポインティングデバイスの入力操作をエミュレートする。これにより、ユーザは、所定の物体11を手12で移動させたり、所定の物体11に対して手12で操作することにより、ポインティングデバイスと同様の入力操作を行うことができる。ポインティングデバイスは、例えば、マウス、タッチパッド、トラックポイント、及びタッチペン等である。
また、所定の物体11を撮像手段2で撮影して登録する登録手段を備えることにしてもよい。この場合、検出手段3は、登録手段により登録されている所定の物体11を検出することにしてもよい。これにより、ユーザが所望の物体を登録して、所望の物体11を手で操作することにより、ポインティングデバイスと同様の入力操作を行うことが可能となる。
また、検出手段3は、撮像手段2で取得した画像を解析して、所定の物体11を動作させるための動作平面10を検出する平面検出手段5と、撮像手段2で取得した画像を解析して、所定の物体11を検出する物体検出手段6と、物体検出手段6で所定の物体11を検出した場合に、画像を解析して、所定の物体11に手12が接触しているか否かを検出する手接触検出手段7と、手接触検出手段7で所定の物体11に手12が接触しているのを検出した場合に、所定の物体11の移動及び所定の物体11に対する手12の動作の少なくとも一方を検出し、その検出結果を操作指示手段4に出力する動作検出手段8と、を備える構成としてもよい。これにより、簡単な方法で所定の物体11の移動や所定の物体11に対する手12の動作を検出することが可能となる。
また、検出手段3は、所定の物体11に手12が接触しているのを検出した後に、所定の物体11から手12が離れるのを検出した場合には、検出中の、所定の物体11の移動及び/又は所定の物体に対する手の動作の検出を停止することにしてもよい。これにより、ユーザが所定の物体11から手12を離した場合には、検出が中断されるので、ユーザが所定の物体11から手12を離すことにより、入力操作を中断することが可能となる。
また、エミュレートするポインティングデバイスはマウスとしてもよい。操作指示手段4は、検出手段3で検出された所定の物体11の移動に応じてカーソルを移動させ、また、所定の物体11に対する第1の指又は第2の指の操作に応じた左ボタン又は右ボタンのクリック操作を行うことにしてもよい。これにより、所定の物体11と手12を使用してマウスと同様な入力操作を行うことが可能となる。
なお、カーソルの移動操作のみを行いたい場合(例えば、タッチパッドをエミュレートする場合)は、所定の物体11の移動のみを検出する構成とし、また、クリック操作のみを行いたい場合には(例えば、タッチペンのクリックボタンのみをエミュレートする場合)、所定の物体11に対する指の操作のみを検出する構成としてもよい。すなわち、所定の物体で行いたい操作をエミュレートすることにすればよい。
以上説明したように、本実施の形態によれば、撮像手段2は、被写体を撮像して画像を取得し、検出手段3は、撮像手段2で取得した画像を解析して、所定の物体に手が接触しているか否かを検出し、所定の物体に手が接触しているのを検出した場合に、所定の物体11の移動及び所定の物体11に対する手の動作の少なくとも一方を検出し、操作指示手段4は、検出手段3で検出された、所定の物体11の移動及び所定の物体11に対する手12の動作の少なくとも一方に応じた入力操作を行って、ポインティングデバイスの入力操作をエミュレートすることとしたので、ポインティングデバイスの入力操作を、手を使用してエミュレートする場合に、ユーザの使い勝手がよく、かつ、ユーザの意図しない手の動作等によるユーザの意図しない入力操作を防止することができる。
(実施例)
図2−A及び図2−Bは、本実施の形態に係る入力装置を適用した情報処理装置であるノートPC20の概略の外観図である。ノートPC20は、図2−Aに示すように、いずれも略直方体である本体側筐体22及びディスプレイ側筐体23を備える。本体側筐体22は、キーボード及びタッチパッド等を有する入力部24を備える。ディスプレイ側筐体23は、LCD(液晶ディスプレイ)25と、LCD25の表示面側にその上方の略中央に配置され、前方の被写体を撮像可能な3Dカメラ26とを備える。3Dカメラ26は、例えば、ステレオカメラを使用することができる。
本体側筐体22及びディスプレイ側筐体23は、それぞれの端部で左右の一対の連結部(ヒンジ部)27a、27bによって連結されており、連結部27a、27bは、これらの筐体を開閉自在に支持している。
上述したように、ハンドジェスチャだけでマウス操作をエミュレートする方法では、手を支えるものが無いため長時間作業では手の疲労が大きく、また、マウスを操作する感覚とは大きく異なっている。そこで、本実施例では、手でHID物体を操作して、マウス操作をエミュレートすることにより、手をHID物体で支え、長時間作業でも手の疲労が少なく、また、マウスを操作するのと同じ感覚での入力操作を可能としている。ここでは、一例として、HID物体30としてオレンジを使用する場合について説明する。
図2−Aに示すように、ユーザは、所望するHID物体30を動作平面32上に置き、3Dカメラ26でHID物体30を撮影してHID物体30を登録する。図2−Bに示すように、ユーザは、登録したHID物体30を握り、物体30を手31により動作平面32で動かして、LCD25に表示されるカーソル28の移動操作を行い、また、手31の指31a,31bをHID物体30に対して押下操作することにより左右のクリック操作を行う。
図3は、上記ノートPC20の概略のハードウェア構成例を示す図である。ノートPC20は、同図に示すように、CPU41、ROM42、メモリ43、HDD(ハードディスク)44、LCD25、入力部24、3Dカメラデバイス50、通信デバイス51、バッテリ52、DC−DCコンバータ53,ACアダプタ54、USBポート55等を備えており、各部はバスを介して直接又は間接的に接続されている。
CPU41は、バスを介して接続されたHDD44に格納されたOS45によりノートPC20全体の制御を行うとともに、HDD44に格納された各種のプログラムに基づいて処理を実行する機能を司る。ROM42は、BIOS(Basic Input/Output System:基本入出力システム)42aやデータ等を格納している。
メモリ43は、キャッシュメモリやRAMで構成されており、CPU41の実行プログラムの読み込み領域として、実行プログラムの処理データを書き込む作業領域として利用される書き込み可能メモリである。
HDD(ハードディスク)44は、例えば、Windows(登録商標) XP、Vista、7、8等のノートPC20全体の制御を行うためのOS45、周辺機器類をハードウェア操作するための各種ドライバ46、マウスエミュレート用アプリケーションプログラム47、特定業務に向けられた他のアプリケーションプログラム48等を記憶する機能を有する。
OS45は、ノートPC20の基本的な動作を制御しているものであり、各種資源を管理し、例えば、アプリケーションプログラムが発生した命令を、各種ドライバ46やBIOS42aに伝える。OS45は、マルチタスク機能及びマルチウィンドウ機能を有し、アプリケーションプログラムの実行コンテキスト(あるアプリケーションプログラムが利用しているレジスタセットやメインメモリイメージ、ファイルハンドルなど)やGUIの
部品などのソフトウェア資源の管理も行うように構成されている。アプリケーションプログラムと各デバイス・ドライバの間のデータ又はコマンドの送受信には、OS45が介在する。
各種ドライバ46は、例えば、OS45の指示に従ってLCD25を制御する表示ドライバ、OS45の指示に従って3Dカメラデバイス50を制御するカメラドライバ、OS35の指示に従ってマウスを制御するマウスライバ、OS45の指示に従って通信デバイス51を制御する通信ドライバ等である。
マウスエミュレート用アプリケーションプログラム47は、ユーザが登録したHID物体30を手で操作して、マウスと同様の入力操作を行うためのものである。他のアプリケーションプログラム48は、ブラウザ、メール、ワープロ、表計算等のプログラムである。
LCD25は、CPU41の制御に従って、表示情報をビデオ信号に変換し、変換したビデオ信号に応じた各種情報を表示画面に表示する。
なお、本実施の形態では、ディスプレイとしてLCDを使用することにしているが、本発明はこれに限られるものではなく、有機ELディスプレイやCRT等の他のディスプレイを使用することにしてもよい。
入力部24は、ユーザが入力操作を行うためのユーザ・インターフェースであり、文字、コマンド等を入力する各種キーより構成されるキーボードや、画面上のカーソルを移動させたり、各種メニューを選択するタッチパッド等を備えている。
3Dカメラデバイス50は、ステレオカメラ等の3Dカメラ26と、カメラ処理回路56とを備えている。3Dカメラ26は、レンズや撮像部(CCDやCMOS)を備えており、レンズは被写体光を結像し、撮像部は結像された被写体光をR,G,Bの画像信号として出力する。カメラ処理回路56は、A/D変換器、画像処理用LSI、メモリ等を備え、撮像部の駆動タイミングや露出制御等を行うと共に、撮像部で得られたRGBの画像信号を信号処理(3次元画像の生成処理を含む)して3次元の画像をCPU41に出力する。
通信デバイス51は、ネットワークを介してデータの送受信を行うためのものであり、画像データ及び音声データをネットワークに送信し、また、ネットワークを介して送信されてくる画像データ及び音声データを受信する。なお、通信デバイス51は、画像データ及び音声データをコード化して送信することにしてもよく、また、コード化された画像データ及び音声データを受信した場合には、デコードすることにしてもよい。USBポート55には、USBデバイス(例えば、USBマウス等)が接続可能となっている。
ACアダプタ54は、商用電源に接続して、AC電圧をDC電圧に変換してDC−DCコンバータ53に出力する。DC−DCコンバータ53は、ACアダプタ54から供給されるDC電圧を所定の電圧に変換して各部に電力を供給し、また、バッテリ52の充電を行う。バッテリ52は、DC−DCコンバータ53により充電され、充電した電圧を各部に供給する。バッテリ53は、ACアダプタ54が商用電源に接続されていない場合に使用される。
図4及び図5を参照して、マウスエミュレート用アプリケーションプログラム47によるマウスエミュレート処理を説明する。マウスエミュレート処理では、3Dカメラデバイス50により、登録したHID物体30及びHID物体30を操作している操作者の手31が撮影される。マウスエミュレート用アプリケーションプログラム47は、3Dカメラデバイス50からの画像を画像処理して解析することにより、HID物体30の移動及び手31の指31a,31bによる(仮想の)左クリックまたは(仮想の)右クリック操作を検出する。マウスエミュレート用アプリケーションプログラム47は、これらの検出結果に応じたカーソル28の移動や左右クリック処理を行う。
図4は、マウスエミュレート用アプリケーションプログラム47の機能構成を示す図である。マウスエミュレート用アプリケーションプログラム47は、HID物体登録部61と、HID有効・無効判定部62と、HIDエミュレーション部63とを備えている。
HID物体登録部61は、3Dカメラデバイス50でHID物体30を撮影して登録する。具体的には、HID物体登録部61は、ユーザがHID物体30を登録するためのガイダンスをLCD25に表示し、ユーザはガイダンスに従って、3Dカメラ26の撮影エリア内に所望のHID物体30を置く。3Dカメラ26がHID物体30を撮影し、HID物体登録部61は、撮影されたHID物体30の3次元の画像をメモリに登録する。この場合、HID物体30を回転させて、複数方向から撮影するのが望ましい。
例えば、図2−Aに示す例では、ユーザは、HID物体登録部61がLCD25に表示するガイダンス(不図示)に従って、3Dカメラデバイス50の3Dカメラ26の撮影エリア内にオレンジ30を置くと、3Dカメラデバイス50がオレンジ30を撮影し、HID物体登録部61は、撮影されたオレンジの3次元の画像をメモリに登録する。これにより、例えば、ユーザは、マウスを忘れた場合などに身近な物を登録することで、マウスに類似した操作で擬似的なマウス入力を行うことができる。
HID有効・無効判定部62は、平面検出部71と、HID物体検出部72と、手接触検出部73と、を備えている。平面検出部71は、3Dカメラデバイス50が撮影した画像を解析して、動作平面32が有るか否かを検出する。平面の検出方法は公知の方法を使用することができるのでその詳細な説明は省略する。ここで、動作平面32は、HID物体30の動作を確保するための平面であり、所定の大きさ以上の平面であればよく、その色は限定されない。
HID物体検出部72は、3Dカメラデバイス50からの画像を解析して、動作平面32上にHID物体登録部61で登録されたHID物体30が有るか否かを検出する。手接触検出部73は、HID物体検出部72がHID物体30を検出した場合に、3Dカメラデバイス50からの画像を解析して、HID物体30に手31が接触しているか否かを検出し、HID物体30に手31が接触している場合には、その旨をHIDエミュレーション部63に通知する。これにより、HIDエミュレーション部63によるHID物体30のTrackingがActiveとなる(マウス機能がActiveとなる)。なお、手の検出方法は公知であるのでその詳細な説明は省略する。
HIDエミュレート部63は、手接触検出部73からHID物体30に手31が接触している旨の通知があった場合には、HID物体30のTrackingを開始する。HIDエミュレート部63は、HID物体座標追跡部81と、指操作追跡部82と、操作指示部83とを備えている。
HID物体座標追跡部81は、3Dカメラデバイス50からの画像を解析して、HID物体30の座標位置を検出することにより、HID物体30の移動を検出し、その移動方向および移動量を操作指示部83に出力する。より具体的は、HID物体座標追跡部81は、HID物体30の3次元座標位置(X3D、Y3D、Z3D)を検出した後、2次元座標位置(X2D、Y2D)に変換する。3次元−2次元座標変換は公知の方法を使用することができるので、その詳細な説明は省略する。3次元座標位置(X3D、Y3D、Z3D)は、HID物体30の重心位置や中心位置とすることができる。座標追跡部81は、HID物体30の2次元座標における移動方向及び移動量を算出して、操作指示部83に出力する。
指操作追跡部82は、第1の指31aにマウスの右ボタンの機能を、第2の指31bにマウスの左ボタンの機能をそれぞれ割り当て、3Dカメラデバイス50からの画像を解析して、第1の指31a又は第2の指31bの座標を検出することにより、第1の指31a又は第2の指31bのHID物体30に対する押下動作を監視する(図2−B参照)。指操作追跡部82は、例えば、第1の指31a又は第2の指31bがHID物体30から一旦離れた後、HID物体30を押す(接触する)動作を検出した場合に、右ボタン又は左ボタンがクリックされたと判定することができる。指操作追跡部82は、右ボタン又は左ボタンがクリックされたか否かを判定して、その判定結果を操作指示部83に出力する。マウスの右ボタン及び左ボタンの機能を割り当てる指は、第1の指31a、第2の指31bに限られるものではなく、他の指を割り当てることにしてもよい。
操作指示部83は、HID物体座標追跡部81から入力されるHID物体30の移動方向及び移動量に応じてカーソル28を移動させる。また、操作指示部83は、指操作追跡部82から右ボタン又は左ボタンのクリックが行われた旨の通知があった場合には、右クリック操作または左クリック操作を実行する。
図5は、図4のマウスエミュレート用アプリケーションプログラム47の処理の概略を説明するためのフローチャートである。マウスエミュレート用アプリケーションプログラム47が起動すると、マウスエミュレート用アプリケーションプログラム47は、3Dカメラデバイス50を起動させ、常時、3次元の画像を撮影して出力させる。
まず、HID物体登録部61は、3Dカメラデバイス50でHID物体30を撮影してその三次元の画像を登録する(ステップS1)。
平面検出部71は、3Dカメラデバイス50が撮影した画像を解析して、動作平面32が有るか否かを判定する(ステップS2)。平面検出部71が動作平面32が有ると判定した場合には(ステップS2の「Yes」)、HID物体検出部72は、3Dカメラデバイス50で撮影した画像を解析して、動作平面32上にHID物体登録部61で登録されたHID物体30が有るか否かを判定する(ステップS3)。HID物体検出部72で動作平面32上にHID物体登録部61で登録されたHID物体30が有ると判定された場合には(ステップS3の「Yes」)、手接触検出部73は、3Dカメラデバイス50からの画像を解析して、HID物体30に手31が接触しているか否かを判定する(ステップS4)。
手接触検出部73は、HID物体30に手31が接触していると判定した場合には(ステップS4の「Yes」)、その旨をHIDエミュレーション部63に通知する。これにより、HIDエミュレーション部63によるHID物体30のTrackingがActiveとなる(マウス機能がActiveとなる)。このように、HID物体30に手31が接触していることが検出された場合にマウス機能がActiveとなるので、手だけの動作によるご操作を防止することができる。
ステップS5では、HID物体座標追跡部81は、3Dカメラデバイス50からの画像を解析して、HID物体30が移動したか否かを判定する(ステップS5)。HID物体座標追跡部81は、HID物体30が移動したと判定した場合には(ステップS5の「Yes」)、HID物体30の移動方向及び移動量を操作指示部83に出力する。操作指示部83は、HID物体30の移動方向及び移動量に応じてカーソルを移動させる(ステップS6)。HID物体30が移動したと判定されなかった場合には(ステップS5の「No」)、ステップS7に移行する。
ステップS7では、指操作追跡部82は、HID物体30に対して第1の指31a又は第2の指31bの押下が行われたか否かを判定する。HID物体30に対して第1の指31a又は第2の指31bの押下が行われた場合には(ステップS7の「Yes」)、右クリック又は左クリックが行われた旨を操作指示部83に出力し、操作指示部83は、右クリック操作または左クリック操作を実行する(ステップS8)。
HID物体30に対して第1の指31a又は第2の指31bの押下が行われなかった場合には(ステップS7の「No」)、ステップS9に移行する。ステップS9では、手接触検出部73は、HID物体30から手31が離れたか(手31がHID物体30に置かれていない状態)否かを判定する。HID物体30から手31が離れなかった場合には(ステップS9の「No」)、ステップS5に戻る。
他方、HID物体30から手31が離れた場合には(ステップS9の「Yes」)、ステップS2に戻り、HIDエミュレーション部63によるHID物体30のTrackingがIdleとなり(マウス機能がIdleとなる)、再度、動作平面30、登録したHID物体30、登録したHID物体30に対する手の接触の検出が行われ(ステップS2〜S4)、これらが検出された場合に、HIDエミュレート部63によるHID物体30のTrackingがActiveとなる(マウス機能がActiveとなる)。このように、ユーザがHID物体30から手31を離すことにより、マウス機能の使用を中断することができ、ユーザがマウス機能を使い時だけ、HID物体30に手を置けばよく、ハンドジェスチャのみの手法に比して、ユーザの使い勝手が向上する。
以上説明したように、上記実施例によれば、被写体を撮像して3次元の画像を取得する3Dカメラデバイス50と、HID物体を3Dカメラデバイス50で撮影して登録するHID物体登録部61と、3Dカメラデバイス50で撮影した画像を解析して、HID物体30を動作させるための動作平面32を検出する平面検出部71と、3Dカメラデバイス50で撮影した画像を解析して、登録されたHID物体30を検出するHID物体検出部72と、HID物体検出部72で登録したHID物体30を検出した場合に、3Dカメラデバイス50で撮影した画像を解析して、HID物体30に手31が接触しているか否かを検出する手接触検出部73と、手接触検出部73でHID物体30に手31が接触しているのを検出した場合に、HID物体30の移動及びHID物体30に対する指の押下動作を検出するHID物体座標追跡部81及び指操作追跡部82と、HID物体30の移動及びHID物体30に対する指の押下動作に応じて、カーソル28の移動及び左右クリック操作を行って、マウスの入力操作をエミュレートする操作指示部83とを備えているので、マウスの入力操作を、手を使用してエミュレートする場合に、ユーザの使い勝手がよく、かつ、誤操作を低減することが可能となる。
付言すると、本実施例によれば、手でHID物体30を操作して、マウス操作をエミュレートしているため、手をHID物体30で支えていることができ、手の疲労が少なく、また、マウスを操作するのと同じ感覚での入力操作を行うことが可能となる。
また、手でHID物体30を触っているときのみマウス機能が有効となるので、誤操作や誤検出を低減することが可能となる。
なお、上記実施例では、HID物体30に対する第1及び第2の指31a、31bの押下で、左ボタン操作及び右ボタン操作を行う例を示したが、第3の指を使用して、スクロールボタンの操作を行う構成としてもよい。
また、HID物体30に対する第1及び第2の指31a、31bの押下で左ボタン操作及び右ボタン操作を行う例を示したが、本発明はこれに限られるものではない。
例えば、HID物体30が特徴的な形状の部分を有している場合には、マウスエミュレート用アプリケーションプログラム47は、当該特徴的な形状の部分に指が触れるのを検出した場合に、所定の入力操作を行う構成としてもよい。より具体的には、例えば、HID物体30をスマートフォンとした場合に、スマートフォンのホームボタンに指が触れるのを検出した場合に左クリック操作を行い、スマートフォンのマイクに指が触れるのを検出した場合に、右クリック操作を行うことにしてもよい。
また、HID物体30が所定の色の領域を有している場合には、マウスエミュレート用アプリケーションプログラム47は、当該所定の色の領域に指が触れるのを検出した場合に、所定の操作を行う構成としてもよい。より具体的には、例えば、HID物体30が赤の領域と青の領域を有する場合には、HID物体30の赤の領域に指が触れるのを検出した場合に左クリック操作を行い、HID物体30の青の領域に指が触れるのを検出した場合に、右クリック操作を行うことにしてもよい。
なお、本実施例では、マウスエミュレート処理をマウスエミュレート用アプリケーションプログラム47が実行することとしたが、ドライバプログラム、ユーティリティプログラム、又はOSが実行することにしてもよい。さらに、3Dカメラデバイス50がマウスエミュレート処理の一部又は全部を実行することにしてもよい。
また、本実施例では、情報処理装置としてノートPCを例示したが、本発明はこれに限られるものではなく、デスクトップ型PC、タブレットPC、PDA、スマートフォン、携帯電話等に適用可能である。
以上のように、本発明にかかる入力装置、入力方法、及びコンピュータが実行可能なプログラムは、ポインティングデバイスの入力操作をエミュレートする場合に広く利用可能である。
1 入力装置
2 撮像手段
3 検出手段
4 操作指示手段
10 動作平面
11 所定の物体
12 手
20 PC
22 本体側筐体
23 ディスプレイ側筐体
24 入力部
25 LCD(液晶ディスプレイ)
26 3Dカメラ
27a、27b 連結部
28 カーソル
30 HID物体
31 手
31a 第1の指
31b 第2の指
32 動作平面
41 CPU
42 ROM
43 メモリ
44 HDD(ハードディスク)
45 OS
46 ドライバ
47 マウスエミュレート用アプリケーションプログラム
48 その他のアプリケーションプログラム
50 3Dカメラデバイス
51 通信デバイス
52 バッテリ
53 DC−DCコンバータ
54 ACアダプタ
55 USBポート
56 カメラ処理回路
61 HID物体登録部
62 HID有効・無効判定部
63 HIDエミュレート部
71 平面検出部
72 HID物体検出部
73 手接触検出部
81 HID物体座標追跡部
82 指操作追跡部
83 操作指示部

Claims (8)

  1. 被写体を撮像して画像を取得する撮像手段と、
    前記撮像手段で取得した画像を解析して、手を支えることが可能でかつ手で平面上を移動可能な所定の物体に手が接触しているか否かを検出し、前記所定の物体に前記手が接触しているのを検出した場合に、前記所定の物体の移動及び前記所定の物体に対する手の動作の少なくとも一方を検出する検出手段と、
    前記検出手段で検出された、前記所定の物体の移動及び前記所定の物体に対する手の動作の少なくとも一方に応じた入力操作を行って、ポインティングデバイスの入力操作をエミュレートする操作指示手段と、
    を備えたことを特徴とする入力装置。
  2. 前記検出手段は、
    前記撮像手段で取得した画像を解析して、前記所定の物体を動作させるための動作平面を検出する平面検出手段と、
    前記画像を解析して、前記所定の物体を検出する物体検出手段と、
    前記物体検出手段で前記所定の物体を検出した場合に、前記画像を解析して、前記所定の物体に手が接触しているか否かを検出する手接触検出手段と、
    前記手接触検出手段で前記所定の物体に手が接触しているのを検出した場合に、前記画像を解析して、前記所定の物体の移動及び前記所定の物体に対する手の動作の少なくとも一方を検出する動作検出手段と、
    を含むことを特徴とする請求項1に記載の入力装置。
  3. 前記所定の物体を前記撮像手段で撮影して登録する登録手段を備え、
    前記検出手段は、前記登録手段で登録された所定の物体を検出することを特徴とする請求項1又は請求項2に記載の入力装置。
  4. 前記検出手段は、前記所定の物体に手が接触しているのを検出した後に、前記所定の物体から手が離れるのを検出した場合には、前記所定の物体の移動及び前記所定の物体に対する手の動作の少なくとも一方の検出を停止することを特徴とする請求項1〜請求項3のいずれか1つに記載の入力装置。
  5. 前記ポインティングデバイスはマウスであり、
    前記操作指示手段は、前記検出手段で検出された前記所定の物体の移動に応じてカーソルを移動させ、また、前記所定の物体に対する第1の指又は第2の指の操作に応じた左ボタン又は右ボタンのクリック操作を行うことを特徴とする請求項1〜請求項4のいずれか1つに記載の入力装置。
  6. 前記撮像手段は、3Dカメラであり、被写体の3次元の画像を取得することを特徴とする請求項1〜請求項5のいずれか1つに記載の入力装置。
  7. 入力装置の入力方法であって、
    被写体を撮像して画像を取得する撮像工程と、
    前記撮像工程で取得した画像を解析して、手を支えることが可能でかつ手で平面上を移動可能な所定の物体に手が接触しているか否かを検出し、前記所定の物体に前記手が接触しているのを検出した場合に、前記所定の物体の移動及び前記所定の物体に対する手の動作の少なくとも一方を検出する検出工程と、
    前記検出工程で検出された、前記所定の物体の移動及び前記所定の物体に対する手の動作の少なくとも一方に応じた入力操作を行って、ポインティングデバイスの入力操作をエミュレートする操作指示工程と、
    を含むことを特徴とする入力装置の入力方法。
  8. 入力装置に搭載されるプログラムであって、
    被写体を撮像して画像を取得する撮像工程と、
    前記撮像工程で取得した画像を解析して、手を支えることが可能でかつ手で平面上を移動可能な所定の物体に手が接触しているか否かを検出し、前記所定の物体に前記手が接触しているのを検出した場合に、前記所定の物体の移動及び前記所定の物体に対する手の動作の少なくとも一方を検出する検出工程と、
    前記検出工程で検出された、前記所定の物体の移動及び前記所定の物体に対する手の動作の少なくとも一方に応じた入力操作を行って、ポインティングデバイスの入力操作をエミュレートする操作指示工程と、
    をコンピュータに実行させることを特徴とするコンピュータが実行可能なプログラム。
JP2014023778A 2014-02-10 2014-02-10 入力装置、入力方法、及びコンピュータが実行可能なプログラム Active JP5956481B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014023778A JP5956481B2 (ja) 2014-02-10 2014-02-10 入力装置、入力方法、及びコンピュータが実行可能なプログラム
CN201510003742.4A CN104834410B (zh) 2014-02-10 2015-01-05 输入装置以及输入方法
US14/617,792 US9870061B2 (en) 2014-02-10 2015-02-09 Input apparatus, input method and computer-executable program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014023778A JP5956481B2 (ja) 2014-02-10 2014-02-10 入力装置、入力方法、及びコンピュータが実行可能なプログラム

Publications (2)

Publication Number Publication Date
JP2015152973A JP2015152973A (ja) 2015-08-24
JP5956481B2 true JP5956481B2 (ja) 2016-07-27

Family

ID=53774902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014023778A Active JP5956481B2 (ja) 2014-02-10 2014-02-10 入力装置、入力方法、及びコンピュータが実行可能なプログラム

Country Status (3)

Country Link
US (1) US9870061B2 (ja)
JP (1) JP5956481B2 (ja)
CN (1) CN104834410B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10048769B2 (en) * 2015-11-18 2018-08-14 Ted Selker Three-dimensional computer-aided-design system user interface
CN106770815B (zh) * 2016-11-24 2019-10-11 浙江三雷模塑有限公司 适用于终端设备的触控优化方法和装置
JP7185493B2 (ja) * 2018-11-05 2022-12-07 株式会社Pfu エミュレータ

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
JPH07175587A (ja) * 1993-10-28 1995-07-14 Hitachi Ltd 情報処理装置
US5732227A (en) * 1994-07-05 1998-03-24 Hitachi, Ltd. Interactive information processing system responsive to user manipulation of physical objects and displayed images
JP2001265523A (ja) * 2000-03-21 2001-09-28 Sony Corp 情報入出力システム及び情報入出力方法、並びにプログラム記憶媒体
US6624833B1 (en) * 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
JP4274997B2 (ja) * 2004-05-06 2009-06-10 アルパイン株式会社 操作入力装置および操作入力方法
US7893920B2 (en) * 2004-05-06 2011-02-22 Alpine Electronics, Inc. Operation input device and method of operation input
CN100374998C (zh) * 2005-03-01 2008-03-12 联想(北京)有限公司 一种触控式信息输入装置及方法
EP2296079A3 (en) * 2005-10-26 2011-04-13 Sony Computer Entertainment Inc. System and method for interfacing with a computer program
DE102007053008A1 (de) * 2007-11-05 2009-05-14 Repetzki, Sebastian, Dr.-Ing. Zielkörper und Verfahren zur Bestimmung seiner räumlichen Lage
US8150455B2 (en) * 2007-11-27 2012-04-03 Nvidia Corporation Method and system for integrating a computer mouse function in a mobile communication device
US20110102570A1 (en) * 2008-04-14 2011-05-05 Saar Wilf Vision based pointing device emulation
US8502785B2 (en) * 2008-11-12 2013-08-06 Apple Inc. Generating gestures tailored to a hand resting on a surface
WO2010143361A1 (ja) * 2009-06-08 2010-12-16 パナソニック株式会社 作業認識システム、作業認識装置および作業認識方法
TWI371681B (en) * 2009-09-18 2012-09-01 Primax Electronics Ltd Notebook computer with multi-image capture function
CN102236511B (zh) * 2010-04-30 2015-11-25 腾讯科技(深圳)有限公司 响应操作的方法和装置
WO2012009789A2 (en) * 2010-07-19 2012-01-26 Smart Technologies Ulc Interactive input system having a 3d input space
KR101522991B1 (ko) * 2010-09-22 2015-05-26 시마네켄 조작입력장치 및 방법, 그리고 프로그램
JP5167523B2 (ja) * 2010-09-22 2013-03-21 島根県 操作入力装置および操作判定方法並びにプログラム
US20120242793A1 (en) * 2011-03-21 2012-09-27 Soungmin Im Display device and method of controlling the same
CA2864719C (en) * 2012-02-24 2019-09-24 Thomas J. Moscarillo Gesture recognition devices and methods

Also Published As

Publication number Publication date
US20150227214A1 (en) 2015-08-13
JP2015152973A (ja) 2015-08-24
CN104834410A (zh) 2015-08-12
CN104834410B (zh) 2018-11-27
US9870061B2 (en) 2018-01-16

Similar Documents

Publication Publication Date Title
TWI479369B (zh) 用於虛擬觸控板的電腦儲存媒體及方法
JP5759660B2 (ja) タッチ・スクリーンを備える携帯式情報端末および入力方法
US8612641B1 (en) Portable computing device as control mechanism
KR101872426B1 (ko) 깊이 기반 사용자 인터페이스 제스처 제어
KR102010955B1 (ko) 프리뷰 제어 방법 및 이를 구현하는 휴대 단말
KR101361214B1 (ko) 터치스크린의 제어영역을 설정하는 인터페이스 장치 및 방법
US20150138089A1 (en) Input devices and methods
CN110737374B (zh) 操作方法及电子设备
WO2014032431A1 (zh) 终端设备及快速启动程序的方法
US20140022171A1 (en) System and method for controlling an external system using a remote device with a depth sensor
US20110157015A1 (en) Method of generating multi-touch signal, dongle for generating multi-touch signal, and related control system
WO2018010021A1 (en) Pointer control in a handheld computer by way of hid commands
US20130169534A1 (en) Computer input device
CN113396378A (zh) 针对用于二维和三维环境的多用途输入装置的系统和方法
TW201638728A (zh) 用以處理與移動相關的資料之計算裝置及方法
JP5956481B2 (ja) 入力装置、入力方法、及びコンピュータが実行可能なプログラム
CN106598422B (zh) 混合操控方法及操控系统和电子设备
WO2015067023A1 (zh) 视频会议体感控制方法、终端及系统
US20150205360A1 (en) Table top gestures for mimicking mouse control
US20190041997A1 (en) Pointer control in a handheld computer by way of hid commands
TWI547862B (zh) Multi - point handwriting input control system and method
US20210271328A1 (en) Virtual input devices
TW201913298A (zh) 可顯示實體輸入裝置即時影像之虛擬實境系統及其控制方法
TWI414991B (zh) The method of implementing multi-touch and its system
KR101165388B1 (ko) 이종의 입력 장치를 이용하여 화면을 제어하는 방법 및 그 단말장치

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160616

R150 Certificate of patent or registration of utility model

Ref document number: 5956481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250