JP2010267082A - 非接触のマウス装置およびそれを作動する方法 - Google Patents
非接触のマウス装置およびそれを作動する方法 Download PDFInfo
- Publication number
- JP2010267082A JP2010267082A JP2009117978A JP2009117978A JP2010267082A JP 2010267082 A JP2010267082 A JP 2010267082A JP 2009117978 A JP2009117978 A JP 2009117978A JP 2009117978 A JP2009117978 A JP 2009117978A JP 2010267082 A JP2010267082 A JP 2010267082A
- Authority
- JP
- Japan
- Prior art keywords
- image
- block
- mouse
- moving image
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】コンピュータ・マウスの広範囲な前後の運動が必要とされる場合に、時間および労力がかからないようにする。
【解決手段】非接触のマウス方法は、原画像を捕え、調整された画像を得るように原画像を調整するためにイメージセンサを使用する。動画像は、調整された画像において検出される。マウス・ブロックは、動画像において定められる。マウス・ブロックにおいて少なくとも一つの運動ブロックが定められる。動画像のピーク位置は、検出される。最終的に、ピーク位置によって示される運動ブロックと関連する動作が、実行される。
【選択図】なし
【解決手段】非接触のマウス方法は、原画像を捕え、調整された画像を得るように原画像を調整するためにイメージセンサを使用する。動画像は、調整された画像において検出される。マウス・ブロックは、動画像において定められる。マウス・ブロックにおいて少なくとも一つの運動ブロックが定められる。動画像のピーク位置は、検出される。最終的に、ピーク位置によって示される運動ブロックと関連する動作が、実行される。
【選択図】なし
Description
本発明はマウス装置およびそれを作動する方法に関し、特に非接触のマウス装置およびそれを作動する方法に関する。
人間とコンピュータとの間でコンピュータ入力装置が使用され、例えば、キーボードまたはコンピュータ・マウスが最も一般的なコンピュータ入力装置である。ユーザは、ボタンをクリックし、ウインドウを上下にスクロールし、カーソルを制御してコンピュータ・マウスを作動することができる。さらにノート・パソコンにおいて、タッチパッドをコンピュータ・マウスの代わりにすることができる。
電子データ・グローブまたは特別な装置は、大規模なインタラクティブまたは3Dバーチャル・リアリティにおいてキーボードまたはコンピュータ・マウスを模倣するために適用される。しかしながら、その電子データ・グローブは、高価でありかつ様々なサイズの手に合わせるのが困難である。また、電子データ・グローブは重く、操作者の操作時間および動作を制限してしまう。
あらゆる種類のコンピュータ・マウスで、カーソルの移動距離は、ユーザの手に握られるマウスの移動距離と比例している。それゆえに、カーソルをコンピュータ・モニタ上の一端から他端まで移動するよう制御するのに、特に、コンピュータ・マウスの広範囲な前後の運動が必要とされる場合に、時間および労力がかかる。
前述の不都合を改善するため、本発明は非接触のマウスを作動する方法を提供する。
前述の不都合を改善するため、本発明は非接触のマウス装置をさらに提供する。
前述の目的を達成するため、非接触のマウスの方法は、原画像を捕え、調整された画像を得るために原画像を調整するようにイメージセンサを使用する。その後、動画像は、その調整された画像において検出され、マウス・ブロックは動画像において定められる。その後、マウス・ブロックの少なくとも一つの運動ブロックは定められ、動画像のピーク位置が検出される。最終的に、ピーク位置によって示される運動ブロックと関連する動作が実行される。
前述の他の目的を達成するために、非接触のマウス装置はイメージセンサに適用される。非接触のマウス装置は、イメージセンサ駆動ユニット、動画像認識ユニット、および、マウス駆動ユニットを含む。イメージセンサ駆動ユニットは電気的にイメージセンサに連結され、動画像認識ユニットは電気的にイメージセンサ駆動ユニットに連結され、マウス駆動ユニットは電気的に動画像認識ユニットに連結される。そこでイメージセンサは原画像を捕え、原画像は、画像電気信号に変換されるようにイメージセンサ駆動ユニットに伝達される。その後、画像電気信号は、調整された画像において動画像を検出するため、調整された画像として処理されるように動画像認識ユニットに伝達される。その後、マウス・ブロックは、動画認識ユニットによって動画像において定められる。そして、マウス・ブロックの少なくとも一つの運動ブロックは、定められる。最終的に、動画像のピーク位置は、カーソルを制御するため、運動ブロックにおいてピーク位置に対応している模倣されたマウス信号をマウス駆動ユニットに伝達するように、動画認識ユニットによって検出される。
前述の一般的な説明および以下の詳細な説明は例示的なものであり、請求の範囲に記載されるように本発明のさらなる説明を提供する意図を有すると理解される。本発明の他の利点および特徴は、以下の説明、図面および請求項から明瞭である。
新規性を有すると考えられる本発明の特徴は、特に添付の請求の範囲において記載される。本発明自体は、しかしながら、添付の図面とともに、本発明の例示的な実施態様を記載する以下の本発明の詳細な説明を参照することで最もよく理解される可能性がある。そこで:
本発明の非接触のマウスを作動するフローチャートである。
画像差異法を用いる概略図である。
運動ブロックの概略図である。
その運動ブロックの概略図である。
予測されたマウス・ブロックの概略図である。
運動ブロックを実行するフローチャートである。
非接触のマウス装置のブロック線図である。
ピーク位置を検出する概略図である。
運動ブロックの概略図である。
非接触のマウス装置およびそれを作動する方法は、ウェブカメラおよびパーソナルコンピュータのみを利用することによって完成することができる。自由領域のハンドジェスチャ運動は、カーソルを制御するようにコンピュータ・マウスを模倣するために使用することができる。ユーザの肌の色、服装および装飾と、環境の背景の複雑性により、非接触のマウス装置の作動は制限されない。またユーザは、特別な色またはパターンのあらゆる物体や携帯型照明装置を保持せずに、または、あらゆる特別なデータ・グローブを着用せずに手動で非接触のマウス装置を作動することができる。さらに、カーソルの移動速度は、位置決め時間を短縮しかつ位置決め精度を増加させるようにユーザのジェスチャの位置に基づいて調整することができる。
本発明の非接触のマウスを作動するフローチャートである図1を参照する。まず、イメージセンサ(例えばウェブカメラ)は原画像を捕えるために提供される(S10)。その後、原画像は、調整された画像を得るために調整される(S20)。その後、動画像(例えばジェスチャ画像)は、調整された画像において検出される(S30)。その後、マウス・ブロックは、動画像において定められる(S40)。その後、マウス・ブロックの少なくとも一つの運動ブロックが定められる(S45)。その後、動画像のピーク位置が、検出される(S50)。とりわけ、動画像がジェスチャ画像である場合、ピーク位置は指先である。最終的に、ピーク位置によって示される運動ブロックと関連する動作が、実行される(S60)。
上記の手順S20は、以下のサブステップ:(1)原画像の被処理サイズの調整、(2)原画像の色の転送(例えば24ビットのフルカラー画像から8ビットのグレイ・レベル画像への原画像の色の転送)、および(3)原画像のスペックルノイズのフィルタリングを含む。特に、原画像のスペックルノイズは、画像ローパスフィルタによってフィルタをかけることができる。
加えて、運動ブロックは、開始ブロック、通常速度の運動ブロック、低速の運動ブロックおよび高速の運動ブロックを含む。マウス・ブロックのサイズはユーザによって自由に設定され、マウス・ブロックはそこで、開始ブロック、通常速度の運動ブロック、低速の運動ブロック、および、高速の運動ブロックに分割されることができる。
予測されたマウス・ブロック56は、図4において示される。開始ブロック68、通常速度の運動ブロック64、低速の運動ブロック66および高速運動ブロック62は、図8、図3(a)および図3(b)において示される。とりわけ、図3(a)は水平に移動するジェスチャを示し、図3(b)は垂直に移動するジェスチャを示す。加えて、調整された画像の動画像は、画像差異法を用いて算出される。
よりよい性能を得るために、三つの連続的ジェスチャ画像は、動画像を算出するために提供される。三つの連続的ジェスチャ画像はそれぞれ、現在のグレイ・レベル画像I2、現在のグレイ・レベル画像I2の前の先行するグレイ・レベル画像I1、および先行するグレイ・レベル画像I1の前のさらに先行するグレイ・レベル画像I0である。グレイ・レベル画像を2値画像へ変換するように、第一のグレイ・レベル閾値および第二のグレイ・レベル閾値は設定される。まず現在のグレイ・レベル画像I2は、第一のグレイ・レベル画像(図示せず)を得るため、先行するグレイ・レベル画像I1によって減じられる。その後、第一のグレイ・レベル画像の各々の画素の濃淡値は、第一のグレイ・レベル閾値と比較される。画素の濃淡値が第一のグレイ・レベル閾値より大きいまたは等しい場合、画素は明るい画素として設定され、これに反して、画素の濃淡値が第一のグレイ・レベル閾値より小さい場合、画素は暗い画素として設定される。それゆえに、第一の2値画像I3は、明るい画素および暗い画素で構成される。同様に、先行するグレイ・レベル画像I1は、第二のグレイ・レベル画像(図示せず)を得るためにさらに先行するグレイ・レベル画像I0によって減じられる。その後、第一のグレイ・レベル画像の各々の画素の濃淡値は、第二のグレイ・レベル閾値と比較される。画素の濃淡値が第二のグレイ・レベル閾値より大きいまたは等しい場合、画素は明るい画素として設定される、これに反して、画素の濃淡値が第二のグレイ・レベル閾値より小さい場合、画素は暗い画素として設定される。それゆえに、第二の2値画像I4は、明るい画素および暗い画素で構成される。最終的に、第三の2値画像I5を生じるため、第一の2値画像I3と第二の2値画像I4との間で論理AND演算は実行され、その第三の2値画像I5は、さらなる処理のための動画像である。
ピーク位置を検出する概略図である図7を参照する。手順S50は、次のように表される:動画像がジェスチャ画像であるとみなされる、それゆえに、ピーク位置は指先である。ユーザの手の運動の大きさが有意である(不注意な全体の動きまたはわずかな動きではない)場合、ピーク位置(指先)は、左から右に、上から下まで追跡される。ピーク位置(指先)が検出されない、または、一定期間の間ユーザの手が静止している場合、追跡モードをOffにして、終了することになる。
運動ブロックを実行するフローチャートである図5を参照する。手順S60は、次のように表される:動画像がジェスチャ画像であるとみなされ、それゆえに、ピーク位置は、指先である。まず、ピーク位置(指先)がマウス・ブロック(S602)の範囲内であるかどうか決定する。ピーク位置(指先)がマウス・ブロックの範囲内でない場合、手順S604は追跡モードをOffにして、終了する。ピーク位置(指先)がマウス・ブロックの範囲内である場合、手順S606はピーク位置(指先)が開始ブロック(S606)の範囲内であるかどうかを決定する。ピーク位置(指先)が開始ブロックの範囲内である場合、手順S608は追跡モードをOnにする。その後、手順S610は、追跡モードを決定するために実行される。追跡モードがOffにされる場合、終了され、追跡モードがOnにされる場合、手順S612は、どのブロック(通常速度の運動ブロック、低速の運動ブロック、または、高速の運動ブロック)の範囲内のピーク位置(指先)があるかどうかをチェックするために実行される。
ピーク位置(指先)が通常速度の運動ブロックの範囲内である場合、手順S614は実行される。モニタ58上のカーソルの移動距離は、ピーク位置(指先)の移動距離と等しい。また、カーソルおよびピーク位置(指先)は、同じ方向に移動する。最終的に、手順S620は実行される。カーソルの逆方向の移動位置は、カーソルの現在位置とカーソルの現在の位置を加えた逆方向の移動位置との間の距離に等しい。すなわち、ユーザにより通常速度でカーソルを制御するためにコンピュータ・マウスを使用するのに類似している。
ピーク位置(指先)が低速の運動ブロックの範囲内である場合、手順S616は実行される。モニタ58上のカーソルの移動距離は、ピーク位置(指先)の移動距離の半分である。また、カーソルおよびピーク位置(指先)は、同じ方向に移動する。最終的に、手順S620は実行される。カーソルの逆方向の移動位置は、カーソルの現在位置とカーソルの現在の位置を加えた逆方向の移動位置との間の距離に等しい。すなわち、ユーザにより低速でカーソルを制御するためにコンピュータ・マウスを使用するのに類似している。それゆえに、これは厳密なカーソル運動に適切である。
ピーク位置(指先)が高速の運動ブロックの範囲内である場合、手順S618は実行される。モニタ58上のカーソルの移動距離は、ピーク位置(指先)の移動距離の2倍である。また、カーソルおよびピーク位置(指先)は、同じ方向に移動する。最終的に、手順S620は、実行される。カーソルの逆方向の移動位置は、カーソルの現在位置とカーソルの現在の位置を加えた逆方向の移動位置との間の距離に等しい。すなわち、ユーザにより高速でカーソルを制御するためにコンピュータ・マウスを使用するのに類似している。それゆえに、これは速いカーソル運動に適切である。
例えば、ピーク位置(指先)が低速の運動ブロックの右側へ移動する場合、カーソルはゆっくり右に移動する。ピーク位置(指先)が高速の運動ブロックの左側へ移動する場合、カーソルは速く左に移動する。マウスの進行が割り当てられた位置へ移動する場合、追跡モードはOffにされ、ピーク位置(指先)閾値時間にわたり割り当てられた位置に示される(本実施態様において、閾値時間は一秒に設定される)。カーソルの移動距離およびピーク位置(指先)の移動距離の間の比率は、ユーザの要求に基づいて設定することができる。加えて、閾値時間は一秒に限られない。運動速度ブロックは、一つのみの通常速度の運動ブロック、一つの低速の運動ブロック、および、高速の運動ブロックに限られず、代わりにユーザの要求に基づいて設定されることができる。
非接触のマウス装置のブロック線図である図6を参照する。非接触のマウス装置30は、イメージセンサ10(例えばウェブカメラ)に適用される。非接触のマウス装置30は、イメージセンサ駆動ユニット32、動画認識ユニット34およびマウス駆動ユニット38を含む。イメージセンサ10は、電気的にイメージセンサ駆動ユニット32に連結される。動画認識ユニット34は、電気的にイメージセンサ駆動ユニット32およびマウス駆動ユニット38に連結される。イメージセンサ10は原画像(図示せず)を捕え、その原画像は画像電気信号(図示せず)に変換されるように、イメージセンサ駆動ユニット32に伝達される。その後、画像電気信号は、調整された画像において動画像(ジェスチャ画像、図示せず)を検出するため、調整された画像(図示せず)として処理されるように動画認識ユニット34に伝達される。その後、マウス・ブロック(図示せず)は、動画認識ユニット34によって動画像において定められる。その後、マウス・ブロックの少なくとも一つの運動速度ブロック(図示せず)は、動画認識ユニット34によって定められる。また、動画像のピーク位置(図示せず)は、動画認識ユニット34によって検出される。最終的に、ピーク位置によって示される運動速度ブロックと関連する動作は、実行される。すなわち、動画認識ユニット34は、ディスプレイ40(図示せず)上にカーソル運動を示すため、マウス駆動ユニット38に模倣されたマウス信号(図示せず)を伝達する。それゆえに、ユーザによりディスプレイ40上でカーソルを制御するためにコンピュータ・マウス20を使用するのに類似している。
動画認識ユニット34へ画像電気信号を伝達する手順は:(1)原画像の被処理サイズの調整、(2)原画像の色の転送(例えば24ビットのフルカラー画像から8ビットのグレイ・レベル画像への原画像の色の転送)、および(3)原画像のスペックルノイズのフィルタリングを含む。特に、原画像のスペックルノイズは、画像ローパスフィルタによってフィルタをかけることができる。
非接触のマウス装置30のマウス・ブロックのサイズは、ユーザによって自由に設定され、マウス・ブロックはそこで、開始ブロック、通常速度の運動ブロック、低速の運動ブロック、および、高速運動ブロックに分割することができる。予測されたマウス・ブロックは、図4において示される。開始ブロック68、通常速度の運動ブロック64、低速の運動ブロック66および高速運動ブロック62は、図8、図3(a)および図3(b)において示される。特に、図3(a)は水平に移動するジェスチャを示し、図3(b)は垂直に移動するジェスチャを示す。加えて、調整された画像の動画像は、画像差異法を用いて算出される。
非接触のマウス装置およびそれを作動する方法は、ウェブカメラおよびパーソナルコンピュータのみを利用することによって完成することができる。手のジェスチャはカーソルを制御するのにコンピュータ・マウスを模倣するために土台なしで移動する。ユーザの肌の色、服装および装飾と、環境の背景の複雑性により、非接触のマウス装置の作動は制限されない。またユーザは、特別な色またはパターンのあらゆる物体や携帯型照明装置を保持せずに、または、あらゆる特別なデータ・グローブを着用せずに手動で非接触のマウス装置を作動することができる。さらに、カーソルの移動速度は、位置決め時間を短縮しかつ位置決め精度を増加させるようにユーザのジェスチャの位置に基づいて調整されることができる。
本発明がその好ましい実施形態に関して記載されたけれども、本発明がその詳細に限定されないと理解される。様々な代替および変更は前述の説明において示唆され、従来技術の当業者により想起されるものである。したがって、すべてのそのような代替および変更は、添付の請求の範囲に記載のように本発明の範囲内に含まれる意図を有する。
Claims (12)
- 非接触のマウスを作動する方法であって、
次のステップ:(a)イメージセンサ(10)を用いた原画像の捕獲と、
(b)調整された画像を得るための該原画像の調整と、
(c)外調整された画像における動画像の検出と、
(d)該動画像におけるマウス・ブロック(56)の規定と、
(e)該マウス・ブロック(56)における少なくとも一つの運動速度ブロックの規定と、
(f)該原画像のピーク位置の検出と、
および(g)該ピーク位置により示された該運動速度ブロックと関連する動作の実行と
を含む方法。 - 前記手順(b)が:(b1)前記原画像の被処理サイズの調整と、
(b2)該原画像の色の転送と、
および(b3)該原画像のスペックルノイズのフィルタリングと;を含む、請求項1の方法。 - 前記手順(b2)が、24ビットフルカラーのジェスチャ画像から8ビット・グレイ・レベル・ジェスチャ画像への前記原画像の色を転送する、請求項2の方法。
- 前記手順(b3)が画像ローパスフィルタによって前記スペックルノイズにフィルタをかける、請求項2の方法。
- 前記動画像がジェスチャ画像であり、前記ピーク画像が指先である、請求項1の方法。
- 前記手順(c)が画像差異法を用いて前記調整された画像の前記動画像を算出する、請求項1の方法。
- 前記運動速度ブロックは、開始ブロック(68)、通常速度の運動ブロック(64)、低速の運動ブロック(66)、または、高速の運動ブロック(62)を含む、請求項1の方法。
- 前記イメージセンサがウェブカメラである、請求項1の方法。
- イメージセンサ(10)に適用される非接触のマウス装置(30)であって:
該イメージセンサ(10)に電気的に連結されるイメージセンサ駆動ユニット(32)と、該イメージセンサ駆動ユニット(32)に電気的に連結される動画認識ユニット(34)と、および、該動画認識ユニット(34)に電気的に連結されるマウス駆動ユニット(38)と、を含み、そこで、該イメージセンサ(10)が原画像を捕え、該イメージセンサ駆動ユニット(32)が、該原画像を画像電気信号に変換するように構成され、該動画認識ユニット(34)は、該画像電気信号を調整された画像に処理し、該調整された画像の動画像を検出するように構成され、該動画認識ユニット(34)は、該動画像のマウス・ブロック(56)を定めるように構成され、該動画認識ユニット(34)は、該マウス・ブロックの少なくとも一つの運動速度ブロックを定めるように構成され、および、該動画認識ユニット(34)は、カーソルを制御するため該マウス駆動ユニット(38)に該運動速度ブロックの該ピーク位置に対応する模倣されたマウス信号を伝達するために該運動画像のピーク位置を検出するように構成される、非接触のマウス装置(30)。 - 前記動画像がジェスチャ画像であり、前記ピーク画像が指先である、請求項9の非接触のマウス装置。
- 前記イメージセンサ(10)がウェブカメラである、請求項9の非接触のマウス装置。
- 前記運動速度ブロックは、開始ブロック(68)、通常速度の運動ブロック(64)、低速の運動ブロック(66)、または、高速の運動ブロック(62)を含む、請求項9の非接触のマウス装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009117978A JP2010267082A (ja) | 2009-05-14 | 2009-05-14 | 非接触のマウス装置およびそれを作動する方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009117978A JP2010267082A (ja) | 2009-05-14 | 2009-05-14 | 非接触のマウス装置およびそれを作動する方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010267082A true JP2010267082A (ja) | 2010-11-25 |
Family
ID=43364001
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009117978A Pending JP2010267082A (ja) | 2009-05-14 | 2009-05-14 | 非接触のマウス装置およびそれを作動する方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010267082A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102237994B1 (ko) * | 2019-11-20 | 2021-04-07 | 한양대학교 산학협력단 | Sar 영상 내 잡음 제거 방법 및 장치 |
-
2009
- 2009-05-14 JP JP2009117978A patent/JP2010267082A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102237994B1 (ko) * | 2019-11-20 | 2021-04-07 | 한양대학교 산학협력단 | Sar 영상 내 잡음 제거 방법 및 장치 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI431516B (zh) | 觸覺回饋方法及其電子裝置 | |
US8339359B2 (en) | Method and system for operating electric apparatus | |
JP6153564B2 (ja) | カメラとマーク出力とによるポインティング装置 | |
US8666115B2 (en) | Computer vision gesture based control of a device | |
US20110102570A1 (en) | Vision based pointing device emulation | |
Prätorius et al. | DigiTap: an eyes-free VR/AR symbolic input device | |
US20090284469A1 (en) | Video based apparatus and method for controlling the cursor | |
JP2013524354A (ja) | コンピューティングデバイスインターフェース | |
US20140053115A1 (en) | Computer vision gesture based control of a device | |
JP2004246578A (ja) | 自己画像表示を用いたインタフェース方法、装置、およびプログラム | |
Dai et al. | Touchscreen everywhere: On transferring a normal planar surface to a touch-sensitive display | |
TWI536211B (zh) | 雙模光學導航裝置及其模式切換方法 | |
CN103092334A (zh) | 虚拟鼠标驱动装置及虚拟鼠标仿真方法 | |
WO2015104884A1 (ja) | 情報処理システム、情報処理方法およびプログラム | |
CN103677442B (zh) | 键盘装置及电子装置 | |
WO2012148844A2 (en) | Laser diode modes | |
CN101840275A (zh) | 非接触式鼠标装置及其操作方法 | |
US20100271297A1 (en) | Non-contact touchpad apparatus and method for operating the same | |
EP2249229A1 (en) | Non-contact mouse apparatus and method for operating the same | |
CN203241934U (zh) | 用于手势识别的系统、用户输入装置及处理器 | |
JP2010267082A (ja) | 非接触のマウス装置およびそれを作動する方法 | |
US20150103005A1 (en) | Pointing device using camera and outputting mark | |
TWI444875B (zh) | 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法 | |
US20100271303A1 (en) | Non-contact mouse apparatus and method for operating the same | |
TW201033858A (en) | A non-contact mouse apparatus and method for the same |