JP2009076026A - 手持ちカメラによるカーソル位置決定方法 - Google Patents

手持ちカメラによるカーソル位置決定方法 Download PDF

Info

Publication number
JP2009076026A
JP2009076026A JP2007306763A JP2007306763A JP2009076026A JP 2009076026 A JP2009076026 A JP 2009076026A JP 2007306763 A JP2007306763 A JP 2007306763A JP 2007306763 A JP2007306763 A JP 2007306763A JP 2009076026 A JP2009076026 A JP 2009076026A
Authority
JP
Japan
Prior art keywords
image
feature points
cursor
hand
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007306763A
Other languages
English (en)
Inventor
Shiko Chin
陳志宏
Chien-Chang Ho
何建璋
Yuan-Pin Lin
林遠彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EOTECH CO Ltd
TopSeed Technology Corp
Original Assignee
EOTECH CO Ltd
TopSeed Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EOTECH CO Ltd, TopSeed Technology Corp filed Critical EOTECH CO Ltd
Publication of JP2009076026A publication Critical patent/JP2009076026A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】手持ちのカーソル移動装置において、手の動きのカーソルの移動への正確な変換を可能とする方法を提供する。
【解決手段】連続画像を撮影する手持ちカメラによりコンピュータ上のカーソルの位置決定を行う。カメラはレーザーポインタのような手持ち装置に配置される。カメラは局部場面の一連の画像を撮影するとともに、瞬時にコンピュータに送る。コンピュータは第1画像内の特定の特徴点を選定し画像におけるこれらの位置を記録する。コンピュータは第1画像の次の第2画像における特徴点を検索する。特徴点が検索される場合は、手持ち装置の動きは2つの画像間の特徴点の相対位置変化の計算によって得られ、コンピュータは対応して動くようカーソルを駆動させることができる。特徴点が検索できない場合は、コンピュータは選定された特徴点を放棄してから第2画像における新たな特徴点を選定すると同時に第3画像における新たな特徴点を検索する。
【選択図】図3

Description

この発明はコンピュータのカーソル位置決定に関する。特に、本発明は手の動きを検知する2つの画像の対比によるカーソル位置決定方法に関する。
パーソナルコンピュータは長いことすっかりグラフィカルユーザーインターフェース(GUI)を伴ったオペレーティングシステムを採用してきた。GUIでは、主に様々な操作を実行するカーソルの移動に依存している。通常、カーソルの移動はマウスによって制御される。
正常なマウスは、通常、テーブル上面のような固定面上で使用されなくてはならない。しかしながら、従来のマウスはある一定の場合には使用されてはならない。例えば、マイクロソフトのパワーポイントのようなソフトウェアによるコンピュータプレゼンテーションの場合がそうであり、話し手はスライドショーを行うプレゼンソフトをラップトップコンピュータ上で通常通り操作すると同時に、ステージ上のスライド内容を指し示すレーザーポインタを持つ。話し手にとって、スライドショーを行うコンピュータを直接操作するのはつらい。多くの場合、話し手はコンピュータを操作する補助者の追加を必要とする。しかしながら、話し手はプレゼンテーション全体を通じてプレゼンソフトを操作するために補助者と手合図、身振り(合槌といった)、あるいは対話を通じて連絡する必要があるだけでなく、ページをめくるといった決まった操作を除き、話し手が補助者にカーソルのクリックを要する、例えば、ハイパーリンクをクリックするとかスライド中でハイライトさせるためにある一定の言葉を選定するといった操作を行うよう命令することは困難である。
現在、マーケットにはレーザーポイントとマウス揺動による制御の両方を組み合わせた市販製品がある。言い換えると、話し手により保持されるレーザーポインタにもカーソル位置決定の機能がある。これらの揺動制御機能付きの製品は操作用の固定面を必要としない。しかしながら、これらでは手の動きを感知する1個あるいは2個の加速度計が採用されるとともに、個別ユーザーの手の動き方が根本的に異なるので、加速度計の感度がすべてのユーザーの様々な動作形態の要件に合わせて設定されるのは極めて難しい。さらには、加速度計は速度ではなく加速度を感知するものであるので、加速度計付きのマウスは手の動きの正確な反映が不可能である。特に、手持ち装置(レーザポインタ)は3次元空間を自由に動くので、その3次元の動きが2次元平面(例えば、表示画面)上のカーソルの移動に正確に変換されるのは困難である。ということはカーソルの移動に関する正確な制御は骨が折れるという結果につながろう。従って、加速度検知技術が採用されるこれらのカーソル位置決定製品は、カーソル移動の正確な制御は極めて困難である。カーソルには移動過剰、移動不足、あるいは移動方向の不正確さが頻繁に起こる。従って、さらなる改善が必要とされる。
本発明の目的は手持ちカメラによるカーソル位置決定方法を提供することにあって、これによってユーザーの手の3次元の動きによりカーソルの移動をさらに正確に制御することが可能となる。従来の加速度検知方法を採用することなく、この発明によりカーソルの移動がさらに正確となる手の動きのカーソルの移動への正確な変換が可能となる。
上述の目的の達成のため、本発明のカメラはレーザーポインタといった手持ち装置に設置される。カメラは局部的場面の一連の連続画像を撮影すると同時に即時にコンピュータに送る。コンピュータは第1画像から特定の特徴点を選定するとともに、これらの画像位置を記録する。その後、コンピュータは第1画像の次の第2画像内の特徴点を検索する。特徴点の1つが検索可能であれば、手持ち装置の動きが2つの画像における特徴点の相対的位置変化の計算によって得られる。コンピュータが対応して動くようにカーソルを駆動させることが可能である。特徴点が検索できなければコンピュータは既選定特徴点を放棄してから第2画像の新たな特徴点を選定すると同時に、新たな第3画像の特徴点を検索する。この段階は連続2画像に見出し得る特徴点が検索されるまで同様に繰り返される。
図1は本発明による手持ちカメラの透視図である。手持ちカメラ1は手持ち利用に適切なケース11内に配置されるデジタルカメラ12である。ケース11は細長い本体にできるのが好ましい。デジタルカメラ12はケース11内に配置されるレーザーポインタ13と連動可能であると同時に、レーザーポインタ13の発光要素とデジタルカメラ12のレンズの両方がケース11の同じ側に位置するのがさらに好ましい。これによって、手持ちカメラ1もまたレーザーポインティング機能を有することになる。これによりプレゼンテーションの話し手の操作はより便利となる。しかしながら、当技術の専門家であればデジタルカメラ12とレーザーポインタ13は同じケース11内に接合されて配置されてもなお別々であってそれぞれの操作と制御が行われる点を分かっているはずである。ユーザーによる操作用にケース11の表面には複数のキー14がある。
図2を参照すると、手持ちカメラ1はその入力装置として利用されるコンピュータホスト2に電気接続される。コンピュータホスト2は出力装置として利用される表示装置3に電気接続される。手持ちカメラ1とコンピュータホスト2は無線あるいは有線通信接続のどちらかによって連結可能である。有線接続はこれに限定されるわけではないがUSBインターフェース(ユニバーサルシリアルバス)が採用可能であることが好ましい。無線接続はこれに限定されるわけではないがブルートゥースインターフェースが採用可能であるのが好ましい。当技術の専門家であればその他の入手可能な有線あるいは無線の通信インターフェースを代わりに選定しても良い。通信インターフェースによって、手持ちカメラ1は自身によって撮影されたデジタル画像データをコンピュータホスト2に送る。コンピュータホスト2により、相対変位に対応して表示画面3上にカーソルを発生させる、これら連続画像の検知による手持ちカメラ1の相対的動きが得られる。
図3を参照すると、本発明のカーソル位置決定方法を例示する流れ図が示される。段階S1の最初に、ユーザーは手持ちカメラ1をプレゼンテーション用の場所といった局所的場面の一連の連続画像を撮影するように保持する。該連続画像は方向あるいは対象物に関する一切の制約無しに無差別にユーザーによって写真撮影される。画像内容もまた、たとえば、人、机、いす、扉、窓、カーテン、ブラインド、隅、壁がけ絵画、盆栽等、無制限である。本方法は連続画像の第1静止画像内に1個以上の特徴点を選択するとともに、被選択特徴点のパターンや位置を記録する段階S2が次に続く。該特徴点は画像の中で一番高いコントラストあるいは輝度を有する単一画素あるいは一連の隣接画素であり得る。本方法にはさらに第1画像の次の第2画像からのS2段階で選定された同一特徴点の検索S3が含まれる。少なくとも一つの同一特徴点が第2画像内に現れる場合S4Yには、本方法はS5で第1と第2画像間のその特徴点の位置変化を計算する。該位置変化はこれによって2つの画像の中で特徴点が移動する手持ちカメラ1の動きを示す。最後に、段階S6では表示装置3の画面上のカーソルの位置が特徴点の位置変化に応じて移動する。カーソルの移動には方向と距離の基本的な2つの要因が含まれる。S4N段階にある間、ユーザーが手持ちカメラ1を不当に揺動させる場合かあるいは選定されたすべての特徴点が固定対象物要素でなく第1画像におけるすべての選定特徴点が第2画像中に検索しきれない場合、本方法では第1画像で選定されたすべての特徴が廃棄される段階S7が実行されると同時に、代わりに新たな参照画像として利用される第2画像から新たな特徴点が選定されるとともに、第2画像の次の第3画像における新たな特徴点の検索、すなわち、新たな特徴点が連続2画像中から検索されるまで段階S2から段階S4までの段階が繰り返される。その後、段階S5およびS7は段階S4に近づくように実行可能である。
図4は連続2画像から選定されるある特定の特徴点の相対位置変化を示す図解図である。図4では、実線枠ならびに点線枠で囲まれた2領域はそれぞれ第1画像41および第2画像42である。両方の画像41および42がそれぞれx−y平面だとすると、点Aは第1画像41からのある特定の特徴点である。(x1,y1)は第1画像41中のA点の直交座標である。手持ちカメラ1の動きのため、第2画像42の点Aの直交座標は(x2,y2)となる。こうして、点Aの移動量は((x1-x2),(y1-y2))である。図4に示す座標では、(x1-x2)のマイナス値が手持ちカメラの左方への動き(図に示されるように)を示し、プラス値が右方を示す。(y1-y2)のプラス値は上方への動き(図に示されるように)を示すとともに、マイナス値は下方を示す。図4に示される条件は手持ちカメラ1の左上方の動きを示す。
手持ちカメラ1の移動量が得られた後、表示装置3の画面上のカーソルにより対応する変位が作り出され得る。図5に示されるように、カーソル31は当初位置、すなわち、図4における第1画像41が生じる時点における位置にある。手持ちカメラ1から((x1-x2),(y1-y2))の距離の左上方の動きが検知されるので、カーソル31は対応して位置32に移動する。十分な理解のため、図5では表示装置3画面に対する撮影画像の41、42について1:1の比の対応相関関係が採用されている。しかしながら、表示装置3上のカーソルの移動量ではほかに別の比が採用されても良い。いいかえると、表示装置3画面上のカーソルの移動量は、aをゼロより大きい任意の数値である比例係数とすると(a(x1-x2),a(y1-y2))であり得ると同時に、手持ちカメラ1と主画面あるいは背景との間の距離や個人的なやり方でのユーザーの手の動きに応じて変更可能である。
上述の通り、本発明はカーソルの変位を制御する自由なカメラによる固定対象物の写真撮影によってユーザーの手の動きを検知する。従来の加速度検知技術から生ずる方向が不正確となる欠点は完全に回避可能である。本発明はカーソル位置決定をさらに正確かつ精密にするために2次元スクリーン上のカーソル移動のベースとして2次元画像上の特徴点の移動を利用するものである。
本発明の実施例に関する前述の説明は例示と説明のために紹介された。正確な公開形態に対して強調したり、発明を限定したりする意図はない。多くの変更と変型が上記の教唆に照らして可能である。本発明の範囲はこの詳細説明よりむしろここに添付される請求項によって限定されるものと意図される。
本発明をこれらだけに限定する意図はない例を通じて与えられる以降の詳細説明は、付録の図面と関連して十分理解されよう。
本発明による手持ちカメラ透視図。 本発明による好ましい実施例の系統的な模式図。 本発明によるカーソル位置決定方法を示す流れ図。 本発明による連続2画像から選定される特徴点の相対位置変化を示す例示図。 表示画面のカーソルの変位を示す例示図。

Claims (5)

  1. a) 連続画像を撮影する手持ちカメラの使用
    b) 該連続画像のN番目画像からの少なくとも1個の特徴点の選定
    c) N番目画像の次の(N+1)番目画像からのb 段階で選定された同一特徴点の検索
    d) (N+1)番目画像中に該同一特徴点が検索される場合にN番目と(N+1)番目の画像の検索特徴点間の位置変化の計算
    e) 特徴点の位置変化に応じた表示画面上のカーソルの移動
    f) 段階cで特徴点が検索しきれない場合に代わる(N+1)番目の画像からの別の特徴点の選定、ならびに
    g) f段階以後のN=N+1毎のc〜f段階の繰り返し
    が含まれるカーソルの位置決定方法。
  2. 段階bあるいは段階fでの選定特徴点数が1個である、請求項1の方法。
  3. 段階bあるいは段階fでの選定特徴点数が2個以上である、請求項1の方法。
  4. 特徴点が画像内の最高のコントラストあるいは輝度を有する領域である、請求項1の方法。
  5. 手持ちカメラが細長いケースに配置されるデジタルカメラである、請求項1の方法。
JP2007306763A 2007-09-21 2007-11-28 手持ちカメラによるカーソル位置決定方法 Pending JP2009076026A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW096135361A TW200915136A (en) 2007-09-21 2007-09-21 Cursor-positioning method for handheld camera

Publications (1)

Publication Number Publication Date
JP2009076026A true JP2009076026A (ja) 2009-04-09

Family

ID=40471082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007306763A Pending JP2009076026A (ja) 2007-09-21 2007-11-28 手持ちカメラによるカーソル位置決定方法

Country Status (4)

Country Link
US (1) US20090079691A1 (ja)
JP (1) JP2009076026A (ja)
KR (1) KR20090031205A (ja)
TW (1) TW200915136A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014512590A (ja) * 2011-03-04 2014-05-22 インターフェイズ・コーポレーション 対話型表示システムにおける視覚ペアリング
WO2015156068A1 (ja) * 2014-04-10 2015-10-15 ソニー株式会社 画像処理装置及び画像処理方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2008301204B2 (en) * 2007-09-21 2011-05-26 Silverbrook Research Pty Ltd Coding pattern comprising direction codes
US20100110051A1 (en) * 2008-10-30 2010-05-06 Yi Jhao Technology Corporation Control method for lens drive screen

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7460109B2 (en) * 2003-10-20 2008-12-02 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Navigation and fingerprint sensor
TWI305892B (en) * 2005-11-23 2009-02-01 Inst Information Industry Apparatus, computer equipment, method and computer readable media for simultaneously controlling a cursor and an optical pointer
EP1879098A1 (en) * 2006-07-12 2008-01-16 STMicroelectronics (Research & Development) Limited Control device
US20080018591A1 (en) * 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
US8659664B2 (en) * 2007-03-23 2014-02-25 Flir Systems, Inc. Thermography camera configured for leak detection

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014512590A (ja) * 2011-03-04 2014-05-22 インターフェイズ・コーポレーション 対話型表示システムにおける視覚ペアリング
WO2015156068A1 (ja) * 2014-04-10 2015-10-15 ソニー株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
US20090079691A1 (en) 2009-03-26
KR20090031205A (ko) 2009-03-25
TW200915136A (en) 2009-04-01

Similar Documents

Publication Publication Date Title
US8068121B2 (en) Manipulation of graphical objects on a display or a proxy device
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
CN102474560B (zh) 由电子装置使用触敏显示器控制数字图像的放大和采集
Kratz et al. HoverFlow: expanding the design space of around-device interaction
US8558790B2 (en) Portable device and control method thereof
US10628010B2 (en) Quick review of captured image data
US20140157208A1 (en) Method of Real-Time Incremental Zooming
US20140191998A1 (en) Non-contact control method of electronic apparatus
JP2012514786A (ja) モバイルデバイスのためのユーザインターフェース
JP5802247B2 (ja) 情報処理装置
KR101669079B1 (ko) 표시제어장치 및 그 제어 방법
WO2015023108A1 (en) Method of searching for page using three-dimensional manner in portable device and portable device for the same
US10656746B2 (en) Information processing device, information processing method, and program
US9600170B2 (en) Video display device and control method for controlling multispeed video search
US20080252737A1 (en) Method and Apparatus for Providing an Interactive Control System
TWI522853B (zh) 導航裝置及影像顯示系統
JP2009076026A (ja) 手持ちカメラによるカーソル位置決定方法
EP2042970A1 (en) Cursor positioning method by a handheld camera
JP6008904B2 (ja) 表示制御装置、表示制御方法、及び、プログラム
WO2013131410A1 (zh) 遥控数字化菜谱及其人机交互方法
KR101911676B1 (ko) 지시체의 움직임을 고려한 프리젠테이션 영상 처리장치 및 방법
TW201441914A (zh) 調整圖片顯示比例的電子裝置及方法
TWI486814B (zh) 游標控制裝置以及方法
US11010045B2 (en) Control apparatus, control method, and non-transitory computer readable medium
US20140184566A1 (en) Electronic apparatus, method of controlling the same, and computer-readable recording medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090410

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090410