JP5783828B2 - 情報処理装置およびその制御方法 - Google Patents

情報処理装置およびその制御方法 Download PDF

Info

Publication number
JP5783828B2
JP5783828B2 JP2011156692A JP2011156692A JP5783828B2 JP 5783828 B2 JP5783828 B2 JP 5783828B2 JP 2011156692 A JP2011156692 A JP 2011156692A JP 2011156692 A JP2011156692 A JP 2011156692A JP 5783828 B2 JP5783828 B2 JP 5783828B2
Authority
JP
Japan
Prior art keywords
mode
display surface
change
predetermined time
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011156692A
Other languages
English (en)
Other versions
JP2012069095A (ja
JP2012069095A5 (ja
Inventor
友範 田中
友範 田中
深田 俊明
俊明 深田
奥谷 泰夫
泰夫 奥谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011156692A priority Critical patent/JP5783828B2/ja
Priority to US13/214,086 priority patent/US9035889B2/en
Publication of JP2012069095A publication Critical patent/JP2012069095A/ja
Publication of JP2012069095A5 publication Critical patent/JP2012069095A5/ja
Application granted granted Critical
Publication of JP5783828B2 publication Critical patent/JP5783828B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、入力モードを切り替える技術に関する。
従来、表示画面に対してタッチ入力操作をすることによって、表示画面上の所定の位置をポインティングする技術が知られている。また、表示画面に対して指差し入力操作をすることによって、表示画面上の所定の位置をポインティングする技術が知られている(例えば、特許文献1)。
特開平5−324181号公報
そして、指差し入力操作は、手ぶれの影響により、遠隔にあるオブジェクトの正確なポインティングが困難である。そこで、指差し入力操作によって表示画面上のおおよその位置をポインティングし、更に、タッチ入力操作をすることによって、表示画面上の詳細な位置をポインティングすることが望まれる。
しかしながら、従来、指差し入力操作を受け付けるモードとタッチ入力操作を受け付けるモードとを切り替えるためには、切り替えを指示する声を音声認識させたり、切り替えを指示するボタン操作を受け付けたりする必要があった。本発明は、このような課題に鑑みてなされたものであり、指差し入力操作をしている指(注目物)そのものの動きに基づいて、入力モードを切り替えることを目的とする。
上記の課題を解決する為に、本発明に係る情報処理装置は、所定時間あたりの注目物の位置の変化量を検知する検知手段と、注目物の位置と前記注目物が指し示す方向とに基づいて表示面上の第1の操作位置を決定する第1のモードと、前記注目物と前記表示面との接触位置に基づいて前記表示面上の第2の操作位置を決定する第2のモードとを、前記検知した変化量を用いて、切り替える切替手段を有することを特徴とする。
本発明によれば、注目物そのものの動きに基づいて、入力モードを切り替えることが可能となる。
本発明に係るシステムを設置した様子示す図。 情報処理装置104の機能ブロック図およびハードウェア構成図。 入力モードを切り替える処理の流れを示すフローチャート。 ステップS402、S403の処理の詳細を示すフローチャート。 入力モードを切り替える様子を示す図。 ステップS404の処理の詳細を示すフローチャート。 入力モードを切り替える様子を示す図。 ステップS502の結果を示す図。 ステップS502の結果を示す図。
以下、図面を参照しながら本発明を実施するための形態について説明する。
(第1の実施形態)
図1は、本実施形態に係るシステム(情報処理システム)を設置した様子を示す図であり、本システムは、プロジェクタ101、カメラ102、デジタイザ103、情報処理装置104を有する。尚、本実施形態においては、上記の各装置が連携したシステムによって本発明を実現するが、上記の各装置に相当する機能を有する1つの情報処理装置が本発明を実現してもよい。
プロジェクタ101は、情報処理装置104から出力された画像データに従って、デジタイザ103に対して、所定の画像を投影する。カメラ102は、デジタイザ103と対向するよう設置され、ユーザの指等の注目物を撮影する。カメラ102は、距離画像を出力する距離画像センサ等である。尚、距離画像とは、それぞれの画素がカメラ102と空間上の注目物との距離に従った画素値を有する画像とする。距離の測定方法としては、例えば、赤外線を発光して対象物からの反射光の到達時間を計測する飛行時間計測方式(TOF)などが適用される。互いに異なる時点で出力された複数の距離画像を比較することにより、注目物の移動距離と移動方向の特定が可能である。また、カメラ102は、所定の形状を有する物体を認識する機能を有し、ユーザ手105の形状(指先や指の根元など)を認識できるものとする。本実施形態では、様々な人間の形状や手の形状をモデルとして記憶装置(RAM)に保持しておくことにより上述した認識機能を実現するものとする。尚、所定の形状を有する物体を認識する機能は、情報処理装置104が備えていてもよい。
デジタイザ103は、デジタイザ103と接触した物体の位置を検知する。また、デジタイザ103は、プロジェクタ101が投影した画像の表示面として機能する。情報処理装置104は、カメラ102から距離画像を取得し、デジタイザ103から接触位置を示す情報を取得し、後述する処理を実行し、プロジェクタ101に対して所定の画像データを出力する。尚、本実施形態において、デジタイザ103は、縦(X軸方向の長さ)が190cm、横(Y軸方向の長さ)が150cmの矩形である。また、デジタイザ103上空の3次元空間については、デジタイザ103の角に相当する点P1を原点(0,0,0)とし、横方向をY軸、縦方向をX軸、高さ方向をZ軸(原点を通り、XY平面に直行する軸)とする。また、本実施形態では、デジタイザ103の別の角に相当する点P2を(190,0,0)、点P3を(0,150,0)とする。座標の単位はcmとする。
図2(a)は、情報処理装置104の機能構成を示す機能ブロック図である。情報処理装置104は、指差し入力処理部201、タッチ入力処理部202、モード管理部203、表示制御部204、遠隔制御部205を有する。また、情報処理装置104は、プロジェクタ101、カメラ102、デジタイザ103と接続されている。
指差し入力処理部201は、CPU等によって構成され、カメラ102が出力した距離画像から、注目物(本実施形態においては、指)の位置と、注目物の方向(本実施形態においては指先の向き)を求め、デジタイザ103(表示面)上の所定の位置を特定する。例えば、図5に示すような3次元空間座標系において、指差し入力処理部201によって、指先の位置座標P4が(90,120,50)と求められ、指の根元の位置座標P5が(93,130,53)と求められたとする。このとき、指先の位置座標と指の根元の位置座標とを結んだ直線と、デジタイザ103(表示面)に相当する面との交点(60,20,0)が、ポインティング位置(操作位置)として特定される。また、指差し入力処理部201は、指差し入力を示す情報の履歴を管理する。また、本実施形態では、指を用いて指差し入力を行っていたが、ペン先等を用いて指差し入力を行ってもよい。また、レーザポインタ等のポインティングデバイスを用いてポインティングを行ってもよい。タッチ入力処理部202は、CPU等によって構成され、デジタイザ103に対する接触する認識する。また、タッチ入力処理部202は、タッチ入力を示す情報の履歴を管理する。
モード管理部203は、CPU等によって構成され、指差し入力モードとタッチ入力モードを切り替える機能を有する。尚、指差し入力モードでは、指差し入力処理部201によって特定された位置がポインティングされ、タッチ入力モードでは、タッチ入力処理部202によって特定された位置として、デジタイザ103との接触が検知された位置がポインティングされる。表示制御部204は、CPU、出力I/F等によって構成され、プロジェクタ101に対して所定の画像データを出力する。遠隔制御部205は、CPU、RAM等によって構成され、後述するポインティング位置を遠隔操作するための制御を実行する。
図2(b)は、情報処理装置104のハードウェア構成を示す図である。情報処理装置104は、中央処理装置(CPU)301、ランダムアクセスメモリ(RAM)302、リードオンリメモリ(ROM)303、入力インタフェース(I/F)304、入力I/F305、出力I/F306を有する。また、情報処理装置104は、プロジェクタ101、カメラ102、デジタイザ103と接続されている。CPU301は、ROM303等に格納されたプログラム等をRAM302に展開し、実行することによって、情報処理装置104の各機能を実現する。RAM302は、上記プログラムの動作に必要な記憶領域を提供する。ROM303は、上記プログラムの動作手順を実現するプログラムやデータ等を保持する。入力I/F304は、カメラ102から距離画像を取得する。入力I/F305は、デジタイザ103から接触位置を示す情報を取得する。出力I/F306は、プロジェクタ101に対して、所定の画像データを出力する。尚、上記の各部は、システムバスを介して、互いに連携して機能している。
図3は、入力モードを切り替える処理を示すフローチャートである。ステップS401において、モード管理部203は、指差し入力モードであるか、タッチ入力モードであるかを判定する。ステップS401において、デジタイザ103との接触が検知されている場合には、タッチ入力モードと判定し、ステップS405の処理を実行する。一方、デジタイザ103との接触が検知されていない場合には、指差し入力モードと判定し、ステップS402の処理を実行する。ステップS402において、指差し入力処理部201は、ユーザの指を注目物として捉え、注目物(指)の位置と方向に基づいて、表示面(デジタイザ103)上のポインティング位置を特定する。
ステップS403において、指差し入力処理部201は、互いに異なる時点で出力された距離画像に基づいて、指の振り下ろしがあったか否かを検知する。具体的には、ステップS403において、指差し入力処理部201は、所定の時間(例えば、280ミリ秒)あたりのデジタイザ103(表示面)に対する垂直方向の指先の移動量(変化量)が、表示面に近づく方向に、所定の距離(例えば、13cm)以上となったか否か判断する。ステップS403において、指の振り下ろしが検知された場合、ステップS404の処理を実行し、指の振り下ろしが検知されなかった場合、ステップS402の処理が実行される。
ステップS404において、モード管理部203は、指差し入力モードからタッチ入力モードへ入力モード切替える処理を実行する。ステップS408において、タッチ入力処理部202が、タッチ入力処理を行う。
ステップS405において、タッチ入力処理部202は、表示面(デジタイザ103)上の、指の接触位置に基づいて、ポインティング位置を特定する。即ち、例えば、デジタイザ103と指先とが接触した位置がポインティング位置となる。ステップS406において、指差し入力処理部201は、指の振り上げを検知する。より具体的には、ステップS406において、指差し入力処理部201は、所定の時間(例えば、280ミリ秒)あたりのデジタイザ103(表示面)に対する垂直方向の指先の移動量(変化量)が、表示面から遠ざかる方向に、所定の距離(例えば、13cm以上)となったか否か判断する。ステップS406において、指の振り上げを検知した場合、ステップS407の処理を実行し、指の振り上げを検知しなかった場合、ステップS405の処理を実行する。ステップS407において、モード管理部203は、タッチ入力モードから指差し入力モードに切替を行う。ステップS409において、指差し入力処理部201が、指差し入力処理を行う。即ち、ステップS401からステップS407の処理により、指差し入力モードとタッチ入力モードとの切替を、指一本の操作で行うことが可能となる。
尚、ステップS403と、ステップS406の判定方法は、上記方法に限らない。例えば、上述したステップS403の処理に変えて、指差し入力処理部201は、基準となる時点から現時点までに検知された指先の位置を線形近似して得られた直線の傾き(s1)を求める。そして、基準となる時点から所定時間遡った時点までに検知された指先の位置を線形近似して得られた直線の傾き(s2)を求め、互いの傾きを比較して、例えばs2/s1の値が所定の閾値以上となった場合、指の振り下ろしとして検知してもよい。また、上述したステップS406の処理に変えて、指差し入力処理部201は、基準となる時点から現時点までに検知された指先の位置を線形近似して得られた直線の傾きを求める。そして、基準となる時点から所定時間遡った時点までに検知された指先の位置を線形近似して得られた直線の傾きを求め、互いの傾きを比較して、指の振り上げを検知してもよい。
ここで、ステップS402の処理方法(S501〜S505)を、図4(a)を用いて詳細に説明する。図4(a)は、ステップS402の内部処理の手順を説明するフローチャートである。ステップS501では、指差し入力処理部201が、カメラ102が撮像した映像から、手105の指先(人差し指)の点P4と根元の点P5を検知する。ステップS502では、指差し入力処理部201が、カメラ102が撮像した映像から、指先の点P4に対する原点からの距離と方向を認識する。そして、指先の点P4における3次元空間の座標を特定する。カメラ102で撮像された映像から時間情報も取得し、時間情報と3次元空間座標を対応付ける。尚、時間情報と3次元空間座標を、所定の時間間隔で取得し続け、取得した時間情報と3次元空間座標を保持部に保持しておく。図8は、ステップS502の処理を行った結果を示す表である。時間T(単位はmsec)に対して、点P4のX座標X1、Y座標Y1、Z座標Z1を表にまとめたものである。図9は、図8に示した情報をグラフにまとめたものである。尚、図9の横軸は時間Tであり、縦軸はX座標X1とY座標Y1とZ座標Z1である。ユーザが手105の人差し指を突き出し、指差し入力を開始した時点をT=0とする。撮像された映像から、人差し指が突き出された瞬間が検知される。
ステップS503では、ステップS502と同様の方法により、指差し入力処理部201が、指の根元の点P5における3次元空間の座標を特定する。また、ステップS502と同様に時間情報も取得し、時間情報と3次元空間座標を対応付ける。ステップS504では、指差し入力処理部201が、点P4と点P5を結んだ線と、XY平面とが交わる点P6をポインティング位置とする。点P4と点P5を結ぶ直線の方程式を求め、Z座標が0となるX座標X3とY座標Y3を求める。ステップS505では、表示部であるプロジェクタ101が、点P6に、カーソルを表示する。指差し入力モードである間は、常に点P6のポインティング位置の特定を続け、カーソルの表示もその間行われる。
尚、ここで、ポインティング位置とは、ユーザがタッチや指差しで、指し示した位置である。カーソルとは、ポインティング位置をディスプレイに表示させたシンボルである。カーソル位置は、指差しモードからタッチモードに移行する前のカーソルの位置で、移行前のポインティング位置である。移行後は、手前のポインティングする位置が、遠隔のカーソル位置の動きに反映される。
ここで、ステップS403の処理方法(S601〜S602)を詳細に説明する。図4(b)は、ステップS403の内部処理の手順を説明するフローチャートである。ステップS601では、指差し入力処理部201が、保持部に保持された時間Tと指先の変化量の関係から、変化点を検知する。所定時間内で、所定の指先の変化量を検知するとステップS602の処理を行う。変化点が検知されない場合は、一連の処理を終了する。本実施形態では、計測し始めた時点(T=0)から、所定時間(本実施形態の例では、280msec)以内でZ座標Z1が所定距離(本実施形態の例では、13cm)以上減少する区間が初めて検知された時に、ステップS602の処理を行う。図8より、T1(T=1440msec)からT2(T=1680msec)の範囲で、Z座標Z1の変化量が13.02192と減少しているので、この時にステップS602の処理を行う。この時の時点T1に相当する時点を変化点とする。
ステップS602では、ステップS601で変化点を検知した位置でカーソルを停止させる。
ステップS602の処理を行わなかった場合、ユーザの指の振り下ろしに合わせて、ポインティング位置が移動する。ステップS602の処理を行うことにより、ユーザの意図したポインティング位置を維持したまま、指差し入力モードからタッチ入力モードに切替できる効果がある。ここで、ステップS406の処理方法を説明する。まず、ステップS501の処理と同様に、カメラ102が撮像した映像から、手105の指先(人差し指)の点P4の3次元空間座標を特定する。そして、ステップS404の処理と同様に、時間Tと指先の変化量の関係から、変化点を検知する。所定の時間内で、所定の指先の変化量を検知するとステップS408の処理を行う。変化点が検知されない場合は、S601の処理が継続される。本実施形態では、計測し始めた時点(T=0)から、280msec以内でZ座標Z1が13cm以上上昇する区間が初めて検知された時に、S407の処理を行う。詳細なデータを使った説明は、ステップS403とステップS404で行ったのでここでは省略する。
ここで、ステップS408の処理を詳細に説明する。図6は、ステップS408の処理の内部処理の手順を説明するフローチャートである。図6において、「指差し入力モード時」とは、ステップS504でポインティング位置を特定されたときであり、時点T1である。「切り替え時」とは、ステップS602でポインティング位置を特定されたときであり、時点T2である。
ステップS801では、指差し入力モード時(ステップS504)で特定されたポインティング位置が、画像オブジェクト上にあるかを判定する。尚、画像オブジェクトとは、画面に表示された部分画像のうち、画面上で移動可能な部分画像をいい、例えば、写真、アイコン、ドキュメント等である。ポインティング位置が、例えば、図7に示すように、指差し入力モード時に、画像オブジェクトAの上にある場合は、ステップS802の処理を行う。また、指差し入力モード時に、ポインティング位置が画像オブジェクト上にない場合は、ステップS807の処理を行う。ステップS802では、ステップS404でタッチ入力モードに切り替えた時に、手105(指差し入力処理の対象となった手)が別の画像オブジェクト上をタッチしたかを判定する。画像オブジェクト上ではない位置をタッチした場合には、ステップS804の処理を行う。また、例えば、図7に示すように、切り替え時に、画像オブジェクトB上をタッチするとステップ803の処理を行う。ステップS803では、画像オブジェクトAと画像オブジェクトBとを入れ替えて、ステップS810で、タッチ入力処理を行う。ステップS804では、ステップS802でタッチした指の本数(接触点の数)を判定する。接触点が1点である場合は、ステップS805の処理を行う。接触点が2点である場合は、ステップS806の処理を行う。ステップS805では、指差し入力モード直前で特定されたポインティング位置を、タッチ入力モードにおけるタッチ入力で操作する。ステップS806では、タッチ入力モードにおいて画像オブジェクトAに関連したメニューが表示される。例えば、X軸の正方向にタッチ入力すると、画像の大きさ変更に関するメニューが表示される。ステップS811で、タッチ入力処理を行う。ステップS807では、ステップS404でタッチ入力モードに切り替えた時に、手105が画像オブジェクト上をタッチしたかを判定する。例えば、画像オブジェクトB上をタッチするとステップS808の処理を行う。画像オブジェクト上をタッチしないとステップS809の処理を行う。ステップS808では、指差し入力モード時に特定されたポインティング位置に画像オブジェクトBを移動させる。ステップS812で、タッチ入力処理を行う。
ステップS805と、ステップS809では、指差し入力モード時に特定されたポインティング位置を、タッチ入力モードにおけるタッチ入力で操作する。指差し入力は、手ぶれの影響により、遠隔にある画像オブジェクトの正確なポインティングや移動等の操作が困難である。画像の大まかなポインティングを指差し入力で行い、その後テーブル上のタッチ操作で詳細なポインティング操作を行う。これにより、遠隔の画像オブジェクトも正確に操作できる効果がある。尚、ステップS805と、ステップS809で遠隔操作を行う際に、指差し入力モード時に特定されたポインティング位置の周辺の画像オブジェクトを、タッチ入力エリアに複製して、遠隔操作を行えるようにしてもよい。これにより、ユーザは、通常、タッチで操作できないエリアの画像オブジェクトに対して、手元を見ながら、タッチ入力することが可能となる。
尚、図5は、入力モードを切り替え、遠隔の画像オブジェクトを操作する様子を示す図である。本図においては、まず指先の位置座標P4と指の根元の位置座標P5とから求められた指(人差し指)の位置と向きとに基づいて、画面上(表示面上)の操作位置として、カーソル位置P6が決定されている。ここで、所定時間(例えば、280msec)あたりの指(指先)の位置の変化量のうち、表示面に対する垂直方向の変化量が、表示面に近づく方向に所定の閾値(例えば、13cm)以上となったとき、以下の処理が実行される。即ち、例えば、所定の閾値以上の変化量が検知された所定時間の始点に相当する時点におけるカーソル位置を保持する。更に、指と表示面との接触位置が検知された位置を決定し、図示した様に、接触位置を移動させるユーザ操作に応じて、カーソル位置が移動する操作である。尚、接触位置を移動させるユーザ操作に応じて、カーソル位置が移動する操作は、遠隔制御部205による制御に基づいて実行される。
また、本実施形態では、図4(b)に示したステップS403の処理の代わりに、図4(c)に示す処理を実行してもよい。まず、ステップS701では、ステップS601と同様に時間Tと指先の変化量の関係から、変化点を検知する処理を実行する。所定の時間内で、所定の指先の変化量を検知するとステップS702の処理を行う。変化点が検知されない場合は、一連の処理を終了する。ステップS702では、ユーザによるタップ(デジタイザと手の接触)を検知したかを判定する。タップを検知した場合は、ステップS703の処理を行う。タップを検知しなかった場合は、一連の処理を終了する。ステップS703では、ステップS701で変化点を検知した位置にポインティング位置を戻す。
上記実施形態では、ステップS402では、指先と指の根元の点を結んだ直線とXY平面との交点をポインティング位置とした。本発明は、指の根元以外にも、指先とユーザの頭の重心の点を結んだ直線とXY平面との交点をポインティング位置としてもよい。
また、上記実施形態における、デジタイザの長さやポインティング位置、指の振りおろしの距離、時間などは、一例であって、これらの長さ、位置、距離、時間は、適宜設定すればよい。
上記実施形態では、画像データを表示するために、プロジェクタを用いたが、プロジェクタの代わりに、ディスプレイなどの表示部を用いてもよい。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (12)

  1. 所定時間あたりの注目物の位置の変化量を検知する検知手段と、
    注目物の位置と前記注目物が指し示す方向とに基づいて表示面上の第1の操作位置を決定する第1のモードと、前記注目物と前記表示面との接触位置に基づいて前記表示面上の第2の操作位置を決定する第2のモードとを、前記検知した変化量を用いて、切り替える切替手段を有することを特徴とする情報処理装置。
  2. 前記切替手段は、前記所定時間あたりの前記注目物の位置の変化量のうち、前記所定時間あたりの前記表示面に対する垂直方向の変化量が、所定の閾値以上となったとき、前記第1のモードと前記第2のモードとを切り替えることを特徴とする請求項1に記載の情報処理装置。
  3. 更に、前記第1のモードである場合において、前記所定時間あたりの前記注目物の位置の変化量のうち、前記所定時間あたりの前記表示面に対する垂直方向の変化量が、前記表示面に近づく方向に所定の閾値以上となったとき、前記垂直方向の変化量が前記表示面に近づく方向に所定の閾値以上となった所定時間に含まれる所定の時点における前記第1の操作位置を、前記第1の操作位置とする変更手段と、
    前記第1のモードから前記第2のモードに切り替わった場合、前記第2の操作位置に対するユーザ操作に応じた処理を、前記第1の操作位置に対して実行する制御手段とを有することを特徴とする請求項1に記載の情報処理装置。
  4. 情報処理装置の制御方法であって、
    検知手段が、所定時間あたりの注目物の位置の変化量を検知する検知工程と、
    切替手段が、注目物の位置と前記注目物が指し示す方向とに基づいて表示面上の第1の操作位置を決定する第1のモードと、前記注目物と前記表示面との接触位置に基づいて前記表示面上の第2の操作位置を決定する第2のモードとを、前記検知した変化量を用いて、切り替える切替工程を有することを特徴とする情報処理装置の制御方法。
  5. 前記切替工程は、前記所定時間あたりの前記注目物の位置の変化量のうち、前記所定時間あたりの前記表示面に対する垂直方向の変化量が、所定の閾値以上となったとき、前記第1のモードと前記第2のモードとを切り替えることを特徴とする請求項4に記載の情報処理装置の制御方法。
  6. 更に、前記第1のモードである場合において、前記所定時間あたりの前記注目物の位置の変化量のうち、前記所定時間あたりの前記表示面に対する垂直方向の変化量が、前記表示面に近づく方向に所定の閾値以上となったとき、前記垂直方向の変化量が前記表示面に近づく方向に所定の閾値以上となった所定時間に含まれる所定の時点における前記第1の操作位置を、前記第1の操作位置とする変更工程と、
    前記第1のモードから前記第2のモードに切り替わった場合、前記第2の操作位置に対するユーザ操作に応じた処理を、前記第1の操作位置に対して実行する実行工程とを有することを特徴とする請求項4に記載の情報処理装置の制御方法。
  7. コンピュータに読み込ませ実行させることで、前記コンピュータを、請求項1〜3の何れか1項に記載の情報処理装置が有する各手段とて機能させるためのコンピュータプログラム。
  8. 請求項7に記載のコンピュータプログラムを格納した、コンピュータ読み取り可能な記憶媒体。
  9. ユーザの手を検出する検出手段と、
    前記検出手段によって検出されたユーザの手が、前記検出手段によって検出されたユーザの手のうち指先の位置と、前記指先が向けられた方向とに基づいて、表示面上の前記ユーザが指差した位置を特定し、操作位置として利用する第1のモードと、前記指先が前記表示面に接触している位置を特定し、前記操作位置として利用する第2のモードとを、切り替える切替手段を有し、
    前記切り替え手段は、前記検出手段によって検出されたユーザの手が、基準よりも速い速さで前記表示面に近づいた場合に、前記第1モードから第2モードへの切り替えを実行し、前記検出手段によって検出されたユーザの手が、基準よりも速い速さで前記表示面から遠ざかった場合に、前記第2モードから前記第1モードへの切り替えを実行することを特徴とする情報処理装置。
  10. 情報処理装置に制御方法であって、
    検出手段により、ユーザの手を検出する検出工程と、
    切替手段により、前記検出工程において検出されたユーザの手のうち指先の位置と、前記指先が向けられた方向とに基づいて、表示面上の前記ユーザが指差した位置を特定し、操作位置として利用する第1のモードと、前記指先が前記表示面に接触している位置を特定し、前記操作位置として利用する第2のモードとを、切り替える切替工程を有し、
    前記切り替え工程では、前記検出手段によって検出されたユーザの手が、基準よりも速い速さで前記表示面に近づいた場合に、前記第1モードから第2モードへの切り替えを実行し、前記検出手段によって検出されたユーザの手が、基準よりも速い速さで前記表示面から遠ざかった場合に、前記第2モードから前記第1モードへの切り替えを実行することを特徴とする情報処理装置。
  11. コンピュータに読み込ませ実行させることで、前記コンピュータを、請求項9に項に記載の情報処理装置が有する各手段とて機能させるためのコンピュータプログラム。
  12. 請求項11に記載のコンピュータプログラムを格納した、コンピュータ読み取り可能な記憶媒体。
JP2011156692A 2010-08-25 2011-07-15 情報処理装置およびその制御方法 Expired - Fee Related JP5783828B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011156692A JP5783828B2 (ja) 2010-08-25 2011-07-15 情報処理装置およびその制御方法
US13/214,086 US9035889B2 (en) 2010-08-25 2011-08-19 Information processing apparatus and information processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010188485 2010-08-25
JP2010188485 2010-08-25
JP2011156692A JP5783828B2 (ja) 2010-08-25 2011-07-15 情報処理装置およびその制御方法

Publications (3)

Publication Number Publication Date
JP2012069095A JP2012069095A (ja) 2012-04-05
JP2012069095A5 JP2012069095A5 (ja) 2014-08-28
JP5783828B2 true JP5783828B2 (ja) 2015-09-24

Family

ID=45696504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011156692A Expired - Fee Related JP5783828B2 (ja) 2010-08-25 2011-07-15 情報処理装置およびその制御方法

Country Status (2)

Country Link
US (1) US9035889B2 (ja)
JP (1) JP5783828B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6135239B2 (ja) * 2012-05-18 2017-05-31 株式会社リコー 画像処理装置、画像処理プログラム、画像処理方法
JP6127465B2 (ja) * 2012-11-20 2017-05-17 株式会社リコー 情報処理装置、情報処理システム及びプログラム
JP2014186715A (ja) * 2013-02-21 2014-10-02 Canon Inc 情報処理装置、情報処理方法
US9852519B2 (en) 2013-06-25 2017-12-26 Pixart Imaging Inc. Detection system
JP5802247B2 (ja) * 2013-09-25 2015-10-28 株式会社東芝 情報処理装置
US9477330B2 (en) * 2013-11-05 2016-10-25 Microsoft Technology Licensing, Llc Stylus tilt tracking with a digitizer
EP3106968B1 (en) * 2014-02-10 2019-09-25 Sony Corporation Information processing device, information processing method, and program
WO2016035231A1 (ja) * 2014-09-03 2016-03-10 パナソニックIpマネジメント株式会社 ユーザインターフェース装置およびプロジェクタ装置
JP2016091457A (ja) * 2014-11-10 2016-05-23 富士通株式会社 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
JP2020197942A (ja) * 2019-06-03 2020-12-10 株式会社デンソー 入力装置
JP6965910B2 (ja) * 2019-08-27 2021-11-10 セイコーエプソン株式会社 動作方法および表示装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3114813B2 (ja) * 1991-02-27 2000-12-04 日本電信電話株式会社 情報入力方法
US7728825B2 (en) * 2005-03-22 2010-06-01 Microsoft Corporation Targeting in a stylus-based user interface
JP2009276819A (ja) * 2008-05-12 2009-11-26 Fujitsu Ltd ポインティング装置の制御方法およびポインティング装置、並びにコンピュータプログラム

Also Published As

Publication number Publication date
JP2012069095A (ja) 2012-04-05
US20120050194A1 (en) 2012-03-01
US9035889B2 (en) 2015-05-19

Similar Documents

Publication Publication Date Title
JP5783828B2 (ja) 情報処理装置およびその制御方法
CN108431729B (zh) 用以增大显示区域的三维对象跟踪
JP5991041B2 (ja) 仮想タッチスクリーンシステム及び双方向モード自動切換方法
US9069386B2 (en) Gesture recognition device, method, program, and computer-readable medium upon which program is stored
CN102591450B (zh) 信息处理装置及其操作方法
JP6021335B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP5830806B1 (ja) ユーザ入力の操作性を向上させるプログラム、電子装置、及び方法
US20150193037A1 (en) Input Apparatus
US10156938B2 (en) Information processing apparatus, method for controlling the same, and storage medium
US9544556B2 (en) Projection control apparatus and projection control method
US9262012B2 (en) Hover angle
US11886643B2 (en) Information processing apparatus and information processing method
KR20120126508A (ko) 포인터를 사용하지 않는 가상 터치 장치에서의 터치 인식 방법
JP2016224686A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2014157515A (ja) タッチ判定装置、タッチ判定方法、およびタッチ判定プログラム
JP2016103137A (ja) ユーザインタフェース装置、画像処理装置及び制御用プログラム
JP6746419B2 (ja) 情報処理装置、及びその制御方法ならびにコンピュータプログラム
US9958946B2 (en) Switching input rails without a release command in a natural user interface
TWI486815B (zh) 顯示設備及其控制系統和方法
US9898183B1 (en) Motions for object rendering and selection
JP2014109888A (ja) 入力装置およびプログラム
JP6643825B2 (ja) 装置及び方法
US11531431B2 (en) Information processing device and information processing method
JP6008904B2 (ja) 表示制御装置、表示制御方法、及び、プログラム
JP2018063555A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140714

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150721

R151 Written notification of patent or utility model registration

Ref document number: 5783828

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees