JP2016128970A - 情報処理装置とその制御方法、プログラム、記憶媒体 - Google Patents

情報処理装置とその制御方法、プログラム、記憶媒体 Download PDF

Info

Publication number
JP2016128970A
JP2016128970A JP2015003236A JP2015003236A JP2016128970A JP 2016128970 A JP2016128970 A JP 2016128970A JP 2015003236 A JP2015003236 A JP 2015003236A JP 2015003236 A JP2015003236 A JP 2015003236A JP 2016128970 A JP2016128970 A JP 2016128970A
Authority
JP
Japan
Prior art keywords
operation surface
information processing
processing apparatus
operating
released
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015003236A
Other languages
English (en)
Other versions
JP2016128970A5 (ja
JP6452456B2 (ja
Inventor
雅史 吉田
Masashi Yoshida
雅史 吉田
基起 仲間
Motoki Nakama
基起 仲間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015003236A priority Critical patent/JP6452456B2/ja
Priority to US14/990,634 priority patent/US10120452B2/en
Publication of JP2016128970A publication Critical patent/JP2016128970A/ja
Publication of JP2016128970A5 publication Critical patent/JP2016128970A5/ja
Application granted granted Critical
Publication of JP6452456B2 publication Critical patent/JP6452456B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Abstract

【課題】 本発明は、ユーザに設定作業を求めることなく、認識対象とタッチ対象面の近接状態に基づいて認識されるタッチ操作での、リリースの検出精度を向上させることを目的とする。
【解決手段】 上記課題を解決するため、本発明は、操作体を用いて操作面上に入力されるタッチ操作を認識する情報処理装置であって、前記操作面にタッチしている間の前記操作体の状態に基づいて、前記操作体が前記操作面上からリリースされたかを判定するための前記操作体と前記操作面との近接状態に関する条件を設定する部213と、前記設定された条件が満たされるかに応じて、前記操作面にタッチしていた前記操作体が前記操作面からリリースされたと判定する判定部214と、前記操作体が前記操作面からリリースされたと判定されるまでに、前記操作体によって前記操作面上に入力された入力位置に基づいて、前記タッチ操作を認識する認識部215とを備える。
【選択図】図2

Description

本発明は、認識対象とタッチ対象面の近接状態に基づいて、当該認識対象によって行われるタッチ操作を認識する技術に関する。
近年、プロジェクションによってユーザインタフェース(以下、UI)を壁や机など任意の操作面に投影し、投影したUIに対してタッチ操作が行われる場面がある。また、AR(Augmented Reality)やMR(Mixed Reality)といった環境において、物理的には存在しない操作面(仮想面)に対するタッチ操作が行われる場面がある。このような場面においては、ステレオカメラや距離画像センサ等を用い、操作面と、操作を行う指示体として認識すべき認識対象(例えばユーザの指先)との間の距離を取得し、その大きさに基づいて両者が接触しているか否かを判断することが多い。具体的には、操作面と、ユーザの指先との間の距離に所定の閾値を設ける。そして、当該距離が閾値より小さければ、操作面がタッチされている状態を示す「タッチ状態」、閾値より大きければ操作面がタッチされていない状態を示す「非タッチ状態(リリース状態)」であるという判定を行う。なお、2種類の判定には別別の閾値が利用されてもよい。ステレオカメラ、距離画像センサから取得・算出できる距離の分解能が低い場合、ステレオカメラや距離画像センサを用いたタッチ操作の判定は、操作面と指先との距離の検出誤差が生じる場合がある。従って、ユーザはタッチ操作を継続しているつもりであるにも関わらず、検出された距離が閾値を越え、リリースが誤検出されてしまう場合がある。
タッチパネルの表面に指で触れると生じる静電容量の変化量に閾値を設けてタッチとリリースを判定する静電容量方式のタッチパネルにおいても、静電容量の検出誤差により、ユーザの意図に沿わないリリースが検出され得る。特許文献1では、タッチとリリースを判定する基準(以下、タッチパネルの感度)をユーザ自身が設定する。従ってユーザは、意図に沿った操作が認識されない場合は、タッチパネルの感度を調整することで操作の“認識され易さ”を変更し、誤動作を抑制することが出来る。
特開2012−133729号公報
特許文献1の先行技術は、タッチとリリースを判定するタッチパネルの感度をユーザが逐次手動で設定する必要があった。
本発明は上記課題を鑑みたものであり、ユーザに設定作業を求めることなく、認識対象とタッチ対象面の近接状態に基づいて認識されるタッチ操作での、リリースの検出精度を向上させることを目的とする。
上記課題を解決するため、本発明は、操作体を用いて操作面上に入力されるタッチ操作を認識する情報処理装置であって、前記操作面にタッチしている間の前記操作体の状態に基づいて、前記操作体が前記操作面上からリリースされたかを判定するための前記操作体と前記操作面との近接状態に関する条件を設定する設定手段と、前記設定手段によって設定された条件が満たされるかに応じて、前記操作面にタッチしていた前記操作体が前記操作面からリリースされたと判定する判定手段と、前記判定手段によって前記操作体が前記操作面からリリースされたと判定されるまでに、前記操作体によって前記操作面上に入力された入力位置に基づいて、前記タッチ操作を認識する認識手段と、を備える。
本発明によれば、ユーザに設定作業を求めることなく、認識対象とタッチ対象面の近接状態に基づいて認識されるタッチ操作での、リリースの検出精度を向上させることが可能となる。
情報処理装置の使用例 情報処理装置のハードウェア構成及び機能構成の一例を示す図 情報処理装置のメイン処理を示すフローチャート 第1の実施形態における情報処理装置のメイン処理で実行されるタッチ判定処理を示すフローチャート ユーザ操作に応じたリリース閾値の一例を示すテーブル 変形例1における情報処理装置のメイン処理で実行されるタッチ判定処理を示すフローチャート リリース閾値の制御処理の流れの一例を示すフローチャート 変形例2における情報処理装置のメイン処理で実行されるタッチ判定処理を示すフローチャート ユーザ操作の一例を示す図 タッチ判定処理を示すフローチャート
以下、本発明の実施形態について図面を参照して詳細に説明する。なお、以下で説明する実施形態は、本発明を具体的に実施した場合の一例を示すものであり、これに限るものではない。
<第1の実施形態>
本実施形態では、情報処理装置100に対して入力された指示位置の変化に応じて、ユーザの指やスタイラス等、タッチ操作の入力に利用される操作体が、操作面上からリリースされたかを判定するための条件を、タッチ中の操作体の状態に応じて制御する。ステレオカメラや距離画像センサを利用する場合、操作面と指先との距離の検出誤差は、特にフリック操作(リリースの際に操作面を弾くように操作体を高速に動かす操作)のように指先を速く動かす操作で顕著に表れる傾向がある。そこで以下本実施形態では、ユーザが入力する操作として、フリック操作を行う場合を例に説明する。ただし、フリック操作は一例であって、本実施形態は、タッチとリリースが伴う様々な操作を認識する処理に適用可能である。フリックの認識処理の詳細は後述する。
図1は、本実施形態で説明する情報処理装置100を設置したシステムの外観の一例を示している。情報処理装置100は、プロジェクタ209の投影光照射部105から投影光を照射することにより、任意の平面を操作面として設定できる。図1の場合は、情報処理装置100を操作面101上に設置し、テーブル面上に投影していることを示している。ここで、図1の102a〜dは、プロジェクタ209によってテーブル面上に投影された電子データやボタンなどのUI部品(以下、まとめて表示アイテムと記載する)を示している。本実施形態では、ユーザが手指103を使って、表示アイテムに対してタッチ操作を行う場合について説明する。また本実施形態では操作面101に画像を投影する例を述べる。ただし、操作面101はテーブル以外でもよく、例えば壁面に投影光を照射して操作面として利用してもよく、また、表面は必ずしも平面でなくとも操作面とすることができる。また、赤外光発光部207によって発光される赤外光は、発光素子104から投影面に向けて照射され、ユーザの手指103等に反射し、赤外反射光として赤外カメラ208において撮像される。図1において、レンズ106は赤外カメラ208の撮像用レンズである。情報処理装置100は、赤外カメラ208によって得られた赤外強度画像に対して各種画像処理することによって手指の三次元位置を計測した結果から手指とテーブル面の近接状態を判断し、テーブル面へのタッチ判定を行う。なお、本実施形態では、図1に示されるように操作面101に対して平行な二次元平面にx軸とy軸、操作面101に直交する高さ方向にz軸を設定し三次元位置情報を座標値として扱う。ただし、操作面が平面でない場合やユーザと操作面との位置関係によっては、必ずしも操作面に平行あるいは直交の関係の座標軸ではなくてもよい。その場合も、z軸は認識対象と操作面との近接関係(両者の間の距離の大きさの程度)を検出する方向、z軸と交わる方向にx軸とy軸とが設定される。
本実施形態では、ユーザが手指103を使ってタッチ操作を行い、表示アイテムに対して入力操作を行う場合について説明する。また本実施形態では操作面101に投影する例を述べるが、指の代わりにスタイラスペンなどを利用してもよく、投影面はテーブル以外でもよい。たとえば壁面やホワイトボードに画像を投影するシステムでも構わない。本実施形態では、赤外発光部と赤外カメラを利用して、手指の三次元位置を計測する方法について記載するが、これに限らない。たとえば、ステレオカメラや距離画像センサを利用して手指の三次元位置を計測することも可能である。また、本実施形態では、プロジェクタによって投影される投影面をタッチ操作面とするが、ヘッドマウントディスプレイを利用し、ARやMR空間上の仮想平面をタッチ操作面としても良い。
図2(a)は、本実施形態における情報処理装置100のハードウェア構成図である。CPU200は、Central Processing Unitであり、各種処理のための演算や論理判断などを行い、システムバス203に接続された各構成要素を制御する。この情報処理装置100には、プログラムメモリとデータメモリを含むメモリが搭載されている。ROM(Read−Only Memory)202は、プログラムメモリであって、後述するフローチャートに示す各種処理手順を含むCPU200による制御のためのプログラムを格納する。テーブルを保持している。RAM(Random Access Memory)201は、CPU200の上記プログラムのワーク領域、エラー処理時のデータの退避領域、上記制御プログラムのロード領域などを有する。ここでOSおよび各処理プログラム等は図示されていない外部ストレージに記憶されていてもよく、その場合は電源投入時にRAM201に適宜読み込まれ、CPU200によって起動される。
また、ディスプレイI/F 204は、情報処理装置100内部で生成される表示画面の情報をプロジェクタ209が処理可能な信号に変換する。入力I/F 205は、赤外カメラ208が生成する赤外画像を入力信号として受信し、情報処理装置100が処理可能な情報に変換する。出力I/F 206は、情報処理装置100内部で生成される赤外発光命令を赤外光発光部207が処理可能な信号に変換する。本実施形態では、情報処理装置100で投影するデジタルデータは図示されていない外部ストレージに格納されているものとする。外部ストレージとしては、ディスクデバイスやフラッシュメモリ、ネットワークやUSBなどの各種I/Fを介して接続される記憶装置が考えられる。赤外カメラ208で生成された赤外画像データはRAM201で一時保存され、CPU200によって適宜処理され、破棄されるが、必要なデータは図示されていない外部ストレージに適宜蓄積しても構わない。以下、他図を用いて同じものを説明する場合には同一の符号を付し、その説明を省略する。
図2(b)は、本実施形態における情報処理装置100の機能ブロック図である。
情報処理装置100は、画像取得部210、領域検出部211、位置特定部212、設定部213、判定部214、認識部215、表示制御部217、データ取得部216から構成される。これらの各機能部は、CPU200が、ROM202に格納されたプログラムをRAM201に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、上記のCPU200を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
情報処理装置100は起動されると、赤外光発光部207からプロジェクタの投影方向と同じ方向に赤外光を常時照射する。プロジェクタの投影範囲にユーザの手指が入ると、赤外光は手指の表面で反射し、赤外カメラ208に赤外反射強度として撮像される。画像取得部210は、赤外カメラ208で撮像された赤外強度画像を取得し、RAM201に随時保持する。保持された赤外強度画像は、情報処理装置100の各機能ブロックにおいて順次処理される。
領域検出部211は、RAM201に保持されている赤外強度画像を解析することによって、ユーザの手領域の検出を行う。また、検出した手領域をラベリングし、その結果をRAM201に保持する。詳細は後述する。位置特定部212は、領域検出部211によってラベリングされた手領域及び画像取得部210で取得した赤外強度画像の赤外反射強度の輝度に基づいて入力位置を表す3次元座標情報を特定し、その結果をRAM201に保持する。本実施形態では、入力位置として、指先が示す1点の座標を特定する。操作体として指ではなくスタイラスペンなどを用いる場合は、ペン先の示す1点を特定すればよい。
設定部213は、操作面にタッチしている間の操作体(ここではユーザの指先)の状態に基づいて、操作体が操作面上からリリースされたかを判定するために用いる、操作体と操作面との近接状態に関する条件を設定する。本実施形態では、操作面から操作体としての指先までの距離、すなわち操作面からの高さの閾値(以下、リリース閾値という)を条件として設定する。設定部213は、位置特定部212が特定した入力位置を追跡し、単位時間あたりの指先の移動距離を求めることによって指先の移動速度の大きさを取得する。そして、予め定められた基準に従って、複数のリリース閾値の候補の中から取得した移動速度に対応するリリース閾値を選択し、設定する。予め定められた基準として、本実施形態では、図5(a)に示すテーブルを参照する。詳細は後述する。
判定部214は、位置特定部212が特定した入力位置の3次元座標の情報、及び設定部213が設定した条件とから、操作体である指先が操作面からリリースされたことを判定する。本実施形態では、入力位置のz座標で示される操作面から指先までの距離が、リリース閾値より大きくなったことに応じて、指先が操作面上からリリースされたと判定される。さらに、本実施形態では、入力位置のz座標で示される操作面から指先までの距離が、タッチ閾値より小さくなったことに応じて、指先が操作面上をタッチしたと判定される。タッチ閾値とリリース閾値は同一の値を利用することも可能であるが、本実施形態にではそれぞれ独立した値であって、少なくとも初期値では、リリース閾値の方がタッチ閾値よりも大きいとする。これは、z座標の検出誤差を考慮して、タッチの検出時は操作体が十分に操作面に近づいたことを判定し、リリースの検出時は、操作体が操作面から十分に離れたことを判定するためである。
認識部215は、判定部214による判定の結果、及び、入力位置のxy座標の変化量が示す移動の状態に基づいてタッチ操作を認識する。例えば、判定部214によって、指先がリリースされたことが検出される直前の所定期間において、入力位置の移動速度が所定の速度よりも大きい場合に、フリック操作を認識する。フリック操作とは、操作面上を払うあるいは弾くように高速に動かしながら操作体をリリースする操作であって、一般的には表示画像を慣性移動させたり、ページ送りを実行させたりする指示コマンドの入力に割り当てられることが多い。このように認識されたタッチ操作を示すタッチイベント情報(タッチ、リリース、ムーブ、フリックなど)が表示制御部217など入力に応答する機能部やアプリケーションに通知される。詳細は後述する。これにより、検出される入力位置のZ座標の小さなぶらつきにより、タッチとリリースの判定が繰り返されることを防止できる。
表示制御部217は、データ取得部216が外部ストレージから取得した電子データを使って表示画面を生成し、プロジェクタ209に画面を出力する。本実施形態では、図1のように表示画面には電子データが表示アイテム(102a〜102d)として配置されている。また、表示制御部217は、判定部214から入力されるタッチイベント情報に応じて表示アイテムの表示や表示画面そのものを制御する。
本実施形態における情報処理装置100の処理過程を図3、図4のフローチャート及び図9に示すユーザの操作例を参照して詳細に説明する。まず、図9(a)はユーザがフリックを行った時のxy平面上の指の移動を表わしており、図9(b)はxz平面上の指の移動を表わしている。xy平面は操作面と平行な平面であり、z軸は操作面に対して垂直方向の位置を表す。ここで、図9(b)の900は指先が操作面上にタッチしたかどうかを判定するタッチ閾値、901は指先が操作面からリリースしたかどうかを判定するリリース閾値とする。本実施形態では、操作面から指先までの距離がタッチ閾値より小さければ指先が操作面をタッチしているタッチ状態である、操作面から指先までの距離がリリース閾値を超えれば指先が操作面からリリースされているリリース状態であると特定される。なお、本実施形態では、タッチ閾値900の初期値は「15」、リリース閾値901の初期値は「20」とする。
次に、図3を用いて本実施形態のメインフローについて説明する。まず、情報処理装置100の電源がONになると、ステップS300において、データ取得部216は、外部ストレージからデータを取得する。そして、表示制御部217は取得したデータとUI部品を配置した画面を生成し、プロジェクタ209へ出力する。その結果、図1のようにテーブル面上にはプロジェクタから投影された画面が表示される。
ステップS301において、情報処理装置100は、プロジェクタの投影方向と同じ方向に赤外光を照射する。赤外光は情報処理装置100に搭載されている赤外光発光部207から照射される。赤外光は情報処理装置100の電源がONの状態の間、常に照射されている。プロジェクタの投影範囲内にユーザの手指やその他の物体が入り込むと、赤外光はその表面で反射する。ここで、投影範囲内の全ての領域において適切に赤外光が反射するように、赤外照射範囲はキャリブレーションされているものとする。また、赤外反射光は、情報処理装置100に搭載されている赤外カメラ208によって、赤外強度画像として撮像されるものとする。
ステップS302において、画像取得部210は、赤外カメラ208によって撮像された赤外強度画像を規定のフレーム間隔で取得し、フレーム毎にRAM201に保持する。本実施形態では、30ミリ秒間隔でフレームを取得するものとする。ステップS303において、領域検出部211は、RAM201に保持されている赤外強度画像を解析し、投影範囲内に物体が挿入されたかどうかの検出を行う。本実施形態では、赤外光の反射強度が物体によって異なる性質を利用し、何らかの物体が写り込んだ際の赤外強度画像と、テーブルのみが写っている赤外強度画像との差分(背景差分)処理を行うことによって、写り込んだ物体領域の検出を行う。本実施形態では、物体領域の検出に赤外カメラ208を用いたが、これは一例であり、これに限らない。たとえば、ステレオカメラや距離画像センサを利用し、肌色情報や手のモデル情報などを利用し、物体領域を検出しても良い。
ここで、物体が検出されなかった場合(ステップS303でNO)、ステップS302に処理が戻り、物体が検出されるまでステップS302とステップS303の処理を繰り返す。
一方、物体が検出された場合(ステップS303でYES)、ステップS304のタッチ判定処理に移行する。ステップS304では、タッチ操作の認識処理が実行される。ステップS304の詳細な内容は、図4のフローチャートを参照して後述する。
ステップS304のタッチ操作認識処理において、タッチ操作が検出されると、認識部215により、タッチ、リリース、ムーブ、フリックといった、タッチ操作を表すイベントが表示制御部217に通知される。ステップS305において、表示制御部217は、通知されたタッチイベントの種類に応じて、プロジェクタ209によって投影されている画面中の表示アイテムの表示や表示画面そのものを更新する。ステップS305の処理が終了すると、ステップS306において、情報処理装置100は、電源がOFFされたかどうかを判定する。電源がOFFされていない場合(ステップS306でNO)、ステップS302へ処理が移行し、新たな物体が検出される度に、前述した処理を繰り返す。一方、電源がOFFされた場合(ステップS306でYES)、情報処理装置100は全ての処理を終了する。
続いて、図4のフローチャートを用いて、ステップS304のタッチ操作認識処理について詳細に説明する。
ステップS304の処理が開始されると、ステップS400において、領域検出部211は、検出した物体領域が手領域なのか、それとも手以外の領域なのかを判定する。本実施形態では、検出された物体領域の大きさと縦横比を用い、簡単な手形状の認識を行うことによって手領域かどうかの判定を行う。検出した物体領域が手領域でなかった場合(ステップS400でNO)、タッチ操作認識処理は終了し、呼び出し元にリターンされ、前述したステップS305の処理に移行する。一方、検出した物体領域が手領域だった場合(ステップS400でYES)、ステップS401へ処理が移行する。この時、領域検出部211は、赤外強度画像のうち手領域に該当するピクセルに対してラベリングを行い、ラベリング後の赤外強度画像をRAM201に保持する。
ステップS401において、位置特定部212は、ラベリング情報に基づいて赤外強度画像中の手領域を特定し、さらにその手領域内において入力位置のx、y座標を特定する。本実施形態では、「手領域と撮影範囲の境界線とが交わる位置を表す座標値の平均」を手指の侵入位置を示す座標と定義し、侵入位置から最も遠い手領域の点を入力位置(指先位置)のx、y座標として特定する。そして、特定された入力位置のx、y座標はRAM201に保持される。
ステップS402において、位置特定部212は、RAM201に保持されている赤外強度画像と入力位置のx、y座標から、入力位置に対応するピクセルの赤外強度を取得する。ここで、入力位置の1ピクセルの輝度のみの場合、輝度にバラつきが発生するため、本実施形態では、入力位置を含む規定のピクセル領域の輝度平均を入力位置の輝度として算出するものとする。算出した輝度情報はRAM201に保持する。
そして、ステップS403において、位置特定部212は、算出した指先の輝度情報を指先と赤外カメラ208間の垂直距離Lfに変換する。本実施形態では、空間上での座標が既知である複数の点群の輝度を予め測定しておくことによって、任意の座標に位置する指先の輝度情報から垂直距離Lfを算出する。また、赤外カメラ208から操作面101までの垂直距離Ltも予め分かっているので、指先とテーブル間の垂直距離hL(高さ)は、hL=Lt−Lfで求められる。
たとえば、赤外カメラ208から操作面101までの垂直距離Ltが1000mm、指先と赤外カメラ208間の垂直距離Lfが985mmであった場合、指先とテーブルまでの距離は15mmとなる。ここで算出した15mmが入力位置のz軸上の座標情報を表わす。以上、ステップS403までの処理により、入力位置の3次元空間(x、y、z)の座標情報を取得することができる。以降のフローでは、情報を用いてタッチ操作の判定を行う。以下では、ステップS302からステップS403までの一連のステップを「入力位置の特定処理」と名付け、以降の説明で利用する。
入力位置の特定処理後、ステップS404において、設定部213は、1ミリ秒あたりの指先のX、Y空間上での移動速度を算出する。たとえば、フレームは30ミリ秒間隔で取得しており、1フレームの間にX座標が30ミリ、Y座標が30ミリ動いたとすると、1ミリ秒を単位時間とする移動速度は、
以下の式1のように求められる。
Figure 2016128970
次に、ステップS405において、設定部213は、取得された指先の移動速度と、予め定められた基準に従ってリリース閾値を設定する。閾値の設定方法について図5を用いて詳細に説明する。図5(a)は、指先の移動速度に応じた複数の条件の候補の一例であって、段階的にレベル分けされる移動速度と、複数のリリース閾値の対応関係を表わすテーブルである。たとえば、ステップS404で算出した指先の移動速度が「0〜0.5」であった場合、リリース閾値を「20」に設定する。同様に移動速度が「0.5〜1」の場合はリリース閾値を「30」に、移動速度が「1〜2」の場合はリリース閾値を「40」に、移動速度が「2」を超える場合は、設定部213は、リリース閾値を「50」と設定する。従って、移動速度が「1.4」である場合、設定部213は、リリリース閾値を「40」と設定する。このように本実施形態では、取得した移動速度がある所定の速度よりも大きい場合は、取得した移動速度が当該所定の速度より小さい場合よりも、大きなリリース閾値が設定される。つまり、移動速度が大きい方が、条件が厳しくなるように制御される。なお、このテーブルで設定したリリース閾値は一例であり、これに限らない。
ステップS406〜ステップS410において、判定部214は、指先が操作面にタッチしているタッチ状態であるか、操作面からリリースされているリリース状態であるかを判定する。なお、情報処理装置100の初期状態はリリース状態である。
まず、ステップS406において、判定部214は、算出した指先とテーブル面との距離hLを用いてタッチ判定を行う。具体的には、指先とテーブル面との距離hLとタッチ閾値を比較する。距離hLがタッチ閾値より小さいかあるいは一致する場合(ステップS406でYES)、ステップS409へ移行し、タッチ状態に遷移する。一方、距離hLがタッチ閾値を超えている場合(ステップS406でNO)、ステップS407へ移行する。なお、距離hLとタッチ閾値と一致する場合にいずれと判定するかは、タッチ閾値の値とともに任意に設定されればよい。
ステップS407において、判定部214は、距離hLがリリース閾値以内であるかどうかでリリース判定を行う。リリース閾値を超えている場合(ステップS407でNO)、ステップS410へ移行し、リリース状態に遷移する。リリース閾値より小さいかあるいは一致する場合(ステップS407でYES)、ステップS408へ移行する。
ステップS408において、判定部214は、直前の判定の結果はタッチ状態であったか否かを判定する。タッチ状態であった場合(ステップS408でYES)、ステップS409へ移行し、タッチ状態を持続する。タッチ状態でない場合(ステップS408でNO)、リリース状態に遷移する。すなわち、操作体が操作面からリリースされたと判定する。
ステップS411において、認識部215は、ステップS406〜ステップS410で判定したタッチ/リリース状態及び、入力位置の特定処理で検出したx、y座標に基づいてタッチ操作の判定を行う。これにより、タッチ、リリース、ムーブ、フリックなどのタッチイベントを生成し、表示制御部217に通知する。その後、ステップS305に移行し、表示制御部217は、タッチイベントに応じて投影画面の表示を更新する。その後、ステップS306において、情報処理装置100の電源がOFFでなければ、再びステップ302に戻り、入力位置の特定処理から処理が繰り返される。
以上が、本実施形態において、情報処理装置100に対して入力されたユーザ操作に応じて、リリース閾値を制御する処理である。このように、本実施形態では、操作体が操作面にタッチしている間の移動速度に応じて、操作面がリリースされたことを判定するための条件を異ならせる。特に、移動速度が速い程、リリースされたことを判定するための条件は厳しく設定される。従って、本実施形態によれば、操作体が高速に動かされることで検出誤差の発生し易い状況においても、リリースの検出精度を向上させることが可能となる。それによってさらに、タッチ操作の認識精度を向上させることができる。
なお、本実施形態では指先の移動速度に応じてリリース閾値を動的に制御したが、リリース閾値を固定にし、閾値と比較するz座標などの算出方法を、操作面から操作体がリリースされたかを判定するため条件として制御してもよい。いずれの方法でも、リリース操作の“判定され易さ”を、ユーザに設定作業をさせることなく、変動させることが可能となる。また、リリース距離hLがリリース閾値を越えたことに加えて、その状態(リリース状態)が所定の時間より長く継続された場合に、操作体が操作面からリリースされたと判定してもよい。その場合のフローチャートを図10に示す。図4との違いは、ステップS404とステップS405の処理を行わないことである。また、リリース状態に遷移する直前にステップS1000の処理を実行する。ステップS1000において、判定部214は、リリースの閾値を超えている時間が所定時間経過しているかどうかを判定する。所定時間経過している場合(ステップS1000でYES)、ステップS410に移行し、リリース状態に遷移する。所定時間経過していない場合(ステップS1000でNO)、ステップS409に移行し、タッチ状態とする。また、リリース状態を判定する所定の時間の長さを、前記操作体が前記操作面にタッチしている時間の長さに対応して特定される可変の値としてもよい。
<変形例1>
第1の実施形態では、操作面にタッチしている間の操作体の移動における最高到達速度に基づいて、操作体が操作面上からリリースされたかを判定するため条件となるリリース閾値が設定される例であった。以下では変形例として、移動速度が予め定められた上限値を越えた後で減速し、上限値を下回った場合は、リリース速度を再設定する例を説明する。
ダブルタップやトリプルタップなど、タッチとリリースを複数回繰り返し入力するような場合を除いて、タッチ操作が終了して操作体がリリースされるときは、十分に大きく操作面から離されるので、リリース閾値が大きすぎて問題が生じる場合は少ない。ただし、タッチとリリースを複数回繰り返し入力するような場合は、動作を効率化するために、操作体を移動させる距離は短くなる傾向がある。従って、リリース閾値がデフォルト値より大きく設定されたままでは、タッチとリリースが繰り返されるような場合は、ユーザはリリースしたつもりなのにリリースしたとは認識されない場合が生じ得る。一方で、タッチとリリースが繰り返されるような操作は高速移動を続けながら入力されることは少ない。従って、変形例1では、操作体が減速して基準を下回った場合にはリリース閾値を再設定することによって、タッチとリリースが繰り返されるような場面でも、ユーザがリリースを意図したタイミングでリリースを検出し易くなる。このような変形により、更に多様なタッチ操作の入力において、リリース検出の精度を向上させることが可能となる。
変形例1における、システムの外観、ハードウェア構成は、第1の実施形態の図1、図2(a)と同様である。また、機能構成も設定部213を除いて第1の実施形態と同様であるため、異なる点のみを説明する。変形例1の設定部213は、第1の実施形態における処理に加えて、更に、指先の移動速度が上限値に達したかどうかを判定する。移動速度が上限値に達してから移動速度が落ちた場合、リリース閾値を初期値に設定するものである。設定したリリース閾値はRAM201に保持するものとする。詳細は後述する。
変形例1の情報処理装置も、第1の実施形態と同様、図3のフローチャートに従ってメイン処理を実行する。ただし、ステップS304のタッチ操作認識処理の内容が異なる。図6は、変形例1におけるタッチ判定処理を示すフローチャートである。ステップS400〜ステップS404までは第1の実施形態と同様である。変形例1では、ステップS404で移動速度を算出した後、ステップS600のリリース閾値の制御処理に以降する。
図7は、ステップS600のリリース閾値の制御処理の流れの一例を示すフローチャートである。ステップS701において、設定部213は、移動速度が上限値を超えているかどうかを判定する。ここで、移動速度の上限値とは、たとえば図5(a)では「2」であり、移動速度が2を超えているかどうかを判定する。取得された移動速度が上限値を超えている場合(ステップS701でYES)、ステップS702に以降する。ステップS702において、設定部213は、現在の入力状態が最大速度状態であることを示す情報を保持するため、「最大速度フラグ」を「TRUE」に設定し、ステップS703に以降する。ここで、「最大速度フラグ」とは、指先の移動速度が上限値を超えたかどうかの状態を表わしており、初期値は「FALSE」である。ステップS703において、設定部213は、リリース閾値に「50」を設定し、呼び出し元にリターンされる。
一方、移動速度が上限値を超えていない場合(ステップS701でNO)、ステップS704に以降する。ステップS704において、設定部213は、「最大速度フラグ」の値を参照して前回の移動速度が最大速度であったかどうかを判定する。「最大速度フラグ」が「TRUE」である場合(ステップS704でYES)、ステップS705に移行する。ステップS705において、設定部213は、リリース閾値に初期値である「20」を設定し、「最大速度フラグ」を「FALSE」にしてから呼び出し元にリターンされる。この処理により、リリース閾値を初期値にした為、減速後はリリースを判定する条件が緩和されるため、リリースが認識されやすくなる。
一方、最大速度フラグが「FALSE」である場合(ステップS704でNO)、ステップS706に移行する。ステップS706において、設定部213は、第1の実施形態と同様に図4(a)に従って、指先の移動速度に応じたリリース閾値を設定し、呼び出し元にリターンされる。リターンされた後は、ステップS406の処理に移行し、その後の処理は、第1の実施形態と同様である。
なお、変形例1ではステップS705でリリース閾値を初期値に設定したが、これは一例であり、これに限らない。たとえば、初期値ではなく所定の値に設定しても良い。また、初期値に一度に戻すのではなく段階的に戻しても良い。つまり、第1の実施形態よりもリリース閾値を小さくすれば良い。変形例1によれば、移動速度が落ちた際は第1の実施形態よりも早くリリースの判定条件(リリース閾値)を緩和することで、リリースと認識されるタイミングが早くなる。これにより、ユーザが意図する操作の認識率を向上することが可能となる。
<変形例2>
第1の実施形態では、タッチ中の操作体の移動速度に基づいて、操作体が操作面上からリリースされたかを判定するため条件となるリリース閾値を設定した。ただし、本実施形態において、条件を変動させる根拠として利用できる操作体の状態は、移動速度に限らない。変形例2では、タッチ中の操作体の移動方向に基づいて、条件を変動させる。具体的には、タッチ中の操作体の移動方向が大きくが変わった場合に、リリース閾値を小さい値に設定する。つまり、条件を緩和して、リリースが認識されやすいように制御を行う。
タッチ操作で機器を操作する場合、異なる方向に向けたムーブ(タッチしながら操作体を操作面上で移動させる操作で、ここではリリース時にフリックを伴わないものを指す)操作を、繰り返し入力する場合がある。この場合にも、ユーザが意識しているか否かに関わらず、動作を効率化するため、操作体を移動させる距離が短くなる傾向があり、操作体を操作面から遠ざけながら次の入力のための移動が開始されることがある。ユーザは、N回目の入力を終了してから指先を移動させているつもりであっても、指先の高さはリリース閾値を越えておらず、意図に反したムーブ操作が認識される可能性がある。従って、変形例2では、操作体の移動方向が大きく変化した場合にはリリース閾値を小さく設定することによって、異なる方向に向けたムーブ操作が繰り返されるような場面でも、ユーザがリリースを意図したタイミングでリリースを検出し易くなる。このような変形により、更に多様なタッチ操作の入力において、リリース検出の精度を向上させることが可能となる。
変形例2における、システムの外観、ハードウェア構成は、第1の実施形態の図1、図2(a)と同様である。また、機能構成も設定部213を除いて第1の実施形態と同様であるため、異なる点のみを説明する。設定部213は、第1の実施形態では、指先の移動速度を検出したが、変形例1では、指先の移動方向を検出する。また、移動方向が変わった際は、リリース閾値を小さい値に設定し、設定したリリース閾値をRAM201に保持する。
変形例2の情報処理装置も、第1の実施形態と同様、図3のフローチャートに従ってメイン処理を実行する。ただし、ステップS304のタッチ操作認識処理の内容が異なる。
図8は、変形例2におけるタッチ判定処理を示すフローチャートである。
ステップS403までは、第1の実施形態と同様である。変形例2では、ステップS403の後、ステップS800に移行する。ステップS800において、設定部213は、指先の移動方向を検出しステップS801に以降する。
移動方向の検出は、たとえば以下のように行う。フレーム1の指先の位置座標が(X1、Y1)、30ミリ秒後のフレーム2の指先の位置座標が(X2、Y2)とした場合、フレーム1からフレーム2への指先の移動方向θは、以下の式2を利用して表すことができる。変形例2では、式2と、アークタンジェントθから指先の移動方向を取得する。
TANθ=(X1−X2)/(Y2−Y1)…(式2)
ステップS801において、設定部213は、指先の移動方向の変化に応じて、リリース閾値を設定する。図4(b)により、前回と順方向と判定した場合は、リリース閾値を「20」に設定し、前回と逆方向と判定した場合はリリース閾値を「10」に設定する。ここで設定した値は一例である。移動方向が逆方向になった場合、順方向の時よりも小さい値を設定すれば良い。また、順方向と逆方向の2つの分類に限らず、さらに粒度を細かくしてもよい。その後、ステップS406の処理に移行し、第1の実施形態と同様の処理を行う。
以上のように、変形例2によれば、移動方向が変化したことに応じてリリースの判定条件(リリース閾値)を緩和することで、リリースが認識されるタイミングが通常よりも早くなる。これにより、ユーザが意図する操作の認識率を向上することが可能となる。
ただし、本実施形態において、条件を変動させる根拠として利用できる操作体の状態の例として、移動方向を利用する例を説明したがこれに限らない。たとえば、設定部213は、タッチ状態後の総移動距離を算出し、総移動距離に応じてリリース閾値を設定しても良い。たとえば、図4(c)のテーブルに従ってリリース閾値を設定する。この場合、総移動距離が「0〜10未満」の場合は「20」、「10〜100未満」の場合は「30」、「100〜200未満」の場合は「40」、「200以上」の場合は、「50」とする。
また、設定部213はタッチ状態に移行した後の経過時間、つまり操作体が操作面にタッチしている時間の長さに応じてリリース閾値を設定しても良い。たとえば、図4(d)のようなテーブルに従ってリリース閾値を設定する。この場合、タッチ時間が「0〜10未満」の場合は「20」、「10〜20未満」の場合は「30」、「20〜40未満」の場合は「40」、「40以上」の場合は「50」に設定する。
なお、上述した変形例においても、第1の実施形態と同様、リリース閾値は固定して、閾値と比較するz座標などの算出方法を、操作面から操作体がリリースされたかを判定するため条件として制御してもよい。また、リリース閾値を固定した場合は、距離hLがリリース閾値を超えている状態(リリース状態)が所定の時間より長く継続された場合に、操作体が操作面からリリースされたと判定しても良い。その場合、リリース状態を判定する所定の時間の長さを、前記操作体が前記操作面にタッチしている時間の長さに対応して特定される可変の値としてもよい。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
210 画像取得部
211 領域検出部
212 位置特定部
213 設定部
214 判定部
215 認識部
217 表示制御部

Claims (15)

  1. 操作体を用いて操作面上に入力されるタッチ操作を認識する情報処理装置であって、
    前記操作面にタッチしている間の前記操作体の状態に基づいて、前記操作体が前記操作面上からリリースされたかを判定するための前記操作体と前記操作面との近接状態に関する条件を設定する設定手段と、
    前記設定手段によって設定された条件が満たされるかに応じて、前記操作面にタッチしていた前記操作体が前記操作面からリリースされたと判定する判定手段と、
    前記判定手段によって前記操作体が前記操作面からリリースされたと判定されるまでに、前記操作体によって前記操作面上に入力された入力位置に基づいて、前記タッチ操作を認識する認識手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記設定手段は、前記操作面にタッチしている間の前記操作体の移動速度の大きさに基づいて、前記操作体が前記操作面上からリリースされたかを判定するための前記操作体と前記操作面との近接状態に関する条件を設定する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記設定手段は、前記操作面にタッチしている間の前記操作体の移動方向に基づいて、前記操作体が前記操作面上からリリースされたかを判定するための前記操作体と前記操作面との近接状態に関する条件を設定する
    ことを特徴とする請求項1に記載の情報処理装置。
  4. 前記設定手段は、前記操作面にタッチしている間の前記操作体の移動距離の大きさに基づいて、前記操作体が前記操作面上からリリースされたかを判定するための前記操作体と前記操作面との近接状態に関する条件を設定する
    ことを特徴とする請求項1に記載の情報処理装置。
  5. 前記設定手段は、前記操作体が前記操作面にタッチしている時間の長さに基づいて、前記操作体が前記操作面上からリリースされたかを判定するための前記操作体と前記操作面との近接状態に関する条件を設定する
    ことを特徴とする請求項1に記載の情報処理装置。
  6. 前記設定手段は、前記操作体によって前記操作面上に入力される入力位置の移動に基づいて、前記操作体の移動速度の大きさを取得し、前記移動速度が所定の速度を越える場合は、前記移動速度が所定の速度を越えない場合よりも前記条件を厳しく設定する
    ことを特徴とする請求項2に記載の情報処理装置。
  7. 前記設定手段は、前記取得した移動速度が所定の速度を越えた後、前記所定の速度を下回った場合は、前記条件を緩和することを特徴とする請求項6に記載の情報処理装置。
  8. 前記設定手段は、前記条件の候補として予め記憶された複数の閾値のうち、前記操作面にタッチしている間の前記操作体の状態に対応する閾値を、前記条件として設定することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. さらに、前記操作面から前記操作体までの距離を取得する取得手段を備え、
    前記設定手段は、前記条件として、前記操作面から操作体までの距離に関する閾値を設定し、
    前記判定手段は、前記操作面から操作体までの距離が、前記設定手段によって設定された閾値を越えた場合に、前記操作体が前記操作面からリリースされたと判定する
    ことを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
  10. 前記判定手段はさらに、前記操作面から前記操作体までの距離が所定の閾値よりも小さい場合に、前記操作体によって前記操作面がタッチされたと判定し、
    前記所定の閾値は、前記設定手段によって設定される閾値とは独立した値であることを特徴とする請求項9に記載の情報処理装置。
  11. 前記判定手段は、前記操作面から操作体までの距離が、前記設定手段によって設定された閾値を越えている状態が、所定の時間より長く継続された場合に、前記操作体が前記操作面からリリースされたと判定することを特徴とする請求項9または請求項10に記載の情報処理装置。
  12. 前記判定手段は、前記操作面から操作体までの距離が、前記設定手段によって設定された閾値を越えている状態が、前記操作体が前記操作面にタッチしている時間の長さに対応して特定される時間の長さより長く継続された場合に、前記操作体が前記操作面からリリースされたと判定することを特徴とする請求項9または請求項10に記載の情報処理装置。
  13. 操作体を用いて操作面上に入力されるタッチ操作を認識する情報処理装置の制御方法であって、
    設定手段により、前記操作面にタッチしている間の前記操作体の状態に基づいて、前記操作体が前記操作面上からリリースされたかを判定するための前記操作体と前記操作面との近接状態に関する条件を設定する設定工程と、
    判定手段により、前記設定工程において設定された条件が満たされるかに応じて、前記操作面にタッチしていた前記操作体が前記操作面からリリースされたと判定する判定工程と、
    認識手段により、前記判定工程において前記操作体が前記操作面からリリースされたと判定されるまでに前記操作体によって前記操作面上に入力された入力位置に基づいて、前記タッチ操作を認識する認識工程と、
    を備えることを特徴とする情報処理装置の制御方法。
  14. コンピュータに読み込ませ実行させることで、前記コンピュータを請求項1に記載の情報処理装置の各手段として機能させるプログラム。
  15. 請求項14に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
JP2015003236A 2015-01-09 2015-01-09 情報処理装置とその制御方法、プログラム、記憶媒体 Active JP6452456B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015003236A JP6452456B2 (ja) 2015-01-09 2015-01-09 情報処理装置とその制御方法、プログラム、記憶媒体
US14/990,634 US10120452B2 (en) 2015-01-09 2016-01-07 Information processing apparatus for recognizing operation input by gesture of object and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015003236A JP6452456B2 (ja) 2015-01-09 2015-01-09 情報処理装置とその制御方法、プログラム、記憶媒体

Publications (3)

Publication Number Publication Date
JP2016128970A true JP2016128970A (ja) 2016-07-14
JP2016128970A5 JP2016128970A5 (ja) 2018-02-15
JP6452456B2 JP6452456B2 (ja) 2019-01-16

Family

ID=56367560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015003236A Active JP6452456B2 (ja) 2015-01-09 2015-01-09 情報処理装置とその制御方法、プログラム、記憶媒体

Country Status (2)

Country Link
US (1) US10120452B2 (ja)
JP (1) JP6452456B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10416814B2 (en) 2016-09-27 2019-09-17 Canon Kabushiki Kaisha Information processing apparatus to display an image on a flat surface, method of controlling the same, and storage medium

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9983745B2 (en) * 2014-09-19 2018-05-29 Kabushiki Kaisha Tokai Rika Denki Seisakusho Touch sensor device and controller
WO2016092656A1 (ja) * 2014-12-10 2016-06-16 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US9442575B1 (en) * 2015-05-15 2016-09-13 Atheer, Inc. Method and apparatus for applying free space input for surface constrained control
US20170336918A1 (en) * 2016-05-22 2017-11-23 Intel Corporation Touch-sensing devices using minimum depth-value surface characterizations and associated methods
US10891044B1 (en) * 2016-10-25 2021-01-12 Twitter, Inc. Automatic positioning of content items in a scrolling display for optimal viewing of the items
US20190004622A1 (en) * 2017-06-28 2019-01-03 Walmart Apollo, Llc Systems, Methods, and Devices for Providing a Virtual Reality Whiteboard

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011034502A (ja) * 2009-08-05 2011-02-17 Sony Corp 表示装置、表示方法及びプログラム
JP2012104102A (ja) * 2010-10-14 2012-05-31 Nlt Technologies Ltd タッチセンサ装置及び電子機器
JP2012128830A (ja) * 2010-11-24 2012-07-05 Canon Inc 情報処理装置およびその動作方法
JP2014078225A (ja) * 2012-09-24 2014-05-01 Semiconductor Energy Lab Co Ltd 情報処理装置の駆動方法及びプログラム
JP2014174801A (ja) * 2013-03-11 2014-09-22 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2014186715A (ja) * 2013-02-21 2014-10-02 Canon Inc 情報処理装置、情報処理方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120120002A1 (en) * 2010-11-17 2012-05-17 Sony Corporation System and method for display proximity based control of a touch screen user interface
JP2012133729A (ja) * 2010-12-24 2012-07-12 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP6028589B2 (ja) * 2013-01-23 2016-11-16 富士通株式会社 入力プログラム、入力装置および入力方法
KR20150025635A (ko) * 2013-08-29 2015-03-11 삼성전자주식회사 스크린을 제어하는 전자 장치 및 방법
US10423226B2 (en) * 2014-02-07 2019-09-24 Ultrahaptics IP Two Limited Systems and methods of providing haptic-like feedback in three-dimensional (3D) sensory space
KR101636460B1 (ko) * 2014-11-05 2016-07-05 삼성전자주식회사 전자 장치 및 그 제어 방법
TWI546715B (zh) * 2014-12-26 2016-08-21 深圳市華星光電技術有限公司 懸浮觸控方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011034502A (ja) * 2009-08-05 2011-02-17 Sony Corp 表示装置、表示方法及びプログラム
JP2012104102A (ja) * 2010-10-14 2012-05-31 Nlt Technologies Ltd タッチセンサ装置及び電子機器
JP2012128830A (ja) * 2010-11-24 2012-07-05 Canon Inc 情報処理装置およびその動作方法
JP2014078225A (ja) * 2012-09-24 2014-05-01 Semiconductor Energy Lab Co Ltd 情報処理装置の駆動方法及びプログラム
JP2014186715A (ja) * 2013-02-21 2014-10-02 Canon Inc 情報処理装置、情報処理方法
JP2014174801A (ja) * 2013-03-11 2014-09-22 Sony Corp 情報処理装置、情報処理方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10416814B2 (en) 2016-09-27 2019-09-17 Canon Kabushiki Kaisha Information processing apparatus to display an image on a flat surface, method of controlling the same, and storage medium

Also Published As

Publication number Publication date
US20160202768A1 (en) 2016-07-14
JP6452456B2 (ja) 2019-01-16
US10120452B2 (en) 2018-11-06

Similar Documents

Publication Publication Date Title
JP6452456B2 (ja) 情報処理装置とその制御方法、プログラム、記憶媒体
JP6202942B2 (ja) 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体
KR101572307B1 (ko) 정보 처리 장치, 정보 처리 장치의 제어 방법, 및 저장 매체
US10156938B2 (en) Information processing apparatus, method for controlling the same, and storage medium
JP6410537B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
WO2014106219A1 (en) User centric interface for interaction with visual display that recognizes user intentions
TWI520033B (zh) 利用基於速度之演算法選擇之光學導覽
JP6127564B2 (ja) タッチ判定装置、タッチ判定方法、およびタッチ判定プログラム
JP2015022624A (ja) 情報処理装置およびその制御方法、コンピュータプログラム、記憶媒体
JP6816727B2 (ja) 情報処理装置、情報処理方法及びプログラム
US10379678B2 (en) Information processing device, operation detection method, and storage medium that determine the position of an operation object in a three-dimensional space based on a histogram
JP2017219942A (ja) 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。
JP6579866B2 (ja) 情報処理装置とその制御方法、プログラム、記憶媒体
EP3128405B1 (en) Information processing apparatus, input control method, method of controlling information processing apparatus
JP6555958B2 (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体
JP4901670B2 (ja) 電子ボードシステム
JP6570376B2 (ja) 情報処理装置、その制御方法、プログラム、記憶媒体
US10558270B2 (en) Method for determining non-contact gesture and device for the same
JP2018181169A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
EP3059664A1 (en) A method for controlling a device by gestures and a system for controlling a device by gestures
JP2017022590A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2017207868A (ja) 情報処理装置、入力操作の判別方法、コンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181211

R151 Written notification of patent or utility model registration

Ref document number: 6452456

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151