JP5197777B2 - インターフェイス装置、方法、およびプログラム - Google Patents

インターフェイス装置、方法、およびプログラム Download PDF

Info

Publication number
JP5197777B2
JP5197777B2 JP2011020038A JP2011020038A JP5197777B2 JP 5197777 B2 JP5197777 B2 JP 5197777B2 JP 2011020038 A JP2011020038 A JP 2011020038A JP 2011020038 A JP2011020038 A JP 2011020038A JP 5197777 B2 JP5197777 B2 JP 5197777B2
Authority
JP
Japan
Prior art keywords
interface
pointing object
image
frame group
image frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011020038A
Other languages
English (en)
Other versions
JP2012160079A (ja
Inventor
智行 柴田
正志 西山
康晋 山内
友樹 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011020038A priority Critical patent/JP5197777B2/ja
Priority to US13/240,390 priority patent/US8884985B2/en
Publication of JP2012160079A publication Critical patent/JP2012160079A/ja
Application granted granted Critical
Publication of JP5197777B2 publication Critical patent/JP5197777B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04807Pen manipulated menu
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明の実施形態は、プロジェクタによって映像が投影されたスクリーンに対して直接的に指示するためのインターフェイス装置、方法、およびプログラムに関する。
従来、プロジェクタによって映像が投影されたスクリーンに対するインターフェイス装置の多くは、電子ペンなどの特殊デバイスを用い、表示装置の画面を通じて間接的に操作をするものであったが、近年、指や手といった汎用的な身体の一部を用い、スクリーン上で直接的に操作が行える技術が提案されている。例えば特許文献1には、限定的な操作に限られるものの、ユーザが指で選択範囲を指定することが可能なインターフェイス装置が開示されている。
特許文献2および3には、スクリーンに対して指や棒などの指示手段によりポインティング操作等を行うインターフェイス装置を実現するために、スクリーン面を撮像するカメラの映像から、指を検出する技術が開示されている。
特許文献3の技術においては、プロジェクタで投影した画像とカメラで撮像した画像との差分により指を検出する。また、プロジェクタによる投影動作とカメラによる撮像動作のタイミングを同期させ、一定時刻毎に特定の色をスクリーン全体に投影することで指の検出を容易にしている。
特開2007−72891号公報 特開2008−250482号公報 特開2008−152622号公報
スクリーンに対して直接的に指示を行うための指示物体を頑健に画像検出することのできるインターフェイス装置、方法、およびプログラムを提供することが望まれている。
実施形態によれば、指示物体の位置および方向に応じたインターフェイスを表示するインターフェイス装置が提供される。表示手段は、第1の画像フレーム群に基づく映像を表示する。撮像手段は、前記映像が表示された面を撮像することにより第2の画像フレーム群を得る。検出手段は、前記第1の画像フレーム群と前記第2の画像フレーム群とに基づいて、前記指示物体の位置および方向を検出する。追加表示手段は、前記指示物体が検出された位置に一定照度以上の光が照射され、前記位置からの距離に応じて照度が減衰するように特定形状を前記インターフェイスと共に表示する。
第1の実施形態に係るインターフェイス装置の構成を示すブロック図 第2の実施形態に係るインターフェイス装置の構成を示すブロック図 勾配ベクトルの平滑化を示す図 インターフェイス装置のデバイス図 追加表示部に係るメニューの起動と削除の図 追加表示部に係るメニューの図 追加表示部に係る表示アイコンにおける操作の図 第2の実施形態に係る指示位置強調を説明するための図 第3の実施形態に係るインターフェイス装置を示すブロック図 第3の実施形態に係るインターフェイス装置の動作を示すフローチャート 第3の実施形態に係るインターフェイス装置の動作の様子を示す図。 第3の実施形態に係るインターフェイス装置の固定位置明度調整領域の設定を示す図 第3の実施形態に係るインターフェイス装置の変動領域に伴う明度調整領域の設定を示す図 第3の実施形態に係るインターフェイス装置の指先位置に伴う明度調整領域の設定を示す図 第3の実施形態に係るインターフェイス装置の指先位置による明度調整領域の変化を示す図 第4の実施形態に係るインターフェイス装置を示すブロック図 第4の実施形態に係るインターフェイス装置の動作を示すフローチャート 第4の実施形態に係るインターフェイス装置の指先位置による明度調整領域の変化を示す図
以下、実施の形態について、図面を参照して説明する。
本実施形態は、プロジェクタのスクリーン又は大画面表示デバイスに対して指等の指示物体によりユーザが直接的に指示を行うことのできるユーザインターフェイス装置に関する。本実施形態では、ユーザが意図する場所を指し示す指示物体の位置とその方向を撮像装置により検出し、該方向に向かって該指示物体の検出位置から所定量ほど移動した位置にメニューなどのインターフェイスオブジェクトの投影像を表示する。これにより、指等の指示物体が指し示す方向に沿ってユーザが指等を動かすことで容易なコマンド選択を実現することができる。また、指等の指示物体と、メニューなどのインターフェイスオブジェクトの投影像とが重なり合って表示を妨げることがないため、ユーザが見やすいインターフェイスを実現することができる。
(第1の実施形態)
図1は、第1の実施形態に係るインターフェイス装置を示すブロック図である。第1の実施形態に係るインターフェイス装置1は、ユーザの指等の指示物体を撮像する撮像部2と、複数の画像フレームに基づく映像を表示する表示部3と、表示部3が映像の表示を行っているスクリーン内において指示物体が指し示している位置と方向を検出する検出部4と、検出部4により検出された指示物体の位置と方向に応じて、指示物体とは重ならないように指示物体から所定量ほど移動した位置にメニューなどのインターフェイスオブジェクトの投影像を表示する追加表示部5とを備える。追加表示部5は、このようなインターフェイスの画像データを、表示部3が表示する映像の画像フレーム群に上書きする。ここで、画像フレーム群とは複数の画像フレームをさす。
撮像部2は、スクリーンに表示する表示面全体を撮像可能なようにインターフェイス装置1の本体、あるいは本体とは別の位置に配置される。撮像部2は、ユーザの指示物体がスクリーンを直接的に指し示す動作を複数の画像フレームによって構成される映像として撮像する。撮像部2は、撮像した映像を常に検出部4に送るか、もしくは一定の闘値時間間隔で検出部4に送ってもよい。
情報を表示する表示部3は、例えば自発光型の大型ディスプレイであっても良いし、スクリーンに映像を投影するプロジェクタであっても良い。本実施形態において、表示部3は、プロジェクタであるものとする。本実施形態では、図4に示すように、インターフェイス装置1のデバイス本体には、撮像部2を構成するレンズと、表示部3を構成するプロジェクタのレンズ3とが、それらの光軸がほぼ一致するように近接して配置される。また、表示部3に表示する情報は、該情報を処理するアプリケーションに依存するため任意である。例えば本実施形態では、デジタルアルバムをアプリケーションとし、デジタルアルバムのアプリケーション画面を表示部3に表示する。従って、ユーザは、スクリーンに投影されたデジタルアルバムのアプリケーション映像に対して、スクリーン上で直接的に指し示す等の動作によって、アプリケーションの操作を行うことができる。
検出部4は、撮像部2から送られた映像又は一定の闘値時間間隔で送られる画像から、表示部3にて表示する表示面内にてユーザの指等の指示物体が指し示した位置と、該指示物体が指し示す方向とを検出する。検出部4は、この検出した位置と方向を追加表示部5に送る。本実施形態では、例えばユーザがスクリーンを直接、指で指し示し、検出部4がこのユーザの指を検出する。なお、被検出物としては、ユーザの指のみならず、先端が円弧である棒状の指示物体などであってもよい。例えば、ユーザが手に保持した長い棒状のペンの位置と方向を検出することも可能である。
検出部4は、撮像された指示物体の先端の円弧を画像内で探索することによりその位置と方向を検出する。このため、事前に表示部3にて表示している画像と撮像部2にて撮像した画像との差を求めることができるようにしておく。具体的には、各画素もしくは矩形に対して、投影前の輝度値を入力とし、投影後の輝度値を出力とする関数をそれぞれ学習しておく。撮像部2にて撮像した映像もしくは画像の各フレームに対して、上記輝度値の変化を表す関数を用いて表示している情報を差し引く。これにより得られる差分画像は、撮像部2とスクリーンとの間に存在する指示物体のみを残す。このような差分画像に対して円弧検出を行うことにより、指示物体の位置およびこれが指し示す方向を検出する。
円弧検出のアルゴリズムとしては、例えば、ある矩形内のエッジ勾配と、理想の円弧形状のエッジ勾配のテンプレートとの類似度が闘値以上となる領域を円弧であるとする手法を用いることができる。テンプレートは、量子化した複数の方向についてこれを用意することで、位置だけでなく方向を検出することができる。なお、検出部4は、表示部3で表示するアプリケーションが、画面遷移などの状態変化が生じている際には必ずしも検出をしなくてもよい。
(プロジェクト面の検出アルゴリズム)
予めプロジェクタと、カメラの光軸が同じ方向を向きできるだけ近くなるよう設置する。カメラのレンズを変更しない限りプロジェクト面は、ほぼ同様の位置で撮像できるため、予め設定したプロジェクト面の四隅の予想位置を初期値とし、装置の起動時に撮像した画像中から正確な四隅の画像座標を検出する。装置起動時に最大輝度で照射し撮像した画像に対して、Harris Corner Detectorなどを用いて、初期値周辺を処理し最もコーナー点らしい座標を検出する。プロジェクト面を平面とする仮定を置くことで、検出した画像中のプロジェクト面における四隅の座標から、平面射影変換(homography)行列を求め、撮像した画像から照射したアスペクト比の画像へ射影変換することができる。この射影変換した画像に対して、指先やペン先(即ち、指示物体)の検出などの処理を行う。
(円弧検出アルゴリズム)
前処理として、表示したい輝度値と撮像した輝度値の対応関係を学習しておく。これは、起動時に1回だけ行う、LUT(Look up Table)の形で保持する。
撮像したプロジェクト面の画像に対して、表示部により表示している内容との差分をとった画像を差分画像とする。差分画像には、プロジェクト面とカメラとの間に存在する物体の情報のみが保持されている。
ユーザが支持に用いる物体である指やペン先を検出するが、差分画像に対して指先やペン先は円弧の形状であると仮定し、その輪郭線を抽出する。以下、処理手順を示す。
(1)画像の空間微分を求め、得られた微分係数を倍角変換する
(2)倍角変換された微分画像を平滑化してから縮小する
(3)微分画像をテンプレートで走査して円弧の検出を行う
画像の微分と倍角変換:画像の微分にはRobertsフィルタを用い、得られた勾配ベクトル(g,g)に対して、以下の式を用いて倍角変換を行い、倍角化した勾配ベクトル(f,f)を求める。
Figure 0005197777
倍角変換が必要な理由は、後段の平滑化と縮小処理において勾配情報が失われないようにするためである。図3に示すように、勾配ベクトルをそのまま平滑化すると、細い輪郭線の近傍ではその両側で勾配の向きが逆になり打ち消しあうが、倍角変換により勾配ベクトルは180度異なる方向同士が同じ方向となり、平滑化による輪郭線近傍の勾配が失われない。
勾配ベクトル画像の平滑化と縮小:倍角化した勾配画像に対してノイズ除去を目的として平滑化処理を行った後に2分の1のサイズに画像を縮小する。
テンプレートを用いた円弧検出:通常のテンプレートマッチングは1回のマッチング処理でSADやSSDの値を1つ求めるが、複数の半径を持つ円弧を検出する必要があるため、単純な処理では高精度な検出ができない。本実施形態では、予め生成しておいた中心に向かう勾配ベクトルを倍角化したテンプレートを用いることで、テンプレートが一致した領域の中心画素が円弧の中心点の検出と同時に、テンプレートの各画素が中心位置からの円の半径と、その方向に対応するため、円弧の方向と半径も検出する。つまり、検出を行う1つの領域に対して、対応するテンプレートの各画素における勾配ベクトルの内積値(0〜1の値となり、1に近づくほど相関が高い)を求め、半径と方向の2軸を持つパラメタ空間に値を加算する。パラメタ空間は、検証領域の中心座標を原点とした際の極座標変換に相当し、次式で表すことができる。
Figure 0005197777
ここで、(l,l)は検証領域の中心座標を原点とした各画素の座標で、(Pγ,Pθ)は投票を行うパラメタ空間の座標であり、半径と方向を示す。本実施形態では、半径を16段階に、半径を5段階に量子化して扱うが、より高い分解能を求める場合は、量子化数を増やすことで実現できる。
事前にパラメタ空間は、値を全て0で初期化されているため、パラメタ空間の最大値を閾値処理することで、検証領域中に円弧が存在するかを判定でき、さらに最大値を所有するパラメタ空間の位置から、円弧の半径と方向が推定できる。
追加表示部5は、検出部4にて検出した位置から指し示す方向に沿ってユーザが選択できるメニューやアイコンなどのインターフェイスを、表示部3にて表示する内容に上書きする。
例えば、図5(a)に示すように、ユーザが指先をスクリーン上の一定位置に闘値時間以上にわたって止めた動作を、メニューやアイコンなどのインターフェイスを表示させる起動動作とする。また、スクリーンに対して円形の軌跡を描く動作を起動動作としてもよい(円形の軌跡の検出方法は後述)。起動後は、メニューやアイコンを起動時に検出した位置に常に表示させ、選択行動であるユーザが指し示す位置がいずれかのコマンド上に移動した状態か、闘値以上の距離にわたり起動時の位置から指先が移動した場合に、インターフェイスの表示を解除する。これを図5(b)に示す。コマンドが選択された場合、その旨をアプリケーション(本例ではデジタルアルバム)に通知する。
(円形の軌跡の検出方法)
円形の軌跡の検出方法では、各フレームにおける指先の検出点の軌跡を用いた、ジェスチャ認識を行う。本実施形態では円判定が有効であることから、円判定の方法について説明する。
まず、過去閾値フレーム数から連続して指先を追跡できた場合のみを対象とし、最大で閾値2フレーム数の指の軌跡を用いる。用いるフレーム数をnとし、n点の重心座標をPm、現在のフレームをiとしその際の検出点をPiとする。nフレーム全ての検出点が重心座標から一定距離以上離れている場合、次式により重心点を中心点とするn角形の内角の和を求める。
Figure 0005197777
求めた内角の和Angが、2π以上である場合を検出点の軌跡が円であると判定する。内角の和は2πから若干のバイアス値を引くことで判定が可能となる。
また、図6(a)に示すように、追加表示するメニューもしくはアイコン60は、ユーザが指し示す方向と直行する方向との比率で形状を変えられる、楕円の一部を切り欠いた円弧形状(馬蹄型)のパネル61上に配置する。例えば、指し示す方向に0.3〜3倍長い形状に変化させたり、楕円の円周に対して30%〜80%の長さを持つ弧の形状に変化させたりしてもよい。
本実施形態では、図6(a)に示すように、例えば、指し示す方向に1.4倍長い楕円形状とし、楕円の円周に対して67%の長さを持つ弧の形状とする。メニューもしくはアイコン60は、アプリケーションの状態に応じて選択可能なコマンドに対応付けられる。アイコンに代えて文字をメニュー表示してもよい。選択可能なコマンドに優先順位を予め設定するならば、図6(b)に示すように最も優先順位の高いコマンド62をユーザが指し示す方向と交わるように配置し、他のコマンドよりもサイズを大きくするなどしてもよい。コマンドが選択された際には、対応するアイコンもしくはテキストをアニメーション等により強調表示してもよい。
さらに、図7(a)に示すように、追加表示するコマンド全てを一度に表記する必要はなく、少なくとも1つ以上のコマンドを表示し、それ以外のコマンドを表示させるアイコン70を表示させるインターフェイスとしてもよい。あるいは、図7(b)に示すように、ユーザの指等の指示物体が円の軌跡を描く動作に追従して、アイコンを移動してもよい。本実施形態のアプリケーション例であるデジタルアルバムの場合、「全画面表示中の画像の変更(次の写真、一つ前の写真)」、「拡大縮小」、「一覧表示」、「一覧表示の枚数の変更」、「選択」、「戻る」、「進む」、「メニューキャンセル」などのコマンドが考えられる。また、各コマンドを表す一定範囲の領域にユーザが指等を移動させることで選択したと判断するが、例えば次の写真に移動するコマンドを選択した場合、アプリケーションは、全画面表示である画像を表示しているがユーザの選択に伴い、内部で保持している画像リストの次順の画像へ表示を変更する。メニュー表示は、選択動作に伴い消去してもよいし、そのまま表示を継続してもよい。
本実施形態では表示を継続し、例えばユーザが次の写真に移動するコマンドを表す領域上に指を停止させ続けた場合、一定間隔もしくは徐々に短くなる間隔にてコマンド選択したと判断し、表示を変更し続け、画像リストの端点まで移動した時点でコマンドを表すアイコンもしくはテキストを選択不能の表示に切り替える。また、連続量を取りえるコマンド、例えば表示する画像の拡大率などを選択した場合、表示していた馬蹄型のメニューの端辺にそれぞれ拡大と縮小を対応付ける表示に変更し、ユーザが直接連続量を指定できるようにする。この場合、ユーザの指先の円運動と連動して連続量を変化させる。設定した値を決定する領域が選択されると、その時点で値が決定される。以後は、元のメニュー表示に戻っても良いし、連続量を指定する馬蹄型領域からユーザが指等を一定時間離したら、現在指定されている値を設定し、元のメニューに戻っても良い。連続量を指定するコマンドには、表示画像の拡大率の指定だけでなく、音量の指定や、動画像の表示速度の指定(早送りや巻き戻しなど)、複数枚数画像の表示時における表示区間の移動、なども考えられる。
(第2の実施形態)
図2は、第2の実施形態に係るインターフェイス装置を示すブロック図である。第2の実施形態は、上述した第1の実施形態と組み合わせて実施可能である。インターフェイス装置101は、指示位置表示部106を更に備える点で、インターフェイス装置1と相違する。インターフェイス装置101のうち、第1の実施形態に係るインターフェイス装置1と同様な構成については、説明を省略する。
検出部4は、検出したユーザが指し示した位置と指し示す方向を追加表示部5だけでなく、指示位置表示部106にも送る。指示位置表示部106は、ユーザに対する視覚フィードバックを与えるために検出部4から送られる、ユーザが指し示した位置に追加表示を行う。
図8は、第2の実施形態に係る指示位置強調を説明するための図である。
指示位置強調表示は、図8(a)に示すように、指等の指示物体の検出位置の中心点Cを最大照度の光Lで照射する。この光Lは、その中心点Cからの距離で照度が減衰する形状であり、ここでは楕円形状を例とする。これは、図8(b)に示すように、ユーザが指示する際に使用する物体、例えば指などの周辺の領域ROI(Region of Interest;関心領域)における、背景のエッジやテクスチャなどの輝度変化を抑えるため、次フレームにおける検出部4での頑健な検出が可能となる効果が得られる。なお、領域ROIは、撮像画像フレームにおいて背景差分により抽出される指等の指示物体の画像Sbtを含みうる広がりを持ち、上記中心点Cからの距離で照度が減衰する楕円形状に対応する。
このように本実施形態では、検出した指の周囲への照射光量を増加することにより、照射平面の変化に対して検出部4における指の検出精度を頑健にすることができる。
追加表示部5は、指示位置表示部106にてユーザが指し示した位置周辺に最大輝度で追加表示を行うため、第1の実施形態に係るインターフェイス装置1と同じ表示形態ではメニューやアイコンが知覚できなくなる場合がありうる。そのため、メニューやアイコンに指示位置表示部106にて追加する表示が重なる場合、その特定のアイコンやメニューを図8(c)のように拡大表示するか、図8(d)のように吹き出しにて表示することにより知覚可能な表示態様とすることが好ましい。
(第3の実施形態)
図9は、第3の実施形態に係るインターフェイス装置を示すブロック図である。第3の実施形態は、上述した第1又は第2の実施形態と組み合わせて実施可能である。第3の実施形態に係るインターフェイス装置は、撮像部101と、投影部102と、指先位置出力部103と、映像入力部104と、インターフェイス処理部200と、を備える。
なお、第3の実施形態以降では、撮像する指示物体がユーザの指先であるものとして説明するが、指示物体は指先に限らず任意の指示手段(例えばペン先など)としてもよい。
撮像部101は、スクリーンを撮像して撮像画像を取得する手段である。撮像する範囲が、スクリーン面において投影部102で投影する範囲を内包するように設置することで、投影された映像のあらゆる位置に対して操作を行うことができる。例えば、後述の図11に示すように、撮像部101と投影部102を同じ向きで近接させて設置することで、投影範囲301と撮像範囲302をおおよそ一致させることができる。ただし、この設置条件は必須ではなく、例えば、撮像範囲301の一部分だけで操作ができればよい場合は、少なくともその範囲が撮像範囲302に含まれていればよい。また、撮像部101と投影部102は個別に離れた場所に設置されていてもよい。
投影部102は、映像入力部104によって入力された映像を後述の処理によりインターフェイス処理部200が書き換えた結果の映像を、スクリーンに投影する手段である。
指先位置出力部103は、インターフェイス処理部200により検出された指先位置を操作対象のシステムに送信するための手段である。
映像入力部104は、操作対象のシステムがスクリーンに表示しようとする映像をインターフェイス処理部200に入力するための手段である。
インターフェイス処理部200は、指先検出部207と、固定位置明度調整部204と、動的位置明度調整部205を備えている。
指先検出部207は、撮像部101により撮像された映像から指先を検出するための手段であり、形状検出部201と、変動検出部202を備える。形状検出部201は、撮像部101により撮像された撮像映像から、テンプレートマッチングやパターン認識などの方法により指先の位置を検出する手段である。変動検出部202は、撮像部101により撮像された撮像映像から、背景差分やフレーム間差分など変動を検出する手法を用いて指の位置を検出する手段である。
明度調整部206は、映像入力部104により入力された画像の画素値を書き換える手段であり、固定位置明度調整部204と、動的位置明度調整部205を備える。
固定位置明度調整部204は、予め与えられた特定の領域の画素値を書き換える手段である。動的位置明度調整部205は、指先検出部201や変動検出部202によって指先や変動が検出された位置の周辺の領域の画素値を書き換える手段である。
インターフェイス処理部200は、例えば、コンピュータによって実現され、指先検出部201、変動検出部202、固定位置明度調整部204、動的位置明度調整部205はそれぞれの機能を実現するソフトウェアと、それを実行するためのCPUやメモリなどのハードウェアにより構成される。また、インターフェイス処理部200と操作対象のシステムは同じハードウェアで実行してもよい。この場合、指先位置出力部103や、映像入力部104はメモリの読み書きで実現できる。
次に、インターフェイス処理部200の動作について説明する。
図10は、第3の実施形態に係るインターフェイス装置の動作を表すフローチャートであり、図11は、第3の実施形態に係るインターフェイス装置の動作の様子を表す図である。
図11に示すように、本実施の形態におけるインターフェイス装置100は、例えば、カメラなどの撮像部101とプロジェクタなどの投影部102とが搭載された端末により、部屋の壁などのスクリーンとなる面に向けて投影部102により映像を投影し、撮像部101により得られた映像から指先303の位置などを検出することにより、ユーザがスクリーンに対して操作を行う場合を想定している。
インターフェイス装置100では、まず、固定位置明度調整部206により予め設定された領域を明度調整領域401として設定し(ステップS101)、映像入力部104により入力された映像について明度設定領域の画素値を変更し(ステップS102)、投影部102に出力する。
図12は明度調整領域の設定例を表す図である。
ステップS101では、固定位置明度調整部206において、明度調整領域401は、例えば、スクリーンの外周部の全て(同図(a))や、一部に細く帯状に設定したり(同図(b))、スクリーンの隅などに円や多角形などで設定したりする(同図(c))。指は必ずスクリーンの外周部を通過してからスクリーン内に侵入するため、ユーザに対する負担が少ない。また、外周部付近に設置することで、後述のステップS102において画素値を変更したときに映像表示の邪魔になりにくくなる。必要であればスクリーンの中心など、他の場所に設定してもよい。ただし、後述するステップS104において変動を安定して検出するためには、調整領域401の大きさは撮像部101により撮像した画像における画素幅よりも大きい必要があるため、例えば、撮像部101により撮像した画像における1画素〜数画素程度の幅に設定する。なお、スクリーンの見た目を重視するような使用環境で明度調整領域401を小さくする場合は、上記の条件を満たすような高い解像度の撮像部101を用いればよい。また、明度調整領域401の大きさを決定する別の目安として、例えば、投影部102が投影できる最小の画素幅を基準として、幅を1画素〜数画素程度としてもよい。また、明度調整領域401の大きさを決定する別の目安として、例えば、スクリーン上における指の太さを基準として、指0.1本分〜1本分としてもよい。
ステップS102では、固定位置明度調整部206は、明度調整領域401の画素値を予め与えられた任意の色、例えば、白、赤、黄、緑、青などに変更する。式(1)は白色(r=255、g=255、b=255)に変更する例である。
Figure 0005197777
ただし、R’G’B’はそれぞれ画像の変更後の赤緑青の各成分の値を表す。また、任意の色に変更する代わりに、元の画像と任意の色を式(2)によりアルファブレンディングしてもよい。
Figure 0005197777
ただし、RGBはそれぞれ画像の元の赤緑青成分の値、αは0.0〜1.0範囲内で予め与えられた係数をあらわす。さらに、明度調整領域401の境界付近では、式(2)において、αを境界線上で1とし、領域から離れるに従って0に近づくように設定することにより境界をぼかしてもよい。また、ユーザに指で操作することを伝えるために、明度調整領域401の周辺や内部に、例えば、「Start」などの文字列や、指の形やボタンなどの図形を表示してもよい。内部に表示する場合は、文字や図形の色を背景色と近くすることで、指検出の精度への悪影響を抑えることができる。
次に、撮像部101により、スクリーンに投影された映像を撮像した画像を取得し(ステップS103)、変動検出部202により、取得した画像から変動領域の位置を検出する(ステップS104)。
ステップS104では、変動検出部202は、明度調整領域401において指による変動領域を検出する。指の一部だけが画像に映っている場合でも指を検出できる方法、例えば、背景差分、フレーム間差分、色(例えば、肌色はHSV表色系におけるH(色相)が0〜30である)などを利用して指を検出する。明度調整領域401では、投影部102により投影される映像が安定しているため、容易に変動を検出することができる。
次に、変動領域の有無を判定する(ステップS105)。変動領域の有無の判定は、例えば、変動領域の面積を閾値と比較することで行う。小さな変動領域は画像のノイズとして無視する。変動領域が存在しなければ、その時刻には操作が行われていないと判断して処理を終了する。
一方、変動領域が存在する場合には、動的明度調整部205により、明度調整領域を設定し(ステップS106)、明度設定領域402の画素値を変更し(ステップS107)、投影部102に出力する。
図13は変動領域に伴う明度調整領域の設定を示す図である。
ステップS106では、動的明度調整部205において、明度調整領域401は、図13に示すように、例えば、変動領域501からの距離が閾値以下の領域や、変動領域の中心から予め与えられた半径の円の内側などに設定する。投影範囲301の外周の辺に直行する方向と平行な方向で半径が異なる楕円で設定してもよい。上記の距離の閾値や円の半径は、明度調整領域401に指先が含まれるように、インターフェイス装置が想定する1フレームの間(例えば、1/30秒や1/15秒など)の指の最大移動距離の1倍、1.5倍、2倍程度を指定する。半径を大きくすると指先の検出精度が上がるが投影する映像の邪魔になる。このとき、ステップ101で設定した明度調整領域401を削除してもよいし、そのまま残してもよい。2本以上の手で操作する場合には残しておくことが好ましい。
ステップS107では、動的明度調整部205において、明度調整領域401の画素値をステップS210と同一の方法で変更する。その際、明度調整領域401が徐々に大きくなるように表示をアニメーションさせてもよい。
次に、撮像部101により、スクリーンに投影された映像を撮像した画像を取得し(ステップS108)、形状検出部201により、取得した画像から指先位置を検出する(ステップS109)。
ステップS109では、形状検出部201は、明度調整領域401において、指先位置を検出する。指先位置を正確に検出できる方法、例えば、エッジ方向を用いたテンプレートマッチングを用い、類似度が閾値以上となる位置を指先位置として検出する。指先位置の検出には、円形ハフ変換、分離度フィルタ、パターン認識などの方法を用いてもよい。
次に、指先の有無を判定する(ステップS110)。指先が存在しなければ、その時刻には操作が行われていないと判断して処理を終了する。
一方、指先が存在する場合には、指先位置出力部103により、指先位置を操作対象のシステムに出力し(ステップS111)、指先の周辺に明度調整領域を設定し(ステップS112)、ステップS107に戻る。
図14は指先位置に伴う明度調整領域の設定を示す図である。
ステップS112では、ステップS106と同様の方法で、例えば、指先位置出力部103により検出された指先位置502を中心として予め与えられた半径の円の内側に明度調整領域401を設定する。このとき、ステップS106で設定した明度調整領域401は削除する。ステップS101で設定した明度調整領域401を削除してもよいし、そのまま残してもよい。
上記で説明したユーザインターフェイス装置によってユーザが操作を開始してから終了するまでの様子を説明する。
図15はユーザの指先位置による明度調整領域の変化を示す図である。
状態701は初期状態である。
状態702では、ユーザの指がまだ投影範囲301の外にあるので、ステップS101、S102により、外周部に明度調整領域401が設定される。
状態703では、指が投影範囲301の内部に侵入し、ステップS103〜S105で変動領域が検出され、ステップS106、S107により、変動領域の周囲に明度調整領域401が設定されるため、状態704となる。
状態704では、ステップS108〜S110により指先が検出され、ステップS112、S107により指先位置の周囲に明度調整領域401が設定されるため、状態705となる。
状態706では、指が左に移動し、ステップS108〜S110により指先が検出され、ステップS112、S107により指先位置の周囲に明度調整領域401が設定されるため、状態707となる。指が投影範囲301の外側に移動するまで繰り返す。
状態708では、指が投影範囲301の外側に移動したため、ステップS101、S102により、外周部に明度調整領域401が設定され、初期状態に戻る。
以上のように、第3の実施形態に係るインターフェイス装置によれば、固定位置明度調整部206が映像入力部104により入力された映像の画素値を変更することで、変動検出部202は、明度調整領域401において安定して指先の検出ができる。
また、第3の実施形態に係るインターフェイス装置によれば、動的位置明度調整部205が映像入力部104により入力された映像の画素値を変更することで、形状検出部203は、明度調整領域401において安定して指先の検出ができる。
また、第3の実施形態に係るインターフェイス装置によれば、まず、固定位置明度調整部206が明度調整領域401を設定し、変動検出部202により変動領域を検出し、次に、動的位置明度調整部205が変動領域の周辺を明度調整領域401に設定し、形状検出部207により指先位置を検出するという2段階の指先検出により、明度調整領域401を小さくすることができるため、スクリーンの映像の見た目をあまり損なわない。
(変形例1)
第3の実施形態に係るインターフェイス装置101の変形例1は、インターフェイス処理部200が、周辺明るさ検出部203を備えるようにしたものである。周辺明るさ検出部203は、撮像部101で撮像された撮像映像のうち、投影部102により光が照射されていない領域の明るさが予め与えられた閾値と比較することで、投影部101以外の光源による明るさを検出する手段である。投影部102により光が照射されていない領域とは、投影範囲301の外側や、投影部102が光を発していないときの投影範囲301の内側や、投影部102が部分的に黒い領域を含む映像を表示しているときの黒い領域の内側などである。
動的位置明度調整部205と固定位置明度調整部206は、周辺明るさ検出部203により周辺が明るいと判断された場合には、ステップS102、S107において、画素値の変更を行わない。室内の照明光などの環境光が明るい場合には、相対的に投影部102の光の影響が小さくなるため、上記の画素値の変更を行わなくても指先の検出が可能であるため、画素値を変更する必要がなくなる。
変形例1のインターフェイス装置によれば、外周部の帯が必要でないときには非表示とすることで、映像表示を邪魔する要因を軽減することができる。
(変形例2)
第3の実施形態に係るインターフェイス装置101の変形例2は、ステップS105の変形に関する。すなわち、ステップS105において、変動が存在した場合に変動位置を指先位置出力部103により出力し、処理を終了する。
投影範囲301の外周部に操作対象となるボタンやアイコン等が配置されているGUIの場合は、外周部のみで指先位置を検出できればよいため、ステップS106〜S112を実行しない。
(第4の実施形態)
図16は、第4の実施形態に係るインターフェイス装置を示すブロック図である。第4の実施形態に係るインターフェイス装置100の構成は、変動検出部202を備えないことを除き、第3の実施形態の構成と同一である。
図17は、第4の実施形態に係るインターフェイス装置の動作を表すフローチャート、図18は、第4の実施形態に係るユーザの指先位置による明度調整領域の変化を示す図である。図18における状態801〜状態806の遷移は、図15に示した状態701〜状態708にほぼ対応する。
インターフェイス処理部200の動作について説明する。
第4の実施形態に係るインターフェイス装置100では、まず、固定位置明度調整部206により予め設定された領域を明度調整領域401として設定し(ステップS101)、映像入力部104により入力された映像について明度設定領域の画素値を変更し(ステップS102)、投影部102に出力する。
ステップS101では、固定位置明度調整部206において、スクリーン上において指先よりも大きな明度調整領域401を設定する。第3の実施形態と比較すると、調整領域401が大きくなってしまうため、外周部に帯状に設定するのではなく、一部に円や多角形領域の内側として設定したほうがよい。明度調整領域401の大きさは、例えば、スクリーン上の指の大きさを基準として、指1.5本分〜3本分程度の大きさにする。これは、後述のステップS109において、形状を用いて指先を検出するために、指先形状が判別できるように、指先が明度調整領域401の内部に含まれる必要があるためである。
ステップS102、S107〜S112は、第3の実施形態と同一である。
第4の実施形態のインターフェイス装置によれば、スクリーンが移動するなどの理由により、投影範囲301の背景が変動する環境において、指先の形状だけを用いることで指先位置を安定して検出することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1,100…インターフェイス装置、2…撮像部、3…表示部、4…検出部、5…追加表示部、106…指示位置表示部

Claims (18)

  1. 指示物体の位置および方向に応じたインターフェイスを表示するインターフェイス装置であって、
    第1の画像フレーム群に基づく映像を表示する表示手段と、
    前記映像が表示された面を撮像することにより第2の画像フレーム群を得る撮像手段と、
    前記第1の画像フレーム群と前記第2の画像フレーム群とに基づいて、前記指示物体の位置および方向を検出する検出手段と、
    前記指示物体が検出された位置に一定照度以上の光が照射され、前記位置からの距離に応じて照度が減衰するように特定形状を前記インターフェイスと共に表示する追加表示手段と、を具備することを特徴とするインターフェイス装置。
  2. 前記検出手段は、前記特定形状に対応する領域において前記指示物体の位置および方向を検出することを特徴とする請求項1に記載のインターフェイス装置。
  3. 前記追加表示手段は、前記指示物体の周辺に配置され、前記指示物体とは重ならないように楕円の一部を切り欠いた円弧形状を有するインターフェイスを表示することを特徴とする請求項1に記載のインターフェイス装置。
  4. 前記追加表示手段は、
    前記指示物体により指示可能なメニューであって、該メニュー内に配列される複数のアイコン又はテキストを有し、該アイコン又はテキストは夫々コマンドに対応付けられるインターフェイス
    を表示することを特徴とする請求項1に記載のインターフェイス装置。
  5. 前記追加表示手段は、前記指示物体の方向に前記円弧形状の中心を位置付けるように前記インターフェイスを表示することを特徴とする請求項3に記載のインターフェイス装置。
  6. 前記追加表示手段は、前記指示物体の位置の一定時間以上の停滞又は前記位置の特定の軌跡に応じて、前記インターフェイスの表示を開始することを特徴とする請求項1に記載のインターフェイス装置。
  7. 前記追加表示手段は、前記指示物体の一定量以上の移動距離に応じて、前記インターフェイスの表示を終了することを特徴とする請求項1に記載のインターフェイス装置。
  8. 前記追加表示手段は、前記指示物体の方向に対応するアイコン又はテキストを他のアイコン又はテキストに対して強調して表示する請求項4に記載のインターフェイス装置。
  9. 前記追加表示手段は、前記指示物体により選択されたアイコン又はテキストを非選択のアイコン又はテキストに対して強調して表示する請求項4に記載のインターフェイス装置。
  10. 前記追加表示手段は、前記複数のアイコン又はテキストの一部を前記メニュー内に配列し、表示すべきアイコン又はテキストを変更するためのボタンを表示することを特徴とする請求項4に記載のインターフェイス装置。
  11. 前記追加表示手段は、前記指示物体の特定の移動軌跡に応じて、前記表示すべきアイコン又はテキストを変更することを特徴とする請求項10に記載のインターフェイス装置。
  12. 前記追加表示手段は、前記特定形状と重なり合うアイコン又はテキストを拡大表示し、あるいは前記特定形状と重なり合うアイコン又はテキストを吹き出しと共に表示することを特徴とする請求項4に記載のインターフェイス装置。
  13. 前記第1のフレーム群の各々のフレーム内の固定位置における特定領域の明るさを変更する固定位置明度調整手段をさらに具備することを特徴とする請求項1に記載のインターフェイス装置。
  14. 前記特定領域は、前記映像が表示される面の周辺の少なくとも一部であることを特徴とする請求項13に記載のインターフェイス装置。
  15. 前記検出手段は、前記特定領域の内側における前記指示物体の位置および該位置の変動を背景差分又はフレーム間差分により検出することを特徴とする請求項13に記載のインターフェイス装置。
  16. 前記第2の画像フレーム群において、前記表示手段により映像が表示されていない位置の画素値と予め与えられた閾値とを比較することにより、環境光の明るさを検出する周辺明るさ検出手段をさらに具備し、
    前記固定位置明度調整手段は、前記環境光の明るさに応じて、前記表示手段が表示する映像を変更することを特徴とする請求項13に記載のインターフェイス装置。
  17. 指示物体の位置および方向に応じたインターフェイスを表示するインターフェイス方法であって、
    表示手段が第1の画像フレーム群に基づく映像を表示することと、
    前記映像が表示された面を撮像手段が撮像することにより第2の画像フレーム群を得ることと、
    前記第1の画像フレーム群と前記第2の画像フレーム群とに基づいて、検出手段が前記指示物体の位置および方向を検出することと、
    前記指示物体が検出された位置に一定照度以上の光が照射され、前記位置からの距離に応じて照度が減衰するように特定形状を前記インターフェイスと共に追加表示手段が表示することとを含む方法。
  18. 指示物体の位置および方向に応じたインターフェイスを表示するプログラムであって、
    コンピュータを、
    第1の画像フレーム群に基づく映像を表示する表示手段、
    前記映像が表示された面を撮像することにより第2の画像フレーム群を得る撮像手段、
    前記第1の画像フレーム群と前記第2の画像フレーム群とに基づいて、前記指示物体の位置および方向を検出する検出手段、
    前記指示物体が検出された位置に一定照度以上の光が照射され、前記位置からの距離に応じて照度が減衰するように特定形状を前記インターフェイスと共に表示する追加表示手段、として機能させるためのプログラム。
JP2011020038A 2011-02-01 2011-02-01 インターフェイス装置、方法、およびプログラム Expired - Fee Related JP5197777B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011020038A JP5197777B2 (ja) 2011-02-01 2011-02-01 インターフェイス装置、方法、およびプログラム
US13/240,390 US8884985B2 (en) 2011-02-01 2011-09-22 Interface apparatus, method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011020038A JP5197777B2 (ja) 2011-02-01 2011-02-01 インターフェイス装置、方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2012160079A JP2012160079A (ja) 2012-08-23
JP5197777B2 true JP5197777B2 (ja) 2013-05-15

Family

ID=46576989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011020038A Expired - Fee Related JP5197777B2 (ja) 2011-02-01 2011-02-01 インターフェイス装置、方法、およびプログラム

Country Status (2)

Country Link
US (1) US8884985B2 (ja)
JP (1) JP5197777B2 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
JP6064319B2 (ja) * 2011-12-27 2017-01-25 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
JP6091133B2 (ja) * 2012-09-28 2017-03-08 キヤノン株式会社 投射型表示装置、及びそれに用いられる制御方法、及びプログラム
US20140139632A1 (en) * 2012-11-21 2014-05-22 Lsi Corporation Depth imaging method and apparatus with adaptive illumination of an object of interest
US9904414B2 (en) * 2012-12-10 2018-02-27 Seiko Epson Corporation Display device, and method of controlling display device
KR20150010132A (ko) * 2013-07-18 2015-01-28 삼성전자주식회사 외부 입력 장치를 제어하기 위한 전자 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
USD745533S1 (en) * 2013-08-27 2015-12-15 Tencent Technology (Shenzhen) Company Limited Display screen or a portion thereof with graphical user interface
CN104461312A (zh) * 2013-09-17 2015-03-25 联想(北京)有限公司 一种显示控制方法及电子设备
JP5802247B2 (ja) 2013-09-25 2015-10-28 株式会社東芝 情報処理装置
JP6343910B2 (ja) * 2013-11-20 2018-06-20 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
USD758403S1 (en) * 2014-03-04 2016-06-07 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD766282S1 (en) * 2014-04-23 2016-09-13 Google Inc. Display panel with an animated computer icon
JP6417702B2 (ja) * 2014-05-01 2018-11-07 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2016001354A (ja) * 2014-06-11 2016-01-07 パナソニックIpマネジメント株式会社 投影領域設定装置および当該投影領域設定装置を用いた作業検知システム
US9715724B2 (en) * 2014-07-29 2017-07-25 Applied Materials Israel Ltd. Registration of CAD data with SEM images
USD824417S1 (en) 2014-08-22 2018-07-31 Adp, Llc Display screen or portion thereof with graphical user interface
USD766297S1 (en) * 2014-12-31 2016-09-13 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
WO2017013860A1 (ja) * 2015-07-17 2017-01-26 日本電気株式会社 表示装置および表示システム
JP6565944B2 (ja) 2017-01-23 2019-08-28 トヨタ自動車株式会社 車両用入力装置、及び、車両用入力装置の制御方法
WO2019171635A1 (ja) * 2018-03-07 2019-09-12 Necソリューションイノベータ株式会社 操作入力装置、操作入力方法、及びコンピュータ読み取り可能な記録媒体
GB2575333B (en) 2018-12-21 2020-09-09 Imagination Tech Ltd Double-angle gradients
JP6664018B1 (ja) * 2019-03-08 2020-03-13 Tis株式会社 プログラム及び情報処理装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1139095A (ja) * 1997-07-18 1999-02-12 Canon Inc プレゼンテーション装置、その方法、及びペン入力装置
US20010030668A1 (en) * 2000-01-10 2001-10-18 Gamze Erten Method and system for interacting with a display
JP4856804B2 (ja) * 2000-03-15 2012-01-18 株式会社リコー メニュー表示制御装置、情報処理装置、電子黒板システム、メニュー表示システムの制御方法、情報処理システムの制御方法およびこれらの方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
US6853486B2 (en) * 2001-03-22 2005-02-08 Hewlett-Packard Development Company, L.P. Enhanced contrast projection screen
US7274356B2 (en) * 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7489306B2 (en) * 2004-12-22 2009-02-10 Microsoft Corporation Touch screen accuracy
KR20070006477A (ko) * 2005-07-08 2007-01-11 삼성전자주식회사 가변적 메뉴 배열 방법 및 이를 이용한 디스플레이 장치
JP2007072891A (ja) 2005-09-08 2007-03-22 Canon Inc プロジェクタ装置
JP2008152622A (ja) 2006-12-19 2008-07-03 Mitsubishi Electric Corp ポインティング装置
JP4848521B2 (ja) * 2007-03-29 2011-12-28 国立大学法人九州工業大学 プロジェクタ投影映像のマウス代替操作方法およびそのマウス代替操作システム
JP4991458B2 (ja) * 2007-09-04 2012-08-01 キヤノン株式会社 画像表示装置及びその制御方法
US9439736B2 (en) * 2009-07-22 2016-09-13 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for controlling a remote medical device guidance system in three-dimensions using gestures
US9274682B2 (en) * 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US9760123B2 (en) * 2010-08-06 2017-09-12 Dynavox Systems Llc Speech generation device with a projected display and optical inputs
US8593418B2 (en) * 2010-08-08 2013-11-26 Qualcomm Incorporated Method and system for adjusting display content

Also Published As

Publication number Publication date
JP2012160079A (ja) 2012-08-23
US8884985B2 (en) 2014-11-11
US20120194545A1 (en) 2012-08-02

Similar Documents

Publication Publication Date Title
JP5197777B2 (ja) インターフェイス装置、方法、およびプログラム
US10659681B2 (en) Information processing apparatus, information processing method, and program
JP5560721B2 (ja) 画像処理装置、画像表示システム、及び画像処理方法
US10134118B2 (en) Information processing apparatus and method of obtaining information about a projection surface on which a target is projected
WO2012120958A1 (ja) 投影装置
JP5769516B2 (ja) 画像処理装置及びその制御方法
JP2012185630A (ja) 投影装置
JP2009031334A (ja) プロジェクタ及びプロジェクタの投射方法
US20140333585A1 (en) Electronic apparatus, information processing method, and storage medium
JP4733600B2 (ja) 操作検出装置とそのプログラム
JP5817149B2 (ja) 投影装置
KR101631015B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP2012238293A (ja) 入力装置
JP4848521B2 (ja) プロジェクタ投影映像のマウス代替操作方法およびそのマウス代替操作システム
US20130162518A1 (en) Interactive Video System
US20150248221A1 (en) Image processing device, image processing method, image processing system, and non-transitory computer readable medium
JP6229554B2 (ja) 検出装置および検出方法
JP6280005B2 (ja) 情報処理装置、画像投影装置および情報処理方法
JP6057407B2 (ja) タッチ位置入力装置及びタッチ位置入力方法
JP2019087136A (ja) 画面表示制御方法および画面表示制御システム
Pfeiffer et al. WebcamPaperPen: A Low-Cost Graphics Tablet
JP2019016141A (ja) 入力装置及び入力方法
JP2015219547A (ja) 機器制御システム、機器制御プログラムおよび機器制御装置
JP2024032042A (ja) 検出方法、検出装置及びプログラム
KR20100110661A (ko) 화면 투사 표면상에서 이루어지는 사용자의 조작에 따라 투사될 화면의 속성을 결정하는 디스플레이 방법 및 장치

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees