JP2017182246A - 表示装置および情報処理方法 - Google Patents

表示装置および情報処理方法 Download PDF

Info

Publication number
JP2017182246A
JP2017182246A JP2016065208A JP2016065208A JP2017182246A JP 2017182246 A JP2017182246 A JP 2017182246A JP 2016065208 A JP2016065208 A JP 2016065208A JP 2016065208 A JP2016065208 A JP 2016065208A JP 2017182246 A JP2017182246 A JP 2017182246A
Authority
JP
Japan
Prior art keywords
user
image
pen
instruction
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016065208A
Other languages
English (en)
Inventor
康弘 本田
Yasuhiro Honda
康弘 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016065208A priority Critical patent/JP2017182246A/ja
Publication of JP2017182246A publication Critical patent/JP2017182246A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】指示体の位置に応じた処理をより簡単に切り替える表示装置及び情報処理方法を提供する。【解決手段】表示装置1は、表示面に画像を表示する表示手段12と、表示面における指示体20の位置を検知する検知手段13と、指示体20を操作するユーザーの像を撮影する撮影手段14と、撮影手段14により撮影された像に応じて、ユーザーが片手で指示入力をしているか両手で指示入力をしているか判断する判断手段15と、ユーザーが片手で指示入力をしていると判断された場合、検知手段13により検知された位置に応じて第1処理を行い、ユーザーが両手で指示入力をしていると判断された場合、この位置に応じて第1処理と異なる第2処理を行う処理手段16とを有する。【選択図】図1

Description

本発明は、表示面において検知された指示体の位置に応じた処理を行う技術に関する。
プロジェクター等の表示装置において、ユーザーの手や電子ペン等の指示体を用いて指示入力を行う技術が知られている。例えば特許文献1には、指示体を用いて描画を行うモードと指示体をポインティングデバイスとして用いるモードとを、ツールバーに対する操作で切り替える技術が記載されている。特許文献2には、マルチタッチの操作システムにおいて、両手でのピンチ動作と片手でのピンチ動作とを区別して認識する技術が知られている。
特開2013−247486号公報 特開2015−138360号公報
特許文献1に記載の技術においては、モードを切り替える際にツールバーに対して操作を行う必要があり、煩雑であった。また特許文献2に記載の技術においては、両手操作でも片手操作でもピンチ処理(ピンチインまたはピンチアウト)が行われるものであった。
これに対し本発明は、指示体の位置に応じた処理をより簡単に切り替える技術を提供する。
本発明は、表示面に画像を表示する表示手段と、前記表示面における指示体の位置を検知する検知手段と、前記指示体を操作するユーザーの像を撮影する撮影手段と、前記撮影手段により撮影された像に応じて、前記ユーザーが片手で指示入力をしているか両手で指示入力をしているか判断する判断手段と、前記ユーザーが片手で指示入力をしていると判断された場合、前記検知手段により検知された位置に応じて第1処理を行い、前記ユーザーが両手で指示入力をしていると判断された場合、前記位置に応じて前記第1処理と異なる第2処理を行う処理手段とを有する表示装置を提供する。
この表示装置によれば、指示入力が片手で行われているか両手で行われているかに応じて第1処理と第2処理とを切り替えることができる。
前記表示面に表示される画像は映像供給装置から供給され、前記第1処理は、前記位置の軌跡に応じた画像オブジェクトを描画する処理であり、前記第2処理は、前記映像供給装置に指示を送信する処理であってもよい。
この表示装置によれば、指示入力が片手で行われているか両手で行われているかに応じて画像オブジェクトを描画する処理と映像供給装置に指示を送信する処理とを切り替えることができる。
前記撮影手段により撮影された像に第1ユーザーおよび第2ユーザーの像が含まれ、前記判断手段により前記第1ユーザーが両手で指示入力をしていると判断され、かつ前記第1ユーザーにより特定の指示入力が行われた場合、前記処理手段は、前記第2ユーザーの指示入力を無視してもよい。
この表示装置によれば、第2のユーザーの誤操作を防止することができる。
前記検知手段が前記ユーザーの手および前記手から所定の範囲内においてペンを検知した場合、前記処理手段は、前記ペンの位置に応じて、前記検知手段が前記ペンのみまたは前記ユーザーの指のみを検知した場合と異なる処理を行ってもよい。
この表示装置によれば、手とペンとの位置関係に応じて処理を切り替えることができる。
前記検知手段は、前記ペンの向きを検知し、前記検知手段が前記ユーザーの手および前記手から所定の範囲内においてペンを検知した場合において前記ペンが前記表示面を向いていたときは、前記処理手段は、前記ペンの位置に応じて、前記検知手段が前記ペンのみを検知した場合と同じ処理を行い、前記ペンが前記表示面と反対を向いていたときは、前記処理手段は、前記ペンの位置に応じて、前記検知手段が前記ペンのみを検知した場合と異なる処理を行ってもよい。
この表示装置によれば、ペンの向きに応じて処理を切り替えることができる。
また、本発明は、表示面に画像を表示するステップと、前記表示面における指示体の位置を検知するステップと、前記指示体を操作するユーザーの像を取得するステップと、前記取得された像に応じて、前記ユーザーが片手で指示入力をしているか両手で指示入力をしているか判断するステップと、前記ユーザーが片手で指示入力をしていると判断された場合、前記検知された位置に応じて第1処理を行うステップと、前記ユーザーが両手で指示入力をしていると判断された場合、前記検知された位置に応じて前記第1処理と異なる第2処理を行うステップとを有する情報処理方法を提供する。
この情報処理方法によれば、指示入力が片手で行われているか両手で行われているかに応じて第1処理と第2処理とを切り替えることができる。
一実施形態に係る表示装置1の機能構成を例示する図。 表示装置1のハードウェア構成を例示する図。 システム構成を例示する図。 表示装置1の一実施形態に係る動作を示すフローチャート。 ユーザー像を例示する図。 第1処理の具体例を示す図。 第1処理の具体例を示す図。 第1処理の具体例を示す図。 第2処理の具体例を示す図。 第2処理の具体例を示す図。 第1処理の具体例を示す図。 表示装置1の別の処理を示すフローチャート。
1.構成
図1は、一実施形態に係る表示装置1の機能構成を例示する図である。表示装置1は、表示面における指示体20の位置に応じた処理を行う機能を有する。指示体20の位置に応じた処理には、少なくとも第1処理および第2処理の2種類がある。表示装置1は、これら2種類の処理のうちアクティブな処理を自動的に切り替える。
表示装置1は、入力手段11、表示手段12、検知手段13、撮影手段14、判断手段15、処理手段16、および記憶手段17を有する。入力手段11は、表示される画像の入力を受け付ける。表示手段12は、入力手段11を介して入力された画像を表示面に表示する。検知手段13は、表示面における指示体20の位置を検知する。撮影手段14は、指示体20を操作するユーザーの像を撮影する。判断手段15は、撮影手段14により撮影された像に応じて、そのユーザーが片手で指示入力(操作)をしているか両手で指示入力をしているか判断する。処理手段16は、検知手段13により検知された位置に応じた処理として、第1処理または第2処理を行う。第1処理および第2処理は、互いに異なる処理である。ユーザーが片手で指示入力をしていると判断された場合、処理手段16は第1処理を行う。ユーザーが両手で指示入力をしていると判断された場合、処理手段16は第2処理を行う。記憶手段17は、各種のデータを記憶する。
図2は、表示装置1のハードウェア構成を例示する図である。この例で、表示装置1はプロジェクターである。表示装置1は、CPU(Central Processing Unit)100、ROM(Read Only Memory)101、RAM(Random Access Memory)102、IF部104、画像処理回路105、投写ユニット106、操作パネル107、カメラ108、および光照射部109を有する。
CPU100は、表示装置1の各部を制御する制御装置である。ROM101は、各種プログラムおよびデータを記憶した不揮発性の記憶装置である。RAM102は、データを記憶する揮発性の記憶装置であり、CPU100が処理を実行する際のワークエリアとして機能する。
IF部104は、外部装置と信号またはデータのやりとりを仲介するインターフェースである。IF部104は、外部装置と信号またはデータのやりとりをするための端子(例えば、VGA端子、USB端子、有線LANインターフェース、S端子、RCA端子、HDMI(High-Definition Multimedia Interface:登録商標)端子、マイクロフォン端子など)および無線LANインターフェースを含む。これらの端子は、映像入力端子に加え、映像出力端子を含んでもよい。IF部104は、異なる複数の映像供給装置から映像信号の入力を受け付けてもよい。
画像処理回路105は、入力された映像信号(以下「入力映像信号」という)に所定の画像処理(例えばサイズ変更、台形補正等)を施す。
投写ユニット106は、画像処理が施された映像信号に従って、投写面SC(表示面の一例)に画像を投写する。投写ユニット106は、光源、光変調器、および光学系(いずれも図示略)を有する。光源は、高圧水銀ランプ、ハロゲンランプ、もしくはメタルハライドランプなどのランプ、またはLED(Light Emitting Diode)もしくはレーザーダイオードなどの固体光源、およびこれらの駆動回路を含む。光変調器は、光源から照射された光を映像信号に応じて変調する装置であり、例えば液晶パネルまたはDMD(Digital Mirror Device)、およびこれらの駆動回路を有する。なお、液晶パネルは、透過型および反射型のいずれの方式であってもよい。光学系は、光変調器により変調された光を投写面SCに投写する素子などで構成されており、例えばミラー、レンズ、およびプリズムを有する。光源および光変調器は色成分毎に設けられていてもよい。
操作パネル107は、ユーザーが表示装置1に対し指示を入力するための入力装置であり、例えば、キーパッド、ボタン、またはタッチパネルを含む。
カメラ108は、指示体の位置を特定するためのカメラである。この例で、表示装置1は、ユーザーの指に加え、専用の電子ペンを指示体として検知することができる。電子ペンは、ペン先に設けられた発光体(例えば赤外線発光ダイオード)、圧力センサー、および制御回路(いずれも図示略)を有する。圧力センサーによりペン先が物体(投写面等)に触れたことが検知されると、制御回路は、所定の発光パターンで発光体を発光させる。CPU100は、カメラ108が撮影した画像から指示体の位置を検知(特定)する。CPU100は、例えば発光パターンの違いまたは発光波長の違いにより、複数の指示体を区別することができる。
光照射部109は、ユーザーの指を検知するための検出光を照射する。検出光としては例えば赤外線のレーザー光が用いられる。光照射部109は、投写面SCを覆うようにカーテン状にレーザー光を照射する。光照射部109は、レーザー光を発する発光素子と、レーザー光を平面状に拡散するための光学部材を有する。なお、光照射部109は、他の要素とは独立した筐体に収められており、表示装置1の本体とは有線または無線で通信する。
この例で、ROM101は、表示装置1に図1の機能を実装するためのプログラムを記憶している。CPU100がこのプログラムを実行することにより、図1の機能が実装される。このプログラムを実行しているCPU100は、検知手段13、判断手段15、および処理手段16の一例である。ROM101およびRAM102は、記憶手段17の一例である。IF部104は、入力手段11の一例である。投写ユニット106は、表示手段12の一例である。カメラ108は、撮影手段14の一例である。
図3は、システム構成を例示する図である。表示装置1は、映像供給装置30から供給される画像を表示する。映像供給装置30は、例えば、パーソナルコンピューター、DVD(Digital Versatile Disk)プレーヤー、または書画カメラである。この例で、表示装置1はいわゆる短焦点のプロジェクターであり、投写面SCとなる壁面に設置されている。表示装置1の下側に映像が投写される。また、表示装置1はいわゆるインタラクティブプロジェクターであり、指示体20の位置に応じた処理を行う。指示体20としては、電子ペンおよびユーザーの指が用いられる。ユーザーの指の位置の検知には、光照射部109から出力されるレーザーカーテンが用いられる。投写面SCに指を近づけると、レーザー光が指で反射される。プロジェクターはカメラで投写面SCを撮影し、反射光から指の位置を検知する。電子ペンの位置の検知には、電子ペンが自ら発光する光が用いられる。
2.動作
図4は、表示装置1の一実施形態に係る動作を示すフローチャートである。図4のフローは、例えば、表示装置1の電源が投入されたことを契機として開始される。
ステップS1において、CPU100は、ユーザー像を取得する。ユーザー像とは、カメラ108により撮影された画像をいい、投写面SCを、その前に立って指示体20を操作するユーザーも含めて撮影した画像をいう。ステップS2において、CPU100は、ユーザー像からユーザーの形状を取得する。ユーザーの形状とは、ユーザーの大まかな外形をいう。CPU100は、ユーザー像に対しエッジ検出等の画像処理を行うことによりユーザーの形状を取得する。
図5は、ユーザー像を例示する図である。この例では、ユーザーは右手に電子ペン21を持ってこれを操作し、左手の指Fで投写面SCをタッチして指示入力を行っている。なおカメラ108で撮影される画像は、カメラ108と投写面SCとの位置関係に応じて歪んでいるが、ここでは説明のためその歪みを補正した画像を示している。
再び図4を参照する。ステップS3において、CPU100は、ユーザー像から電子ペン21の位置およびユーザーの指Fの位置を検知する。電子ペン21は、例えばペン先が投写面SCにタッチすると特定の波長帯(例えば赤外線)の光を発光する。CPU100は、ユーザー像におけるこの発光の像から電子ペン21の位置を特定する。また、指Fが投写面SCに近づくと、光照射部109から出力されるレーザー光が指Fで反射される。CPU100は、ユーザー像におけるこの反射光の像から指Fの位置を特定する。なお、電子ペン21と指Fとは、例えば発光タイミングを異ならせることにより区別される。この場合、例えば光照射部109の発光動作は複数の期間に区分され、このうち一部の期間でのみ光照射部109はレーザー光を出力する。一方で電子ペン21は、光照射部109がレーザー光を出力するのと異なるタイミングで発光する。CPU100は、これら複数の期間に渡って撮影されたユーザー像から、電子ペン21および指Fの位置を検知する。あるいは、電子ペン21と指Fとは、光の波長帯を異ならせることにより区別されてもよい。また、電子ペン21が発光するのではなく、電子ペン21の位置も、レーザー光が電子ペン21で反射される反射光の位置から特定するようにしてもよい。
ステップS4において、CPU100は、ユーザー像に含まれるユーザーの人数を検知する。ユーザーの人数は、ユーザー像から検知される。例えばCPU100は、ユーザー像のうちユーザーの頭および腕に相当する部分を特定し、頭と特定された部分の数によってユーザーの人数を検知する。複数のユーザーが検知された場合、CPU100は、各ユーザーに識別子を付与する。ステップS5において、CPU100は、検知された指示体20(電子ペン21および指F)の位置を、ユーザーの識別子とともにRAM102に記憶する。
ステップS6において、CPU100は、ユーザー像に含まれるユーザーが、片手で指示入力を行っているか両手で指示入力を行っているか判断する。ユーザー像に複数のユーザーが含まれる場合、この判断は、ユーザー毎に行われる。そのユーザーに対応する指示体が2つ検知された場合、CPU100は、ユーザーが両手で指示入力を行っていると判断する。そのユーザーに対応する指示体が1つだけ検知された場合、CPU100は、ユーザーが片手で指示入力を行っていると判断する。片手で指示入力を行っていると判断された場合(S6:S)、CPU100は、処理をステップS7に移行する。両手で指示入力を行っていると判断された場合(S6:D)、CPU100は、処理をステップS8に移行する。
ステップS7において、CPU100は、指示体20の位置に応じて第1処理を行う。この例で、第1処理は、指示体20の位置の軌跡に応じた画像オブジェクトを描画する処理である。すなわち、CPU100は、指示体の位置の軌跡に応じた画像オブジェクトのデータを生成する。さらにCPU100は、この画像オブジェクトを背景画像(映像供給装置30から供給された画像)と重ねた画像を合成する。CPU100は、この合成された画像を投写するよう、投写ユニット106を制御する。
ステップS8において、CPU100は、指示体20の位置に応じて第2処理を行う。この例で、第2処理は、指示体20の位置を示す位置情報を映像供給装置30に出力する処理である。映像供給装置30に位置情報が出力される指示体20は、検知された2つの指示体のうち特定の指示体、例えば指Fである。映像供給装置30は、表示装置1から出力されたこの位置情報を用いて処理を行う。映像供給装置30は、例えば、表示装置1を仮想的なポインティングデバイスとして認識し、表示装置1から出力されたこの位置情報により例えばマウスカーソルを移動させる。
ステップS1〜S8の処理は、所定の周期で繰り返し実行される。また、ステップS1〜S8の処理と並行して、CPU100は、投写ユニット106に、投写面SCに画像を表示するステップを実行させる。
図6A〜Cおよび図7A〜Cは、第1処理および第2処理の具体例を示す図である。この例では、まずユーザーUは右手で電子ペン21を持ち、背景画像が投写されている投写面SC上で円を描くように電子ペン21を動かしている。このときは電子ペン21の位置について第1処理が行われ、背景画像に重ねて円が描画される(図6A〜C)。その後、ユーザーUが左手の指Fでツールバー上のボタンBに相当する位置にタッチすると、指Fの位置について第2処理が行われ、ボタンBに相当する操作(例えば背景画像のスクロール)が行われる(図7A〜B)。さらにその後、ユーザーUが左手を投写面SCから離して電子ペン21を投写面SC上で動かすと、電子ペン21の軌跡に応じた画像が描かれる(図7C)。
このように本実施形態によれば、メニューバーやボタンに対する操作によらず、ユーザーが片手で指示入力を行っているか両手で指示入力を行っているかに応じて第1処理と第2処理とが切り替えられる。第1処理と第2処理とを簡単に切り替えることができる。
図8は、表示装置1の別の処理を示すフローチャートである。図8のフローは、図4のフローと並行して行われる。ステップS11において、CPU100は、複数のユーザーが検知されたか判断する(すなわち、第1ユーザーおよび第2ユーザーの像が含まれるか判断する)。ステップS11の判断は、ステップS4の検知結果に基づいて行われる。複数のユーザーが検知されていないと判断された場合(S11:NO)、CPU100は、複数のユーザーが検知されるまで待機する。複数のユーザーが検知されたと判断された場合(S11:YES)、CPU100は、処理をステップS12に移行する。
ステップS12において、CPU100は、少なくとも1人のユーザーの指示入力が特定の条件を満たしたか判断する。ここでいう特定の条件とは、他のユーザーの誤操作を招くおそれがある操作であり、例えば、指示体20の位置の軌跡に応じた画像オブジェクトを描画する処理以外の処理である。例えば指示体20の位置情報を映像供給装置に出力する処理が行われると、背景画像が変更(例えばスクロールまたは次のページへの移行)される可能性がある。あるユーザーが背景画像を変更する指示入力を行っているときに他のユーザーが画像オブジェクトを描画する指示入力を行うと誤入力となる可能性がある。したがって、他のユーザーの誤入力を防止する観点から、背景画像を変更する(またはその可能性がある)指示入力が行われているか否か判断される。どのユーザーの指示入力も特定の条件を満たしていないと判断された場合(S12:NO)、CPU100は、処理をステップS11に移行する。少なくとも1人のユーザーの指示入力が特定の条件を満たしたと判断された場合(S12:YES)、CPU100は、処理をステップS13に移行する。
ステップS13において、CPU100は、特定の条件を満たす指示入力を行ったユーザー以外のユーザーの指示入力を無視する処理を行う。すなわち、あるユーザーが背景画像を変更するための指示入力を行っているときは、CPU100は他のユーザーの指示入力を無視する。この間、他のユーザーが投写面SC上で電子ペンを動かしても画像オブジェクトの描画は行われない。この例によれば、他のユーザーの誤操作を防止することができる。
3.変形例
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
3−1.変形例1
検知手段13がユーザーの手および電子ペンを検知した場合において、電子ペンがユーザーの手から所定の範囲(例えばその手に保持されていると判断される範囲)にあると判断されたときは、処理手段16は、電子ペンのみまたは指のみが検知された場合と異なる処理を行ってもよい。電子ペンのみまたは指のみが検知された場合に第1処理が行われるときは、「電子ペンのみまたは指のみが検知された場合と異なる処理」は第2処理であってもよいし、第1処理および第2処理のいずれとも異なる第3処理であってもよい。
一例としては、ユーザーが右手で電子ペンを持ったまま右手の指で投写面SCにタッチした場合、処理手段16は、検知された指の位置に関して第2処理を行う。なお、この処理は、ユーザーが片手で指示入力を行っているか両手で指示入力を行っているかによらずに行われてもよい。
3−2.変形例2
変形例1において、さらに電子ペンの向きが考慮されてもよい。この場合、検知手段13は、電子ペンの向きを検知する。この例で電子ペンは、ペン先が投写面SCに接しているときだけでなく、ペン先が投写面SCに接していないときも発光する。ペン先が投写面SCに接しているときと接していないときとでは、発光するタイミングまたは発光する波長帯が異なっており、CPU100は、これによってペン先が投写面SCに接しているかまたは接していないか、すなわち、電子ペンが投写面SCの方を向いているか反対を向いているか判断する。電子ペンが投写面SCの方を向いていると判断された場合、CPU100は、電子ペンのみまたは指のみが検知された場合と同じ処理、すなわち第1処理を行う。電子ペンが投写面SCと反対を向いていると判断された場合、CPU100は、電子ペンのみまたは指のみが検知された場合と異なる処理を行う。「電子ペンのみまたは指のみが検知された場合と異なる処理」については変形例1で説明したとおりである。
3−3.変形例3
第1処理および第2処理は実施形態で例示したものに限定されない。第1処理および第2処理は、検知された位置を示す情報の出力先が異なるものであれば、それぞれどのような処理であってもよい。ここでいう「情報の出力先」とは、実施形態で例示したようなハードウェアとしての出力先(表示装置1か映像供給装置30か)である。あるいは別の例で、「情報の出力先」は単一のハードウェア内における異なるソフトウェアコンポーネントであってもよい。実施形態では背景画像が映像供給装置30により供給される例を説明したが、背景画像は表示装置1の「背景表示モジュール」という、指示体20の位置の軌跡に応じて画像オブジェクトの描画を行うソフトウェアコンポーネント(以下「描画モジュール」という)とは別のソフトウェアコンポーネントにより供給されてもよい。この場合、処理手段16は第1処理として描画モジュールに位置情報を出力し、第2処理として背景表示モジュールに位置情報を出力する。
3−4.変形例4
図8のフローにおいて指示入力が特定の条件を満たした場合の処理は他のユーザーの指示入力を無視するものに限定されない。他のユーザーの指示入力を無視するのに代えて、特定の条件を満たした指示入力を行ったユーザーの指示入力を無視してもよい。また、特定の条件を満たす指示入力を行ったユーザーが複数存在した場合、指示入力の内容等によって優先順位を付け、優先順位の低いユーザーの指示入力を無視してもよい。
3−5.他の変形例
図1に例示した機能を実現するための表示装置1のハードウェア構成は、図2に例示したものに限定されない。要求される機能を実現できるものであれば、表示装置1はどのようなハードウェア構成を有していてもよい。例えば、ユーザー像を撮像するためのカメラと、指示体20の位置を検知するためのカメラとは別であってもよい。また、表示装置1は、プロジェクターではなく直視の表示装置であってもよい。
CPU100によって実行されるプログラムは、光ディスク、半導体メモリー等の各種記憶された状態で提供されてもよい。あるいは、このプログラムは、インターネット等のネットワークを介してダウンロードおよびインストールされてもよい。
1…表示装置、11…入力手段、12…表示手段、13…検知手段、14…撮影手段、15…判断手段、16…処理手段、17…記憶手段、100…CPU、101…ROM、102…RAM、104…IF部、105…画像処理回路、106…投写ユニット、107…操作パネル、108…カメラ、109…光照射部

Claims (6)

  1. 表示面に画像を表示する表示手段と、
    前記表示面における指示体の位置を検知する検知手段と、
    前記指示体を操作するユーザーの像を撮影する撮影手段と、
    前記撮影手段により撮影された像に応じて、前記ユーザーが片手で指示入力をしているか両手で指示入力をしているか判断する判断手段と、
    前記ユーザーが片手で指示入力をしていると判断された場合、前記検知手段により検知された位置に応じて第1処理を行い、前記ユーザーが両手で指示入力をしていると判断された場合、前記位置に応じて前記第1処理と異なる第2処理を行う処理手段と
    を有する表示装置。
  2. 前記表示面に表示される画像は映像供給装置から供給され、
    前記第1処理は、前記位置の軌跡に応じた画像オブジェクトを描画する処理であり、
    前記第2処理は、前記映像供給装置に指示を送信する処理である
    ことを特徴とする請求項1に記載の表示装置。
  3. 前記撮影手段により撮影された像に第1ユーザーおよび第2ユーザーの像が含まれ、
    前記判断手段により前記第1ユーザーが両手で指示入力をしていると判断され、かつ前記第1ユーザーにより特定の指示入力が行われた場合、前記処理手段は、前記第2ユーザーの指示入力を無視する
    ことを特徴とする請求項1または2に記載の表示装置。
  4. 前記検知手段が前記ユーザーの手および前記手から所定の範囲内においてペンを検知した場合、前記処理手段は、前記ペンの位置に応じて、前記検知手段が前記ペンのみまたは前記ユーザーの指のみを検知した場合と異なる処理を行う
    ことを特徴とする請求項1ないし3のいずれか一項に記載の表示装置。
  5. 前記検知手段は、前記ペンの向きを検知し、
    前記検知手段が前記ユーザーの手および前記手から所定の範囲内においてペンを検知した場合において前記ペンが前記表示面を向いていたときは、前記処理手段は、前記ペンの位置に応じて、前記検知手段が前記ペンのみを検知した場合と同じ処理を行い、前記ペンが前記表示面と反対を向いていたときは、前記処理手段は、前記ペンの位置に応じて、前記検知手段が前記ペンのみを検知した場合と異なる処理を行う
    ことを特徴とする請求項4に記載の表示装置。
  6. 表示面に画像を表示するステップと、
    前記表示面における指示体の位置を検知するステップと、
    前記指示体を操作するユーザーの像を取得するステップと、
    前記取得された像に応じて、前記ユーザーが片手で指示入力をしているか両手で指示入力をしているか判断するステップと、
    前記ユーザーが片手で指示入力をしていると判断された場合、前記検知された位置に応じて第1処理を行うステップと、
    前記ユーザーが両手で指示入力をしていると判断された場合、前記検知された位置に応じて前記第1処理と異なる第2処理を行うステップと
    を有する情報処理方法。
JP2016065208A 2016-03-29 2016-03-29 表示装置および情報処理方法 Pending JP2017182246A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016065208A JP2017182246A (ja) 2016-03-29 2016-03-29 表示装置および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016065208A JP2017182246A (ja) 2016-03-29 2016-03-29 表示装置および情報処理方法

Publications (1)

Publication Number Publication Date
JP2017182246A true JP2017182246A (ja) 2017-10-05

Family

ID=60007404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016065208A Pending JP2017182246A (ja) 2016-03-29 2016-03-29 表示装置および情報処理方法

Country Status (1)

Country Link
JP (1) JP2017182246A (ja)

Similar Documents

Publication Publication Date Title
US10921930B2 (en) Display apparatus, display system, and method for controlling display apparatus
JP6075122B2 (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
JP6340958B2 (ja) プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法
CN105938413B (zh) 显示装置以及显示控制方法
US10276133B2 (en) Projector and display control method for displaying split images
JP4283317B2 (ja) プロジェクタシステム
JP2012256000A (ja) 投写型映像表示装置
JP2011043876A (ja) 画像表示装置
JP2012053584A (ja) 情報表示システムおよびプログラム
JP2017009829A (ja) 画像投影装置、画像投影システムおよび映像供給装置
TWI691890B (zh) 顯示裝置、投影機及顯示控制方法
US11073949B2 (en) Display method, display device, and interactive projector configured to receive an operation to an operation surface by a hand of a user
JP6569259B2 (ja) 位置検出装置、表示装置、位置検出方法、及び、表示方法
TWI653540B (zh) 顯示裝置、投影機、及顯示控制方法
JP2012181721A (ja) 位置入力装置、プロジェクター、プロジェクターの制御方法、及び、表示システム
JP2012053603A (ja) 情報表示システム
JP2017010314A (ja) 画像投影システム、画像投影装置、ポインティングデバイス、および映像供給装置
JP2017182246A (ja) 表示装置および情報処理方法
JP6540275B2 (ja) 表示装置および画像表示方法
US20160320897A1 (en) Interactive display system, image capturing apparatus, interactive display method, and image capturing method
JP7149915B2 (ja) 投影装置、投影方法及びプログラム
JP2016103060A (ja) 画像投影装置、画像投影システムおよび映像供給装置
JP2017090957A (ja) 画像投影装置および画像投影システム
JP6520227B2 (ja) 表示装置および表示制御方法
JP2013050622A (ja) 投写型映像表示装置

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180907