JP2015043154A5 - - Google Patents

Download PDF

Info

Publication number
JP2015043154A5
JP2015043154A5 JP2013174678A JP2013174678A JP2015043154A5 JP 2015043154 A5 JP2015043154 A5 JP 2015043154A5 JP 2013174678 A JP2013174678 A JP 2013174678A JP 2013174678 A JP2013174678 A JP 2013174678A JP 2015043154 A5 JP2015043154 A5 JP 2015043154A5
Authority
JP
Japan
Prior art keywords
predetermined object
information processing
processing apparatus
operation surface
indicated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013174678A
Other languages
English (en)
Other versions
JP2015043154A (ja
JP6202942B2 (ja
Filing date
Publication date
Application filed filed Critical
Priority to JP2013174678A priority Critical patent/JP6202942B2/ja
Priority claimed from JP2013174678A external-priority patent/JP6202942B2/ja
Priority to US14/464,436 priority patent/US9513715B2/en
Priority to CN201410425710.9A priority patent/CN104423881B/zh
Publication of JP2015043154A publication Critical patent/JP2015043154A/ja
Publication of JP2015043154A5 publication Critical patent/JP2015043154A5/ja
Application granted granted Critical
Publication of JP6202942B2 publication Critical patent/JP6202942B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

近年では、AR(Augmented Reality)やMR(Mixed Reality)といった環境において、物理的には存在しない操作面(仮想面)に対するタッチ操作が行われる場面がある。また、プロジェクションによってユーザインタフェース(以下、UI)を壁や机など任意の操作面に投影し、投影したUIに対してタッチ操作が行われる場面がある。このような場面においては、ステレオカメラや距離画像センサ等を用い、操作面と、操作を行う指示部として認識すべき認識対象(例えばユーザの指先)との間の距離に基づく判断により、両者が接触しているか否かを判断することが多い。具体的には、操作面と、ユーザの指先との間の距離に所定の閾値を設ける。そして、当該距離が閾値より小さければ、操作面がタッチされている状態を示す「タッチ状態」、閾値より大きければ操作面がタッチされていない状態を示す「非タッチ状態(リリース状態)」であるという判定を行う。そして、非タッチ状態からタッチ状態に移行した時点での指先の位置を、タッチ位置と推定する。そして、タッチ状態から非タッチ状態に移行した時点での指先の位置を、タッチが終了する位置リリース位置と推定する。
上記課題を解決するため、本発明に係る情報処理装置は、操作面と所定の物体との近接状態が所定の条件を満たしている間、前記操作面が前記所定の物体によってタッチされている判定する状態判定手段と、前記所定の物体によって示される指示位置を検出する位置検出手段と、前記状態判定手段により、前記操作面が前記所定の物体によってタッチされていると判定されている間に、前記位置検出手段によって検出された指示位置が静止したとみなされる位置を、前記所定の物体によってタッチされた前記操作面上の位置であると特定する特定手段と、備えることを特徴とする。
推定部307は、位置検出部302が検出している指示位置の動きを追跡し、タッチ状態の間の1以上の通過点から、所定の条件に基づいて、タッチの開始位置と終了位置とを推定する。本実施形態では、タッチ状態の間に指示位置が静止したとみなされる時の位置を、タッチの開始位置あるいは終了位置と推定する。両者は一致する場合もある。本実施形態の推定部307は、まず画像取得部300によって取得された前のフレームの赤外強度画像から検出された指示位置と、最新のフレームの赤外強度画像から検出された指示位置との差分を、指示位置の移動距離として取得する。そして、取得した移動距離が所定の距離の閾値よりも小さい場合に、指示位置が静止したとみなし、最新のフレームの赤外強度画像から検出された指示位置を、タッチ位置であると推定する。このような推定方法を用いることで、指示位置が静止したとみなせるか否かを判定するために保持しておくべき情報が、少なくてすむ。ただし、連続するフレームについて指示位置が静止し続けているとみなされる場合には、再び動き始めるまでをまとめて指示位置が静止した回数は1回であると捉えてもよい。
上述したように、一般的に操作面とユーザの指先との間の距離に閾値を設けてタッチ判定する場合、当該距離が閾値以下ならばタッチ状態、閾値より大きいなら非タッチ状態と判定される。そして、非タッチ状態からタッチ状態に移行した時点での指先の位置がタッチ位置であると推定される。また、タッチ状態から非タッチ状態に移行した時点での指先の位置が、リリース位置であると推定される。また、タップ操作に係るタップ位置は、タッチ位置によって定義されることが多い。このとき使用される閾値は、距離を検出する手段の分解能に適した値が設定される。例えば、分解能に一致する値とすれば、操作面が触れられているか否かをより厳密に区別することになる。また例えば、ユーザの使い勝手に合わせて、分解能より大きい値(数cm)とすることで、必ずしも操作面に触れなくとも、操作面に指先をある程度近づけた段階でタッチ状態と判定することができるようになる。
次に、ステップS203において、変換部305は、算出した指先輝度を指先と赤外カメラ208間の垂直距離Lfに変換する。本実施例では、空間上での座標が既知である複数の点群の輝度を予め測定しておくことによって、任意の座標に位置する指先の輝度から垂直距離Lfを取得する。つまり、変換式を作成して垂直距離Lfを算出する。また、赤外カメラ208からテーブル101までの垂直距離Ltも予め分かっているので、指先とテーブル間の垂直距離hL(高さ)は、以下の式1で求められる。
次に、図7は、ユーザによってムーブ操作が行われた場合に本実施形態の情報処理装置100が行う処理の流れと、推定されるムーブ操作の開始位置、終了位置を説明する図である。図6と同名称、及び同番号で示されるものの定義は図6に準ずる。図7(B)は、ユーザがpos1からpos2までのムーブ操作する際に、指先がr2⇒r3⇒r4の経路を通過することを示す。ムーブ操作の場合も、まずユーザの指先が、点線700で示される闘値1を通過する。このとき取得される垂直距離hLは、図7(C)の点70に対応する。図6のタップ操作の場合と同様の処理により、この段階で「タッチ」イベントが通知される(ステップS20)。
以上説明したように、本実施形態では、ユーザの指先が、タッチの開始時および終了時に動きを静止する性質を利用して、タッチ入力の開始位置と終了位置を推定する。従ってタッチの対象が、任意の平面であって、当該平面とユーザの指先の間の距離に闘値を設けてタッチ判定を行う場合でも、タッチ位置(タッチ入力の開始位置と終了位置)の検出精度を向上させることができる。なお、タッチの開始時および終了時にユーザが指先を静止させる傾向は、ユーザが無意識のうちに生じているため、必ずしも起こりえるものではなく、静止する時間も検出の分解能に適した時間であるとは限らない。従って本実施形態では、ユーザの指先が静止したとみなされる位置が検出できなかった場合は、近接開始位置(点705に相当)から近接終了位置(点70に相当)までがムーブ操作がなされた区間として補完される。従って、ユーザの指先が静止した位置を検出できなかったとしても、ムーブ操作が検出不能となることはない。従って、ユーザが無意識に指を静止させなったからと言って、突然ムーブ操作ができなくなるといった不便を生じさせることはない。

Claims (21)

  1. 操作面と所定の物体との近接状態が所定の条件を満たしている間、前記操作面が前記所定の物体によってタッチされている判定する状態判定手段と、
    前記所定の物体によって示される指示位置を検出する位置検出手段と、
    前記状態判定手段により、前記操作面が前記所定の物体によってタッチされていると判定されている間に、前記位置検出手段によって検出された指示位置が静止したとみなされる位置を、前記所定の物体によってタッチされた前記操作面上の位置であると特定する特定手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記特定手段は、前記状態判定手段により、前記操作面が前記所定の物体によってタッチされていると判定されている間に、前記位置検出手段によって検出された指示位置が初めに静止したとみなされる位置を、前記所定の物体によるタッチ入力が開始された前記操作面上の位置であると特定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記特定手段は、さらに、前記状態判定手段により、前記操作面が前記所定の物体によってタッチされていると判定されている間に前記位置検出手段によって検出された指示位置が最後に静止したとみなされる位置を、前記所定の物体によるタッチ入力が終了された位置であると特定すること
    を特徴とする請求項に記載の情報処理装置。
  4. 前記特定手段は、前記状態判定手段により前記操作面が前記所定の物体によってタッチされていると判定されている間に、前記位置検出手段によって検出された指示位置が静止したとみなされる位置が発生しない場合、前記操作面と前記所定の物体との近接状態が前記所定の条件を満たすようになった時点での前記指示位置を、前記所定の物体によるタッチ入力が開始された前記操作面上の位置であると特定することを特徴とする請求項2又は3に記載の情報処理装置。
  5. 前記特定手段は、前記状態判定手段により前記操作面が前記所定の物体によってタッチされていると判定されている間に、前記位置検出手段によって検出された指示位置が静止したとみなされる位置が発生しない場合、前記操作面と前記所定の物体との近接状態が前記所定の条件を満たさなくなった時点での前記指示位置を、前記所定の物体によるタッチ入力が終了された前記操作面上の位置であると特定することを特徴とする請求項3に記載の情報処理装置。
  6. 前記位置検出手段は、前記所定の物体によって示される指示位置の3次元位置情報を検出し、
    前記状態判定手段は、検出された前記指示位置の3次元位置情報に基づいて特定される前記操作面と前記所定の物体との間の距離が所定の条件を満たしている間、前記操作面が前記所定の物体によってタッチされている状態であると判定することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記特定手段は、前記状態判定手段により、前記操作面が前記所定の物体によってタッチされていると判定されている間に、前記位置検出手段によって検出された指示位置が静止したとみなされる位置の3次元位置情報のうち、前記操作面に平行な成分で示される2次元位置情報を、前記所定の物体によってタッチされた前記操作面上の位置であると特定することを特徴とする請求項6に記載の情報処理装置。
  8. 前記状態判定手段は、前記操作面と前記所定の物体との間の距離が、第1の閾値より小さくなってから、第2の閾値より大きくなるまでの間前記操作面が前記所定の物体によってタッチされていると判定することを特徴とする請求項6又は7に記載の情報処理装置。
  9. 前記第2の閾値は、前記第1の閾値よりも大きいことを特徴とする請求項8に記載の情報処理装置。
  10. 前記第1の閾値と前記第2の閾値の大きさは等しいことを特徴とする請求項8に記載の情報処理装置。
  11. 前記特定手段によって、前記所定の物体によるタッチ入力が開始された位置であると特定された位置と、前記所定の物体によるタッチ入力が終了された位置であると特定された位置が一致する場合に、タップ操作が入力されたと認識する認識手段を更に備えることを特徴とする請求項2乃至5のいずれか1項に記載の情報処理装置。
  12. 前記認識手段は、前記特定手段によって、前記所定の物体によるタッチ入力が開始された位置であると特定された位置と、前記位置検出手段によって最後に検出された指示位置との間の距離が、所定の閾値より大きい場合に、ムーブ操作が開始されたと認識することを特徴とする請求項11に記載の情報処理装置。
  13. 前記認識手段は、ムーブ操作が開始されたと認識した後、前記位置検出手段によって検出された指示位置が最後に静止したとみなされる位置を、前記ムーブ操作の終了位置と認識することを特徴とする請求項12に記載の情報処理装置。
  14. 前記認識手段は、前記特定手段によって、前記所定の物体によるタッチ入力が開始された位置であると特定された位置と、前記所定の物体によるタッチ入力が終了された位置であると特定された位置が、一致しない場合に、ムーブ操作が入力されたと認識することを特徴とする請求項11に記載の情報処理装置。
  15. 前記操作面に表示される画像を制御する表示制御手段を更に備え、
    前記表示制御手段は、前記認識手段により、タップ操作が入力されたと認識された場合、前記特定手段によって特定された前記タッチ入力が開始された位置に表示されたオブジェクトに対応する画像を前記操作面に表示させることを特徴とする請求項11乃至14のいずれか1項に記載の情報処理装置。
  16. 前記表示制御手段は、前記認識手段により、ムーブ操作が開始されたと認識された場合、前記特定手段によって特定された前記タッチ入力が開始された位置に表示されたオブジェクトを、前記位置検出手段によって最後に検出された指示位置に移動させることを特徴とする請求項15に記載の情報処理装置。
  17. 撮像部が撮像した入力画像から、前記所定の物体が写る移動領域を検出する領域検出手段を更に備え、
    前記位置検出手段は、前記領域検出手段によって検出された移動領域の形状に基づいて、前記所定の物体によって示される指示位置を検出することを特徴とする請求項1乃至16のいずれか1項に記載の情報処理装置。
  18. 前記撮像部は、赤外光を撮像する赤外カメラであって、前記入力画像は、前記赤外カメラによって検出された赤外光の輝度値によって構成される情報であることを特徴とする請求項17に記載の情報処理装置。
  19. 状態判定手段により、操作面と所定の物体との近接状態が所定の条件を満たしている間、前記操作面が前記所定の物体によってタッチされている判定する状態判定工程と、
    位置検出手段により、前記所定の物体によって示される指示位置を検出する位置検出工程と、
    前記操作面が前記所定の物体によってタッチされていると判定されている間に、検出された指示位置が静止したとみなされる位置を、特定手段により、前記所定の物体によってタッチされた前記操作面上の位置であると特定する特定工程と、
    を有することを特徴とする情報処理装置の制御方法。
  20. コンピュータに読み込ませ実行させることで、前記コンピュータを請求項1に記載の情報処理装置の各手段として機能させるプログラム。
  21. 請求項20に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
JP2013174678A 2013-08-26 2013-08-26 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体 Active JP6202942B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013174678A JP6202942B2 (ja) 2013-08-26 2013-08-26 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体
US14/464,436 US9513715B2 (en) 2013-08-26 2014-08-20 Information processing apparatus, method for controlling information processing apparatus, and storage medium
CN201410425710.9A CN104423881B (zh) 2013-08-26 2014-08-26 信息处理装置及其控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013174678A JP6202942B2 (ja) 2013-08-26 2013-08-26 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体

Publications (3)

Publication Number Publication Date
JP2015043154A JP2015043154A (ja) 2015-03-05
JP2015043154A5 true JP2015043154A5 (ja) 2016-09-29
JP6202942B2 JP6202942B2 (ja) 2017-09-27

Family

ID=52479895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013174678A Active JP6202942B2 (ja) 2013-08-26 2013-08-26 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体

Country Status (3)

Country Link
US (1) US9513715B2 (ja)
JP (1) JP6202942B2 (ja)
CN (1) CN104423881B (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9218090B2 (en) * 2013-04-03 2015-12-22 Dell Products, Lp System and method for controlling a projector via a passive control strip
JP6349838B2 (ja) * 2014-01-21 2018-07-04 セイコーエプソン株式会社 位置検出装置、位置検出システム、及び、位置検出装置の制御方法
US9563956B2 (en) * 2014-03-26 2017-02-07 Intel Corporation Efficient free-space finger recognition
US10168833B2 (en) * 2014-09-03 2019-01-01 Hewlett-Packard Development Company, L.P. Presentation of a digital image of an object
US9983745B2 (en) * 2014-09-19 2018-05-29 Kabushiki Kaisha Tokai Rika Denki Seisakusho Touch sensor device and controller
BR112017007976B1 (pt) * 2014-10-22 2023-01-17 Telefonaktiebolaget Lm Ericsson (Publ) Método e dispositivo para fornecer uma interface de usuário baseada em toque
US10001857B2 (en) * 2015-05-13 2018-06-19 Seiko Epson Corporation Display apparatus and method of controlling display apparatus
US9753582B2 (en) * 2015-06-30 2017-09-05 Synaptics Incorporated Position-filtering for land-lift events
JP6555958B2 (ja) * 2015-07-21 2019-08-07 キヤノン株式会社 情報処理装置、その制御方法、プログラム、および記憶媒体
JP6566767B2 (ja) * 2015-07-29 2019-08-28 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、コンピュータプログラム、及び記憶媒体
EP3333616A4 (en) 2015-08-04 2019-04-03 Sony Interactive Entertainment Inc. VISIOCASQUE, DISPLAY CONTROL METHOD, AND PROGRAM
US10963063B2 (en) * 2015-12-18 2021-03-30 Sony Corporation Information processing apparatus, information processing method, and program
JP2017134638A (ja) * 2016-01-28 2017-08-03 株式会社東海理化電機製作所 操作検出装置
JP2017146927A (ja) * 2016-02-19 2017-08-24 ソニーモバイルコミュニケーションズ株式会社 制御装置、制御方法及びプログラム
WO2017149719A1 (ja) * 2016-03-03 2017-09-08 日立マクセル株式会社 入力操作検出装置及び映像投射装置
CN107402654B (zh) * 2016-05-18 2021-07-16 原相科技股份有限公司 触控侦测方法以及触控侦测系统
KR102604520B1 (ko) * 2016-08-17 2023-11-22 삼성전자주식회사 온라인으로 상품을 구매하는 방법 및 장치
JP6452658B2 (ja) * 2016-09-27 2019-01-16 キヤノン株式会社 情報処理装置、およびその制御方法ならびにプログラム
JP2018085552A (ja) * 2016-11-21 2018-05-31 セイコーエプソン株式会社 プロジェクターシステム
JP7345142B2 (ja) * 2018-02-14 2023-09-15 パナソニックIpマネジメント株式会社 リスク評価システム及びリスク評価方法
KR102469722B1 (ko) * 2018-09-21 2022-11-22 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
JP6733789B2 (ja) * 2019-07-31 2020-08-05 富士通株式会社 入力装置、入力操作検出方法及び入力操作検出用コンピュータプログラム
CN113867522A (zh) * 2021-08-31 2021-12-31 歌尔科技有限公司 一种互动投影控制方法及装置、感应垫、互动投影仪

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05241733A (ja) 1992-02-27 1993-09-21 Hitachi Ltd タッチパネルの入力誤差補正方式
JP3968477B2 (ja) * 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US6624833B1 (en) * 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
EP1739529B1 (en) * 2000-07-05 2010-12-01 Smart Technologies ULC Camera-based touch system and method
US20020015064A1 (en) * 2000-08-07 2002-02-07 Robotham John S. Gesture-based user interface to multi-level and multi-modal sets of bit-maps
US20050122308A1 (en) * 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
JP3933139B2 (ja) * 2004-03-09 2007-06-20 日産自動車株式会社 コマンド入力装置
US7728825B2 (en) * 2005-03-22 2010-06-01 Microsoft Corporation Targeting in a stylus-based user interface
US20100045705A1 (en) * 2006-03-30 2010-02-25 Roel Vertegaal Interaction techniques for flexible displays
US8284165B2 (en) * 2006-10-13 2012-10-09 Sony Corporation Information display apparatus with proximity detection performance and information display method using the same
US8519963B2 (en) * 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
US8130211B2 (en) * 2007-09-24 2012-03-06 Microsoft Corporation One-touch rotation of virtual objects in virtual workspace
US20090174679A1 (en) * 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
US8228300B2 (en) * 2008-03-28 2012-07-24 Sprint Communications Company L.P. Physical feedback to indicate object directional slide
US8375336B2 (en) * 2008-05-23 2013-02-12 Microsoft Corporation Panning content utilizing a drag operation
US8514251B2 (en) * 2008-06-23 2013-08-20 Qualcomm Incorporated Enhanced character input using recognized gestures
US9030418B2 (en) * 2008-06-24 2015-05-12 Lg Electronics Inc. Mobile terminal capable of sensing proximity touch
JP2010042207A (ja) * 2008-08-18 2010-02-25 Fujifilm Corp 入力装置、医療機器
US8502787B2 (en) * 2008-11-26 2013-08-06 Panasonic Corporation System and method for differentiating between intended and unintended user input on a touchpad
US8549432B2 (en) * 2009-05-29 2013-10-01 Apple Inc. Radial menus
US20120327009A1 (en) * 2009-06-07 2012-12-27 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US8547327B2 (en) * 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
US20110181510A1 (en) * 2010-01-26 2011-07-28 Nokia Corporation Gesture Control
US20110185320A1 (en) * 2010-01-28 2011-07-28 Microsoft Corporation Cross-reference Gestures
JP5114795B2 (ja) * 2010-01-29 2013-01-09 島根県 画像認識装置および操作判定方法並びにプログラム
US8751970B2 (en) * 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US9268431B2 (en) * 2010-08-27 2016-02-23 Apple Inc. Touch and hover switching
JP2012073658A (ja) * 2010-09-01 2012-04-12 Shinsedai Kk コンピュータシステム
JP5708083B2 (ja) * 2011-03-17 2015-04-30 ソニー株式会社 電子機器、情報処理方法、プログラム、及び電子機器システム
WO2012125990A2 (en) * 2011-03-17 2012-09-20 Laubach Kevin Input device user interface enhancements
CN102841733B (zh) * 2011-06-24 2015-02-18 株式会社理光 虚拟触摸屏系统以及自动切换交互模式的方法
US10082950B2 (en) * 2011-11-09 2018-09-25 Joseph T. LAPP Finger-mapped character entry systems
JP2014220720A (ja) * 2013-05-09 2014-11-20 株式会社東芝 電子機器、情報処理方法及びプログラム

Similar Documents

Publication Publication Date Title
JP2015043154A5 (ja)
JP6202942B2 (ja) 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体
JP5991041B2 (ja) 仮想タッチスクリーンシステム及び双方向モード自動切換方法
JP6201379B2 (ja) 位置算出システム、位置算出プログラム、および、位置算出方法
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
CN106605187B (zh) 信息处理装置、信息处理方法以及程序
US20150193111A1 (en) Providing Intent-Based Feedback Information On A Gesture Interface
JP2016520946A (ja) 人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法
US20150331491A1 (en) System and method for gesture based touchscreen control of displays
EP3308258A1 (en) Apparatus and method for video zooming by selecting and tracking an image area
JP2017533602A (ja) 電子デバイスのカメラ間の切り替え
JP2017533487A5 (ja)
JP2011022945A5 (ja) 対話操作装置
WO2017029749A1 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2014197380A (ja) 画像投影装置、システム、画像投影方法およびプログラム
JP2015064724A (ja) 情報処理装置
JP2015022624A (ja) 情報処理装置およびその制御方法、コンピュータプログラム、記憶媒体
JP2011118533A (ja) タッチ位置入力装置及びタッチ位置入力方法
US10379678B2 (en) Information processing device, operation detection method, and storage medium that determine the position of an operation object in a three-dimensional space based on a histogram
JP2015215701A5 (ja) 情報処理装置、情報処理方法およびプログラム
JP2015212897A5 (ja)
JP2015108870A (ja) 動作入力装置、動作入力プログラム及び動作入力方法
JP6245938B2 (ja) 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体
US10416814B2 (en) Information processing apparatus to display an image on a flat surface, method of controlling the same, and storage medium
US10365770B2 (en) Information processing apparatus, method for controlling the same, and storage medium