JP2021177313A - 情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム - Google Patents

情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム Download PDF

Info

Publication number
JP2021177313A
JP2021177313A JP2020082436A JP2020082436A JP2021177313A JP 2021177313 A JP2021177313 A JP 2021177313A JP 2020082436 A JP2020082436 A JP 2020082436A JP 2020082436 A JP2020082436 A JP 2020082436A JP 2021177313 A JP2021177313 A JP 2021177313A
Authority
JP
Japan
Prior art keywords
user
input operation
specific part
information processing
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020082436A
Other languages
English (en)
Inventor
秀 小林
Hide Kobayashi
龍一 大宮
ryuichi Omiya
隆久 大上
Takahisa Ogami
拓実 辻
Takumi Tsuji
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2020082436A priority Critical patent/JP2021177313A/ja
Priority to US17/921,280 priority patent/US20230168744A1/en
Priority to PCT/JP2021/012422 priority patent/WO2021225044A1/ja
Publication of JP2021177313A publication Critical patent/JP2021177313A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】操作性に優れた非接触入力操作が可能なユーザインターフェースに関する技術を提供する。【解決手段】本発明は、ディスプレイに表示された画面に従って非接触操作を行うことが可能なユーザインターフェースに適合される情報処理装置である。前記情報処理装置は、所定の空間座標系におけるユーザの特定部位の位置情報のシーケンスに基づいて、所定の入力操作を特定する入力操作特定部と、特定される前記所定の入力操作に基づいて所定の処理を実行する処理実行部とを備える。前記入力操作特定部は、前記位置情報の第1のシーケンスに基づいて、前記ユーザの特定部位が前記所定の空間座標系における基準位置において滞留の状態にあった後、前記位置情報の第2のシーケンスに基づいて、前記ユーザの特定部位が移動の状態にあると判断する場合に、前記所定の入力操作を特定する、情報処理装置。【選択図】図1

Description

本開示は、ユーザインターフェースの技術に関し、特に、ユーザインターフェースを介したユーザの入力操作に基づいて処理を実行する情報処理装置及び情報処理方法並びに該方法を実行するためのコンピュータプログラムに関する。
ユーザが指先を画面に直接的に触れることなく、コンピューティングデバイスをインタラクティブに操作するためのユーザインターフェースが提案されている。ユーザがコンピューティングデバイスをインタラクティブに非接触操作するためのユーザインターフェースは、物理的なディスプレイの画面に表示された例えばボタンを表現するアイコン又はオブジェクトに対するユーザのジェスチャーを擬似的な入力操作として検出する。
例えば、下記特許文献1は、コントローラを用いずに非接触操作を行う場合に、ユーザへのフィードバックを行うことができる技術を開示する。具体的には、特許文献1は、検出部を介して、ユーザの特定部位についての空間座標を連続的に取得し、更新される空間座標に基づいて、表示部の表示画面の対応する位置に、マーカーを移動させる表示制御を行う場合において、マーカーの初期形状は、任意の形状を分割した複数の形状として、空間座標系における所定の面に対して、空間座標の距離が大きいほど、表示画面の対応する位置から複数の形状を互いに離隔させ、当該距離が小さいほど、表示画面の対応する位置に複数の形状を互いに接近させる表示制御を行う技術を開示する。また、特許文献1は、表示画面の前方に空間座標系における所定の面(仮想タッチパネルの面)を定義し、連続的に取得され更新されるユーザの特定部位についての空間座標が仮想タッチパネルの面を通過した場合に、ユーザの押下操作として検出する技術を開示する。
特開2014−219938号公報
上記従来の特許文献1では、ユーザによる押下操作を検出するために、表示画面の前方に空間座標系における仮想タッチパネルを定義する必要があった。しかしながら、ユーザは、実際には仮想タッチパネルを視覚的に認識できないにも拘わらず、仮想タッチパネルの空間的な位置を常に意識しながら指を動かす等のジェスチャーをしなければならず、操作性が十分とはいえないという課題があった。
そこで、本開示では、操作性に優れた非接触入力操作が可能なユーザインターフェースに関する技術を提供する。
具体的には、本開示のある一つの目的は、ユーザが物理的なディスプレイの画面に対して非接触で入力操作を行う際に、仮想タッチパネル等を意識することなく該入力操作を可能にするユーザインターフェースに関する技術を提供することである。
また、本開示のある一つの目的は、ユーザが物理的なディスプレイの画面に表示されたアイコン等を非接触によるシンプル及び/又は直感的な操作で選択することを可能にするユーザインターフェースに関する技術を提供することである。
上記課題を解決するための本開示に係る技術(本技術)は、以下に示す発明特定事項乃至は技術的特徴を含んで構成される。
ある観点に従う本技術は、ディスプレイに表示された画面に従って非接触の入力操作を行うことが可能なユーザインターフェースに適合される情報処理装置である。前記情報処理装置は、所定の空間座標系におけるユーザの特定部位の位置情報のシーケンスに基づいて、所定の入力操作を特定する入力操作特定部と、前記入力操作特定部により特定される前記所定の入力操作に基づいて所定の処理を実行する処理実行部とを備える。そして、前記入力操作特定部は、前記位置情報の第1のシーケンスに基づいて、前記ユーザの特定部位が前記所定の空間座標系における基準位置において滞留の状態にあるか否かを判断し、前記滞留の状態にあると判断した場合に、更に、前記位置情報の第2のシーケンスに基づいて、前記ユーザの特定部位が移動の状態にあるか否かを判断する。前記入力操作特定部は、前記ユーザの特定部位が前記移動の状態にあると判断する場合に、前記所定の入力操作を特定する。
また、別の観点に従う本技術は、非接触ユーザインターフェースを介したユーザの入力操作に基づく情報処理方法である。前記情報処理方法は、ディスプレイに所定の画面を表示することと、前記所定の画面に対する所定の空間座標系におけるユーザの特定部位の位置情報のシーケンスを取得すること、取得した、前記位置情報のシーケンスに基づいて、所定の入力操作を特定することと、特定される前記所定の入力操作に基づいて所定の処理を実行することとを含む。そして、前記所定の入力操作を特定することは、前記位置情報の第1のシーケンスに基づいて、前記ユーザの特定部位が前記所定の空間座標系における基準位置において滞留の状態にあるか否かを判断することと、前記ユーザの特定部位が前記滞留の状態にあると判断した後、前記位置情報の第2のシーケンスに基づいて、前記ユーザの特定部位が移動の状態にあるか否かを判断することと、前記ユーザの特定部位が前記移動の状態にあると判断する場合に、前記所定の入力操作を特定することと、を含む。
更に、別の観点に従う本技術は、情報処理装置に、非接触ユーザインターフェースを介したユーザの入力操作に基づく前記情報処理方法を実現させるためのコンピュータプログラムである。
なお、本開示において、「システム」とは、複数の装置(又は特定の機能を実現する機能モジュール)が論理的に集合した物のことを言い、各装置や機能モジュールが単一の筐体内にあるか否かは特に問わない。また、「手段」とは、単に物理的手段を意味するものではなく、その手段が有する機能をソフトウェアによって実現する場合も含む。また、1つの手段が有する機能が2つ以上の物理的手段により実現されても、2つ以上の手段の機能が1つの物理的手段により実現されても良い。また、「手段」は、例えば「部(unit)」や「モジュール」といった用語に読み替えが可能であり、本開示における特定の「物」に限定的に解釈されるべきではない。
本技術の他の技術的特徴、目的、及び作用効果乃至は利点は、添付した図面を参照して説明される以下の実施形態により明らかにされる。また、本開示に記載された効果はあくまで例示であってこれに限定されるものではなく、また他の効果があっても良い。
図1は、本技術の一実施形態に係る情報処理装置を用いたユーザインターフェースを説明するための概略図である。 図2は、本技術の一実施形態に係る情報処理装置のハードウェア構成の一例を示すブロックダイアグラムである。 図3は、本技術の一実施形態に係る情報処理装置の機能的構成の一例を示すブロックダイアグラムである。 図4Aは、本技術の一実施形態に係る情報処理装置のユーザインターフェースに対するユーザの入力操作の画面の一例を説明するための図である。 図4Bは、本技術の一実施形態に係る情報処理装置のユーザインターフェースに対するユーザの入力操作の画面の一例を説明するための図である。 本技術の一実施形態に係る情報処理装置のユーザインターフェース処理におけるアイコン選択の状態の遷移の一例を説明するための図である。 図6は、本技術の一実施形態に係る情報処理装置のユーザインターフェース処理の一例を説明するためのフローチャートである。
以下、図面を参照して本技術の実施の形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。本技術は、その趣旨を逸脱しない範囲で種々変形(例えば各実施形態を組み合わせる等)して実施することができる。また、以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付して表している。図面は模式的なものであり、必ずしも実際の寸法や比率等とは一致しない。図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることがある。
図1は、本技術の一実施形態に係る情報処理装置を用いたユーザインターフェースを説明するための概略図である。本実施形態の情報処理装置1は、非接触のインタラクティブな操作が可能なユーザインターフェースに適合されたコンピューティングデバイスである。非接触のインタラクティブな操作とは、例えば、ディスプレイに表示された画面に対して、ユーザが該画面に触れることなく、ユーザの特定部位(例えば指等)の動きにより入力乃至は指示を可能にする操作である。同図に示すように、情報処理装置1は、メインボード10とユーザインターフェース20とを含み構成される。メインボード10は、ユーザインターフェース20を制御するためのコンピューティングデバイス本体である。ユーザインターフェース20は、撮像カメラ22と、ディスプレイ24とを含む。本例では、撮像カメラ22は、前方の対象物を照射するための光源22aと、対象物からの反射光を受光する受光部22bとを含む。同図では、ディスプレイ24から離れて対向したユーザが、ディスプレイ24に表示されたメニュー画面のボタンアイコンを指差して、その指先の前方に指示アイコン(カーソルアイコン)ICONが重畳的に表示されている様子を示している。
図2は、本技術の一実施形態に係る情報処理装置のハードウェア構成の一例を示すブロックダイアグラムである。同図では、情報処理装置1を構成する各種のハードウェア資源のうち、本開示に特に関連するものが示されている。
同図に示すように、本例に示される情報処理装置1は、典型的には、1又は2以上のプロセッサモジュール11と、チップセット12と、メモリモジュール13と、I/Oコントローラ14と、各種のペリフェラルインターフェース15とを含み得るメインボード10と、各種の入出力デバイス22〜26を含み得るユーザインターフェース20とを備える。
プロセッサモジュール11は、例えば、プロセッサ(プロセッサコア)、マイクロコントローラ、デジタル信号プロセッサ及び/又はこれらの組み合わせを含むが、これらに限定されない。チップセット12は、プロセッサモジュール11、メモリモジュール13、及びI/Oコントローラ14等を接続するバスに対するブリッジや、情報処理装置1を構成するために必要な他のコンポーネントを集積した回路からなる。
メモリモジュール13は、典型的には、揮発性メモリ(例えばRAM)、不揮発性メモリ(例えばROMやフラッシュメモリ等)及び/又はこれらの組み合わせからなる1次記憶装置である。メモリモジュール13は、各種のソフトウェア資源、例えば、デバイスドライバ、オペレーティングシステム(OS)プログラム、1又は2以上のアプリケーションプログラム及びデータ等の全部又は一部を保持し、プロセッサモジュール11の利用に供される。本実施形態では、メモリモジュール13は、ユーザインターフェース20を制御するためのプログラム(ユーザインターフェースデバイスドライバ)を保持し得る。データは、例えば、ユーザインターフェース20を実現するための各種の表示データを含む。
I/Oコントローラ14は、各種のペリフェラルインターフェース15(例えば、入出力インターフェース151及び通信インターフェース152等)との間の入出力を制御する回路である。入出力インターフェース151は、例えば、撮像カメラ22、ディスプレイ24、及びスピーカ26等の外部の入出力デバイスの動作を制御する。通信インターフェース152は、外部の装置とのネットワーク通信を可能にする回路である。
撮像カメラ22は、ディスプレイ24前方の撮像エリア内のユーザの動きを撮像する画像センサ(図示せず)を含み構成されるデバイスである。本開示では、画像センサは対象物(例えばユーザの顔や指等)までの距離を測定し、その測距データを出力し得る測距センサである。測距センサは、例えば、TOFセンサが知られている。TOFセンサは、光源から照射された光に基づく対象物からの反射光を受光することにより、該対象物までの距離に関する測距データを出力し得る。TOFセンサとして、例えば直接TOFセンサや間接TOFセンサが知られている。測距データは、プロセッサモジュール11の処理により、距離画像データに変換される。距離画像データは、3次元(XYZ)空間座標系における深度情報(奥行き情報)を含む。撮像カメラ22及びディスプレイ24は、プロセッサモジュール11の制御の下、非接触タイプのユーザインターフェース20を構成する。なお、本開示では、画像センサとして測距センサを用いているが、これに限られず、3次元位置情報を取得することができる装置乃至は構成であれば良い。
ディスプレイ24は、テキストや画像からなるユーザインターフェース画面を表示するためのデバイスである。典型的には、ディスプレイ24は、液晶ディスプレイや有機ディスプレイが該当するが、これに限られず、例えば、プロジェクタのような投影型の表示デバイスであっても良い。
スピーカ26は、サウンドプロセッサ(図示せず)によって生成されたオーディオ信号に基づいて、オーディオないしはサウンドを出力するデバイスである。スピーカ26は、プロセッサモジュール11の制御の下、例えば、非接触ユーザインターフェース20を介したユーザの入力操作を補助又は演出する音声や効果音等を出力する。
図3は、本技術の一実施形態に係る情報処理装置の機能的構成の一例を示すブロックダイアグラムである。同図では、情報処理装置1の各種の構成要素(コンポーネント)のうち、本開示に特に関連するものが示されている。かかる構成要素は、上述したハードウェア資源そのもの又はその一部によって、及び/又は、例えば、情報処理装置1のプロセッサモジュールが、OS上で各種のデバイスドライバやプログラムを実行することにより、各種のハードウェア資源と協働して、実現され得る。
同図に示すように、本例の情報処理装置1は、I/O制御部310と、表示部330と、撮像部320と、制御部340とを含み構成される。
I/O制御部310は、撮像部320及び表示部330等との間の入出力を制御する。撮像部320は、光源22aから光を照射して表示部330の画面前方のユーザを受光部22bにより撮像し(図1参照)、その測距データを、I/O制御部310を介して制御部340に出力する。表示部330は、I/O制御部310を介して表示制御部343に接続され、表示制御部343の制御の下、ユーザに提供される画面を表示する。ユーザに提供される画面は、例えば、テキストやグラフィカル画像からなるメニュー画面やキーボード画面等であり得る。また、撮像部320により撮像されたユーザの特定部位(例えば指先等)の動きに応じて、制御部340の制御の下、表示部330の画面には、ユーザの特定部位の動きに応じて所定のアイコン等が表示され、これにより、非接触のユーザインターフェースを実現する。
制御部340は、情報処理装置1上に実現されるユーザインターフェース20の機能を統括的に制御する。制御部340は、上述したプロセッサモジュール11が、所定のプログラムを実行することにより他のハードウェア資源と協働することにより実現される。制御部340は、例えば、画像処理部341と、フィーチャ認識部342と、表示制御部343と、入力操作特定部344と、処理実行部345とを含み得る。
画像処理部341は、撮像部320から時々刻々と出力される測距データのシーケンスをI/O制御部310を介して取得し、取得した測距データのシーケンスに基づいて、フレームごとの距離画像データを生成する。距離画像データは、深度情報を含む3次元空間座標データである。画像処理部341は、生成した距離画像データをフィーチャ認識部342に引き渡す。
フィーチャ認識部342は、生成された距離画像データに対してフレームごとに画像認識処理を行って、ユーザの特定部位に係るフィーチャを抽出乃至は認識し、その位置情報のシーケンスを生成し、出力する。フィーチャは、例えば、3次元空間座標系における位置情報(ベクトル情報)のシーケンスからなる。フィーチャ認識部342は、例えば、距離画像データに基づいて、ユーザの姿勢乃至は体動を推定し、更に、その特定部位を3次元的に推定することで、フィーチャの位置/姿勢/動きを認識する。フィーチャ認識部342は、認識したフィーチャを表示制御部343及び入力操作特定部344に引き渡す。
表示制御部343は、表示部330の画面表示に適合した2次元画像データ(以下単に「画像データ」という。)を生成し、I/O制御部310を介して、表示部330に出力する。一例として、表示制御部343は、フィーチャ認識部342により認識された特定部位のフィーチャに基づいて、指示アイコンを含む画像データを生成する。他の例として、表示制御部343は、後述する入力操作特定部344により特定された入力操作に合わせてアニメーション表示がなされるように画像データを生成する。
入力操作特定部344は、フィーチャ認識部342により認識された特定部位のフィーチャに基づいて、表示された画面の内容に従った入力操作を特定する。入力操作は、ユーザの特定部位の単純な位置及び/又は動きに基づく場合もあるし、複数の動きの組み合わせで特定される場合もある。例えば、入力操作特定部344は、フィーチャ認識部342により認識された特定部位のフィーチャの位置情報と、画面に表示された例えばボタンアイコン等の位置情報とに基づいて、該ボタンアイコンを指し示したか否かを判断し、該アイコンを指し示したと判断する場合には、これをユーザの入力操作として特定する。また、入力操作特定部344は、フィーチャの位置情報のシーケンスに基づいて、特定部位の動きを認識し得る。例えば、入力操作特定部344は、ユーザの特定部位が3次元空間座標系における所定の場所に滞在しているか否かを、フィーチャの位置情報の第1のシーケンスに基づいて、判断し得る。また、入力操作特定部344は、ユーザの特定部位が3次元空間座標系における該滞留している場所からZ方向に移動にしたか否かを、フィーチャの位置情報の第2のシーケンスに基づいて、判断し得る。入力操作特定部344は、特定した入力操作を表示制御部343及び処理実行部345に通知する。
処理実行部345は、特定された入力操作に応じた所定の処理を実行する。例えば、処理実行部345は、特定された入力操作がボタンアイコンの選択操作である場合、該ボタンアイコンに関連付けられた処理を実行し、及び/又は図示しない他の構成要素に処理の実行を命令する。処理実行部345は、処理の実行により、表示部330に表示された画面を変化させる場合には、画面の変化に応じた画像データを生成するように、表示制御部343に命令する。
図4A及び4Bは、本技術の一実施形態に係る情報処理装置のユーザインターフェースに対するユーザの入力操作の画面の一例を説明するための図である。また、図5は、本技術の一実施形態に係る情報処理装置のユーザインターフェース処理におけるアイコン選択の状態の遷移の一例を説明するための図である。図5に示される各状態は、図4A及び4Bに示される各操作に対応付けられる。
図4A(a)は、ディスプレイ24(表示部330)の画面にメニューが表示され、ユーザがその指が指し示す方向でアイテムBのボタンアイコンを選択しようとしている様子を示している。このとき、情報処理装置1の制御部340は、未選択状態S401にある(図4)。なお、本開示のユーザインターフェースは、非接触ユーザインターフェースであり、画面と指とはある程度の距離だけ離れている(図1参照)。制御部340は、例えばユーザの指の動きに合わせて指示アイコンが画面に表示されるように制御する。
次に、ユーザは、図4A(b)に示すように、選択しようとするアイテムBのボタンアイコンに指の方向を合わせ、例えば、アイテムBのボタンアイコン上で指をぐるりと輪を描くように動かす。或いは、ユーザは、アイテムBのボタンアイコン上で指を、チェックマークを描くように動かしても良い。これにより、制御部340は、指がアイテムBのボタンアイコンの近傍に滞留していると判断して、アイテムBのボタンアイコンの仮選択状態S402に遷移する(図5)。この場合、制御部340は、仮選択状態であることをユーザに認識させるために、アイテムBのボタンアイコンが視覚的に区別されるように画面の表示を制御しても良い。例えば、制御部340は、アイテムBのボタンアイコンの色を他の色に変更したり、図4A(c)に示すように強調アイコンが重畳的に表示されるように制御したりしても良い。これにより、ユーザは、自身の意図どおりに、アイテムBのボタンアイコンが仮選択状態になったことを認識することができる。なお、同図(c)では、ユーにボタンアイコンの押し下げ動作を促すためのメッセージ「押して決定」が表示されている。
次に、ユーザは、図4B(d)に示すように、画面上のアイテムBのボタンアイコンをあたかも押下するように、指を動かす。制御部340は、仮選択状態のアイテムBのボタンアイコン上で指が押し下げられたと判断して、選択確定状態S403に遷移する(図5)。このとき、制御部340は、ボタンアイコンの押し下げをユーザに認識させるために、押し下げアニメーションを表示し、効果音を鳴らしても良い。制御部340は、選択確定状態S403に遷移後、例えば、アイテムBのボタンアイコンに関連付けられた所定の処理を実行することにより、未選択状態S401に戻る。
なお、アイテムBのボタンアイコンの仮選択状態S402において、制御部340は、所定の時間、押し下げの動作がない場合には、仮選択状態を解除して、未選択状態S401に戻る。
図6は、本技術の一実施形態に係る情報処理装置のユーザインターフェース処理の一例を説明するためのフローチャートである。かかる処理は、例えば、情報処理装置1のプロセッサモジュール11が所定のユーザインターフェースデバイスドライバを実行することにより上述したハードウェア資源と協働することによって実現される。
同図に示すように、情報処理装置1の制御部340において、画像処理部341は、撮像部320から出力される測距データのシーケンスに基づいて画像処理を行ってフレームごとの距離画像データを生成する(S601)。続いて、フィーチャ認識部342は、生成された距離画像データに基づいて、ユーザの特定部位のフィーチャを抽出乃至は認識する(S602)。本開示では、フィーチャ認識部342は、特定部位として、ユーザの指を認識するものとする。フィーチャ認識部342は、距離画像データに基づいてユーザの指を認識した場合(S602のYes)、その位置情報のシーケンスを取得する(S603)。なお、フィーチャ認識部342がユーザの指を認識できなかった場合(S602のNo)、当該入力操作の特定処理はリセットされ、次のフレームの距離画像データの処理に移行する。
続いて、表示制御部343は、取得されたフィーチャの位置情報のシーケンスに従って指示アイコンが画面に表示されるように制御を行う(S604)。これにより、画面とユーザの指との位置関係に従って指示アイコンが画面内に表示されることになる。なお、指示アイコンは、第1のアイコンの一例である。
入力操作特定部344は、フィーチャの位置情報のシーケンスに基づいて、ユーザの指が静止状態にあるか否かを判断する(S606)。静止状態とは、完全な静止でなくとも、ある程度の時間、略その位置に止まっているとみなせる状態を含み得る。ユーザの指が静止状態にある位置は、後述する滞留状態を判定するための基準位置となる。例えば、ユーザが画面に表示されたアイテムのボタンアイコンを指し示す場合では、ユーザの指が多少揺らいでいても、該ボタンアイコンを一定時間指し示しているとみなせる限り、静止状態として判断され得る。入力操作特定部344がユーザの指が静止状態にあると判断する場合(S606のYes)、強調アイコンを画面に表示するよう表示制御部343に指示し、表示制御部343は、強調アイコンが画面に表示されるように制御を行う(S607)。強調アイコンは、第2のアイコンの一例である。なお、入力操作特定部344がユーザの指の静止状態を認識できなかった場合(S606のNo)、当該入力操作の特定処理はリセットされ、次のフレームの距離画像データの処理に移行する。
続いて、入力操作特定部344は、ユーザの指が、所定の時間、滞留状態にあるか否かを判断する(S608)。所定の時間は、例えば、ユーザの指が静止状態であると判断された時点から計測される。また、ユーザの指が静止状態にある位置(基準位置)から例えば所定の範囲内に留まっている場合、入力操作特定部344は、これを滞留状態であると判断する(S608のYes)。或いは、ユーザの指が所定の範囲内で特徴的な動き、例えば輪を描くような動きやチェックマークを描くような動きをした場合、入力操作特定部344は、滞留状態であると判断しても良い。特徴的な動きは、例えば、画面に平行な面内で行われる動き(X−Y方向のベクトル成分が主として含まれる。)である。なお、入力操作特定部344がユーザの指の滞留状態を認識できなかった場合(S608のNo)、当該入力操作の特定処理はリセットされ、次のフレームの距離画像データの処理に移行する。
続いて、入力操作特定部344は、取得された位置情報のシーケンスに基づいて、ユーザが指の押し下げ動作を行ったか否か、すなわち、ユーザの指がZ方向に所定の移動量だけ移動したか否かを判断する(S609)。つまり、入力操作特定部344は、ユーザの指が滞留状態の位置から画面方向に近づいたか否かによって押し下げ動作がなされたか否かを判断する。このように、本開示では、仮想タッチパネルの面を定義することなく、滞留状態の位置を基準にして、奥行き方向の動きを検出する。
入力操作特定部344は、ユーザの指が滞留状態の位置から画面方向に近づいたと判断する場合(S609のYes)、ユーザの指の動きによる入力操作を特定し、これに伴い、表示制御部343は、押し下げ中のアニメーションを画面に表示されるように制御を行う(S610)。また、処理実行部345は、表示された画面に基づいてなされた入力操作に応じた処理を実行する。なお、入力操作特定部344がユーザの指の押し下げ動作を認識できなかった場合(S609のNo)、当該入力操作の特定処理はリセットされ、次のフレームの距離画像データの処理に移行する。
以上のように、本開示のユーザインターフェースを備えた情報処理装置1は、X−Y平面におけるユーザの特定部位の動きにより、ユーザから離れたディスプレイの画面上の指示アイコンを動かすことができ、また、X−Y平面内での該特定部位の滞留状態を検出した後、該特定部位の滞留状態を基準に、該特定部位のZ方向の動きにより、選択決定の入力操作を受け付けることができ、これにより、非接触操作における誤動作を低減することができるようになる。
上記各実施形態は、本技術を説明するための例示であり、本技術をこれらの実施形態にのみ限定する趣旨ではない。本技術は、その要旨を逸脱しない限り、さまざまな形態で実施することができる。
例えば、本明細書に開示される方法においては、その結果に矛盾が生じない限り、ステップ、動作又は機能を並行して又は異なる順に実施しても良い。説明されたステップ、動作及び機能は、単なる例として提供されており、ステップ、動作及び機能のうちのいくつかは、発明の要旨を逸脱しない範囲で、省略でき、また、互いに結合させることで一つのものとしてもよく、また、他のステップ、動作又は機能を追加してもよい。
また、本明細書では、さまざまな実施形態が開示されているが、一の実施形態における特定のフィーチャ(技術的事項)を、適宜改良しながら、他の実施形態に追加し、又は該他の実施形態における特定のフィーチャと置換することができ、そのような形態も本技術の要旨に含まれる。
また、本技術は、以下のような技術的事項を含み構成されても良い。
(1)ディスプレイに表示された画面に従って非接触の入力操作を行うことが可能なユーザインターフェースに適合される情報処理装置であって、
所定の空間座標系におけるユーザの特定部位の位置情報のシーケンスに基づいて、所定の入力操作を特定する入力操作特定部と、
前記入力操作特定部により特定される前記所定の入力操作に基づいて所定の処理を実行する処理実行部と、を備え、
前記入力操作特定部は、
前記位置情報の第1のシーケンスに基づいて、前記ユーザの特定部位が前記所定の空間座標系における基準位置において滞留の状態にあるか否かを判断し、前記滞留の状態にあると判断した場合に、前記位置情報の第2のシーケンスに基づいて、前記ユーザの特定部位が移動の状態にあるか否かを判断し、前記ユーザの特定部位が前記移動の状態にあると判断する場合に、前記所定の入力操作を特定する、
情報処理装置。
(2)取得される測距データに基づいて、フレームごとの距離画像データを生成する画像処理部と、
前記画像処理部により生成される距離画像データに基づいて、前記所定の空間座標系における前記ユーザの特定部位を認識するフィーチャ認識部と、
前記フィーチャ認識部により認識された前記特定部位の前記所定の空間座標系における位置に対応する前記画面における位置に第1のアイコンが表示されるように制御を行う表示制御部と、を更に備える、
上記(1)に記載の情報処理装置。
(3)光源から照射された光に基づく対象物からの反射光を受光することにより、前記対象物までの距離を測定する測距センサを含む撮像部を更に含み、
前記撮像部は、測定された前記距離に関する前記測距データを出力する、
上記(2)に記載の情報処理装置。
(4)前記入力操作特定部は、前記特定部位が、所定の時間の間、前記所定の空間座標系において静止していると判断される場合に、該静止している位置を前記基準位置に設定する、
上記(2)に記載の情報処理装置。
(5)前記表示制御部は、前記滞留の状態において、該滞留している位置に対応する前記画面における位置に第2のアイコンが表示されるように制御を行う、
上記(4)に記載の情報処理装置。
(6)前記表示制御部は、前記移動の状態において、前記移動が表現されるように前記画面の表示を制御する、
上記(4)に記載の情報処理装置。
(7)前記入力操作特定部は、
前記ユーザの特定部位が、前記基準位置に基づく所定の範囲内にある場合に、前記ユーザの特定部位が滞留していると判断する、
上記(1)に記載の情報処理装置。
(8)前記入力操作特定部は、
前記ユーザの特定部位が、前記画面に平行な面において移動する場合に、前記ユーザの特定部位が滞留していると判断する、
上記(7)に記載の情報処理装置。
(9)前記入力操作特定部は、前記ユーザの特定部位が、前記ユーザから前記画面に対する方向に所定の移動量だけ移動したと判断する場合に、前記移動の状態にあると判断する、
上記(1)に記載の情報処理装置。
(10)前記表示制御部は、少なくとも1つのアイコンを含むメニュー画面が前記ディスプレイに表示されるように制御を行い、
前記入力操作特定部は、前記少なくとも1つのアイコンに対する入力操作を特定する、
上記(2)に記載の情報処理装置。
(11)前記表示制御部は、特定された前記少なくとも1つのアイコンに対応する前記画面における位置に前記第1のアイコンが表示されるように制御する、
上記(10)に記載の情報処理装置。
(12)非接触ユーザインターフェースを介したユーザの入力操作に基づく情報処理方法であって、
ディスプレイに所定の画面を表示することと、
前記所定の画面に対する所定の空間座標系におけるユーザの特定部位の位置情報のシーケンスを取得すること、
取得した、前記位置情報のシーケンスに基づいて、所定の入力操作を特定することと、
特定される前記所定の入力操作に基づいて所定の処理を実行することと、を含み、
前記所定の入力操作を特定することは、
前記位置情報の第1のシーケンスに基づいて、前記ユーザの特定部位が前記所定の空間座標系における基準位置において滞留の状態にあるか否かを判断することと、
前記ユーザの特定部位が前記滞留の状態にあると判断した後、前記位置情報の第2のシーケンスに基づいて、前記ユーザの特定部位が移動の状態にあるか否かを判断することと、
前記ユーザの特定部位が前記移動の状態にあると判断する場合に、前記所定の入力操作を特定することと、を含む、
情報処理方法。
(13)コンピューティングデバイスに、非接触ユーザインターフェースを介したユーザの入力操作に基づく情報処理方法を実現させるためのコンピュータプログラムであって、
前記情報処理方法は、
ディスプレイに所定の画面を表示することと、
前記所定の画面に対する所定の空間座標系におけるユーザの特定部位の位置情報のシーケンスを取得すること、
取得した、前記位置情報のシーケンスに基づいて、所定の入力操作を特定することと、
特定される前記所定の入力操作に基づいて所定の処理を実行することと、を含み、
前記所定の入力操作を特定することは、
前記位置情報の第1のシーケンスに基づいて、前記ユーザの特定部位が前記所定の空間座標系における基準位置において滞留の状態にあるか否かを判断することと、
前記ユーザの特定部位が前記滞留の状態にあると判断した後、前記位置情報の第2のシーケンスに基づいて、前記ユーザの特定部位が移動の状態にあるか否かを判断することと、
前記ユーザの特定部位が前記移動の状態にあると判断する場合に、前記所定の入力操作を特定することと、を含む、
コンピュータプログラム。
1…情報処理装置
10…メインボード
11…プロセッサモジュール
12…チップセット
13…メモリモジュール
14…I/Oコントローラ
15…ペリフェラルインターフェース
151…入出力インターフェース
152…通信インターフェース
20…ユーザインターフェース
22…撮像カメラ
22a…光源
22b…受光部
24…ディスプレイ
26…スピーカ
310…I/O制御部
320…撮像部
330…表示部
340…制御部
341…画像処理部
342…フィーチャ認識部
343…表示制御部
344…入力操作特定部
345…処理実行部

Claims (13)

  1. ディスプレイに表示された画面に従って非接触の入力操作を行うことが可能なユーザインターフェースに適合される情報処理装置であって、
    所定の空間座標系におけるユーザの特定部位の位置情報のシーケンスに基づいて、所定の入力操作を特定する入力操作特定部と、
    前記入力操作特定部により特定される前記所定の入力操作に基づいて所定の処理を実行する処理実行部と、を備え、
    前記入力操作特定部は、
    前記位置情報の第1のシーケンスに基づいて、前記ユーザの特定部位が前記所定の空間座標系における基準位置において滞留の状態にあるか否かを判断し、前記滞留の状態にあると判断した場合に、前記位置情報の第2のシーケンスに基づいて、前記ユーザの特定部位が移動の状態にあるか否かを判断し、前記ユーザの特定部位が前記移動の状態にあると判断する場合に、前記所定の入力操作を特定する、
    情報処理装置。
  2. 取得される測距データに基づいて、フレームごとの距離画像データを生成する画像処理部と、
    前記画像処理部により生成される距離画像データに基づいて、前記所定の空間座標系における前記ユーザの特定部位を認識するフィーチャ認識部と、
    前記フィーチャ認識部により認識された前記特定部位の前記所定の空間座標系における位置に対応する前記画面における位置に第1のアイコンが表示されるように制御を行う表示制御部と、を更に備える、
    請求項1に記載の情報処理装置。
  3. 光源から照射された光に基づく対象物からの反射光を受光することにより、前記対象物までの距離を測定する測距センサを含む撮像部を更に含み、
    前記撮像部は、測定された前記距離に関する前記測距データを出力する、
    請求項2に記載の情報処理装置。
  4. 前記入力操作特定部は、前記特定部位が、所定の時間の間、前記所定の空間座標系において静止していると判断される場合に、該静止している位置を前記基準位置に設定する、
    請求項2に記載の情報処理装置。
  5. 前記表示制御部は、前記滞留の状態において、該滞留している位置に対応する前記画面における位置に第2のアイコンが表示されるように制御を行う、
    請求項4に記載の情報処理装置。
  6. 前記表示制御部は、前記移動の状態において、前記移動が表現されるように前記画面の表示を制御する、
    請求項4に記載の情報処理装置。
  7. 前記入力操作特定部は、
    前記ユーザの特定部位が、前記基準位置に基づく所定の範囲内にある場合に、前記ユーザの特定部位が滞留していると判断する、
    請求項1に記載の情報処理装置。
  8. 前記入力操作特定部は、
    前記ユーザの特定部位が、前記画面に平行な面において移動する場合に、前記ユーザの特定部位が滞留していると判断する、
    請求項7に記載の情報処理装置。
  9. 前記入力操作特定部は、前記ユーザの特定部位が、前記ユーザから前記画面に対する方向に所定の移動量だけ移動したと判断する場合に、前記移動の状態にあると判断する、
    請求項1に記載の情報処理装置。
  10. 前記表示制御部は、少なくとも1つのアイコンを含むメニュー画面が前記ディスプレイに表示されるように制御を行い、
    前記入力操作特定部は、前記少なくとも1つのアイコンに対する入力操作を特定する、
    請求項2に記載の情報処理装置。
  11. 前記表示制御部は、特定された前記少なくとも1つのアイコンに対応する前記画面における位置に前記第1のアイコンが表示されるように制御する、
    請求項10に記載の情報処理装置。
  12. 非接触ユーザインターフェースを介したユーザの入力操作に基づく情報処理方法であって、
    ディスプレイに所定の画面を表示することと、
    前記所定の画面に対する所定の空間座標系におけるユーザの特定部位の位置情報のシーケンスを取得すること、
    取得した、前記位置情報のシーケンスに基づいて、所定の入力操作を特定することと、
    特定される前記所定の入力操作に基づいて所定の処理を実行することと、を含み、
    前記所定の入力操作を特定することは、
    前記位置情報の第1のシーケンスに基づいて、前記ユーザの特定部位が前記所定の空間座標系における基準位置において滞留の状態にあるか否かを判断することと、
    前記ユーザの特定部位が前記滞留の状態にあると判断した後、前記位置情報の第2のシーケンスに基づいて、前記ユーザの特定部位が移動の状態にあるか否かを判断することと、
    前記ユーザの特定部位が前記移動の状態にあると判断する場合に、前記所定の入力操作を特定することと、を含む、
    情報処理方法。
  13. コンピューティングデバイスに、非接触ユーザインターフェースを介したユーザの入力操作に基づく情報処理方法を実現させるためのコンピュータプログラムであって、
    前記情報処理方法は、
    ディスプレイに所定の画面を表示することと、
    前記所定の画面に対する所定の空間座標系におけるユーザの特定部位の位置情報のシーケンスを取得すること、
    取得した、前記位置情報のシーケンスに基づいて、所定の入力操作を特定することと、
    特定される前記所定の入力操作に基づいて所定の処理を実行することと、を含み、
    前記所定の入力操作を特定することは、
    前記位置情報の第1のシーケンスに基づいて、前記ユーザの特定部位が前記所定の空間座標系における基準位置において滞留の状態にあるか否かを判断することと、
    前記ユーザの特定部位が前記滞留の状態にあると判断した後、前記位置情報の第2のシーケンスに基づいて、前記ユーザの特定部位が移動の状態にあるか否かを判断することと、
    前記ユーザの特定部位が前記移動の状態にあると判断する場合に、前記所定の入力操作を特定することと、を含む、
    コンピュータプログラム。
JP2020082436A 2020-05-08 2020-05-08 情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム Pending JP2021177313A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020082436A JP2021177313A (ja) 2020-05-08 2020-05-08 情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム
US17/921,280 US20230168744A1 (en) 2020-05-08 2021-03-24 Information processing apparatus and information processing method based on input operation by user, and computer program for executing the method
PCT/JP2021/012422 WO2021225044A1 (ja) 2020-05-08 2021-03-24 情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020082436A JP2021177313A (ja) 2020-05-08 2020-05-08 情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2021177313A true JP2021177313A (ja) 2021-11-11

Family

ID=78409506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020082436A Pending JP2021177313A (ja) 2020-05-08 2020-05-08 情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム

Country Status (3)

Country Link
US (1) US20230168744A1 (ja)
JP (1) JP2021177313A (ja)
WO (1) WO2021225044A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7540613B1 (ja) 2024-03-28 2024-08-27 株式会社セガ プログラム及び情報処理装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7182324B1 (ja) 2022-03-14 2022-12-02 mirrorX株式会社 プログラム、情報処理装置及び方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6524589B2 (ja) * 2013-08-30 2019-06-05 国立大学法人山梨大学 クリック動作検出装置,方法およびプログラム
US9383894B2 (en) * 2014-01-08 2016-07-05 Microsoft Technology Licensing, Llc Visual feedback for level of gesture completion
JP2017117341A (ja) * 2015-12-25 2017-06-29 富士通株式会社 物体検出方法、装置、及びプログラム
KR101976605B1 (ko) * 2016-05-20 2019-05-09 이탁건 전자기기 및 그 동작 방법
US20200371673A1 (en) * 2019-05-22 2020-11-26 Microsoft Technology Licensing, Llc Adaptive interaction models based on eye gaze gestures

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7540613B1 (ja) 2024-03-28 2024-08-27 株式会社セガ プログラム及び情報処理装置

Also Published As

Publication number Publication date
US20230168744A1 (en) 2023-06-01
WO2021225044A1 (ja) 2021-11-11

Similar Documents

Publication Publication Date Title
US11797131B2 (en) Apparatus and method for image output using hand gestures
US9389779B2 (en) Depth-based user interface gesture control
JP6393341B2 (ja) 投射型映像表示装置
US8441480B2 (en) Information processing apparatus, information processing system, and computer readable medium
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
EP2996022A1 (en) Input assistance device, input assistance method, and program
US20140267029A1 (en) Method and system of enabling interaction between a user and an electronic device
US10719228B2 (en) Image processing apparatus, image processing system, and image processing method
US9454257B2 (en) Electronic system
US20120218307A1 (en) Electronic device with touch control screen and display control method thereof
US20140333585A1 (en) Electronic apparatus, information processing method, and storage medium
WO2021225044A1 (ja) 情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム
US20120218308A1 (en) Electronic apparatus with touch screen and display control method thereof
KR20150094967A (ko) 적어도 하나의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법
US20150268828A1 (en) Information processing device and computer program
JP2012043248A (ja) 操作入力装置ならびにプログラムと方法
JP2024103514A (ja) オブジェクト姿勢制御プログラムおよび情報処理装置
JP6558933B2 (ja) コミュニケーション支援システム、情報処理装置およびその制御方法
WO2021241038A1 (ja) 情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム
JP2017027311A (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体
US10175825B2 (en) Information processing apparatus, information processing method, and program for determining contact on the basis of a change in color of an image
JP5027084B2 (ja) 入力装置及び入力方法
JP5028676B2 (ja) グラフィカルユーザーインターフェースの操作/制御装置
KR20160115022A (ko) 비접촉식 마우스 장치 및 이 장치를 채용한 디지털 응용 시스템