JP2021043705A - Information processing device, imaging device, information processing system, and input processing method thereof - Google Patents
Information processing device, imaging device, information processing system, and input processing method thereof Download PDFInfo
- Publication number
- JP2021043705A JP2021043705A JP2019165353A JP2019165353A JP2021043705A JP 2021043705 A JP2021043705 A JP 2021043705A JP 2019165353 A JP2019165353 A JP 2019165353A JP 2019165353 A JP2019165353 A JP 2019165353A JP 2021043705 A JP2021043705 A JP 2021043705A
- Authority
- JP
- Japan
- Prior art keywords
- marker
- reference image
- information processing
- display surface
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本開示は、情報処理装置、撮像装置、情報処理システム、及びその入力処理方法に関するものである。 The present disclosure relates to an information processing device, an imaging device, an information processing system, and an input processing method thereof.
情報処理装置では、タッチパネルが搭載されることにより、直感的な操作が可能となる(例えば特許文献1)。 By mounting a touch panel on the information processing device, intuitive operation becomes possible (for example, Patent Document 1).
しかしながら、タッチパネルを搭載しない情報処理装置においては、タッチ操作を行うことができない。このような場合には、マウスやマウスパッド等を用いて、間接的に操作が行われるが、タッチ操作のような操作性を達成することは困難である。 However, a touch operation cannot be performed in an information processing device that does not have a touch panel. In such a case, the operation is indirectly performed using a mouse, a mouse pad, or the like, but it is difficult to achieve operability such as a touch operation.
本開示は、このような事情に鑑みてなされたものであって、操作性を向上させることのできる情報処理装置、撮像装置、情報処理システム、及びその入力処理方法を提供することを目的とする。 The present disclosure has been made in view of such circumstances, and an object of the present disclosure is to provide an information processing device, an imaging device, an information processing system, and an input processing method thereof, which can improve operability. ..
本開示の第1態様は、撮影手段を備えユーザにより撮影が可能なデバイスから、所定のマーカが表示された表示手段の表示面を撮影した参考画像を取得する取得部と、前記参考画像から得られる情報に基づいて、前記表示面上における前記マーカの位置を移動させる移動処理部と、を備える情報処理装置である。 The first aspect of the present disclosure is an acquisition unit that acquires a reference image obtained by photographing the display surface of the display means on which a predetermined marker is displayed from a device provided with the photographing means and capable of photographing by the user, and an acquisition unit obtained from the reference image. It is an information processing apparatus including a movement processing unit that moves the position of the marker on the display surface based on the information to be obtained.
本開示の第2態様は、撮影が可能な撮影部と、所定のマーカが表示された表示手段の表示面を撮影した参考画像を取得する取得部と、前記参考画像上における前記マーカの位置と、前記参考画像上における基準位置とに基づいて、前記参考画像上の前記基準位置に対応する前記表示面の位置である目標位置を演算する演算部と、前記目標位置に関する情報を送信する送信部と、を備える撮像装置である。 A second aspect of the present disclosure includes a photographing unit capable of photographing, an acquisition unit that acquires a reference image obtained by photographing the display surface of the display means on which a predetermined marker is displayed, and a position of the marker on the reference image. , A calculation unit that calculates a target position that is a position of the display surface corresponding to the reference position on the reference image based on the reference position on the reference image, and a transmission unit that transmits information about the target position. It is an image pickup apparatus provided with.
本開示の第3態様は、表示手段の表示面に表示される所定のマーカを制御する情報処理装置と、撮影手段を備えユーザにより前記表示面を撮影可能なデバイスとを備える情報処理システムであって、前記マーカが表示された前記表示面を撮影した参考画像を取得する取得部と、前記参考画像から得られる情報に基づいて、前記表示面上における前記マーカの位置を移動させる移動処理部と、を備える情報処理システムである。 A third aspect of the present disclosure is an information processing system including an information processing device that controls a predetermined marker displayed on the display surface of the display means, and a device provided with a photographing means and capable of photographing the display surface by a user. An acquisition unit that acquires a reference image obtained by photographing the display surface on which the marker is displayed, and a movement processing unit that moves the position of the marker on the display surface based on the information obtained from the reference image. It is an information processing system including.
本開示の第4態様は、撮影手段を備えユーザにより撮影が可能なデバイスから、所定のマーカが表示された表示手段の表示面を撮影した参考画像を取得する取得工程と、前記参考画像から得られる情報に基づいて、前記表示面上における前記マーカの位置を移動させる移動処理工程と、をコンピュータが実行する入力処理方法である。 A fourth aspect of the present disclosure is an acquisition step of acquiring a reference image obtained by photographing the display surface of the display means on which a predetermined marker is displayed from a device provided with the photographing means and capable of photographing by the user, and obtaining from the reference image. This is an input processing method in which a computer executes a movement processing step of moving the position of the marker on the display surface based on the information to be obtained.
本開示によれば、操作性を向上させることができるという効果を奏する。 According to the present disclosure, it is possible to improve the operability.
以下に、本開示に係る情報処理装置、撮像装置、情報処理システム、及びその入力処理方法の一実施形態について、図面を参照して説明する。本実施形態では、情報処理システムが、ノートPCと指輪型のウェアラブルデバイス10との組合せに適用される場合を一例として説明する。
Hereinafter, an embodiment of an information processing device, an imaging device, an information processing system, and an input processing method thereof according to the present disclosure will be described with reference to the drawings. In the present embodiment, the case where the information processing system is applied to the combination of the notebook PC and the ring-type
図1は、本開示の一実施形態に係る指輪型のウェアラブルデバイス10の概略外観図である。ウェアラブルデバイス10はカメラ(撮影手段)11を搭載している。なお、指輪型のウェアラブルデバイス10については、カメラ(撮影手段)11を備えているデバイスであれば、例えばペン型デバイス等のデバイスを用いることも可能である。ペン型デバイスを使用する場合には例えばペン先に撮影手段が設けられる。
FIG. 1 is a schematic external view of a ring-type
図1に示すように、ウェアラブルデバイス10は、リング形状とされており、指輪として図1のようにユーザの指に装着可能である。ウェアラブルデバイス10は、指に装着された状態で、カメラ11により撮影を行い、情報処理装置1と情報の授受か可能である。ウェアラブルデバイス10は、例えばBluetooth(登録商標)等の無線通信方法を用いて情報処理装置1と通信可能とされている。なお、通信については、無線方式でも良いし有線方式でも良い。
As shown in FIG. 1, the
ウェアラブルデバイス10は、加速度センサ(ジャイロセンサ)を搭載しており、ウェアラブルデバイス10の移動(動作)に係る情報(ユーザの指の移動に係る情報)を検出しており、情報処理装置1と情報の授受が可能となっている。ウェアラブルデバイス10は、ユーザの指に装着された状態で、撮影した画像(参考画像)と、加速度センサの検出結果とを送信部(通信部)により情報処理装置1へ逐次送信する。
The
図2は、本開示の一実施形態に係る情報処理装置1の概略外観図である。本実施形態では、情報処理装置1をノートPCとして説明するが、情報処理装置1としては、ノートPCに限られず、例えば、デスクトップ型PCやプロジェクタ等の情報処理端末等であってもよい。表示手段(表示部5)については、情報処理装置に一体的に設けられてもよいし、情報処理装置とは独立して設けられ装置によって表示が行われることとしてもよい。また、表示はプロジェクタのように投影により行われてもよい。 FIG. 2 is a schematic external view of the information processing device 1 according to the embodiment of the present disclosure. In the present embodiment, the information processing device 1 will be described as a notebook PC, but the information processing device 1 is not limited to the notebook PC, and may be, for example, an information processing terminal such as a desktop PC or a projector. The display means (display unit 5) may be provided integrally with the information processing device, or may be provided independently of the information processing device and displayed by the device. Further, the display may be performed by projection like a projector.
情報処理装置1は、図2に示すように、一例として、いずれも略直方体である本体側筐体2及びディスプレイ側筐体3を備える。
As shown in FIG. 2, the information processing device 1 includes, as an example, a main body-
本体側筐体2は、入力部4を備える。入力部4は、ユーザが入力操作を行うためのユーザインターフェースであり、文字、コマンド等を入力する各種キーより構成されるキーボードや、画面上のカーソルを移動させたり、各種メニューを選択するタッチパッド等を備えている。
The main
ディスプレイ側筐体3は、画像を表示する表示部(表示手段)5を備える。本実施形態において、表示部5は、LCD(Liquid Crystal Display)を例示するが、LCDに限らず有機EL(Electroluminescence)ディスプレイ等の他の表示機器、又はタッチパネルとされてもよい。LCDは、入力される表示データに応じた各種情報を表示画面に表示する。なお、後述するように、表示部5における画面に表示されたマーカが制御される。
The display-
また、ディスプレイ側筐体3は、画像を取得するためのカメラ7及び光源8を備える。カメラ7は、ディスプレイ側筐体3においてLCDの表示面側でその上方の略中央に配置され、前方の被写体(例えば、ユーザの顔)を撮像可能とされている。光源8はディスプレイ側筐体3においてLCDの表示面側でその上方の略中央に配置され、前方の被写体に対して、カメラ7の撮影に係る補助光を発する。
Further, the display-
本体側筐体2及びディスプレイ側筐体3は、それぞれの端部で左右の一対の連結部6によって連結されている。連結部6は、ヒンジであり、本体側筐体2及びディスプレイ側筐体3を開閉自在に支持している。
The main
図3は、本開示の一実施形態に係る情報処理装置1のハードウェア構成を示す図である。情報処理装置1は、例えば、CPU(Central Processing Unit)21と、メインメモリ22と、記憶部23と、表示部5と、入力部4と、通信部26と、カメラ7と、光源8とを備えている。これら各部は直接的にまたはバス28を介して間接的に相互に接続されており互いに連携して各種処理を実行する。
FIG. 3 is a diagram showing a hardware configuration of the information processing device 1 according to the embodiment of the present disclosure. The information processing device 1 includes, for example, a CPU (Central Processing Unit) 21, a
CPU21は、例えば、バス28を介して接続された記憶部23に格納されたOS(Operating System)により情報処理装置1全体の制御を行うとともに、記憶部23に格納された各種プログラムを実行することにより各種処理を実行する。
The
メインメモリ22は、キャッシュメモリ、RAM(Random Access Memory)等の書き込み可能なメモリで構成される。メインメモリ22は、CPU21の実行プログラムの読み出し、実行プログラムによる処理データの書き込み等を行う作業領域として利用される。
The
記憶部23は、例えば、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等であり、例えば、Windows(登録商標)、iOS(登録商標)、Android(登録商標)等の情報処理装置1全体の制御を行うためのOS、周辺機器類をハードウェア操作するための各種ドライバ、特定業務に向けられたアプリケーション、及び各種データやファイル等を格納する。また、記憶部23には、各種処理を実現するためのプログラムや、各種処理を実現するために必要とされる各種データが格納されている。
The
表示部(画面)5は、表示手段であり、例えばLCDでありCPU21の制御に従って表示を行う。
The display unit (screen) 5 is a display means, for example, an LCD, which displays according to the control of the
なお、本実施形態では、表示手段は表示部5として情報処理装置1に設けられることしているが、表示手段については情報処理装置1と独立した装置として設けられてもよい。また、プロジェクタのように投影により表示を行うこととしてもよい。すなわち、表示面に表示が行われれば、表示方法は限定されない。
In the present embodiment, the display means is provided in the information processing device 1 as the
入力部4は、例えば、キーボード、マウス等であり、ユーザが入力操作を行うのに使用される。
The
通信部26は、ネットワークに接続して他の情報処理装置と通信を行い情報の送受信を行うためのインターフェースである。
The
カメラ7は、例えば、ユーザからの入力操作等に基づいてCPU21によって制御される。
The
カメラ7は、撮影が可能であって、レンズやレンズ駆動部、イメージセンサ等を有している。レンズは、被写体からの光を取り込み、イメージセンサに被写体像を結像させる。イメージセンサは、レンズにより取り込まれた光を信号電荷に変換し、被写体像を撮像する。イメージセンサからの画像信号は、例えばISPにより信号処理(画像処理)が行われる。カメラ11についてもカメラ7と同様の構成としてもよい。
The
光源8は、カメラ7による撮影に係る補助光を発し、CPU21によって制御される。
The light source 8 emits auxiliary light related to photography by the
なお、本実施形態では各種処理を情報処理装置1側で行うこととしているが、一部または全部をウェアラブルデバイス10側で行うこととしてもよく、この場合には、ウェアラブルデバイス10がCPU等の情報処理に係る構成を備えることとしてもよい。
In the present embodiment, various processes are performed on the information processing device 1 side, but part or all of the processing may be performed on the
図4は、情報処理システム30が備える機能の一例を示した機能ブロック図である。図4に示すように、情報処理システム30は、取得部31と、演算部34と、移動処理部32と、処理実行部33とを主な構成として備えている。
FIG. 4 is a functional block diagram showing an example of the functions included in the
各部によって実現される後述の各種処理は、例えば、情報処理装置1のCPU21によって実行される。すなわち、情報処理装置1のCPU21が記憶部23に記憶されているプログラムをメインメモリ22に読み出して実行することにより実現される。メインメモリ22又は記憶部23に記憶されているプログラムは、例えば、所定のサーバからダウンロードして、または、所定の記録媒体からインストールされて保存されたプログラムでもよく、製造時に記憶部23に格納されているプログラムでもよい。後述の情報処理装置1における各種処理はプログラムの機能により実現される。
Various processes, which will be described later, realized by each unit are executed by, for example, the
なお、本実施形態では、情報処理システム30の各部の機能は情報処理装置1に設けられることとしているが、各部の機能の一部または全部をウェアラブルデバイス10に設けることとしてもよい。すなわち、情報処理システム30の機能は、システム全体として達成されればよいため、システムを構成する各装置において柔軟に各機能を設けることができる。
In the present embodiment, the functions of each part of the
情報処理システム30では、表示部5の画面に表示したマーカを、該マーカを撮影した参考画像に基づいて移動させる。
In the
マーカとは、画面に表示される標識であり、カーソルの役割を果たす。後述するように、画面上に表示されたマーカはウェアラブルデバイス10の移動に連動して画面上を移動する。マーカとは、例えば、図5に示すように入子型マーカである。図5では、左側に入子型マーカの一例を示しており、入子を構成する構成要素を拡大したものを真ん中に示しており、更に拡大したもの(最小要素)を右側に示している。入子型のマーカとすることによって、ウェアラブルデバイス10と画面との距離をより正確に推定することが可能となる。なお、上下左右が認識可能なマーカであれば、マーカの構成は入子型に限定されない。
A marker is a sign displayed on the screen and acts as a cursor. As will be described later, the marker displayed on the screen moves on the screen in conjunction with the movement of the
取得部31は、撮影手段を備えユーザにより撮影が可能なデバイス(ウェアラブルデバイス10)から、所定のマーカが表示された表示手段(表示部5)の表示面を撮影した参考画像を取得する。具体的には、画面にマーカを表示している状態においてウェアラブルデバイス10で該画面が撮影されると、撮影された参考画像がウェアラブルデバイス10から情報処理装置1へ送信される。このようにしてウェアラブルデバイス10において撮影した画面の参考画像(マーカを含む)が取得される。
The
演算部34及び移動処理部32では、参考画像から得られる情報に基づいて、表示面上の前記マーカの位置を移動させる。具体的には、マーカの位置と参考画像における基準位置とに基づいて、マーカの表示位置を、参考画像における基準位置に対応する画面上の位置へ移動させる。すなわち、ウェアラブルデバイス10から取得した参考画像上においてマーカが基準位置に移動するように、画面のマーカを移動させる。本実施形態では、マーカの移動の目標位置である基準位置が、参考画像における中心位置である場合について説明するが、中心位置に限定されず、参考画像において任意に位置を設定してもよい。
The
演算部34は、参考画像上におけるマーカの位置と、参考画像上における基準位置とに基づいて、参考画像上の基準位置に対応する表示面上の位置である目標位置を演算する。演算部34は、取得部31において取得した参考画像を取得する。そして、参考画像においてマーカを特定する。そして、演算部34は、撮影が行われたときの表示面から撮影手段までの距離(すなわち、画面とウェアラブルデバイス10との距離)に基づいて、マーカの位置を移動させる画面上の目標位置を演算する。画面とウェアラブルデバイス10との距離については、参考画像に含まれるマーカの大きさの情報によって推定される。
The
画面とウェアラブルデバイス10との距離に基づくことで、参考画像上におけるマーカの位置と中心位置とから、実際の画面上におけるマーカの表示位置と、参考画像の中心位置に対応する画面上の位置との距離を算出することができる。また、マーカの向き(傾き)により、画面に対する参考画像の傾きを算出することができる。このため、マーカの表示位置から、参考画像の中心位置に対応する画面上の位置への方向を推定できる。すなわち、参考画像の中心位置に対応する画面上の位置の座標(目標座標)を特定することができる。
Based on the distance between the screen and the
例えば、画面とウェアラブルデバイス10との距離より、画面上における参考画像の表示範囲のサイズが特定できるため、参考画像上におけるマーカの位置と中心位置とにより、参考画像の中心位置に対応する画面上の座標を特定することができる。なお、参考画像の中心位置に対応する画面上の座標については、例えば三平方の定理や相似比等を用いて特定することとしてもよい。
For example, since the size of the display range of the reference image on the screen can be specified from the distance between the screen and the
このようにして、移動処理部32では、画面上において、マーカの表示位置を中心位置へ移動させる距離(すなわち、参考画像の中心位置に対応する画面上の座標位置)を算出する。
In this way, the
移動処理部32は、表示面上のマーカの位置を、目標位置へ移動させる。すなわち、移動処理部32は、表示されているマーカを、画面上において特定された目標位置へ移動させている。算出された座標位置へマーカを移動させることによって、画面において、マーカを参考画像の中心へ移動させることができる。
The
すなわち、演算部34及び移動処理部32では、ウェアラブルデバイス10の移動に追従して画面上のマーカを移動させる。
That is, the
図6に移動処理の一例を示す。F1−3の各状態では、移動処理に係る各段階を示している。まずF1では、前の処理により参考画像の中心にマーカが位置している。そして、ウェアラブルデバイス10が移動されると、F2の参考画像のように、マーカの位置が中心位置からずれる。そして、実際の画面上におけるマーカの表示位置と、参考画像の中心位置に対応する位置とにより、参考画像の中心位置に対応する画面上の座標位置が算出される。そして、F3のように、マーカを参考画像の中心位置に対応する画面上の位置(算出した座標)へ移動させる。移動が行われると、F1へ戻り、繰り返し処理が実行される。このようにして、マーカが移動される。
FIG. 6 shows an example of the movement process. Each state of F1-3 indicates each stage related to the movement process. First, in F1, the marker is located at the center of the reference image by the previous processing. Then, when the
なお、マーカの表示位置を、取得した参考画像の中心位置に対応する画面上の位置へ移動することができれば、移動方法は上記に限定されない。 The moving method is not limited to the above as long as the display position of the marker can be moved to a position on the screen corresponding to the center position of the acquired reference image.
処理実行部33は、参考画像を撮影する撮影手段(カメラ11)の移動に係る情報に基づいて、マーカの表示位置において所定の処理を実行する。具体的には、処理実行部33は、撮影手段(カメラ11)において予め設定された軸方向への加速度情報に基づいて、スワイプ処理またはクリック処理を実行する。本実施形態では、所定の処理として、スワイプ処理とタップ処理を行う場合について説明するが、タッチパネルにおいて可能な操作については同様に適用することができる。 The process execution unit 33 executes a predetermined process at the display position of the marker based on the information related to the movement of the photographing means (camera 11) for capturing the reference image. Specifically, the processing execution unit 33 executes a swipe process or a click process based on the acceleration information in the axial direction set in advance in the photographing means (camera 11). In the present embodiment, a case where a swipe process and a tap process are performed as predetermined processes will be described, but the operations possible on the touch panel can be similarly applied.
移動に係る情報とは、ウェアラブルデバイス10の3次元空間上の移動に関する情報である。例えば加速度情報である。3次元空間上の移動を認識するために、ウェアラブルデバイス10には図7に示すように、直交座標系が設定される。具体的には、撮影が可能な方向(撮影方向)にz軸が設定される。そして、z軸に直交する方向に、x軸及びy軸が設定される。換言すると、ウェアラブルデバイス10で情報処理装置1の画面を撮影している場合には、z軸はカメラ11に対して画面方向を示す。このような直交座標における各軸方向における加速度によって、ウェアラブルデバイス10の移動(すなわりユーザによるジェスチャー)を認識することができる。
The information related to the movement is information related to the movement of the
具体的には、処理実行部33は、ウェアラブルデバイス10が、z軸に所定の加速度以上で移動し、z軸と直交する軸方向(x軸および/又はy軸)に所定の加速度以上で移動した場合に、スワイプ処理を実行する。スワイプ処理とは、タッチパネルにおいては画面に触れた状態で指を滑らせる操作に対応した処理であり、画面に表示されている画像を次の画像や前の画像(例えば電子書籍のページ移動)へ切り替える処理である。
Specifically, in the processing execution unit 33, the
このように、ユーザがスワイプ操作を行う場合には、例えば指を左から右へ移動させる動作となる。また、ユーザがスワイプ操作を行う場合には、指が画面へ近づくまたは遠ざかる方向へも移動がある。このため、処理実行部33では、z軸に所定の加速度以上で移動があり、x軸および/又はy軸に所定の加速度以上で移動がある場合には、ユーザによりスワイプ操作が行われたと推定して、スワイプ処理を実行する。 In this way, when the user swipes, for example, the finger is moved from left to right. Further, when the user swipes, the finger may move in the direction of approaching or moving away from the screen. Therefore, in the processing execution unit 33, when there is a movement at a predetermined acceleration or more on the z-axis and there is a movement at a predetermined acceleration or more on the x-axis and / or the y-axis, it is estimated that the swipe operation is performed by the user. Then, the swipe process is executed.
なお、スワイプ処理においては、x軸および/又はy軸に所定の加速度以上で移動がある場合に処理を実行することとしてもよい。 In the swipe process, the process may be executed when the x-axis and / or the y-axis move at a predetermined acceleration or higher.
処理実行部33は、ウェアラブルデバイス10が、z軸に所定の加速度以上で移動し、z軸と直交する軸方向(x軸および/又はy軸)に所定の加速度以上で移動しない場合に、タップ処理を実行する。タップ処理とは、タッチパネルにおいては、画面をタッチする操作に対応した処理であり、マーカの表示位置において、アプリケーションの各機能を選択したり実行したりする処理である。
The process execution unit 33 taps when the
このように、ユーザがタップ操作を行う場合には、指を画面から離れた状態から画面へ近づける動作である。また、タップ操作を行う場合には、x軸および/又はy軸の方向における移動は少ない。このため、処理実行部33では、z軸に所定の加速度以上で移動があり、x軸および/又はy軸に所定の加速度以上で移動がない場合には、ユーザによりタップ操作が行われたと推定して、タップ処理を実行する。 In this way, when the user performs the tap operation, it is an operation of bringing the finger away from the screen to the screen. Further, when the tap operation is performed, there is little movement in the x-axis and / or y-axis directions. Therefore, in the processing execution unit 33, when there is movement at a predetermined acceleration or more on the z-axis and there is no movement at a predetermined acceleration or more on the x-axis and / or y-axis, it is estimated that the tap operation has been performed by the user. Then, tap processing is executed.
次に、本実施形態に係る情報処理システム30によって実行されるマーカ移動処理について説明する。図8は、本実施形態に係る情報処理システム30によって行われる処理を示すフローチャートである。図8に示した処理フローは、情報処理装置1が起動し、ウェアラブルデバイス10を使用する場合に実行される。例えば、マーカによる操作開始の指示がユーザから入力された場合に開示される。
Next, the marker movement process executed by the
まず、ウェアラブルデバイス10の検出を行う(S101)。検出とは、情報処理装置1とウェアラブルデバイス10とが接続されたことを検出する処理である。例えば、Bluetooth(登録商標)等を用いて互いに接続される。
First, the
次に、画面にマーカを表示し、画面全体をウェアラブルデバイス10で撮影させ、参考画像内に画面全体及びマーカを検出したか否かを判定する(S102)。S102では、例えば、画面にマーカを表示し、画面全体を撮影するようにユーザへ通知を行う。そして、ウェアラブルデバイス10で撮影した参考画像を逐次取得し、マーカが表示された画面全体が検出されたか否かを判定する。
Next, a marker is displayed on the screen, the entire screen is photographed by the
S102のように、画面全体を撮影することによって、事前に登録された情報処理装置1における画面のサイズから画面全体の撮影時における画面とウェアラブルデバイス10との距離を特定することができる。すなわち、画面とウェアラブルデバイス10との距離と、画面に表示されるマーカとのサイズとの相関関係を得ることができるため、以降の処理において、撮影した参考画像内のマーカのサイズにより該参考画像取得時の画面とウェアラブルデバイス10との距離を把握することが可能となる。
By photographing the entire screen as in S102, the distance between the screen and the
なお、画面に表示しているマーカのサイズ(ピクセルサイズ)が予め記憶されている場合には、S102において画面全体ではなく、マーカを含むように撮影を行うこととしてもよい。 If the size (pixel size) of the marker displayed on the screen is stored in advance, shooting may be performed in S102 so as to include the marker instead of the entire screen.
このように、情報処理装置1とウェアラブルデバイス10との設定が完了すると、初期状態として、ウェアラブルデバイス10で撮影する参考画像の中心位置にマーカが位置するように画面にマーカが表示される。そして、ウェアラブルデバイス10の移動に追従するようにマーカの移動処理が行われる(S103)。すなわち、S103では、マーカの表示位置を、参考画像における中心位置に対応する画面の位置へ移動させている。なお、マーカによる操作終了の指示がユーザから入力された場合や、ウェアラブルデバイス10との通信が終了した場合等にS103は終了される。すなわち、S103の実行中は、マーカの操作が可能となる。
As described above, when the setting of the information processing device 1 and the
なお、S103の実行中に逐次取得される参考画像にマーカが含まれない場合には、S101を再度実行することとしてもよい。 If the reference image sequentially acquired during the execution of S103 does not include the marker, S101 may be executed again.
次に、ジェスチャー判定処理について図9を用いて説明する。図9に示したフローは、マーカの自動追従処理が行われている場合に、所定の制御周期で繰り返し実行される。マーカの自動追従処理は、図9のフローでは、S103により行われている。 Next, the gesture determination process will be described with reference to FIG. The flow shown in FIG. 9 is repeatedly executed at a predetermined control cycle when the automatic tracking process of the marker is performed. The automatic tracking process of the marker is performed by S103 in the flow of FIG.
まず、参考画像に含まれているマーカが最小のもの1つのみであるか否かを判定する(S201)。最小のものとは、入子型マーカにおいて、図5に示すように入子型を構成する最小単位の要素であり、予め最小要素として記憶されている。すなわち、参考画像に含まれているマーカが最小のもの1つのみである場合とは、ウェアラブルデバイス10(すなわちユーザの手)が画面に十分近づいたと推定できる場合となる。参考画像に含まれているマーカが最小のもの1つのみである場合とは、参考画像に1つの最小要素の全体が含まれており、他の最小要素の全体は含まれていない(全体が収まっていない)状態となる。例えば、参考画像に含まれているマーカが最小のもの1つのみである場合とは、参考画像は図10のように、入子型マーカにおける最小要素の全体が1つ含まれることとなる。 First, it is determined whether or not the reference image contains only one marker (S201). The smallest element is an element of the smallest unit constituting the nested type as shown in FIG. 5 in the nested marker, and is stored in advance as the minimum element. That is, the case where the reference image contains only one marker is the case where it can be estimated that the wearable device 10 (that is, the user's hand) is sufficiently close to the screen. When the reference image contains only one smallest marker, the reference image contains the entire one minimum element and does not include the entire other minimum elements (the whole is included). It will be in a state (not fit). For example, when the reference image contains only one minimum marker, the reference image includes one of the entire minimum elements of the nested marker as shown in FIG.
S201では、ユーザの手が画面に近づいた(ウェアラブルデバイス10と画面との距離とが所定距離未満である)ことが推定できれば良いため、参考画像に含まれているマーカのサイズによって判定することとしてもよい。この場合には、例えば、参考画像におけるマーカのサイズが所定の面積以上であるか否かを判定することとすればよい。
In S201, since it is sufficient if it can be estimated that the user's hand has approached the screen (the distance between the
参考画像に含まれているマーカが最小のもの1つのみでない場合(S201のNO判定)には、ウェアラブルデバイス10が画面に十分近づいたと推定できない状態であるため、処理を終了する。
If the reference image contains only one marker (NO determination in S201), it cannot be estimated that the
参考画像に含まれているマーカが最小のもの1つのみである場合(S201のYES判定)には、ウェアラブルデバイス10が画面に十分近づいたと推定できる状態である。このため、ウェアラブルデバイス10が、所定時間内(例えばα秒以内)に、所定加速度以上(例えばβ加速度以上)で移動したか否かを判定する(S202)。すなわち、S202では、ウェアラブルデバイス10で素早い移動(ジェスチャー)が行われたか否かを判定している。S202は、ウェアラブルデバイス10に設けられた加速度センサの情報を取得することにより行われる。
When the reference image contains only one minimum marker (YES determination in S201), it can be estimated that the
S202において、所定時間(例えばα)及び所定加速度(例えばβ)については、初期設定としてユーザの模擬動作に基づいて設定される。例えば、初期設定(図8のフローが初めて開始される前段階)において、ユーザにタップ及びスワイプの模擬動作をしてもらい、該模擬動作でユーザがタップやスワイプを行った場合に、どれくらいの時間内にどれくらいの加速度が発生するかを示す情報を取得する。そして、取得した模擬動作の情報に基づいてタップまたはスワイプを行ったと推定される所定時間(例えばα)及び所定加速度(例えばβ)を設定する。なお、タップ及びスワイプに係る情報については、模擬動作を行う場合に限らず、他のユーザ等の情報(データベース)に基づいて設定されることとしてもよい。すなわち、予め固定値が設定されることとしてもよい。 In S202, the predetermined time (for example, α) and the predetermined acceleration (for example, β) are set as initial settings based on the simulated operation of the user. For example, in the initial setting (the stage before the flow of FIG. 8 is started for the first time), how long is it when the user performs a simulated tap and swipe operation and the user taps and swipes in the simulated operation? Get information that shows how much acceleration is generated inside. Then, a predetermined time (for example, α) and a predetermined acceleration (for example, β) estimated to have been tapped or swiped are set based on the acquired simulated motion information. The information related to tap and swipe is not limited to the case of performing a simulated operation, and may be set based on the information (database) of another user or the like. That is, a fixed value may be set in advance.
ウェアラブルデバイス10が、所定時間内に、所定加速度以上で移動していないと判定された場合(S202のNO判定)には、ジェスチャーが行われたと推定できないため、処理を終了する。
When it is determined that the
ウェアラブルデバイス10が、所定時間内に、所定加速度以上で移動したと判定された場合(S202のYES判定)には、ジェスチャーが行われたと推定できる。このため、ジェスチャーの分類処理を行い、推定されるジェスチャーに対応する処理を実行する。なお、本実施形態では、ジェスチャーとして、スワイプとタップの2種類を挙げて説明するが、他のジェスチャーを適用することしてもよい。
When it is determined that the
まず、z軸方向への加速度が閾値以上であるか否かを判定する(S203)。すなわち、ウェアラブルデバイス10が素早く画面へ近づく方向または遠ざかる方向へ移動したか否かを判定している。なお、z軸方向への加速度に関する閾値についても上述のように模擬動作に基づいて設定されてもよいし、他のユーザ等の情報(データベース)に基づいて設定されてもよい。
First, it is determined whether or not the acceleration in the z-axis direction is equal to or greater than the threshold value (S203). That is, it is determined whether or not the
z軸方向の加速度が閾値以上でない場合(S203のNO判定)には、処理を終了する。 If the acceleration in the z-axis direction is not equal to or greater than the threshold value (NO determination in S203), the process ends.
z軸方向の加速度が閾値以上である場合(S203のYES判定)には、x軸方向及び/またはy軸方向への加速度が閾値以上であるか否かを判定する(S204)。S204では、x軸方向及びy軸方向の少なくともいずれか1方について、閾値以上での移動があればYES判定となる。なお、x軸方向及び/またはy軸方向への加速度に関する閾値についても上述のように模擬動作に基づいて設定されてもよいし、他のユーザ等の情報(データベース)に基づいて設定されてもよい。 When the acceleration in the z-axis direction is equal to or greater than the threshold value (YES determination in S203), it is determined whether or not the acceleration in the x-axis direction and / or the y-axis direction is equal to or greater than the threshold value (S204). In S204, if there is a movement above the threshold value in at least one of the x-axis direction and the y-axis direction, a YES determination is made. The threshold value related to the acceleration in the x-axis direction and / or the y-axis direction may be set based on the simulated operation as described above, or may be set based on the information (database) of another user or the like. Good.
x軸方向及び/またはy軸方向への加速度が閾値以上でない場合(S204のNO判定)には、タップ処理を行う(S205)。タップ処理では、マーカの表示位置において、クリックを行うこととしてもよいし、マウスカーソルをマーカの表示位置に移動させてクリックを行うこととしてもよい。 When the acceleration in the x-axis direction and / or the y-axis direction is not equal to or greater than the threshold value (NO determination in S204), tap processing is performed (S205). In the tap process, the click may be performed at the display position of the marker, or the mouse cursor may be moved to the display position of the marker to perform the click.
このようにして、タッチパネルを用いた操作のように、タップ処理を行うことが可能となる。 In this way, the tap process can be performed as in the operation using the touch panel.
x軸方向及び/またはy軸方向への加速度が閾値以上である場合(S204のYES判定)には、スワイプ処理を行う(S206)。スワイプ処理では、マーカの表示位置において、スワイプを行うこととしてもよいし、マウスカーソルをマーカの表示位置に移動させてスワイプを行うこととしてもよい。スワイプ処理では、画面に表示されている画像を次の画像や前の画像(例えば電子書籍のページ移動)へ切り替えが処理される。 When the acceleration in the x-axis direction and / or the y-axis direction is equal to or greater than the threshold value (YES determination in S204), a swipe process is performed (S206). In the swipe process, the swipe may be performed at the display position of the marker, or the mouse cursor may be moved to the display position of the marker to perform the swipe. In the swipe process, the image displayed on the screen is switched to the next image or the previous image (for example, page movement of an electronic book).
このようにして、タッチパネルを用いた操作のように、スワイプ処理を行うことが可能となる。 In this way, it is possible to perform the swipe process as in the operation using the touch panel.
次に、表示するマーカの大きさの設定について説明する。マーカは、マウスカーソルのように操作画面上においてカーソルの役割を担うとともに、画面とウェアラブルデバイス10との間の距離を推定するために使用される。具体的には、図9のフローにおけるS201のように、参考画像に含まれているマーカが最小のもの1つのみであるか否かを判定することにより、画面とウェアラブルデバイス10とが近づいたか否かを判定している。マーカとして入子型を使用することで、より精度よく、画面とウェアラブルデバイス10との間の距離を推定することが可能となる。
Next, the setting of the size of the displayed marker will be described. The marker plays the role of a cursor on the operation screen like a mouse cursor, and is used to estimate the distance between the screen and the
入子型マーカを用いて適切に画面とウェアラブルデバイス10との間の距離を推定することができるように、入子型マーカのサイズを適切に設定することが好ましい。このために、例えば、情報処理システム30を使用する初期設定の段階において、入子型マーカのサイズを設定する。初期設定については、図8のフローが初めて実施される前段階において行われることとしてもよいし、図8のフローを実施する度にS101を実施する前に行われることとしてもよい。
It is preferable to appropriately set the size of the nested marker so that the distance between the screen and the
初期設定では、ユーザに画面に対してタップとスワイプの模擬動作をするように通知し、該模擬動作に基づいて入子型マーカの最小要素の大きさを設定する。具体的には、模擬動作によってウェアラブルデバイス10が画面に近づいた時に、カメラ11で撮影した参考画像に最小要素の全体が1つ含まれるように、最小要素の大きさが設定される。最小要素の大きさは、複数の模擬動作に対応して例えば平均サイズとされる。このように最小要素の大きさが設定されることで、模擬動作のようにタップやスワイプが行われた場合に、ウェアラブルデバイス10が画面に近づいた際に参考画像内に最小要素が1つのみ含まれる状態とすることができるため、スワイプやタップが行われた可能性があることをより正確に検知することが可能となる。入子型マーカの全体については、設定した最小要素に基づいて構成される。
In the initial setting, the user is notified to perform a simulated tap and swipe operation on the screen, and the size of the minimum element of the nested marker is set based on the simulated operation. Specifically, when the
なお、マーカを入子型ではなく、他の形状(例えば上下左右を認識可能な形状)を使用する場合には、模擬動作によって該形状のサイズ(表示面積)を決定することとしてもよい。例えば、模擬動作によってウェアラブルデバイス10が画面に近づいた時に、カメラ11で撮影した参考画像に所定面積以上のマーカが含まれるように、マーカのサイズが設定される。
When the marker is not a nested type and uses another shape (for example, a shape that can recognize up, down, left, and right), the size (display area) of the shape may be determined by a simulated operation. For example, when the
なお、マーカのサイズについては、模擬動作を行う場合に限らず、他のユーザ等の情報(データベース)に基づいて設定されることとしてもよい。すなわち、予め固定値が設定されることとしてもよい。 The size of the marker is not limited to the case of performing a simulated operation, and may be set based on information (database) of another user or the like. That is, a fixed value may be set in advance.
以上説明してきたように、本実施形態に係る情報処理装置、撮像装置、情報処理システム、及びその入力処理方法によれば、所定のマーカが撮影された参考画像から得られる情報に基づいて、表示手段におけるマーカの表示位置を移動させるため、参考画像を撮影する位置に応じて、マーカを移動させることが可能となる。すなわち、参考画像を撮影する位置に連動して表示するマーカを移動させることができる。例えばウェアラブルデバイス10で撮影を行うこととすれば、ウェアラブルデバイス10の移動に追従してカーソルを操作することができる。すなわち、タッチパネルのような直感的な操作を行うことが可能となる。
As described above, according to the information processing device, the image pickup device, the information processing system, and the input processing method thereof according to the present embodiment, a predetermined marker is displayed based on the information obtained from the captured reference image. Since the display position of the marker in the means is moved, the marker can be moved according to the position where the reference image is taken. That is, the marker to be displayed can be moved in conjunction with the position where the reference image is taken. For example, if the
また、ウェアラブルデバイス10の移動に追従してマーカが移動するため、ユーザが画面にタッチする必要がない。このため、画面と離れた位置にユーザがいても、画面におけるマーカを操作することが可能となる。このため、ユーザの利便性を向上させることができる。
Further, since the marker moves following the movement of the
また、ウェアラブルデバイス10等の小型デバイスを使用することが可能なため、構成をコンパクト化することができる。
Further, since a small device such as a
なお、本実施形態ではノートPCにマーカが表示されることとしたが、プロジェクタで投影した画面にマーカを表示することとしてもよい。 In the present embodiment, the marker is displayed on the notebook PC, but the marker may be displayed on the screen projected by the projector.
本開示は、上述の実施形態のみに限定されるものではなく、発明の要旨を逸脱しない範囲において、種々変形実施が可能である。 The present disclosure is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the invention.
例えば、指輪型のウェアラブルデバイス10を用いる場合には、ユーザの指(例えば人差指)に装着した状態でウェアラブルデバイス10で撮影を行う。このため、指先とカメラ11位置とに差が生じる可能性もある。このため、マーカの移動の目標位置である参考画像における基準位置を、指先とカメラ11位置との差に基づいて補正し、マーカの移動の目標位置が指先に近づくように修正されることとしてもよい。
For example, when the ring-type
また、マーカ移動処理を行っている場合において、キーボードやマウス、タッチパッド等の入力インターフェースが使用された場合には、マーカ移動処理を終了したり一時中止処理を行うこととしてもよい。 Further, when the marker movement process is performed and an input interface such as a keyboard, mouse, or touch pad is used, the marker movement process may be terminated or the marker movement process may be performed.
また、本実施形態では、指輪型のウェアラブルデバイス10と情報処理装置(ノートPC)1との組合せを一例として説明した。しかしながら、撮影手段を備えれば指輪型のウェアラブルデバイス10に限定されず、撮影手段を備えユーザによってジェスチャーを行うことができれば、例えばペン型デバイス等の他のデバイスを用いることも可能である。また、表示手段(画面に表示する場合やプロジェクタのように投影して表示する場合を含む)を備え撮影手段から撮影画像を取得できれば、ノートPCに限定されず適用することが可能である。
Further, in the present embodiment, the combination of the ring-type
また、情報処理システム30の各処理は、ウェアラブルデバイス10と情報処理装置1とで任意に分担して行うことが可能である。すなわち、実施例として説明したように、情報処理を情報処理装置1側で行う場合に限定されない。例えば、ウェアラブルデバイス(撮像装置)10側で処理を行うこととしてもよい。このような場合には、ウェアラブルデバイス(撮像装置)10は、撮影が可能な撮影部(カメラ11)と、所定のマーカが表示された表示手段の表示面を撮影した参考画像を取得する取得部31と、参考画像上におけるマーカの位置と、参考画像上における基準位置とに基づいて、参考画像上の基準位置に対応する表示面の位置である目標位置を演算する演算部34と、目標位置に関する情報を送信する送信部と、を備えることとすればよい。なお、目標位置に関する情報は、目標位置の座標に係る情報である。そして、表示手段が制御されて、表示面におけるマーカの位置が送信された目標位置へ移動され、自動追従処理が行われる。
Further, each process of the
また、例えば、情報処理システム30の各処理をウェアラブルデバイス10と情報処理装置1とで任意に分担してもよい。すなわち、表示手段の表示面に表示される所定のマーカを制御する情報処理装置1と、撮影手段(カメラ11)を備えユーザにより表示面を撮影可能なデバイス(ウェアラブルデバイス10)とを備える情報処理システムであって、マーカが表示された表示面を撮影した参考画像を取得する取得部31と、参考画像から得られる情報に基づいて、表示面上におけるマーカの位置を移動させる移動処理部32とを備えることとすればよい。なお、演算部34については、情報処理装置1又はウェアラブルデバイス10に設けることとすればよい。このような構成としても、自動追従処理が行われる。
Further, for example, each process of the
1 :情報処理装置
2 :本体側筐体
3 :ディスプレイ側筐体
4 :入力部
5 :表示部
6 :連結部
7 :カメラ
8 :光源
10 :ウェアラブルデバイス
11 :カメラ
21 :CPU
22 :メインメモリ
23 :記憶部
26 :通信部
28 :バス
30 :情報処理システム
31 :取得部
32 :移動処理部
33 :処理実行部
34 :演算部
1: Information processing device 2: Main unit side housing 3: Display side housing 4: Input unit 5: Display unit 6: Connecting unit 7: Camera 8: Light source 10: Wearable device 11: Camera 21: CPU
22: Main memory 23: Storage unit 26: Communication unit 28: Bus 30: Information processing system 31: Acquisition unit 32: Mobile processing unit 33: Processing execution unit 34: Arithmetic unit
Claims (10)
前記参考画像から得られる情報に基づいて、前記表示面上における前記マーカの位置を移動させる移動処理部と、
を備える情報処理装置。 An acquisition unit that acquires a reference image obtained by photographing the display surface of the display means on which a predetermined marker is displayed from a device having a photographing means and capable of photographing by the user.
A movement processing unit that moves the position of the marker on the display surface based on the information obtained from the reference image.
Information processing device equipped with.
前記移動処理部は、前記表示面上における前記マーカの位置を、前記目標位置へ移動させる請求項1に記載の情報処理装置。 A calculation unit that calculates a target position, which is a position on the display surface corresponding to the reference position on the reference image, based on the position of the marker on the reference image and the reference position on the reference image. Prepare,
The information processing device according to claim 1, wherein the movement processing unit moves the position of the marker on the display surface to the target position.
所定のマーカが表示された表示手段の表示面を撮影した参考画像を取得する取得部と、
前記参考画像上における前記マーカの位置と、前記参考画像上における基準位置とに基づいて、前記参考画像上の前記基準位置に対応する前記表示面の位置である目標位置を演算する演算部と、
前記目標位置に関する情報を送信する送信部と、
を備える撮像装置。 A shooting unit that can shoot and
An acquisition unit that acquires a reference image of the display surface of the display means on which a predetermined marker is displayed, and an acquisition unit.
A calculation unit that calculates a target position, which is a position of the display surface corresponding to the reference position on the reference image, based on the position of the marker on the reference image and the reference position on the reference image.
A transmitter that transmits information about the target position and
An imaging device comprising.
前記マーカが表示された前記表示面を撮影した参考画像を取得する取得部と、
前記参考画像から得られる情報に基づいて、前記表示面上における前記マーカの位置を移動させる移動処理部と、を備える情報処理システム。 An information processing system including an information processing device that controls a predetermined marker displayed on a display surface of a display means, and a device that has a photographing means and can photograph the display surface by a user.
An acquisition unit that acquires a reference image obtained by photographing the display surface on which the marker is displayed, and an acquisition unit.
An information processing system including a movement processing unit that moves the position of the marker on the display surface based on the information obtained from the reference image.
前記参考画像から得られる情報に基づいて、前記表示面上における前記マーカの位置を移動させる移動処理工程と、
をコンピュータが実行する入力処理方法。
An acquisition process of acquiring a reference image obtained by photographing the display surface of the display means on which a predetermined marker is displayed from a device having a photographing means and capable of photographing by the user.
A movement processing step of moving the position of the marker on the display surface based on the information obtained from the reference image, and
The input processing method that the computer performs.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019165353A JP2021043705A (en) | 2019-09-11 | 2019-09-11 | Information processing device, imaging device, information processing system, and input processing method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019165353A JP2021043705A (en) | 2019-09-11 | 2019-09-11 | Information processing device, imaging device, information processing system, and input processing method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021043705A true JP2021043705A (en) | 2021-03-18 |
Family
ID=74861598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019165353A Pending JP2021043705A (en) | 2019-09-11 | 2019-09-11 | Information processing device, imaging device, information processing system, and input processing method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021043705A (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11167453A (en) * | 1997-12-02 | 1999-06-22 | Canon Inc | Coordinate input device/system/method and storage medium |
US5933135A (en) * | 1996-10-24 | 1999-08-03 | Xerox Corporation | Pen input device for high resolution displays |
JP2004145527A (en) * | 2002-10-23 | 2004-05-20 | Nec Fielding Ltd | Coordinate information input device |
JP2007193403A (en) * | 2006-01-17 | 2007-08-02 | Hitachi Ltd | Pointing device, pointer indication position control method and display system |
JP2010539557A (en) * | 2007-05-26 | 2010-12-16 | キィ リー、ムーン | Pointing device with camera and mark output |
JP2013522766A (en) * | 2010-03-16 | 2013-06-13 | インターフェイズ・コーポレーション | Interactive display system |
-
2019
- 2019-09-11 JP JP2019165353A patent/JP2021043705A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5933135A (en) * | 1996-10-24 | 1999-08-03 | Xerox Corporation | Pen input device for high resolution displays |
JPH11167453A (en) * | 1997-12-02 | 1999-06-22 | Canon Inc | Coordinate input device/system/method and storage medium |
JP2004145527A (en) * | 2002-10-23 | 2004-05-20 | Nec Fielding Ltd | Coordinate information input device |
JP2007193403A (en) * | 2006-01-17 | 2007-08-02 | Hitachi Ltd | Pointing device, pointer indication position control method and display system |
JP2010539557A (en) * | 2007-05-26 | 2010-12-16 | キィ リー、ムーン | Pointing device with camera and mark output |
JP2013522766A (en) * | 2010-03-16 | 2013-06-13 | インターフェイズ・コーポレーション | Interactive display system |
Non-Patent Citations (1)
Title |
---|
立野 圭祐 KEISUKE TATENO: "視点移動自由度の大きい拡張現実感のための入れ子型マーカ A Nested Marker for Augmented Reality", 電子情報通信学会技術研究報告 VOL.106 NO.234 IEICE TECHNICAL REPORT, vol. 第106巻, JPN6021030120, 16 October 2006 (2006-10-16), JP, pages 19 - 24, ISSN: 0004567000 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5506375B2 (en) | Information processing apparatus and control method thereof | |
KR101872426B1 (en) | Depth-based user interface gesture control | |
US10152222B2 (en) | Digital image processing device and associated methodology of performing touch-based image scaling | |
JP2016511487A (en) | Improved touch input with gestures | |
US20130120289A1 (en) | Information processing apparatus and method of controlling same | |
US20170214856A1 (en) | Method for controlling motions and actions of an apparatus including an image capture device having a moving device connected thereto using a controlling device | |
CN106796484B (en) | Display device and control method thereof | |
TWI668600B (en) | Method, device, and non-transitory computer readable storage medium for virtual reality or augmented reality | |
JP6364790B2 (en) | pointing device | |
TW201403386A (en) | Eye controlling method and system | |
WO2021004413A1 (en) | Handheld input device and blanking control method and apparatus for indication icon of handheld input device | |
JP4977162B2 (en) | Information processing apparatus, command execution control method, and command execution control program | |
JP2014204169A (en) | Display control device and control method thereof | |
JP2017162126A (en) | Input system, input method, control program and storage medium | |
JP2021043705A (en) | Information processing device, imaging device, information processing system, and input processing method thereof | |
JP2016119019A (en) | Information processing apparatus, information processing method, and program | |
US11009991B2 (en) | Display control apparatus and control method for the display control apparatus | |
US20190179525A1 (en) | Resolution of Directional Ambiguity on Touch-Based Interface Based on Wake-Up Gesture | |
JP6843564B2 (en) | Display control device, its control method and program | |
KR101530517B1 (en) | User terminal performable shooting function and method for adjusting location of shooting icon of the user terminal | |
JP7383471B2 (en) | Electronic equipment and its control method | |
JP2016015078A (en) | Display control device, display control method, and program | |
TWI697827B (en) | Control system and control method thereof | |
JP5422694B2 (en) | Information processing apparatus, command execution control method, and command execution control program | |
JP6007496B2 (en) | Display system, display program, and display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200918 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210810 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220222 |