JP2021043705A - Information processing device, imaging device, information processing system, and input processing method thereof - Google Patents

Information processing device, imaging device, information processing system, and input processing method thereof Download PDF

Info

Publication number
JP2021043705A
JP2021043705A JP2019165353A JP2019165353A JP2021043705A JP 2021043705 A JP2021043705 A JP 2021043705A JP 2019165353 A JP2019165353 A JP 2019165353A JP 2019165353 A JP2019165353 A JP 2019165353A JP 2021043705 A JP2021043705 A JP 2021043705A
Authority
JP
Japan
Prior art keywords
marker
reference image
information processing
display surface
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019165353A
Other languages
Japanese (ja)
Inventor
徹 棚橋
Toru Tanahashi
徹 棚橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Personal Computers Ltd
Original Assignee
NEC Personal Computers Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Personal Computers Ltd filed Critical NEC Personal Computers Ltd
Priority to JP2019165353A priority Critical patent/JP2021043705A/en
Publication of JP2021043705A publication Critical patent/JP2021043705A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an information processing device, an imaging device, an information processing system, and an input processing method thereof, which can improve operability.SOLUTION: An information processing device includes an acquisition unit 31 configured to acquire a reference image obtained by photographing a display surface of display means on which a predetermined marker is displayed from a device (wearable device) equipped with imaging means for enabling a user to capture an image, and a movement processing unit 32 configured to move the position of the marker on the display surface based on information obtained from the reference image.SELECTED DRAWING: Figure 4

Description

本開示は、情報処理装置、撮像装置、情報処理システム、及びその入力処理方法に関するものである。 The present disclosure relates to an information processing device, an imaging device, an information processing system, and an input processing method thereof.

情報処理装置では、タッチパネルが搭載されることにより、直感的な操作が可能となる(例えば特許文献1)。 By mounting a touch panel on the information processing device, intuitive operation becomes possible (for example, Patent Document 1).

特許第6095810号公報Japanese Patent No. 6095810

しかしながら、タッチパネルを搭載しない情報処理装置においては、タッチ操作を行うことができない。このような場合には、マウスやマウスパッド等を用いて、間接的に操作が行われるが、タッチ操作のような操作性を達成することは困難である。 However, a touch operation cannot be performed in an information processing device that does not have a touch panel. In such a case, the operation is indirectly performed using a mouse, a mouse pad, or the like, but it is difficult to achieve operability such as a touch operation.

本開示は、このような事情に鑑みてなされたものであって、操作性を向上させることのできる情報処理装置、撮像装置、情報処理システム、及びその入力処理方法を提供することを目的とする。 The present disclosure has been made in view of such circumstances, and an object of the present disclosure is to provide an information processing device, an imaging device, an information processing system, and an input processing method thereof, which can improve operability. ..

本開示の第1態様は、撮影手段を備えユーザにより撮影が可能なデバイスから、所定のマーカが表示された表示手段の表示面を撮影した参考画像を取得する取得部と、前記参考画像から得られる情報に基づいて、前記表示面上における前記マーカの位置を移動させる移動処理部と、を備える情報処理装置である。 The first aspect of the present disclosure is an acquisition unit that acquires a reference image obtained by photographing the display surface of the display means on which a predetermined marker is displayed from a device provided with the photographing means and capable of photographing by the user, and an acquisition unit obtained from the reference image. It is an information processing apparatus including a movement processing unit that moves the position of the marker on the display surface based on the information to be obtained.

本開示の第2態様は、撮影が可能な撮影部と、所定のマーカが表示された表示手段の表示面を撮影した参考画像を取得する取得部と、前記参考画像上における前記マーカの位置と、前記参考画像上における基準位置とに基づいて、前記参考画像上の前記基準位置に対応する前記表示面の位置である目標位置を演算する演算部と、前記目標位置に関する情報を送信する送信部と、を備える撮像装置である。 A second aspect of the present disclosure includes a photographing unit capable of photographing, an acquisition unit that acquires a reference image obtained by photographing the display surface of the display means on which a predetermined marker is displayed, and a position of the marker on the reference image. , A calculation unit that calculates a target position that is a position of the display surface corresponding to the reference position on the reference image based on the reference position on the reference image, and a transmission unit that transmits information about the target position. It is an image pickup apparatus provided with.

本開示の第3態様は、表示手段の表示面に表示される所定のマーカを制御する情報処理装置と、撮影手段を備えユーザにより前記表示面を撮影可能なデバイスとを備える情報処理システムであって、前記マーカが表示された前記表示面を撮影した参考画像を取得する取得部と、前記参考画像から得られる情報に基づいて、前記表示面上における前記マーカの位置を移動させる移動処理部と、を備える情報処理システムである。 A third aspect of the present disclosure is an information processing system including an information processing device that controls a predetermined marker displayed on the display surface of the display means, and a device provided with a photographing means and capable of photographing the display surface by a user. An acquisition unit that acquires a reference image obtained by photographing the display surface on which the marker is displayed, and a movement processing unit that moves the position of the marker on the display surface based on the information obtained from the reference image. It is an information processing system including.

本開示の第4態様は、撮影手段を備えユーザにより撮影が可能なデバイスから、所定のマーカが表示された表示手段の表示面を撮影した参考画像を取得する取得工程と、前記参考画像から得られる情報に基づいて、前記表示面上における前記マーカの位置を移動させる移動処理工程と、をコンピュータが実行する入力処理方法である。 A fourth aspect of the present disclosure is an acquisition step of acquiring a reference image obtained by photographing the display surface of the display means on which a predetermined marker is displayed from a device provided with the photographing means and capable of photographing by the user, and obtaining from the reference image. This is an input processing method in which a computer executes a movement processing step of moving the position of the marker on the display surface based on the information to be obtained.

本開示によれば、操作性を向上させることができるという効果を奏する。 According to the present disclosure, it is possible to improve the operability.

本開示の一実施形態に係るウェアラブルデバイスの概略外観図である。It is a schematic external view of the wearable device which concerns on one Embodiment of this disclosure. 本開示の一実施形態に係る情報処理装置の概略外観図である。It is a schematic external view of the information processing apparatus which concerns on one Embodiment of this disclosure. 本開示の一実施形態に係る情報処理装置のハードウェア構成について示した図である。It is a figure which showed the hardware configuration of the information processing apparatus which concerns on one Embodiment of this disclosure. 本開示の一実施形態に係る情報処理システムが備える機能の一例を示した機能ブロック図である。It is a functional block diagram which showed an example of the function provided in the information processing system which concerns on one Embodiment of this disclosure. 入子型マーカの例を示す図である。It is a figure which shows the example of a nested marker. 本開示の一実施形態に係る情報処理システムの移動処理の例を示す図である。It is a figure which shows the example of the movement processing of the information processing system which concerns on one Embodiment of this disclosure. 本開示の一実施形態に係るウェアラブルデバイスの座標系の例を示す図である。It is a figure which shows the example of the coordinate system of the wearable device which concerns on one Embodiment of this disclosure. 本開示の一実施形態に係る情報処理システムによって実行されるマーカ移動処理に関するフローチャートである。It is a flowchart about the marker movement processing executed by the information processing system which concerns on one Embodiment of this disclosure. 本開示の一実施形態に係る情報処理システムによって実行されるジェスチャー判定処理に関するフローチャートである。It is a flowchart about the gesture determination processing executed by the information processing system which concerns on one Embodiment of this disclosure. 本開示の一実施形態に係る画像の一例を示した図である。It is a figure which showed an example of the image which concerns on one Embodiment of this disclosure.

以下に、本開示に係る情報処理装置、撮像装置、情報処理システム、及びその入力処理方法の一実施形態について、図面を参照して説明する。本実施形態では、情報処理システムが、ノートPCと指輪型のウェアラブルデバイス10との組合せに適用される場合を一例として説明する。 Hereinafter, an embodiment of an information processing device, an imaging device, an information processing system, and an input processing method thereof according to the present disclosure will be described with reference to the drawings. In the present embodiment, the case where the information processing system is applied to the combination of the notebook PC and the ring-type wearable device 10 will be described as an example.

図1は、本開示の一実施形態に係る指輪型のウェアラブルデバイス10の概略外観図である。ウェアラブルデバイス10はカメラ(撮影手段)11を搭載している。なお、指輪型のウェアラブルデバイス10については、カメラ(撮影手段)11を備えているデバイスであれば、例えばペン型デバイス等のデバイスを用いることも可能である。ペン型デバイスを使用する場合には例えばペン先に撮影手段が設けられる。 FIG. 1 is a schematic external view of a ring-type wearable device 10 according to an embodiment of the present disclosure. The wearable device 10 is equipped with a camera (shooting means) 11. As for the ring-type wearable device 10, a device such as a pen-type device can be used as long as it is a device provided with a camera (shooting means) 11. When a pen-type device is used, for example, a shooting means is provided at the pen tip.

図1に示すように、ウェアラブルデバイス10は、リング形状とされており、指輪として図1のようにユーザの指に装着可能である。ウェアラブルデバイス10は、指に装着された状態で、カメラ11により撮影を行い、情報処理装置1と情報の授受か可能である。ウェアラブルデバイス10は、例えばBluetooth(登録商標)等の無線通信方法を用いて情報処理装置1と通信可能とされている。なお、通信については、無線方式でも良いし有線方式でも良い。 As shown in FIG. 1, the wearable device 10 has a ring shape and can be worn as a ring on a user's finger as shown in FIG. The wearable device 10 can take a picture with the camera 11 while being worn on the finger and exchange information with the information processing device 1. The wearable device 10 can communicate with the information processing device 1 by using a wireless communication method such as Bluetooth (registered trademark). The communication may be a wireless method or a wired method.

ウェアラブルデバイス10は、加速度センサ(ジャイロセンサ)を搭載しており、ウェアラブルデバイス10の移動(動作)に係る情報(ユーザの指の移動に係る情報)を検出しており、情報処理装置1と情報の授受が可能となっている。ウェアラブルデバイス10は、ユーザの指に装着された状態で、撮影した画像(参考画像)と、加速度センサの検出結果とを送信部(通信部)により情報処理装置1へ逐次送信する。 The wearable device 10 is equipped with an acceleration sensor (gyro sensor), detects information related to the movement (operation) of the wearable device 10 (information related to the movement of the user's finger), and information processing device 1 and information. Can be exchanged. The wearable device 10 sequentially transmits the captured image (reference image) and the detection result of the acceleration sensor to the information processing device 1 by the transmission unit (communication unit) while being worn on the user's finger.

図2は、本開示の一実施形態に係る情報処理装置1の概略外観図である。本実施形態では、情報処理装置1をノートPCとして説明するが、情報処理装置1としては、ノートPCに限られず、例えば、デスクトップ型PCやプロジェクタ等の情報処理端末等であってもよい。表示手段(表示部5)については、情報処理装置に一体的に設けられてもよいし、情報処理装置とは独立して設けられ装置によって表示が行われることとしてもよい。また、表示はプロジェクタのように投影により行われてもよい。 FIG. 2 is a schematic external view of the information processing device 1 according to the embodiment of the present disclosure. In the present embodiment, the information processing device 1 will be described as a notebook PC, but the information processing device 1 is not limited to the notebook PC, and may be, for example, an information processing terminal such as a desktop PC or a projector. The display means (display unit 5) may be provided integrally with the information processing device, or may be provided independently of the information processing device and displayed by the device. Further, the display may be performed by projection like a projector.

情報処理装置1は、図2に示すように、一例として、いずれも略直方体である本体側筐体2及びディスプレイ側筐体3を備える。 As shown in FIG. 2, the information processing device 1 includes, as an example, a main body-side housing 2 and a display-side housing 3, both of which are substantially rectangular parallelepipeds.

本体側筐体2は、入力部4を備える。入力部4は、ユーザが入力操作を行うためのユーザインターフェースであり、文字、コマンド等を入力する各種キーより構成されるキーボードや、画面上のカーソルを移動させたり、各種メニューを選択するタッチパッド等を備えている。 The main body side housing 2 includes an input unit 4. The input unit 4 is a user interface for the user to perform input operations, such as a keyboard composed of various keys for inputting characters, commands, etc., and a touch pad for moving a cursor on the screen and selecting various menus. Etc. are provided.

ディスプレイ側筐体3は、画像を表示する表示部(表示手段)5を備える。本実施形態において、表示部5は、LCD(Liquid Crystal Display)を例示するが、LCDに限らず有機EL(Electroluminescence)ディスプレイ等の他の表示機器、又はタッチパネルとされてもよい。LCDは、入力される表示データに応じた各種情報を表示画面に表示する。なお、後述するように、表示部5における画面に表示されたマーカが制御される。 The display-side housing 3 includes a display unit (display means) 5 for displaying an image. In the present embodiment, the display unit 5 exemplifies an LCD (Liquid Crystal Display), but the display unit 5 may be not limited to an LCD but may be another display device such as an organic EL (Electroluminescence) display or a touch panel. The LCD displays various information according to the input display data on the display screen. As will be described later, the marker displayed on the screen of the display unit 5 is controlled.

また、ディスプレイ側筐体3は、画像を取得するためのカメラ7及び光源8を備える。カメラ7は、ディスプレイ側筐体3においてLCDの表示面側でその上方の略中央に配置され、前方の被写体(例えば、ユーザの顔)を撮像可能とされている。光源8はディスプレイ側筐体3においてLCDの表示面側でその上方の略中央に配置され、前方の被写体に対して、カメラ7の撮影に係る補助光を発する。 Further, the display-side housing 3 includes a camera 7 and a light source 8 for acquiring an image. The camera 7 is arranged in the display-side housing 3 on the display surface side of the LCD at substantially the center above the display surface side, and is capable of photographing a subject in front (for example, a user's face). The light source 8 is arranged substantially in the center above the display surface side of the LCD in the display-side housing 3, and emits auxiliary light related to the shooting of the camera 7 to the subject in front.

本体側筐体2及びディスプレイ側筐体3は、それぞれの端部で左右の一対の連結部6によって連結されている。連結部6は、ヒンジであり、本体側筐体2及びディスプレイ側筐体3を開閉自在に支持している。 The main body side housing 2 and the display side housing 3 are connected by a pair of left and right connecting portions 6 at their respective ends. The connecting portion 6 is a hinge and supports the main body side housing 2 and the display side housing 3 so as to be openable and closable.

図3は、本開示の一実施形態に係る情報処理装置1のハードウェア構成を示す図である。情報処理装置1は、例えば、CPU(Central Processing Unit)21と、メインメモリ22と、記憶部23と、表示部5と、入力部4と、通信部26と、カメラ7と、光源8とを備えている。これら各部は直接的にまたはバス28を介して間接的に相互に接続されており互いに連携して各種処理を実行する。 FIG. 3 is a diagram showing a hardware configuration of the information processing device 1 according to the embodiment of the present disclosure. The information processing device 1 includes, for example, a CPU (Central Processing Unit) 21, a main memory 22, a storage unit 23, a display unit 5, an input unit 4, a communication unit 26, a camera 7, and a light source 8. I have. Each of these parts is directly or indirectly connected to each other via the bus 28, and performs various processes in cooperation with each other.

CPU21は、例えば、バス28を介して接続された記憶部23に格納されたOS(Operating System)により情報処理装置1全体の制御を行うとともに、記憶部23に格納された各種プログラムを実行することにより各種処理を実行する。 The CPU 21 controls the entire information processing device 1 by an OS (Operating System) stored in the storage unit 23 connected via the bus 28, and executes various programs stored in the storage unit 23. Various processes are executed by.

メインメモリ22は、キャッシュメモリ、RAM(Random Access Memory)等の書き込み可能なメモリで構成される。メインメモリ22は、CPU21の実行プログラムの読み出し、実行プログラムによる処理データの書き込み等を行う作業領域として利用される。 The main memory 22 is composed of a writable memory such as a cache memory and a RAM (Random Access Memory). The main memory 22 is used as a work area for reading the execution program of the CPU 21 and writing processing data by the execution program.

記憶部23は、例えば、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等であり、例えば、Windows(登録商標)、iOS(登録商標)、Android(登録商標)等の情報処理装置1全体の制御を行うためのOS、周辺機器類をハードウェア操作するための各種ドライバ、特定業務に向けられたアプリケーション、及び各種データやファイル等を格納する。また、記憶部23には、各種処理を実現するためのプログラムや、各種処理を実現するために必要とされる各種データが格納されている。 The storage unit 23 is, for example, a ROM (Read Only Memory), an HDD (Hard Disk Drive), a flash memory, or the like, and for example, information processing such as Windows (registered trademark), OS (registered trademark), Android (registered trademark), etc. It stores an OS for controlling the entire device 1, various drivers for operating peripheral devices in hardware, applications for specific tasks, and various data and files. In addition, the storage unit 23 stores programs for realizing various processes and various data required for realizing various processes.

表示部(画面)5は、表示手段であり、例えばLCDでありCPU21の制御に従って表示を行う。 The display unit (screen) 5 is a display means, for example, an LCD, which displays according to the control of the CPU 21.

なお、本実施形態では、表示手段は表示部5として情報処理装置1に設けられることしているが、表示手段については情報処理装置1と独立した装置として設けられてもよい。また、プロジェクタのように投影により表示を行うこととしてもよい。すなわち、表示面に表示が行われれば、表示方法は限定されない。 In the present embodiment, the display means is provided in the information processing device 1 as the display unit 5, but the display means may be provided as a device independent of the information processing device 1. Further, the display may be performed by projection like a projector. That is, as long as the display is performed on the display surface, the display method is not limited.

入力部4は、例えば、キーボード、マウス等であり、ユーザが入力操作を行うのに使用される。 The input unit 4 is, for example, a keyboard, a mouse, or the like, and is used by the user to perform an input operation.

通信部26は、ネットワークに接続して他の情報処理装置と通信を行い情報の送受信を行うためのインターフェースである。 The communication unit 26 is an interface for connecting to a network, communicating with other information processing devices, and transmitting / receiving information.

カメラ7は、例えば、ユーザからの入力操作等に基づいてCPU21によって制御される。 The camera 7 is controlled by the CPU 21 based on, for example, an input operation from the user.

カメラ7は、撮影が可能であって、レンズやレンズ駆動部、イメージセンサ等を有している。レンズは、被写体からの光を取り込み、イメージセンサに被写体像を結像させる。イメージセンサは、レンズにより取り込まれた光を信号電荷に変換し、被写体像を撮像する。イメージセンサからの画像信号は、例えばISPにより信号処理(画像処理)が行われる。カメラ11についてもカメラ7と同様の構成としてもよい。 The camera 7 is capable of taking pictures and has a lens, a lens driving unit, an image sensor, and the like. The lens captures the light from the subject and causes the image sensor to form an image of the subject. The image sensor converts the light captured by the lens into a signal charge and captures an image of the subject. The image signal from the image sensor is subjected to signal processing (image processing) by, for example, an ISP. The camera 11 may have the same configuration as the camera 7.

光源8は、カメラ7による撮影に係る補助光を発し、CPU21によって制御される。 The light source 8 emits auxiliary light related to photography by the camera 7, and is controlled by the CPU 21.

なお、本実施形態では各種処理を情報処理装置1側で行うこととしているが、一部または全部をウェアラブルデバイス10側で行うこととしてもよく、この場合には、ウェアラブルデバイス10がCPU等の情報処理に係る構成を備えることとしてもよい。 In the present embodiment, various processes are performed on the information processing device 1 side, but part or all of the processing may be performed on the wearable device 10 side. In this case, the wearable device 10 may perform information such as the CPU. A configuration related to processing may be provided.

図4は、情報処理システム30が備える機能の一例を示した機能ブロック図である。図4に示すように、情報処理システム30は、取得部31と、演算部34と、移動処理部32と、処理実行部33とを主な構成として備えている。 FIG. 4 is a functional block diagram showing an example of the functions included in the information processing system 30. As shown in FIG. 4, the information processing system 30 includes an acquisition unit 31, a calculation unit 34, a movement processing unit 32, and a processing execution unit 33 as main configurations.

各部によって実現される後述の各種処理は、例えば、情報処理装置1のCPU21によって実行される。すなわち、情報処理装置1のCPU21が記憶部23に記憶されているプログラムをメインメモリ22に読み出して実行することにより実現される。メインメモリ22又は記憶部23に記憶されているプログラムは、例えば、所定のサーバからダウンロードして、または、所定の記録媒体からインストールされて保存されたプログラムでもよく、製造時に記憶部23に格納されているプログラムでもよい。後述の情報処理装置1における各種処理はプログラムの機能により実現される。 Various processes, which will be described later, realized by each unit are executed by, for example, the CPU 21 of the information processing device 1. That is, it is realized by the CPU 21 of the information processing device 1 reading the program stored in the storage unit 23 into the main memory 22 and executing the program. The program stored in the main memory 22 or the storage unit 23 may be, for example, a program downloaded from a predetermined server or installed and saved from a predetermined recording medium, and is stored in the storage unit 23 at the time of manufacture. It may be a program that is installed. Various processes in the information processing apparatus 1 described later are realized by the function of the program.

なお、本実施形態では、情報処理システム30の各部の機能は情報処理装置1に設けられることとしているが、各部の機能の一部または全部をウェアラブルデバイス10に設けることとしてもよい。すなわち、情報処理システム30の機能は、システム全体として達成されればよいため、システムを構成する各装置において柔軟に各機能を設けることができる。 In the present embodiment, the functions of each part of the information processing system 30 are provided in the information processing device 1, but some or all of the functions of each part may be provided in the wearable device 10. That is, since the functions of the information processing system 30 need only be achieved by the entire system, each function can be flexibly provided in each device constituting the system.

情報処理システム30では、表示部5の画面に表示したマーカを、該マーカを撮影した参考画像に基づいて移動させる。 In the information processing system 30, the marker displayed on the screen of the display unit 5 is moved based on the reference image captured by the marker.

マーカとは、画面に表示される標識であり、カーソルの役割を果たす。後述するように、画面上に表示されたマーカはウェアラブルデバイス10の移動に連動して画面上を移動する。マーカとは、例えば、図5に示すように入子型マーカである。図5では、左側に入子型マーカの一例を示しており、入子を構成する構成要素を拡大したものを真ん中に示しており、更に拡大したもの(最小要素)を右側に示している。入子型のマーカとすることによって、ウェアラブルデバイス10と画面との距離をより正確に推定することが可能となる。なお、上下左右が認識可能なマーカであれば、マーカの構成は入子型に限定されない。 A marker is a sign displayed on the screen and acts as a cursor. As will be described later, the marker displayed on the screen moves on the screen in conjunction with the movement of the wearable device 10. The marker is, for example, a nested marker as shown in FIG. In FIG. 5, an example of a nested marker is shown on the left side, an enlarged version of the constituent elements constituting the nesting is shown in the center, and a further enlarged version (minimum element) is shown on the right side. By using a nested marker, the distance between the wearable device 10 and the screen can be estimated more accurately. The marker configuration is not limited to the nested type as long as the marker can recognize up, down, left, and right.

取得部31は、撮影手段を備えユーザにより撮影が可能なデバイス(ウェアラブルデバイス10)から、所定のマーカが表示された表示手段(表示部5)の表示面を撮影した参考画像を取得する。具体的には、画面にマーカを表示している状態においてウェアラブルデバイス10で該画面が撮影されると、撮影された参考画像がウェアラブルデバイス10から情報処理装置1へ送信される。このようにしてウェアラブルデバイス10において撮影した画面の参考画像(マーカを含む)が取得される。 The acquisition unit 31 acquires a reference image obtained by photographing the display surface of the display means (display unit 5) on which a predetermined marker is displayed from a device (wearable device 10) provided with the photographing means and capable of photographing by the user. Specifically, when the screen is photographed by the wearable device 10 while the marker is displayed on the screen, the photographed reference image is transmitted from the wearable device 10 to the information processing device 1. In this way, a reference image (including a marker) of the screen taken by the wearable device 10 is acquired.

演算部34及び移動処理部32では、参考画像から得られる情報に基づいて、表示面上の前記マーカの位置を移動させる。具体的には、マーカの位置と参考画像における基準位置とに基づいて、マーカの表示位置を、参考画像における基準位置に対応する画面上の位置へ移動させる。すなわち、ウェアラブルデバイス10から取得した参考画像上においてマーカが基準位置に移動するように、画面のマーカを移動させる。本実施形態では、マーカの移動の目標位置である基準位置が、参考画像における中心位置である場合について説明するが、中心位置に限定されず、参考画像において任意に位置を設定してもよい。 The calculation unit 34 and the movement processing unit 32 move the position of the marker on the display surface based on the information obtained from the reference image. Specifically, the display position of the marker is moved to a position on the screen corresponding to the reference position in the reference image based on the position of the marker and the reference position in the reference image. That is, the marker on the screen is moved so that the marker moves to the reference position on the reference image acquired from the wearable device 10. In the present embodiment, the case where the reference position, which is the target position of the movement of the marker, is the center position in the reference image will be described, but the position is not limited to the center position, and the position may be arbitrarily set in the reference image.

演算部34は、参考画像上におけるマーカの位置と、参考画像上における基準位置とに基づいて、参考画像上の基準位置に対応する表示面上の位置である目標位置を演算する。演算部34は、取得部31において取得した参考画像を取得する。そして、参考画像においてマーカを特定する。そして、演算部34は、撮影が行われたときの表示面から撮影手段までの距離(すなわち、画面とウェアラブルデバイス10との距離)に基づいて、マーカの位置を移動させる画面上の目標位置を演算する。画面とウェアラブルデバイス10との距離については、参考画像に含まれるマーカの大きさの情報によって推定される。 The calculation unit 34 calculates a target position, which is a position on the display surface corresponding to the reference position on the reference image, based on the position of the marker on the reference image and the reference position on the reference image. The calculation unit 34 acquires the reference image acquired by the acquisition unit 31. Then, the marker is specified in the reference image. Then, the calculation unit 34 sets a target position on the screen for moving the position of the marker based on the distance from the display surface to the shooting means (that is, the distance between the screen and the wearable device 10) when shooting is performed. Calculate. The distance between the screen and the wearable device 10 is estimated from the information on the size of the marker included in the reference image.

画面とウェアラブルデバイス10との距離に基づくことで、参考画像上におけるマーカの位置と中心位置とから、実際の画面上におけるマーカの表示位置と、参考画像の中心位置に対応する画面上の位置との距離を算出することができる。また、マーカの向き(傾き)により、画面に対する参考画像の傾きを算出することができる。このため、マーカの表示位置から、参考画像の中心位置に対応する画面上の位置への方向を推定できる。すなわち、参考画像の中心位置に対応する画面上の位置の座標(目標座標)を特定することができる。 Based on the distance between the screen and the wearable device 10, the position and center position of the marker on the reference image, the display position of the marker on the actual screen, and the position on the screen corresponding to the center position of the reference image. Distance can be calculated. In addition, the tilt of the reference image with respect to the screen can be calculated from the orientation (tilt) of the marker. Therefore, the direction from the display position of the marker to the position on the screen corresponding to the center position of the reference image can be estimated. That is, the coordinates (target coordinates) of the position on the screen corresponding to the center position of the reference image can be specified.

例えば、画面とウェアラブルデバイス10との距離より、画面上における参考画像の表示範囲のサイズが特定できるため、参考画像上におけるマーカの位置と中心位置とにより、参考画像の中心位置に対応する画面上の座標を特定することができる。なお、参考画像の中心位置に対応する画面上の座標については、例えば三平方の定理や相似比等を用いて特定することとしてもよい。 For example, since the size of the display range of the reference image on the screen can be specified from the distance between the screen and the wearable device 10, the position of the marker on the reference image and the center position on the screen correspond to the center position of the reference image. Coordinates can be specified. The coordinates on the screen corresponding to the center position of the reference image may be specified by using, for example, the three-square theorem or the similarity ratio.

このようにして、移動処理部32では、画面上において、マーカの表示位置を中心位置へ移動させる距離(すなわち、参考画像の中心位置に対応する画面上の座標位置)を算出する。 In this way, the movement processing unit 32 calculates the distance (that is, the coordinate position on the screen corresponding to the center position of the reference image) for moving the display position of the marker to the center position on the screen.

移動処理部32は、表示面上のマーカの位置を、目標位置へ移動させる。すなわち、移動処理部32は、表示されているマーカを、画面上において特定された目標位置へ移動させている。算出された座標位置へマーカを移動させることによって、画面において、マーカを参考画像の中心へ移動させることができる。 The movement processing unit 32 moves the position of the marker on the display surface to the target position. That is, the movement processing unit 32 moves the displayed marker to the target position specified on the screen. By moving the marker to the calculated coordinate position, the marker can be moved to the center of the reference image on the screen.

すなわち、演算部34及び移動処理部32では、ウェアラブルデバイス10の移動に追従して画面上のマーカを移動させる。 That is, the calculation unit 34 and the movement processing unit 32 move the marker on the screen following the movement of the wearable device 10.

図6に移動処理の一例を示す。F1−3の各状態では、移動処理に係る各段階を示している。まずF1では、前の処理により参考画像の中心にマーカが位置している。そして、ウェアラブルデバイス10が移動されると、F2の参考画像のように、マーカの位置が中心位置からずれる。そして、実際の画面上におけるマーカの表示位置と、参考画像の中心位置に対応する位置とにより、参考画像の中心位置に対応する画面上の座標位置が算出される。そして、F3のように、マーカを参考画像の中心位置に対応する画面上の位置(算出した座標)へ移動させる。移動が行われると、F1へ戻り、繰り返し処理が実行される。このようにして、マーカが移動される。 FIG. 6 shows an example of the movement process. Each state of F1-3 indicates each stage related to the movement process. First, in F1, the marker is located at the center of the reference image by the previous processing. Then, when the wearable device 10 is moved, the position of the marker deviates from the center position as shown in the reference image of F2. Then, the coordinate position on the screen corresponding to the center position of the reference image is calculated from the display position of the marker on the actual screen and the position corresponding to the center position of the reference image. Then, as in F3, the marker is moved to a position (calculated coordinates) on the screen corresponding to the center position of the reference image. When the movement is performed, the process returns to F1 and the iterative process is executed. In this way, the marker is moved.

なお、マーカの表示位置を、取得した参考画像の中心位置に対応する画面上の位置へ移動することができれば、移動方法は上記に限定されない。 The moving method is not limited to the above as long as the display position of the marker can be moved to a position on the screen corresponding to the center position of the acquired reference image.

処理実行部33は、参考画像を撮影する撮影手段(カメラ11)の移動に係る情報に基づいて、マーカの表示位置において所定の処理を実行する。具体的には、処理実行部33は、撮影手段(カメラ11)において予め設定された軸方向への加速度情報に基づいて、スワイプ処理またはクリック処理を実行する。本実施形態では、所定の処理として、スワイプ処理とタップ処理を行う場合について説明するが、タッチパネルにおいて可能な操作については同様に適用することができる。 The process execution unit 33 executes a predetermined process at the display position of the marker based on the information related to the movement of the photographing means (camera 11) for capturing the reference image. Specifically, the processing execution unit 33 executes a swipe process or a click process based on the acceleration information in the axial direction set in advance in the photographing means (camera 11). In the present embodiment, a case where a swipe process and a tap process are performed as predetermined processes will be described, but the operations possible on the touch panel can be similarly applied.

移動に係る情報とは、ウェアラブルデバイス10の3次元空間上の移動に関する情報である。例えば加速度情報である。3次元空間上の移動を認識するために、ウェアラブルデバイス10には図7に示すように、直交座標系が設定される。具体的には、撮影が可能な方向(撮影方向)にz軸が設定される。そして、z軸に直交する方向に、x軸及びy軸が設定される。換言すると、ウェアラブルデバイス10で情報処理装置1の画面を撮影している場合には、z軸はカメラ11に対して画面方向を示す。このような直交座標における各軸方向における加速度によって、ウェアラブルデバイス10の移動(すなわりユーザによるジェスチャー)を認識することができる。 The information related to the movement is information related to the movement of the wearable device 10 in the three-dimensional space. For example, acceleration information. In order to recognize the movement in the three-dimensional space, the wearable device 10 is set with a Cartesian coordinate system as shown in FIG. Specifically, the z-axis is set in the shooting direction (shooting direction). Then, the x-axis and the y-axis are set in the direction orthogonal to the z-axis. In other words, when the wearable device 10 is photographing the screen of the information processing device 1, the z-axis indicates the screen direction with respect to the camera 11. The movement of the wearable device 10 (that is, a gesture by the user) can be recognized by the acceleration in each axial direction in such Cartesian coordinates.

具体的には、処理実行部33は、ウェアラブルデバイス10が、z軸に所定の加速度以上で移動し、z軸と直交する軸方向(x軸および/又はy軸)に所定の加速度以上で移動した場合に、スワイプ処理を実行する。スワイプ処理とは、タッチパネルにおいては画面に触れた状態で指を滑らせる操作に対応した処理であり、画面に表示されている画像を次の画像や前の画像(例えば電子書籍のページ移動)へ切り替える処理である。 Specifically, in the processing execution unit 33, the wearable device 10 moves in the z-axis at a predetermined acceleration or higher, and moves in the axial direction (x-axis and / or y-axis) orthogonal to the z-axis at a predetermined acceleration or higher. If so, swipe processing is executed. The swipe process is a process that corresponds to the operation of sliding a finger while touching the screen on the touch panel, and moves the image displayed on the screen to the next image or the previous image (for example, moving the page of an electronic book). This is the process of switching.

このように、ユーザがスワイプ操作を行う場合には、例えば指を左から右へ移動させる動作となる。また、ユーザがスワイプ操作を行う場合には、指が画面へ近づくまたは遠ざかる方向へも移動がある。このため、処理実行部33では、z軸に所定の加速度以上で移動があり、x軸および/又はy軸に所定の加速度以上で移動がある場合には、ユーザによりスワイプ操作が行われたと推定して、スワイプ処理を実行する。 In this way, when the user swipes, for example, the finger is moved from left to right. Further, when the user swipes, the finger may move in the direction of approaching or moving away from the screen. Therefore, in the processing execution unit 33, when there is a movement at a predetermined acceleration or more on the z-axis and there is a movement at a predetermined acceleration or more on the x-axis and / or the y-axis, it is estimated that the swipe operation is performed by the user. Then, the swipe process is executed.

なお、スワイプ処理においては、x軸および/又はy軸に所定の加速度以上で移動がある場合に処理を実行することとしてもよい。 In the swipe process, the process may be executed when the x-axis and / or the y-axis move at a predetermined acceleration or higher.

処理実行部33は、ウェアラブルデバイス10が、z軸に所定の加速度以上で移動し、z軸と直交する軸方向(x軸および/又はy軸)に所定の加速度以上で移動しない場合に、タップ処理を実行する。タップ処理とは、タッチパネルにおいては、画面をタッチする操作に対応した処理であり、マーカの表示位置において、アプリケーションの各機能を選択したり実行したりする処理である。 The process execution unit 33 taps when the wearable device 10 moves on the z-axis at a predetermined acceleration or higher and does not move in the axial direction (x-axis and / or y-axis) orthogonal to the z-axis at a predetermined acceleration or higher. Execute the process. The tap process is a process corresponding to an operation of touching the screen on the touch panel, and is a process of selecting or executing each function of the application at the display position of the marker.

このように、ユーザがタップ操作を行う場合には、指を画面から離れた状態から画面へ近づける動作である。また、タップ操作を行う場合には、x軸および/又はy軸の方向における移動は少ない。このため、処理実行部33では、z軸に所定の加速度以上で移動があり、x軸および/又はy軸に所定の加速度以上で移動がない場合には、ユーザによりタップ操作が行われたと推定して、タップ処理を実行する。 In this way, when the user performs the tap operation, it is an operation of bringing the finger away from the screen to the screen. Further, when the tap operation is performed, there is little movement in the x-axis and / or y-axis directions. Therefore, in the processing execution unit 33, when there is movement at a predetermined acceleration or more on the z-axis and there is no movement at a predetermined acceleration or more on the x-axis and / or y-axis, it is estimated that the tap operation has been performed by the user. Then, tap processing is executed.

次に、本実施形態に係る情報処理システム30によって実行されるマーカ移動処理について説明する。図8は、本実施形態に係る情報処理システム30によって行われる処理を示すフローチャートである。図8に示した処理フローは、情報処理装置1が起動し、ウェアラブルデバイス10を使用する場合に実行される。例えば、マーカによる操作開始の指示がユーザから入力された場合に開示される。 Next, the marker movement process executed by the information processing system 30 according to the present embodiment will be described. FIG. 8 is a flowchart showing processing performed by the information processing system 30 according to the present embodiment. The processing flow shown in FIG. 8 is executed when the information processing device 1 is activated and the wearable device 10 is used. For example, it is disclosed when an instruction to start an operation by a marker is input from the user.

まず、ウェアラブルデバイス10の検出を行う(S101)。検出とは、情報処理装置1とウェアラブルデバイス10とが接続されたことを検出する処理である。例えば、Bluetooth(登録商標)等を用いて互いに接続される。 First, the wearable device 10 is detected (S101). The detection is a process of detecting that the information processing device 1 and the wearable device 10 are connected. For example, they are connected to each other using Bluetooth® or the like.

次に、画面にマーカを表示し、画面全体をウェアラブルデバイス10で撮影させ、参考画像内に画面全体及びマーカを検出したか否かを判定する(S102)。S102では、例えば、画面にマーカを表示し、画面全体を撮影するようにユーザへ通知を行う。そして、ウェアラブルデバイス10で撮影した参考画像を逐次取得し、マーカが表示された画面全体が検出されたか否かを判定する。 Next, a marker is displayed on the screen, the entire screen is photographed by the wearable device 10, and it is determined whether or not the entire screen and the marker are detected in the reference image (S102). In S102, for example, a marker is displayed on the screen, and the user is notified to take a picture of the entire screen. Then, the reference images taken by the wearable device 10 are sequentially acquired, and it is determined whether or not the entire screen on which the marker is displayed is detected.

S102のように、画面全体を撮影することによって、事前に登録された情報処理装置1における画面のサイズから画面全体の撮影時における画面とウェアラブルデバイス10との距離を特定することができる。すなわち、画面とウェアラブルデバイス10との距離と、画面に表示されるマーカとのサイズとの相関関係を得ることができるため、以降の処理において、撮影した参考画像内のマーカのサイズにより該参考画像取得時の画面とウェアラブルデバイス10との距離を把握することが可能となる。 By photographing the entire screen as in S102, the distance between the screen and the wearable device 10 at the time of photographing the entire screen can be specified from the size of the screen in the information processing device 1 registered in advance. That is, since the correlation between the distance between the screen and the wearable device 10 and the size of the marker displayed on the screen can be obtained, in the subsequent processing, the reference image is determined by the size of the marker in the captured reference image. It is possible to grasp the distance between the screen at the time of acquisition and the wearable device 10.

なお、画面に表示しているマーカのサイズ(ピクセルサイズ)が予め記憶されている場合には、S102において画面全体ではなく、マーカを含むように撮影を行うこととしてもよい。 If the size (pixel size) of the marker displayed on the screen is stored in advance, shooting may be performed in S102 so as to include the marker instead of the entire screen.

このように、情報処理装置1とウェアラブルデバイス10との設定が完了すると、初期状態として、ウェアラブルデバイス10で撮影する参考画像の中心位置にマーカが位置するように画面にマーカが表示される。そして、ウェアラブルデバイス10の移動に追従するようにマーカの移動処理が行われる(S103)。すなわち、S103では、マーカの表示位置を、参考画像における中心位置に対応する画面の位置へ移動させている。なお、マーカによる操作終了の指示がユーザから入力された場合や、ウェアラブルデバイス10との通信が終了した場合等にS103は終了される。すなわち、S103の実行中は、マーカの操作が可能となる。 As described above, when the setting of the information processing device 1 and the wearable device 10 is completed, the marker is displayed on the screen so that the marker is located at the center position of the reference image captured by the wearable device 10 as an initial state. Then, the marker movement process is performed so as to follow the movement of the wearable device 10 (S103). That is, in S103, the display position of the marker is moved to the position of the screen corresponding to the center position in the reference image. Note that S103 is terminated when the user inputs an instruction to end the operation by the marker, or when communication with the wearable device 10 is terminated. That is, the marker can be operated during the execution of S103.

なお、S103の実行中に逐次取得される参考画像にマーカが含まれない場合には、S101を再度実行することとしてもよい。 If the reference image sequentially acquired during the execution of S103 does not include the marker, S101 may be executed again.

次に、ジェスチャー判定処理について図9を用いて説明する。図9に示したフローは、マーカの自動追従処理が行われている場合に、所定の制御周期で繰り返し実行される。マーカの自動追従処理は、図9のフローでは、S103により行われている。 Next, the gesture determination process will be described with reference to FIG. The flow shown in FIG. 9 is repeatedly executed at a predetermined control cycle when the automatic tracking process of the marker is performed. The automatic tracking process of the marker is performed by S103 in the flow of FIG.

まず、参考画像に含まれているマーカが最小のもの1つのみであるか否かを判定する(S201)。最小のものとは、入子型マーカにおいて、図5に示すように入子型を構成する最小単位の要素であり、予め最小要素として記憶されている。すなわち、参考画像に含まれているマーカが最小のもの1つのみである場合とは、ウェアラブルデバイス10(すなわちユーザの手)が画面に十分近づいたと推定できる場合となる。参考画像に含まれているマーカが最小のもの1つのみである場合とは、参考画像に1つの最小要素の全体が含まれており、他の最小要素の全体は含まれていない(全体が収まっていない)状態となる。例えば、参考画像に含まれているマーカが最小のもの1つのみである場合とは、参考画像は図10のように、入子型マーカにおける最小要素の全体が1つ含まれることとなる。 First, it is determined whether or not the reference image contains only one marker (S201). The smallest element is an element of the smallest unit constituting the nested type as shown in FIG. 5 in the nested marker, and is stored in advance as the minimum element. That is, the case where the reference image contains only one marker is the case where it can be estimated that the wearable device 10 (that is, the user's hand) is sufficiently close to the screen. When the reference image contains only one smallest marker, the reference image contains the entire one minimum element and does not include the entire other minimum elements (the whole is included). It will be in a state (not fit). For example, when the reference image contains only one minimum marker, the reference image includes one of the entire minimum elements of the nested marker as shown in FIG.

S201では、ユーザの手が画面に近づいた(ウェアラブルデバイス10と画面との距離とが所定距離未満である)ことが推定できれば良いため、参考画像に含まれているマーカのサイズによって判定することとしてもよい。この場合には、例えば、参考画像におけるマーカのサイズが所定の面積以上であるか否かを判定することとすればよい。 In S201, since it is sufficient if it can be estimated that the user's hand has approached the screen (the distance between the wearable device 10 and the screen is less than a predetermined distance), it is determined by the size of the marker included in the reference image. May be good. In this case, for example, it may be determined whether or not the size of the marker in the reference image is equal to or larger than a predetermined area.

参考画像に含まれているマーカが最小のもの1つのみでない場合(S201のNO判定)には、ウェアラブルデバイス10が画面に十分近づいたと推定できない状態であるため、処理を終了する。 If the reference image contains only one marker (NO determination in S201), it cannot be estimated that the wearable device 10 is sufficiently close to the screen, and the process ends.

参考画像に含まれているマーカが最小のもの1つのみである場合(S201のYES判定)には、ウェアラブルデバイス10が画面に十分近づいたと推定できる状態である。このため、ウェアラブルデバイス10が、所定時間内(例えばα秒以内)に、所定加速度以上(例えばβ加速度以上)で移動したか否かを判定する(S202)。すなわち、S202では、ウェアラブルデバイス10で素早い移動(ジェスチャー)が行われたか否かを判定している。S202は、ウェアラブルデバイス10に設けられた加速度センサの情報を取得することにより行われる。 When the reference image contains only one minimum marker (YES determination in S201), it can be estimated that the wearable device 10 is sufficiently close to the screen. Therefore, it is determined whether or not the wearable device 10 has moved within a predetermined time (for example, within α seconds) at a predetermined acceleration or more (for example, β acceleration or more) (S202). That is, in S202, it is determined whether or not the wearable device 10 has made a quick movement (gesture). S202 is performed by acquiring the information of the acceleration sensor provided in the wearable device 10.

S202において、所定時間(例えばα)及び所定加速度(例えばβ)については、初期設定としてユーザの模擬動作に基づいて設定される。例えば、初期設定(図8のフローが初めて開始される前段階)において、ユーザにタップ及びスワイプの模擬動作をしてもらい、該模擬動作でユーザがタップやスワイプを行った場合に、どれくらいの時間内にどれくらいの加速度が発生するかを示す情報を取得する。そして、取得した模擬動作の情報に基づいてタップまたはスワイプを行ったと推定される所定時間(例えばα)及び所定加速度(例えばβ)を設定する。なお、タップ及びスワイプに係る情報については、模擬動作を行う場合に限らず、他のユーザ等の情報(データベース)に基づいて設定されることとしてもよい。すなわち、予め固定値が設定されることとしてもよい。 In S202, the predetermined time (for example, α) and the predetermined acceleration (for example, β) are set as initial settings based on the simulated operation of the user. For example, in the initial setting (the stage before the flow of FIG. 8 is started for the first time), how long is it when the user performs a simulated tap and swipe operation and the user taps and swipes in the simulated operation? Get information that shows how much acceleration is generated inside. Then, a predetermined time (for example, α) and a predetermined acceleration (for example, β) estimated to have been tapped or swiped are set based on the acquired simulated motion information. The information related to tap and swipe is not limited to the case of performing a simulated operation, and may be set based on the information (database) of another user or the like. That is, a fixed value may be set in advance.

ウェアラブルデバイス10が、所定時間内に、所定加速度以上で移動していないと判定された場合(S202のNO判定)には、ジェスチャーが行われたと推定できないため、処理を終了する。 When it is determined that the wearable device 10 has not moved at a predetermined acceleration or higher within a predetermined time (NO determination in S202), it cannot be estimated that the gesture has been performed, so the process ends.

ウェアラブルデバイス10が、所定時間内に、所定加速度以上で移動したと判定された場合(S202のYES判定)には、ジェスチャーが行われたと推定できる。このため、ジェスチャーの分類処理を行い、推定されるジェスチャーに対応する処理を実行する。なお、本実施形態では、ジェスチャーとして、スワイプとタップの2種類を挙げて説明するが、他のジェスチャーを適用することしてもよい。 When it is determined that the wearable device 10 has moved at a predetermined acceleration or higher within a predetermined time (YES determination in S202), it can be estimated that the gesture has been performed. Therefore, the gesture classification process is performed, and the process corresponding to the estimated gesture is executed. In the present embodiment, two types of gestures, swipe and tap, will be described, but other gestures may be applied.

まず、z軸方向への加速度が閾値以上であるか否かを判定する(S203)。すなわち、ウェアラブルデバイス10が素早く画面へ近づく方向または遠ざかる方向へ移動したか否かを判定している。なお、z軸方向への加速度に関する閾値についても上述のように模擬動作に基づいて設定されてもよいし、他のユーザ等の情報(データベース)に基づいて設定されてもよい。 First, it is determined whether or not the acceleration in the z-axis direction is equal to or greater than the threshold value (S203). That is, it is determined whether or not the wearable device 10 has quickly moved in the direction of approaching or moving away from the screen. The threshold value related to the acceleration in the z-axis direction may also be set based on the simulated operation as described above, or may be set based on the information (database) of another user or the like.

z軸方向の加速度が閾値以上でない場合(S203のNO判定)には、処理を終了する。 If the acceleration in the z-axis direction is not equal to or greater than the threshold value (NO determination in S203), the process ends.

z軸方向の加速度が閾値以上である場合(S203のYES判定)には、x軸方向及び/またはy軸方向への加速度が閾値以上であるか否かを判定する(S204)。S204では、x軸方向及びy軸方向の少なくともいずれか1方について、閾値以上での移動があればYES判定となる。なお、x軸方向及び/またはy軸方向への加速度に関する閾値についても上述のように模擬動作に基づいて設定されてもよいし、他のユーザ等の情報(データベース)に基づいて設定されてもよい。 When the acceleration in the z-axis direction is equal to or greater than the threshold value (YES determination in S203), it is determined whether or not the acceleration in the x-axis direction and / or the y-axis direction is equal to or greater than the threshold value (S204). In S204, if there is a movement above the threshold value in at least one of the x-axis direction and the y-axis direction, a YES determination is made. The threshold value related to the acceleration in the x-axis direction and / or the y-axis direction may be set based on the simulated operation as described above, or may be set based on the information (database) of another user or the like. Good.

x軸方向及び/またはy軸方向への加速度が閾値以上でない場合(S204のNO判定)には、タップ処理を行う(S205)。タップ処理では、マーカの表示位置において、クリックを行うこととしてもよいし、マウスカーソルをマーカの表示位置に移動させてクリックを行うこととしてもよい。 When the acceleration in the x-axis direction and / or the y-axis direction is not equal to or greater than the threshold value (NO determination in S204), tap processing is performed (S205). In the tap process, the click may be performed at the display position of the marker, or the mouse cursor may be moved to the display position of the marker to perform the click.

このようにして、タッチパネルを用いた操作のように、タップ処理を行うことが可能となる。 In this way, the tap process can be performed as in the operation using the touch panel.

x軸方向及び/またはy軸方向への加速度が閾値以上である場合(S204のYES判定)には、スワイプ処理を行う(S206)。スワイプ処理では、マーカの表示位置において、スワイプを行うこととしてもよいし、マウスカーソルをマーカの表示位置に移動させてスワイプを行うこととしてもよい。スワイプ処理では、画面に表示されている画像を次の画像や前の画像(例えば電子書籍のページ移動)へ切り替えが処理される。 When the acceleration in the x-axis direction and / or the y-axis direction is equal to or greater than the threshold value (YES determination in S204), a swipe process is performed (S206). In the swipe process, the swipe may be performed at the display position of the marker, or the mouse cursor may be moved to the display position of the marker to perform the swipe. In the swipe process, the image displayed on the screen is switched to the next image or the previous image (for example, page movement of an electronic book).

このようにして、タッチパネルを用いた操作のように、スワイプ処理を行うことが可能となる。 In this way, it is possible to perform the swipe process as in the operation using the touch panel.

次に、表示するマーカの大きさの設定について説明する。マーカは、マウスカーソルのように操作画面上においてカーソルの役割を担うとともに、画面とウェアラブルデバイス10との間の距離を推定するために使用される。具体的には、図9のフローにおけるS201のように、参考画像に含まれているマーカが最小のもの1つのみであるか否かを判定することにより、画面とウェアラブルデバイス10とが近づいたか否かを判定している。マーカとして入子型を使用することで、より精度よく、画面とウェアラブルデバイス10との間の距離を推定することが可能となる。 Next, the setting of the size of the displayed marker will be described. The marker plays the role of a cursor on the operation screen like a mouse cursor, and is used to estimate the distance between the screen and the wearable device 10. Specifically, as in S201 in the flow of FIG. 9, whether the screen and the wearable device 10 are close to each other by determining whether or not the marker included in the reference image is the smallest one. It is judged whether or not. By using the nested type as a marker, it is possible to estimate the distance between the screen and the wearable device 10 more accurately.

入子型マーカを用いて適切に画面とウェアラブルデバイス10との間の距離を推定することができるように、入子型マーカのサイズを適切に設定することが好ましい。このために、例えば、情報処理システム30を使用する初期設定の段階において、入子型マーカのサイズを設定する。初期設定については、図8のフローが初めて実施される前段階において行われることとしてもよいし、図8のフローを実施する度にS101を実施する前に行われることとしてもよい。 It is preferable to appropriately set the size of the nested marker so that the distance between the screen and the wearable device 10 can be appropriately estimated using the nested marker. For this purpose, for example, the size of the nested marker is set at the initial setting stage when the information processing system 30 is used. The initial setting may be performed before the flow of FIG. 8 is first performed, or may be performed before each time the flow of FIG. 8 is performed before S101 is performed.

初期設定では、ユーザに画面に対してタップとスワイプの模擬動作をするように通知し、該模擬動作に基づいて入子型マーカの最小要素の大きさを設定する。具体的には、模擬動作によってウェアラブルデバイス10が画面に近づいた時に、カメラ11で撮影した参考画像に最小要素の全体が1つ含まれるように、最小要素の大きさが設定される。最小要素の大きさは、複数の模擬動作に対応して例えば平均サイズとされる。このように最小要素の大きさが設定されることで、模擬動作のようにタップやスワイプが行われた場合に、ウェアラブルデバイス10が画面に近づいた際に参考画像内に最小要素が1つのみ含まれる状態とすることができるため、スワイプやタップが行われた可能性があることをより正確に検知することが可能となる。入子型マーカの全体については、設定した最小要素に基づいて構成される。 In the initial setting, the user is notified to perform a simulated tap and swipe operation on the screen, and the size of the minimum element of the nested marker is set based on the simulated operation. Specifically, when the wearable device 10 approaches the screen by the simulated operation, the size of the minimum element is set so that the reference image captured by the camera 11 includes the entire minimum element. The size of the minimum element is, for example, an average size corresponding to a plurality of simulated movements. By setting the size of the minimum element in this way, when the wearable device 10 approaches the screen when tapping or swiping is performed as in a simulated operation, there is only one minimum element in the reference image. Since it can be included, it is possible to more accurately detect that a swipe or tap may have been performed. The entire nested marker is configured based on the set minimum elements.

なお、マーカを入子型ではなく、他の形状(例えば上下左右を認識可能な形状)を使用する場合には、模擬動作によって該形状のサイズ(表示面積)を決定することとしてもよい。例えば、模擬動作によってウェアラブルデバイス10が画面に近づいた時に、カメラ11で撮影した参考画像に所定面積以上のマーカが含まれるように、マーカのサイズが設定される。 When the marker is not a nested type and uses another shape (for example, a shape that can recognize up, down, left, and right), the size (display area) of the shape may be determined by a simulated operation. For example, when the wearable device 10 approaches the screen by a simulated operation, the size of the marker is set so that the reference image captured by the camera 11 includes a marker having a predetermined area or more.

なお、マーカのサイズについては、模擬動作を行う場合に限らず、他のユーザ等の情報(データベース)に基づいて設定されることとしてもよい。すなわち、予め固定値が設定されることとしてもよい。 The size of the marker is not limited to the case of performing a simulated operation, and may be set based on information (database) of another user or the like. That is, a fixed value may be set in advance.

以上説明してきたように、本実施形態に係る情報処理装置、撮像装置、情報処理システム、及びその入力処理方法によれば、所定のマーカが撮影された参考画像から得られる情報に基づいて、表示手段におけるマーカの表示位置を移動させるため、参考画像を撮影する位置に応じて、マーカを移動させることが可能となる。すなわち、参考画像を撮影する位置に連動して表示するマーカを移動させることができる。例えばウェアラブルデバイス10で撮影を行うこととすれば、ウェアラブルデバイス10の移動に追従してカーソルを操作することができる。すなわち、タッチパネルのような直感的な操作を行うことが可能となる。 As described above, according to the information processing device, the image pickup device, the information processing system, and the input processing method thereof according to the present embodiment, a predetermined marker is displayed based on the information obtained from the captured reference image. Since the display position of the marker in the means is moved, the marker can be moved according to the position where the reference image is taken. That is, the marker to be displayed can be moved in conjunction with the position where the reference image is taken. For example, if the wearable device 10 is used for shooting, the cursor can be operated by following the movement of the wearable device 10. That is, it is possible to perform an intuitive operation like a touch panel.

また、ウェアラブルデバイス10の移動に追従してマーカが移動するため、ユーザが画面にタッチする必要がない。このため、画面と離れた位置にユーザがいても、画面におけるマーカを操作することが可能となる。このため、ユーザの利便性を向上させることができる。 Further, since the marker moves following the movement of the wearable device 10, the user does not need to touch the screen. Therefore, even if the user is at a position away from the screen, it is possible to operate the marker on the screen. Therefore, the convenience of the user can be improved.

また、ウェアラブルデバイス10等の小型デバイスを使用することが可能なため、構成をコンパクト化することができる。 Further, since a small device such as a wearable device 10 can be used, the configuration can be made compact.

なお、本実施形態ではノートPCにマーカが表示されることとしたが、プロジェクタで投影した画面にマーカを表示することとしてもよい。 In the present embodiment, the marker is displayed on the notebook PC, but the marker may be displayed on the screen projected by the projector.

本開示は、上述の実施形態のみに限定されるものではなく、発明の要旨を逸脱しない範囲において、種々変形実施が可能である。 The present disclosure is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the invention.

例えば、指輪型のウェアラブルデバイス10を用いる場合には、ユーザの指(例えば人差指)に装着した状態でウェアラブルデバイス10で撮影を行う。このため、指先とカメラ11位置とに差が生じる可能性もある。このため、マーカの移動の目標位置である参考画像における基準位置を、指先とカメラ11位置との差に基づいて補正し、マーカの移動の目標位置が指先に近づくように修正されることとしてもよい。 For example, when the ring-type wearable device 10 is used, the wearable device 10 takes a picture while being worn on the user's finger (for example, the index finger). Therefore, there may be a difference between the fingertip and the position of the camera 11. Therefore, the reference position in the reference image, which is the target position of the marker movement, is corrected based on the difference between the fingertip and the camera 11 position, and the target position of the marker movement is corrected so as to approach the fingertip. Good.

また、マーカ移動処理を行っている場合において、キーボードやマウス、タッチパッド等の入力インターフェースが使用された場合には、マーカ移動処理を終了したり一時中止処理を行うこととしてもよい。 Further, when the marker movement process is performed and an input interface such as a keyboard, mouse, or touch pad is used, the marker movement process may be terminated or the marker movement process may be performed.

また、本実施形態では、指輪型のウェアラブルデバイス10と情報処理装置(ノートPC)1との組合せを一例として説明した。しかしながら、撮影手段を備えれば指輪型のウェアラブルデバイス10に限定されず、撮影手段を備えユーザによってジェスチャーを行うことができれば、例えばペン型デバイス等の他のデバイスを用いることも可能である。また、表示手段(画面に表示する場合やプロジェクタのように投影して表示する場合を含む)を備え撮影手段から撮影画像を取得できれば、ノートPCに限定されず適用することが可能である。 Further, in the present embodiment, the combination of the ring-type wearable device 10 and the information processing device (notebook PC) 1 has been described as an example. However, the wearable device 10 is not limited to the ring type if the photographing means is provided, and other devices such as a pen type device can be used as long as the photographing means is provided and the user can perform a gesture. Further, if a display means (including a case of displaying on a screen or a case of projecting and displaying like a projector) and a photographed image can be acquired from the photographing means, the application is not limited to a notebook PC.

また、情報処理システム30の各処理は、ウェアラブルデバイス10と情報処理装置1とで任意に分担して行うことが可能である。すなわち、実施例として説明したように、情報処理を情報処理装置1側で行う場合に限定されない。例えば、ウェアラブルデバイス(撮像装置)10側で処理を行うこととしてもよい。このような場合には、ウェアラブルデバイス(撮像装置)10は、撮影が可能な撮影部(カメラ11)と、所定のマーカが表示された表示手段の表示面を撮影した参考画像を取得する取得部31と、参考画像上におけるマーカの位置と、参考画像上における基準位置とに基づいて、参考画像上の基準位置に対応する表示面の位置である目標位置を演算する演算部34と、目標位置に関する情報を送信する送信部と、を備えることとすればよい。なお、目標位置に関する情報は、目標位置の座標に係る情報である。そして、表示手段が制御されて、表示面におけるマーカの位置が送信された目標位置へ移動され、自動追従処理が行われる。 Further, each process of the information processing system 30 can be arbitrarily shared by the wearable device 10 and the information processing device 1. That is, as described as an embodiment, the information processing is not limited to the case where the information processing is performed on the information processing apparatus 1 side. For example, the processing may be performed on the wearable device (imaging device) 10 side. In such a case, the wearable device (imaging device) 10 acquires a photographing unit (camera 11) capable of photographing and a reference image obtained by photographing the display surface of the display means on which a predetermined marker is displayed. A calculation unit 34 that calculates the target position, which is the position of the display surface corresponding to the reference position on the reference image, based on the position of the marker on the reference image and the reference position on the reference image, and the target position. It suffices to include a transmitter for transmitting information about the image. The information regarding the target position is information related to the coordinates of the target position. Then, the display means is controlled, the position of the marker on the display surface is moved to the transmitted target position, and the automatic follow-up process is performed.

また、例えば、情報処理システム30の各処理をウェアラブルデバイス10と情報処理装置1とで任意に分担してもよい。すなわち、表示手段の表示面に表示される所定のマーカを制御する情報処理装置1と、撮影手段(カメラ11)を備えユーザにより表示面を撮影可能なデバイス(ウェアラブルデバイス10)とを備える情報処理システムであって、マーカが表示された表示面を撮影した参考画像を取得する取得部31と、参考画像から得られる情報に基づいて、表示面上におけるマーカの位置を移動させる移動処理部32とを備えることとすればよい。なお、演算部34については、情報処理装置1又はウェアラブルデバイス10に設けることとすればよい。このような構成としても、自動追従処理が行われる。 Further, for example, each process of the information processing system 30 may be arbitrarily shared by the wearable device 10 and the information processing device 1. That is, information processing including an information processing device 1 that controls a predetermined marker displayed on the display surface of the display means, and a device (wearable device 10) that includes a photographing means (camera 11) and can photograph the display surface by the user. In the system, the acquisition unit 31 that acquires a reference image obtained by photographing the display surface on which the marker is displayed, and the movement processing unit 32 that moves the position of the marker on the display surface based on the information obtained from the reference image. Should be provided. The calculation unit 34 may be provided in the information processing device 1 or the wearable device 10. Even with such a configuration, automatic tracking processing is performed.

1 :情報処理装置
2 :本体側筐体
3 :ディスプレイ側筐体
4 :入力部
5 :表示部
6 :連結部
7 :カメラ
8 :光源
10 :ウェアラブルデバイス
11 :カメラ
21 :CPU
22 :メインメモリ
23 :記憶部
26 :通信部
28 :バス
30 :情報処理システム
31 :取得部
32 :移動処理部
33 :処理実行部
34 :演算部
1: Information processing device 2: Main unit side housing 3: Display side housing 4: Input unit 5: Display unit 6: Connecting unit 7: Camera 8: Light source 10: Wearable device 11: Camera 21: CPU
22: Main memory 23: Storage unit 26: Communication unit 28: Bus 30: Information processing system 31: Acquisition unit 32: Mobile processing unit 33: Processing execution unit 34: Arithmetic unit

Claims (10)

撮影手段を備えユーザにより撮影が可能なデバイスから、所定のマーカが表示された表示手段の表示面を撮影した参考画像を取得する取得部と、
前記参考画像から得られる情報に基づいて、前記表示面上における前記マーカの位置を移動させる移動処理部と、
を備える情報処理装置。
An acquisition unit that acquires a reference image obtained by photographing the display surface of the display means on which a predetermined marker is displayed from a device having a photographing means and capable of photographing by the user.
A movement processing unit that moves the position of the marker on the display surface based on the information obtained from the reference image.
Information processing device equipped with.
前記参考画像上における前記マーカの位置と、前記参考画像上における基準位置とに基づいて、前記参考画像上の前記基準位置に対応する前記表示面上の位置である目標位置を演算する演算部を備え、
前記移動処理部は、前記表示面上における前記マーカの位置を、前記目標位置へ移動させる請求項1に記載の情報処理装置。
A calculation unit that calculates a target position, which is a position on the display surface corresponding to the reference position on the reference image, based on the position of the marker on the reference image and the reference position on the reference image. Prepare,
The information processing device according to claim 1, wherein the movement processing unit moves the position of the marker on the display surface to the target position.
前記基準位置は、前記参考画像における中心位置である請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the reference position is a central position in the reference image. 前記演算部は、前記撮影が行われたときの前記表示面から前記撮影手段までの距離に基づいて、前記目標位置を演算する請求項2または3に記載の情報処理装置。 The information processing device according to claim 2 or 3, wherein the calculation unit calculates the target position based on the distance from the display surface to the shooting means when the shooting is performed. 前記マーカは、入子型マーカである請求項1から4のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 4, wherein the marker is a nested marker. 前記撮影手段の移動に係る情報を取得し、前記移動に係る情報に応じた処理を実行する処理実行部を備える請求項1から5のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 5, further comprising a processing execution unit that acquires information related to the movement of the photographing means and executes processing according to the information related to the movement. 前記処理実行部は、前記撮影手段において予め設定された軸方向への加速度情報に基づいて、スワイプ処理またはクリック処理を実行する請求項6に記載の情報処理装置。 The information processing apparatus according to claim 6, wherein the processing execution unit executes swipe processing or click processing based on acceleration information in the axial direction set in advance in the photographing means. 撮影が可能な撮影部と、
所定のマーカが表示された表示手段の表示面を撮影した参考画像を取得する取得部と、
前記参考画像上における前記マーカの位置と、前記参考画像上における基準位置とに基づいて、前記参考画像上の前記基準位置に対応する前記表示面の位置である目標位置を演算する演算部と、
前記目標位置に関する情報を送信する送信部と、
を備える撮像装置。
A shooting unit that can shoot and
An acquisition unit that acquires a reference image of the display surface of the display means on which a predetermined marker is displayed, and an acquisition unit.
A calculation unit that calculates a target position, which is a position of the display surface corresponding to the reference position on the reference image, based on the position of the marker on the reference image and the reference position on the reference image.
A transmitter that transmits information about the target position and
An imaging device comprising.
表示手段の表示面に表示される所定のマーカを制御する情報処理装置と、撮影手段を備えユーザにより前記表示面を撮影可能なデバイスとを備える情報処理システムであって、
前記マーカが表示された前記表示面を撮影した参考画像を取得する取得部と、
前記参考画像から得られる情報に基づいて、前記表示面上における前記マーカの位置を移動させる移動処理部と、を備える情報処理システム。
An information processing system including an information processing device that controls a predetermined marker displayed on a display surface of a display means, and a device that has a photographing means and can photograph the display surface by a user.
An acquisition unit that acquires a reference image obtained by photographing the display surface on which the marker is displayed, and an acquisition unit.
An information processing system including a movement processing unit that moves the position of the marker on the display surface based on the information obtained from the reference image.
撮影手段を備えユーザにより撮影が可能なデバイスから、所定のマーカが表示された表示手段の表示面を撮影した参考画像を取得する取得工程と、
前記参考画像から得られる情報に基づいて、前記表示面上における前記マーカの位置を移動させる移動処理工程と、
をコンピュータが実行する入力処理方法。
An acquisition process of acquiring a reference image obtained by photographing the display surface of the display means on which a predetermined marker is displayed from a device having a photographing means and capable of photographing by the user.
A movement processing step of moving the position of the marker on the display surface based on the information obtained from the reference image, and
The input processing method that the computer performs.
JP2019165353A 2019-09-11 2019-09-11 Information processing device, imaging device, information processing system, and input processing method thereof Pending JP2021043705A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019165353A JP2021043705A (en) 2019-09-11 2019-09-11 Information processing device, imaging device, information processing system, and input processing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019165353A JP2021043705A (en) 2019-09-11 2019-09-11 Information processing device, imaging device, information processing system, and input processing method thereof

Publications (1)

Publication Number Publication Date
JP2021043705A true JP2021043705A (en) 2021-03-18

Family

ID=74861598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019165353A Pending JP2021043705A (en) 2019-09-11 2019-09-11 Information processing device, imaging device, information processing system, and input processing method thereof

Country Status (1)

Country Link
JP (1) JP2021043705A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11167453A (en) * 1997-12-02 1999-06-22 Canon Inc Coordinate input device/system/method and storage medium
US5933135A (en) * 1996-10-24 1999-08-03 Xerox Corporation Pen input device for high resolution displays
JP2004145527A (en) * 2002-10-23 2004-05-20 Nec Fielding Ltd Coordinate information input device
JP2007193403A (en) * 2006-01-17 2007-08-02 Hitachi Ltd Pointing device, pointer indication position control method and display system
JP2010539557A (en) * 2007-05-26 2010-12-16 キィ リー、ムーン Pointing device with camera and mark output
JP2013522766A (en) * 2010-03-16 2013-06-13 インターフェイズ・コーポレーション Interactive display system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5933135A (en) * 1996-10-24 1999-08-03 Xerox Corporation Pen input device for high resolution displays
JPH11167453A (en) * 1997-12-02 1999-06-22 Canon Inc Coordinate input device/system/method and storage medium
JP2004145527A (en) * 2002-10-23 2004-05-20 Nec Fielding Ltd Coordinate information input device
JP2007193403A (en) * 2006-01-17 2007-08-02 Hitachi Ltd Pointing device, pointer indication position control method and display system
JP2010539557A (en) * 2007-05-26 2010-12-16 キィ リー、ムーン Pointing device with camera and mark output
JP2013522766A (en) * 2010-03-16 2013-06-13 インターフェイズ・コーポレーション Interactive display system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
立野 圭祐 KEISUKE TATENO: "視点移動自由度の大きい拡張現実感のための入れ子型マーカ A Nested Marker for Augmented Reality", 電子情報通信学会技術研究報告 VOL.106 NO.234 IEICE TECHNICAL REPORT, vol. 第106巻, JPN6021030120, 16 October 2006 (2006-10-16), JP, pages 19 - 24, ISSN: 0004567000 *

Similar Documents

Publication Publication Date Title
JP5506375B2 (en) Information processing apparatus and control method thereof
KR101872426B1 (en) Depth-based user interface gesture control
US10152222B2 (en) Digital image processing device and associated methodology of performing touch-based image scaling
JP2016511487A (en) Improved touch input with gestures
US20130120289A1 (en) Information processing apparatus and method of controlling same
US20170214856A1 (en) Method for controlling motions and actions of an apparatus including an image capture device having a moving device connected thereto using a controlling device
CN106796484B (en) Display device and control method thereof
TWI668600B (en) Method, device, and non-transitory computer readable storage medium for virtual reality or augmented reality
JP6364790B2 (en) pointing device
TW201403386A (en) Eye controlling method and system
WO2021004413A1 (en) Handheld input device and blanking control method and apparatus for indication icon of handheld input device
JP4977162B2 (en) Information processing apparatus, command execution control method, and command execution control program
JP2014204169A (en) Display control device and control method thereof
JP2017162126A (en) Input system, input method, control program and storage medium
JP2021043705A (en) Information processing device, imaging device, information processing system, and input processing method thereof
JP2016119019A (en) Information processing apparatus, information processing method, and program
US11009991B2 (en) Display control apparatus and control method for the display control apparatus
US20190179525A1 (en) Resolution of Directional Ambiguity on Touch-Based Interface Based on Wake-Up Gesture
JP6843564B2 (en) Display control device, its control method and program
KR101530517B1 (en) User terminal performable shooting function and method for adjusting location of shooting icon of the user terminal
JP7383471B2 (en) Electronic equipment and its control method
JP2016015078A (en) Display control device, display control method, and program
TWI697827B (en) Control system and control method thereof
JP5422694B2 (en) Information processing apparatus, command execution control method, and command execution control program
JP6007496B2 (en) Display system, display program, and display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220222