JP2016119019A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2016119019A
JP2016119019A JP2014259631A JP2014259631A JP2016119019A JP 2016119019 A JP2016119019 A JP 2016119019A JP 2014259631 A JP2014259631 A JP 2014259631A JP 2014259631 A JP2014259631 A JP 2014259631A JP 2016119019 A JP2016119019 A JP 2016119019A
Authority
JP
Japan
Prior art keywords
image
information processing
processing apparatus
mobile terminal
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014259631A
Other languages
Japanese (ja)
Inventor
由倫 稲葉
Yoshimichi Inaba
由倫 稲葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2014259631A priority Critical patent/JP2016119019A/en
Publication of JP2016119019A publication Critical patent/JP2016119019A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve operation accuracy, while maintaining intuitive operability in touch operation, even when a part of a finger or a hand of a user hides a display area near an operation point on a screen.SOLUTION: A camera installed in a head-mounted display captures an area of a display section of a mobile terminal, to obtain an image of the area. An image displayed in the display section of the mobile terminal is received. A difference between the received image and the image captured is calculated, to display an image of the calculated difference, on the head-mounted display.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法、プログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

スマートフォンやタブレット端末に代表されるモバイル機器においては、ユーザが直感的に操作できるよう、ユーザがボタン等が表示された画面(タッチパネル、タッチスクリーン)を触れることにより、操作を受け付けている。   In mobile devices typified by smartphones and tablet terminals, a user accepts an operation by touching a screen (touch panel, touch screen) on which buttons or the like are displayed so that the user can operate intuitively.

このように、モバイル機器などのタッチスクリーンをユーザが操作する場合、ユーザの指や手の一部がスクリーン上の操作点周辺の表示領域を遮ることになる。そのため、ユーザは指でタッチしようとしている点の実際の位置を視認することができず、正確に位置を把握することができない。   Thus, when the user operates a touch screen such as a mobile device, a part of the user's finger or hand blocks the display area around the operation point on the screen. Therefore, the user cannot visually recognize the actual position of the point to be touched with the finger, and cannot accurately grasp the position.

ユーザはスクリーン上のタッチ点を推定しながら操作しなければならないため、スクリーンに対して感覚や勘を利用して操作を行う必要がある。したがって、ユーザは所望の点をタッチできない可能性があり、しばしば操作ミスが発生する。   Since the user must operate while estimating the touch point on the screen, it is necessary to perform an operation on the screen using senses and intuition. Therefore, the user may not be able to touch a desired point, and an operation error often occurs.

例えば、メールやWebブラウザのURLを含むテキスト編集作業、あるいは指を使って絵を描くような作業を考える。ユーザが文字を入力したい位置にキャレット(カーソル)を移動させるとき、上記の理由によりうまく位置を指定できない場合がある。ユーザは何度かタッチ操作を繰り返すか、カーソルボタンを使いながらキャレットを所望の位置に移動させるため操作回数が多くなってしまう。   For example, consider a text editing operation including a mail or a URL of a Web browser, or a drawing operation using a finger. When the user moves the caret (cursor) to a position where he / she wants to input characters, the position may not be specified well for the above reason. The user repeats the touch operation several times or moves the caret to a desired position while using the cursor button, so that the number of operations increases.

また、ユーザが線と線をつなぎ合わせるような操作をする場合には、線を引いては失敗した操作を取り消すというタッチ操作を何度か繰り返すことになるかもしれない。   In addition, when the user performs an operation of connecting the lines, the touch operation of drawing the line and canceling the failed operation may be repeated several times.

このような操作回数が増加するという問題に対し、操作精度を改善するための技術として、キャレット周辺の拡大表示機能やタッチペンが挙げられる。   As a technique for improving the operation accuracy with respect to such a problem that the number of operations increases, an enlarged display function and a touch pen around the caret can be cited.

特許文献1には、タッチパネルに複数の選択ボタンを表示した状態で、タッチパネルが指でタッチされたとき、指接触部の周辺にある選択ボタンを拡大再配列して、タッチ座標にある選択ボタン及びそれに隣接する選択ボタンを表示する仕組みについて記載がされている。   In Patent Literature 1, when a touch panel is touched with a finger in a state where a plurality of selection buttons are displayed on the touch panel, the selection buttons located around the finger contact portion are enlarged and rearranged, It describes the mechanism for displaying the selection button adjacent to it.

特開2008−77272号公報JP 2008-77272 A

キャレット周辺の拡大表示機能については、キャレット移動操作時にタッチ点周辺領域の表示内容を異なるウィンドウに拡大画像を表示する方法であり、ユーザの指が画面を覆っていると思われる画面領域の表示内容をタッチ点以外の位置に提示するものである。それにより、タッチ点およびその周辺に対する操作状況をユーザが認識できるようになるため、操作ミスやその回復作業に要するタッチ操作の回数を抑制するものといえる。   The enlarged display function around the caret is a method of displaying an enlarged image in a different window with the display content of the area around the touch point when moving the caret, and the display content of the screen area where the user's finger is supposed to cover the screen Is presented at a position other than the touch point. Thereby, since the user can recognize the operation state with respect to the touch point and its surroundings, it can be said that the operation error and the number of touch operations required for the recovery operation are suppressed.

しかしながら、ウィンドウの表示場所によっては拡大表示のウィンドウがユーザの指や手などで隠れてしまい、目的をうまく達成できないことがある。また、ユーザが拡大表示のためのタッチ操作を知っている必要があるため、直観的な操作とは言い難い。   However, depending on the window display location, the enlarged display window may be hidden by the user's finger or hand, and the objective may not be achieved successfully. Further, since the user needs to know the touch operation for the enlarged display, it is difficult to say that the operation is intuitive.

タッチペンについては、ペン先が指先より細いためタッチ点周辺に表示している情報の視認性が向上し、タッチ操作の精度を向上させることが可能となる。   As for the touch pen, since the pen tip is thinner than the fingertip, the visibility of information displayed around the touch point is improved, and the accuracy of the touch operation can be improved.

しかしながら、タッチ操作インタフェース特有の直観的な操作方法であるマルチタッチの操作を行う際にはペンを使用しないため、ペンを使用する場合と使用しない場合の操作が混在する状況が発生する。このような場合においてはペンの持ち替えが度々発生することが考えられるため画面操作が煩雑なものとなる。   However, since a pen is not used when performing a multi-touch operation that is an intuitive operation method unique to the touch operation interface, a situation occurs in which operations are performed when the pen is used and when the pen is not used. In such a case, it is conceivable that the change of the pen frequently occurs, so that the screen operation becomes complicated.

そこで、本発明は、タッチ操作の直観的な操作性を維持しつつ、操作の精度を向上させることが可能な仕組みを提供することを目的とする。   Therefore, an object of the present invention is to provide a mechanism capable of improving the accuracy of operation while maintaining the intuitive operability of the touch operation.

本発明の情報処理装置は、携帯端末の表示部の領域を撮影し、当該領域の画像を取得する取得手段と、前記携帯端末の表示部に表示された画像を、当該携帯端末から受信する受信手段と、前記受信手段により受信した画像と、前記取得手段により取得した画像との差分を算出する算出手段と、前記算出手段により算出された差分の画像を表示する表示手段と、を備えることを特徴とする。   An information processing apparatus according to the present invention captures an area of a display unit of a mobile terminal, acquires an image of the area, and receives an image displayed on the display unit of the mobile terminal from the mobile terminal And means for calculating a difference between the image received by the receiving means and the image acquired by the acquiring means, and a display means for displaying an image of the difference calculated by the calculating means. Features.

本発明の情報処理方法は、情報処理装置の取得手段が、携帯端末の表示部の領域を撮影し、当該領域の画像を取得する取得工程と、前記情報処理装置の受信手段が、前記携帯端末の表示部に表示された画像を、当該携帯端末から受信する受信工程と、前記情報処理装置の算出手段が、前記受信工程により受信した画像と、前記取得工程により取得した画像との差分を算出する算出工程と、前記情報処理装置の表示手段が、前記算出工程により算出された差分の画像を表示する表示工程と、を備えることを特徴とする。   In the information processing method of the present invention, the acquisition unit of the information processing device captures an area of the display unit of the mobile terminal and acquires an image of the area, and the reception unit of the information processing apparatus includes the mobile terminal. The receiving step of receiving the image displayed on the display unit from the portable terminal, and the calculation means of the information processing device calculates the difference between the image received by the receiving step and the image acquired by the acquiring step And a display step in which the display means of the information processing apparatus displays a difference image calculated in the calculation step.

本発明のプログラムは、情報処理装置において実行可能なプログラムであって、前記情報処理装置を、携帯端末の表示部の領域を撮影し、当該領域の画像を取得する取得手段と、前記携帯端末の表示部に表示された画像を、当該携帯端末から受信する受信手段と、前記受信手段により受信した画像と、前記取得手段により取得した画像との差分を算出する算出手段と、前記算出手段により算出された差分の画像を表示する表示手段として機能させることを特徴とする。   The program of the present invention is a program that can be executed in an information processing device, and the information processing device captures an area of a display unit of a mobile terminal and acquires an image of the area; An image displayed on the display unit is calculated by a receiving unit that receives from the portable terminal, a calculating unit that calculates a difference between the image received by the receiving unit and the image acquired by the acquiring unit, and is calculated by the calculating unit It is made to function as a display means for displaying the difference image.

本発明によれば、タッチ操作の直観的な操作性を維持しつつ、操作の精度を向上させることが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to improve the precision of operation, maintaining the intuitive operativity of touch operation.

本発明のシステムの構成の一例を示すシステム構成図System configuration diagram showing an example of a system configuration of the present invention 携帯端末100、情報処理装置101のハードウェア構成を示すブロック図The block diagram which shows the hardware constitutions of the portable terminal 100 and the information processing apparatus 101 携帯端末100、情報処理装置101の機能を示すブロック図Block diagram showing functions of portable terminal 100 and information processing apparatus 101 画像表示処理の一例を示すフローチャートFlow chart showing an example of image display processing 表示画像データ送信処理の一例を示すフローチャートFlowchart showing an example of display image data transmission processing タッチ点情報送信処理の一例を示すフローチャートThe flowchart which shows an example of touch point information transmission processing マーカの一例を示す図Diagram showing an example of a marker マーカを付与した携帯端末の一例を示す図The figure which shows an example of the portable terminal which provided the marker タッチ操作時の携帯端末における画面の一例を示す図The figure which shows an example of the screen in the portable terminal at the time of touch operation タッチ操作時の携帯端末における画面の一例を示す図The figure which shows an example of the screen in the portable terminal at the time of touch operation タッチ操作時の携帯端末における画面の一例を示す図The figure which shows an example of the screen in the portable terminal at the time of touch operation

以下、図面を参照して、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明のシステムの構成の一例を示すシステム構成図である。   FIG. 1 is a system configuration diagram showing an example of a system configuration of the present invention.

図1は、1つの携帯端末100と、1つの情報処理装置101が通信可能に接続された構成となっている。   FIG. 1 shows a configuration in which one mobile terminal 100 and one information processing apparatus 101 are communicably connected.

携帯端末100はユーザに情報を提示し、ユーザのタッチ操作を入力として受け取るユーザインタフェースの機能を持つオペレーションシステムを搭載したモバイル端末である。例えば、スマートフォンやタブレット端末が好適な例である。   The mobile terminal 100 is a mobile terminal equipped with an operation system having a user interface function that presents information to a user and receives a user's touch operation as an input. For example, a smartphone or a tablet terminal is a suitable example.

情報処理装置101はユーザの視界に重ねて画像を表示することができる装置であり、本発明においてはユーザが携帯端末100を操作する状況に応じてユーザインタフェース画像をオーバレイ表示する。いわゆるヘッドマウントディスプレイと呼ばれる装置が好適な例である。   The information processing apparatus 101 is an apparatus that can display an image superimposed on the user's field of view. In the present invention, the user interface image is displayed in an overlay according to the situation in which the user operates the mobile terminal 100. A so-called head-mounted display is a suitable example.

本実施形態のシステムでは、上述した構成の1つの携帯端末100および1つの情報処理装置101に物理的なキーボードが接続されないか、物理的なキーボードが接続されていても不使用とする構成であってもよい。   In the system according to the present embodiment, a physical keyboard is not connected to one mobile terminal 100 and one information processing apparatus 101 having the above-described configuration, or even if a physical keyboard is connected, the system is not used. May be.

図2は、図1に示した携帯端末100および情報処理装置101のハードウェア構成を示すブロック図である。   FIG. 2 is a block diagram illustrating a hardware configuration of the mobile terminal 100 and the information processing apparatus 101 illustrated in FIG.

図2において、201はCPUで、システムバス204に接続される各デバイスやコントローラを統括的に制御する。また、ROM203あるいは外部メモリ213には、CPU201の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、各携帯端末の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。   In FIG. 2, reference numeral 201 denotes a CPU that comprehensively controls each device and controller connected to the system bus 204. Further, the ROM 203 or the external memory 213 has a BIOS (Basic Input / Output System) or an operating system program (hereinafter referred to as an OS), which is a control program of the CPU 201, and functions necessary for realizing functions executed by each mobile terminal. Various programs to be stored are stored.

202はRAMで、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM203あるいは外部メモリ(フラッシュメモリ(ROM))213からRAM202にロードして、該ロードしたプログラムを実行することで各種動作を実現するものである。
A RAM 202 functions as a main memory, work area, and the like for the CPU 201. The CPU 201 implements various operations by loading a program or the like necessary for execution of processing from the ROM 203 or the external memory (flash memory (ROM)) 213 to the RAM 202 and executing the loaded program.

また、205は入力コントローラで、キーボード(KB)209、タッチパネル210、カメラ211、あるいは不図示の加速度センサ等のセンサ等からの入力を制御する。   An input controller 205 controls input from a keyboard (KB) 209, the touch panel 210, the camera 211, or a sensor such as an acceleration sensor (not shown).

キーボード209は外部接続する装置も含む。タッチパネル210は、画面上の複数のタッチ点を感知できる検出方式の装置と、画面から距離が少し離れている指の位置を感知できる検出方式の装置とを併せて構成する。   The keyboard 209 includes a device for external connection. The touch panel 210 includes both a detection-type device that can sense a plurality of touch points on the screen and a detection-type device that can sense the position of a finger that is slightly away from the screen.

画面上の複数のタッチ点を感知できる技術として相互容量方式のタッチパネルがある。また、画面から距離が少し離れている指の位置を感知できる技術として、自己容量方式のタッチパネルがある。   There is a mutual capacitive touch panel as a technology that can detect a plurality of touch points on the screen. In addition, there is a self-capacitance type touch panel as a technique that can sense the position of a finger that is slightly away from the screen.

あるいは、画面から距離が少し離れている指の位置を感知する方法として画面と指が映った画像の解析によるものも可能であるため、画像入力装置としてカメラ211を利用しても良い。   Alternatively, as a method for detecting the position of a finger that is slightly away from the screen, it is possible to use an analysis of an image on which the screen and the finger are reflected, so the camera 211 may be used as the image input device.

カメラ211はまた、情報処理装置101においては画像表示処理に必要な位置情報を取得する手段になっており、カメラ画像から携帯端末に付加したマーカを読み取って、携帯端末の姿勢を判別するために用いる。   The camera 211 is also a means for acquiring position information necessary for image display processing in the information processing apparatus 101. In order to determine the attitude of the mobile terminal by reading a marker added to the mobile terminal from the camera image. Use.

206はビデオコントローラで、ディスプレイ212等の表示器への表示を制御する。ディスプレイ212の上に前記タッチパネル210を重ねてユーザのタッチ操作を受け付けるように構成する。なお、図2で示す表示器は液晶ディスプレイだけでなく、有機EL等の他の表示器であってもよい。   A video controller 206 controls display on a display device such as the display 212. The touch panel 210 is overlaid on the display 212 so as to accept a user's touch operation. The display shown in FIG. 2 is not limited to a liquid crystal display, but may be another display such as an organic EL.

207はメモリコントローラで、ブートプログラム,各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶する外部メモリ213へのアクセスを制御する。   A memory controller 207 controls access to the external memory 213 that stores a boot program, various applications, font data, user files, edit files, various data, and the like.

208は通信I/Fコントローラで、ネットワーク(例えば、不図示の3G等の通信ネットワークや無線LAN)を介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信等が可能である。   A communication I / F controller 208 connects and communicates with an external device via a network (for example, a communication network such as 3G (not shown) or a wireless LAN), and executes communication control processing in the network. For example, communication using TCP / IP is possible.

なお、CPU201は、例えばRAM202内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ212上での表示を可能としている。また、CPU201は、ディスプレイ212上の不図示のユーザインタフェース等でのユーザ指示を可能とする。   Note that the CPU 201 enables display on the display 212 by executing, for example, an outline font rasterization process on a display information area in the RAM 202. In addition, the CPU 201 enables a user instruction through a user interface (not shown) on the display 212.

本発明を実現するための後述する各種プログラムは、ROM203または外部メモリ213に記録されており、必要に応じてRAM202にロードされることによりCPU201によって実行されるものである。さらに、上記プログラムの実行時に用いられる定義ファイル及び各種情報テーブル等も、ROM203または外部メモリ213に格納されており、これらについての詳細な説明も後述する。   Various programs to be described later for realizing the present invention are recorded in the ROM 203 or the external memory 213, and are executed by the CPU 201 by being loaded into the RAM 202 as necessary. Furthermore, definition files and various information tables used when executing the program are also stored in the ROM 203 or the external memory 213, and detailed descriptions thereof will be described later.

次に、図3を用いて、本発明の情報処理装置としての携帯端末100の機能ブロック図について説明する。   Next, a functional block diagram of the mobile terminal 100 as the information processing apparatus of the present invention will be described with reference to FIG.

尚、各機能ブロックが処理する詳細な制御については、後述するフローチャートにて説明する。   In addition, the detailed control which each functional block processes is demonstrated with the flowchart mentioned later.

図3において、ディスプレイ表示画像取得部301は、ディスプレイ212に表示している画像データをROM203または外部メモリ213に格納する。   In FIG. 3, the display display image acquisition unit 301 stores the image data displayed on the display 212 in the ROM 203 or the external memory 213.

ディスプレイ表示画像送信部302は、情報処理装置101から要求があった場合、ディスプレイ表示画像取得部301により取得した画像データを情報処理装置101に送信する。   When receiving a request from the information processing apparatus 101, the display display image transmission unit 302 transmits the image data acquired by the display display image acquisition unit 301 to the information processing apparatus 101.

タッチ情報取得部303は、タッチパネル210が指を感知したかどうかの情報と、感知した指の画面上の座標(または画面上の指がもっとも接近している座標)を取得する。   The touch information acquisition unit 303 acquires information on whether or not the touch panel 210 has detected a finger and coordinates on the screen of the detected finger (or coordinates on which the finger on the screen is closest).

タッチ情報送信部304は、情報処理装置101から要求があった場合、タッチ点情報取得部303により取得したタッチ点情報を情報処理装置101に送信する。   When there is a request from the information processing device 101, the touch information transmission unit 304 transmits the touch point information acquired by the touch point information acquisition unit 303 to the information processing device 101.

次に、図3を用いて、本発明の情報処理装置としての情報処理装置101の機能ブロック図について説明する。   Next, a functional block diagram of the information processing apparatus 101 as the information processing apparatus of the present invention will be described with reference to FIG.

尚、各機能ブロックが処理する詳細な制御については、後述するフローチャートにて説明する。 In addition, the detailed control which each functional block processes is demonstrated with the flowchart mentioned later.

図3において、カメラ画像取得部305は、情報処理装置101のカメラ211が撮影している画像データをROM203または外部メモリ213に格納する。   In FIG. 3, a camera image acquisition unit 305 stores image data captured by the camera 211 of the information processing apparatus 101 in the ROM 203 or the external memory 213.

マーカー情報取得部306は、カメラ211により撮影された画像データを解析し、携帯端末100に付加されたマーカーの姿勢を判別する。   The marker information acquisition unit 306 analyzes image data captured by the camera 211 and determines the posture of the marker added to the mobile terminal 100.

ディスプレイ表示画像受信部307は、携帯端末100に対して要求したディスプレイ表示画像データを受信する。   The display display image receiving unit 307 receives display display image data requested to the mobile terminal 100.

タッチ情報受信部308は、携帯端末100に対して要求したタッチ点情報を受信する。   The touch information receiving unit 308 receives touch point information requested to the mobile terminal 100.

画像生成部309は、マーカー情報取得部306により取得したマーカーの姿勢と、ディスプレイ表示画像受信部307により取得した画像データから、オーバレイ表示する画像データを生成する。   The image generation unit 309 generates image data to be overlaid from the marker posture acquired by the marker information acquisition unit 306 and the image data acquired by the display display image reception unit 307.

画像表示部310は、画像生成部309により生成した画像データを情報処理装置101のディスプレイ212に描画する。図1の例では、眼鏡のレンズ部分が画像表示部310となり、レンズ部分に画像生成部309が生成した画像を描画することで、ユーザに視覚に画像が入ることになる。
以下、本実施形態におけるシステム全体の流れを説明する。
The image display unit 310 renders the image data generated by the image generation unit 309 on the display 212 of the information processing apparatus 101. In the example of FIG. 1, the lens portion of the glasses becomes the image display unit 310, and an image generated by the image generation unit 309 is drawn on the lens portion, so that an image is visually input to the user.
The overall system flow in the present embodiment will be described below.

情報処理装置101のカメラ211が、携帯端末100に付与されたマーカーを検知すると、情報処理装置は携帯端末100に画像データの送信を要求する。また、情報処理装置101は検知したマーカー情報から携帯端末100の姿勢情報ならびに透視変換行列を得る。   When the camera 211 of the information processing apparatus 101 detects a marker attached to the mobile terminal 100, the information processing apparatus requests the mobile terminal 100 to transmit image data. Further, the information processing apparatus 101 obtains the posture information of the mobile terminal 100 and the perspective transformation matrix from the detected marker information.

携帯端末100は画像データ送信の要求を受け付けると表示画像データを情報処理装置101に送信する。情報処理装置101は携帯端末100から受信した画像データを透視変換行列により変換し、カメラ211により撮影されたマーカー領域内の画像との差分を求める。これにより携帯端末100においてユーザの指や手によっておおわれているスクリーン上の領域(携帯端末100が表示している画像と、情報処理装置101のカメラ211により撮影されたマーカー領域内の画像との差分)を情報処理装置101が特定する。   When the portable terminal 100 receives a request for image data transmission, the portable terminal 100 transmits display image data to the information processing apparatus 101. The information processing apparatus 101 converts the image data received from the mobile terminal 100 using a perspective transformation matrix, and obtains a difference from the image in the marker area captured by the camera 211. As a result, the difference between the area on the screen covered with the user's finger or hand on the portable terminal 100 (the image displayed on the portable terminal 100 and the image in the marker area photographed by the camera 211 of the information processing apparatus 101) ) Specifies the information processing apparatus 101.

情報処理装置101は、この差分領域に対して、変換した表示画像データを重ねて表示する。情報処理装置101はまた、携帯端末100のスクリーンと指との距離が一定以内の場合、情報処理装置101はさらに、スクリーン上のタッチ点を示す画像も重ねて表示する。   The information processing apparatus 101 displays the converted display image data so as to overlap the difference area. In addition, when the distance between the screen of the portable terminal 100 and the finger is within a certain range, the information processing apparatus 101 further displays an image indicating a touch point on the screen in an overlapping manner.

以下、図4を参照して、本実施形態のシステムにおけるUI表示処理について説明する。   Hereinafter, the UI display process in the system of the present embodiment will be described with reference to FIG.

図4のフローチャートで示す処理は、情報処理装置101のCPU201が所定の制御プログラムを読み出して実行する処理である。   The process shown in the flowchart of FIG. 4 is a process in which the CPU 201 of the information processing apparatus 101 reads and executes a predetermined control program.

ステップS401では、情報処理装置101のカメラ211により、画面周囲にマーカーを付加した状態の携帯端末100を撮影する。そして、撮影された画像に対して解析を行い、マーカーの画像パターンを抽出(取得)する。   In step S401, the camera 211 of the information processing apparatus 101 photographs the mobile terminal 100 with a marker added around the screen. Then, the photographed image is analyzed to extract (acquire) the marker image pattern.

マーカーの一例を図7に示す。また、マーカーが付加された携帯端末100の一例を図8に示す。   An example of the marker is shown in FIG. An example of the mobile terminal 100 to which a marker is added is shown in FIG.

なお、本実施例においては、マーカーについては、図7に示すように携帯端末100の画面周囲を囲むように付加されているが、マーカーの態様はこれに限られず、携帯端末の画面領域を認識させることが可能なものであれば、いずれの態様でもよい。   In this embodiment, the marker is added so as to surround the periphery of the screen of the mobile terminal 100 as shown in FIG. 7, but the mode of the marker is not limited to this and recognizes the screen area of the mobile terminal. Any embodiment may be used as long as it can be applied.

ステップS402では、ステップS401で取得したマーカーの画像パターンが、予め登録されているマーカー画像パターンに合致(一致)するか判断する。   In step S402, it is determined whether the marker image pattern acquired in step S401 matches (matches) a previously registered marker image pattern.

一致する場合(ステップS402:YES)は、処理をステップS403に移行する。
一致しない場合は、本フローチャートの処理を終了する。
If they match (step S402: YES), the process proceeds to step S403.
If they do not match, the process of this flowchart is terminated.

ステップS403では、ステップS401で取得したマーカーの画像からマーカー領域の4頂点を取得し、携帯端末100の表示画像領域からマーカー領域への射影変換行列を算出する。ただし、情報処理装置101を装着しているユーザの視点に対するマーカー座標の補正を行う必要がある。   In step S403, four vertices of the marker area are acquired from the marker image acquired in step S401, and a projective transformation matrix from the display image area of the portable terminal 100 to the marker area is calculated. However, it is necessary to correct the marker coordinates with respect to the viewpoint of the user wearing the information processing apparatus 101.

ステップS404において、情報処理装置101は携帯端末100に対して表示画像データの送信を要求する。表示画像データ送信の要求を受けた携帯端末100は、表示画像データ送信処理を実行する。そして、情報処理装置101は携帯端末100より、表示画像データを受信する。
表示画像データ送信処理の詳細は、図5を用いて説明する。
In step S <b> 404, the information processing apparatus 101 requests the mobile terminal 100 to transmit display image data. Receiving the display image data transmission request, the portable terminal 100 executes display image data transmission processing. Then, the information processing apparatus 101 receives display image data from the mobile terminal 100.
Details of the display image data transmission processing will be described with reference to FIG.

図5のフローチャートで示す処理は、携帯端末100のCPU201が所定の制御プログラムを読み出して実行する処理である。   The process shown in the flowchart of FIG. 5 is a process in which the CPU 201 of the mobile terminal 100 reads and executes a predetermined control program.

ステップS501では、携帯端末100のCPU201は、情報処理装置101から画像データ送信要求を受信する。   In step S <b> 501, the CPU 201 of the mobile terminal 100 receives an image data transmission request from the information processing apparatus 101.

ステップS502では、携帯端末100のCPU201は、画面(表示部)に表示されている画像データを取得する。   In step S502, the CPU 201 of the mobile terminal 100 acquires image data displayed on the screen (display unit).

ステップS503では、携帯端末100のCPU201は、ステップS502で取得した画像データを情報処理装置101に対して送信する。
図4の説明に戻る。
In step S503, the CPU 201 of the portable terminal 100 transmits the image data acquired in step S502 to the information processing apparatus 101.
Returning to the description of FIG.

ステップS405で、情報処理装置101はステップS404で取得した表示画像データに対してS403にて算出した射影変換行列を掛け、表示画像データからマーカー領域への射影画像データを生成する。   In step S405, the information processing apparatus 101 multiplies the display image data acquired in step S404 by the projection transformation matrix calculated in S403, and generates projection image data from the display image data to the marker area.

そして、情報処理装置101はカメラ211で撮影された画像におけるマーカー領域内の画像と射影画像データとの差分を取得する。この差分画像はマーカー座標系に変換されているため、情報処理装置101から見た、ユーザの指または手の一部などが携帯端末100のスクリーン(表示部)を覆っている領域に一致する。   Then, the information processing apparatus 101 acquires the difference between the image in the marker area in the image captured by the camera 211 and the projected image data. Since this difference image has been converted into the marker coordinate system, it matches the region of the user's finger or part of the hand covering the screen (display unit) of the mobile terminal 100 as viewed from the information processing apparatus 101.

ステップS406では、ステップS405で差分画像が取得できたか判断する。   In step S406, it is determined whether a difference image has been acquired in step S405.

差分画像が取得できた場合(ステップS406:YES)は、処理をステップS407に移行する。   If the difference image has been acquired (step S406: YES), the process proceeds to step S407.

差分画像が取得できない場合(ステップS406:NO)、すなわち、表示領域がユーザの指や手の一部などで覆われていない場合は、処理をステップS401に移行する。   If the difference image cannot be acquired (step S406: NO), that is, if the display area is not covered with a part of the user's finger or hand, the process proceeds to step S401.

ステップS407で、情報処理装置101はステップS405において取得した差分画像を情報処理装置101のディスプレイ212に表示する。   In step S407, the information processing apparatus 101 displays the difference image acquired in step S405 on the display 212 of the information processing apparatus 101.

このとき、情報処理装置101のユーザがスクリーンを通して携帯端末100を見ると、実映像に差分画像が重って表示されている状態を確認できる。つまりマーカー領域内においてユーザの指が携帯端末100のスクリーンを覆っている部分について、携帯端末100の画面に表示中の画像が表示されている(一例を図10に示す)。   At this time, when the user of the information processing apparatus 101 views the mobile terminal 100 through the screen, it can be confirmed that the difference image is displayed on the actual video. That is, an image being displayed on the screen of the mobile terminal 100 is displayed for a portion where the user's finger covers the screen of the mobile terminal 100 in the marker area (an example is shown in FIG. 10).

ステップS408で、情報処理装置101は携帯端末100に対してタッチ点情報の送信を要求する。   In step S <b> 408, the information processing apparatus 101 requests the portable terminal 100 to transmit touch point information.

タッチ点情報送信の要求を受けた携帯端末100は、タッチ点情報送信処理(図6)を実行し、情報処理装置101に対してタッチ点情報を送信する。そして、情報処理装置101は、送信されたタッチ点情報を受信する。   The mobile terminal 100 that has received the request for touch point information transmission executes touch point information transmission processing (FIG. 6) and transmits the touch point information to the information processing apparatus 101. Then, the information processing apparatus 101 receives the transmitted touch point information.

タッチ点情報送信処理の詳細については、図6のフローチャートを用いて説明する。   Details of the touch point information transmission processing will be described with reference to the flowchart of FIG.

図6のフローチャートで示す処理は、携帯端末100のCPU201が所定の制御プログラムを読み出して実行する処理である。   The process shown in the flowchart of FIG. 6 is a process in which the CPU 201 of the mobile terminal 100 reads and executes a predetermined control program.

ステップS601では、携帯端末100のCPU201は、情報処理装置101からタッチ点情報の送信要求を受信する。   In step S <b> 601, the CPU 201 of the mobile terminal 100 receives a touch point information transmission request from the information processing apparatus 101.

ステップS602では、携帯端末100のCPU201は、画面上のタッチ点情報を取得する。具体的には、ユーザの指やスタイラスペンと画面との距離がもっとも近い点を取得する。   In step S602, the CPU 201 of the mobile terminal 100 acquires touch point information on the screen. Specifically, the point where the distance between the user's finger or stylus pen and the screen is closest is acquired.

ステップS603では、携帯端末100のCPU201は、ステップS602で取得したタッチ点情報を情報処理装置101に送信する。
図4の説明に戻る。
In step S <b> 603, the CPU 201 of the mobile terminal 100 transmits the touch point information acquired in step S <b> 602 to the information processing apparatus 101.
Returning to the description of FIG.

ステップS409で、情報処理装置101はステップS408で取得したタッチ点情報を参照し、指とディスプレイが一定の距離内にあるかを判断する。   In step S409, the information processing apparatus 101 refers to the touch point information acquired in step S408, and determines whether the finger and the display are within a certain distance.

一定距離内にある場合(ステップS409:YES)は、処理をステップS410に移行する。   If within a certain distance (step S409: YES), the process proceeds to step S410.

一定距離内にない場合(ステップS409:NO)は、処理をステップS401に戻す。   If it is not within the certain distance (step S409: NO), the process returns to step S401.

ステップS410で、情報処理装置101はステップS408で取得したタッチ点情報に対してS403にて算出した射影変換行列を掛け、マーカー領域における変換後のタッチ点座標を算出する。   In step S410, the information processing apparatus 101 multiplies the touch point information acquired in step S408 by the projective transformation matrix calculated in step S403, and calculates the converted touch point coordinates in the marker area.

変換後のタッチ点座標に対して情報処理装置101はディスプレイ212にポインタ画像を重ねて表示する。このときマーカー領域内においてユーザの指が携帯端末100のスクリーンを覆っている部分について、ステップS407の差分画像の上にさらにタッチ点を示すポインタ画像が表示されている。図11に一例を示す。   The information processing apparatus 101 displays the pointer image superimposed on the display 212 with respect to the converted touch point coordinates. At this time, a pointer image indicating a touch point is further displayed on the difference image in step S407 for a portion where the user's finger covers the screen of the portable terminal 100 in the marker area. An example is shown in FIG.

図9は、携帯端末100の画面において、指やスタイラスペンなど(901)が表示部を覆っている様子を示す図である。   FIG. 9 is a diagram illustrating a state where a finger, a stylus pen, or the like (901) covers the display unit on the screen of the mobile terminal 100.

図10は、本実施形態のシステムにおける情報処理装置101での画面表示の一例を示す図である。ユーザがタッチ操作を行う場合、指が携帯端末100の画面を遮ってしまい、画面の一部が見えなくなるが、その領域に対して情報処理装置101は差分画像1000をディスプレイ212に表示する。その際、差分画像1000の枠線(輪郭線)を表示することで、ユーザは自身が操作する指や手の占める領域を認識できるため、携帯端末100の画面のどの箇所を操作しているかが分かる。   FIG. 10 is a diagram illustrating an example of a screen display on the information processing apparatus 101 in the system according to the present embodiment. When the user performs a touch operation, the finger blocks the screen of the portable terminal 100 and a part of the screen becomes invisible, but the information processing apparatus 101 displays the difference image 1000 on the display 212 for the area. At that time, by displaying the frame line (contour line) of the difference image 1000, the user can recognize the area occupied by the finger or hand operated by himself / herself, so which part of the screen of the mobile terminal 100 is operated. I understand.

図11は、本実施形態のシステムにおける情報処理装置101でのポインタ画像表示の一例を示す図である。情報処理装置101が差分画像の上に重ねて表示しているポインタ画像1100により、ユーザは自身が操作しているタッチ点の位置を認識できるため、タッチ操作の誤りを抑制できる。   FIG. 11 is a diagram illustrating an example of pointer image display on the information processing apparatus 101 in the system according to the present embodiment. Since the user can recognize the position of the touch point being operated by the pointer image 1100 displayed by the information processing apparatus 101 on the difference image, errors in the touch operation can be suppressed.

以上のように、本発明によれば、ユーザがタッチスクリーンを操作する際、ユーザの指や手の一部により視界が遮られているタッチ点周辺の画面情報とタッチ点の位置とをユーザが認識できるため、操作精度が向上する。   As described above, according to the present invention, when the user operates the touch screen, the user can determine the screen information around the touch point where the view is blocked by a part of the user's finger or hand and the position of the touch point. Since it can be recognized, the operation accuracy is improved.

例えば、スクリーンに表示されている文字列に対して直観的なタッチ操作によりキャレット(ポインタ、カーソル)を所望の位置に移動させることができる。   For example, the caret (pointer, cursor) can be moved to a desired position by an intuitive touch operation on a character string displayed on the screen.

あるいは、Webブラウザにて表示しているリンクが近接している場合でも所望のリンクを容易にタッチすることが可能となる。その他にも、指を使うタッチ操作が不得意とするような細かな操作においてその精度を高めることができる。   Alternatively, it is possible to easily touch a desired link even when links displayed on the Web browser are close to each other. In addition, the accuracy can be improved in a fine operation that is not good at a touch operation using a finger.

また、本発明におけるプログラムは、図4〜図6の処理をコンピュータに実行させるプログラムである。なお、本発明におけるプログラムは、図4〜図6の各処理ごとのプログラムであってもよい。   Moreover, the program in this invention is a program which makes a computer perform the process of FIGS. The program in the present invention may be a program for each process in FIGS.

以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読み出し、実行することによっても本発明の目的が達成されることは言うまでもない。   As described above, a recording medium that records a program that implements the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus stores the program stored in the recording medium. It goes without saying that the object of the present invention can also be achieved by reading and executing.

この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記録した記録媒体は本発明を構成することになる。   In this case, the program itself read from the recording medium realizes the novel function of the present invention, and the recording medium recording the program constitutes the present invention.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク等を用いることが出来る。   As a recording medium for supplying the program, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, DVD-ROM, magnetic tape, nonvolatile memory card, ROM, EEPROM, silicon A disk or the like can be used.

また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on an instruction of the program is actually It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the processing and the processing is included.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program read from the recording medium is written to the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board is based on the instructions of the program code. It goes without saying that the case where the CPU or the like provided in the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

また、本発明は、複数の機器から構成されるシステムに適用しても、ひとつの機器から成る装置に適用しても良い。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。   The present invention may be applied to a system constituted by a plurality of devices or an apparatus constituted by a single device. Needless to say, the present invention can be applied to a case where the present invention is achieved by supplying a program to a system or apparatus. In this case, by reading a recording medium storing a program for achieving the present invention into the system or apparatus, the system or apparatus can enjoy the effects of the present invention.

さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。   Furthermore, by downloading and reading a program for achieving the present invention from a server, database, etc. on a network using a communication program, the system or apparatus can enjoy the effects of the present invention. In addition, all the structures which combined each embodiment mentioned above and its modification are also included in this invention.

100 携帯端末
101 情報処理装置
100 mobile terminal 101 information processing apparatus

Claims (5)

携帯端末の表示部の領域を撮影し、当該領域の画像を取得する取得手段と、
前記携帯端末の表示部に表示された画像を、当該携帯端末から受信する受信手段と、
前記受信手段により受信した画像と、前記取得手段により取得した画像との差分を算出する算出手段と、
前記算出手段により算出された差分の画像を表示する表示手段と、
を備えることを特徴とする情報処理装置。
An acquisition unit that captures an image of the area of the display unit of the mobile terminal and acquires an image of the area;
Receiving means for receiving an image displayed on the display unit of the mobile terminal from the mobile terminal;
Calculating means for calculating a difference between the image received by the receiving means and the image acquired by the acquiring means;
Display means for displaying an image of the difference calculated by the calculation means;
An information processing apparatus comprising:
前記携帯端末の表示部におけるユーザが触れている位置を示す情報を取得するタッチ点情報取得手段をさらに備え、
前記表示手段は、前記タッチ点情報取得手段により取得した位置を示す情報にタッチ点を示す画像を表示することを特徴とする請求項1に記載の情報処理装置。
Touch point information acquisition means for acquiring information indicating a position touched by the user in the display unit of the mobile terminal;
The information processing apparatus according to claim 1, wherein the display unit displays an image indicating a touch point on information indicating the position acquired by the touch point information acquisition unit.
前記表示手段は、前記差分の画像について、当該画像の輪郭線を付加して表示することを特徴とする請求項1または2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the display unit displays the difference image by adding a contour line of the image. 情報処理装置における情報処理方法であって、
前記情報処理装置の取得手段が、携帯端末の表示部の領域を撮影し、当該領域の画像を取得する取得工程と、
前記情報処理装置の受信手段が、前記携帯端末の表示部に表示された画像を、当該携帯端末から受信する受信工程と、
前記情報処理装置の算出手段が、前記受信工程により受信した画像と、前記取得工程により取得した画像との差分を算出する算出工程と、
前記情報処理装置の表示手段が、前記算出工程により算出された差分の画像を表示する表示工程と、
を備えることを特徴とする情報処理方法。
An information processing method in an information processing apparatus,
An acquisition step in which the acquisition unit of the information processing apparatus captures an image of the display unit of the mobile terminal and acquires an image of the area;
A receiving step in which the receiving unit of the information processing apparatus receives an image displayed on the display unit of the mobile terminal from the mobile terminal;
A calculating step of calculating a difference between the image received by the receiving step and the image acquired by the acquiring step;
A display step in which the display means of the information processing apparatus displays an image of the difference calculated by the calculation step;
An information processing method comprising:
情報処理装置において実行可能なプログラムであって、
前記情報処理装置を、
携帯端末の表示部の領域を撮影し、当該領域の画像を取得する取得手段と、
前記携帯端末の表示部に表示された画像を、当該携帯端末から受信する受信手段と、
前記受信手段により受信した画像と、前記取得手段により取得した画像との差分を算出する算出手段と、
前記算出手段により算出された差分の画像を表示する表示手段として機能させることを特徴とするプログラム。
A program executable in the information processing apparatus,
The information processing apparatus;
An acquisition unit that captures an image of the area of the display unit of the mobile terminal and acquires an image of the area;
Receiving means for receiving an image displayed on the display unit of the mobile terminal from the mobile terminal;
Calculating means for calculating a difference between the image received by the receiving means and the image acquired by the acquiring means;
A program that functions as a display unit that displays an image of a difference calculated by the calculation unit.
JP2014259631A 2014-12-24 2014-12-24 Information processing apparatus, information processing method, and program Pending JP2016119019A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014259631A JP2016119019A (en) 2014-12-24 2014-12-24 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014259631A JP2016119019A (en) 2014-12-24 2014-12-24 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2016119019A true JP2016119019A (en) 2016-06-30

Family

ID=56243072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014259631A Pending JP2016119019A (en) 2014-12-24 2014-12-24 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2016119019A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019113693A (en) * 2017-12-22 2019-07-11 セイコーエプソン株式会社 Display system, method for controlling display system, display, and method for controlling display
US10572007B2 (en) 2017-12-15 2020-02-25 International Business Machines Corporation Preventing unintended input
CN111837174A (en) * 2018-06-25 2020-10-27 麦克赛尔株式会社 Head-mounted display, head-mounted display cooperation system and method thereof

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10572007B2 (en) 2017-12-15 2020-02-25 International Business Machines Corporation Preventing unintended input
JP2019113693A (en) * 2017-12-22 2019-07-11 セイコーエプソン株式会社 Display system, method for controlling display system, display, and method for controlling display
JP7035510B2 (en) 2017-12-22 2022-03-15 セイコーエプソン株式会社 Display system and control method of display system
CN111837174A (en) * 2018-06-25 2020-10-27 麦克赛尔株式会社 Head-mounted display, head-mounted display cooperation system and method thereof
JPWO2020003361A1 (en) * 2018-06-25 2021-03-11 マクセル株式会社 Head-mounted display, head-mounted display cooperation system and its method
JP2021192116A (en) * 2018-06-25 2021-12-16 マクセル株式会社 Display device
JP7209786B2 (en) 2018-06-25 2023-01-20 マクセル株式会社 Display device
JP7379734B2 (en) 2018-06-25 2023-11-14 マクセル株式会社 head mounted display

Similar Documents

Publication Publication Date Title
US10444908B2 (en) Virtual touchpads for wearable and portable devices
US20170293351A1 (en) Head mounted display linked to a touch sensitive input device
JP6000797B2 (en) Touch panel type input device, control method thereof, and program
EP2996022A1 (en) Input assistance device, input assistance method, and program
US8947397B2 (en) Electronic apparatus and drawing method
US20160349926A1 (en) Interface device, portable device, control device and module
EP2919103B1 (en) Information processing device, information processing method and computer-readable recording medium
US20140075302A1 (en) Electronic apparatus and handwritten document processing method
EP2840478B1 (en) Method and apparatus for providing user interface for medical diagnostic apparatus
US9378427B2 (en) Displaying handwritten strokes on a device according to a determined stroke direction matching the present direction of inclination of the device
US10140002B2 (en) Information processing apparatus, information processing method, and program
US10176556B2 (en) Display control apparatus, display control method, and non-transitory computer readable medium
JP6483556B2 (en) Operation recognition device, operation recognition method and program
TWI668600B (en) Method, device, and non-transitory computer readable storage medium for virtual reality or augmented reality
US20140320461A1 (en) Electronic apparatus, calibration method and storage medium
JP2016119019A (en) Information processing apparatus, information processing method, and program
US20150009136A1 (en) Operation input device and input operation processing method
JP2013171529A (en) Operation input device, operation determination method, and program
WO2016081280A1 (en) Method and system for mouse pointer to automatically follow cursor
US20150062038A1 (en) Electronic device, control method, and computer program product
US20220197498A1 (en) Display device, display method, and recording medium recording display program
KR20160048411A (en) Mobile terminal
JP2010086367A (en) Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment
KR102288431B1 (en) Imagedata input system using virtual reality device and method of generating imagedata thereof
US9787731B2 (en) Dynamically determining workspace bounds during a collaboration session

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161101

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161101