JP2016119019A - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP2016119019A JP2016119019A JP2014259631A JP2014259631A JP2016119019A JP 2016119019 A JP2016119019 A JP 2016119019A JP 2014259631 A JP2014259631 A JP 2014259631A JP 2014259631 A JP2014259631 A JP 2014259631A JP 2016119019 A JP2016119019 A JP 2016119019A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information processing
- processing apparatus
- mobile terminal
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、情報処理装置、情報処理方法、プログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
スマートフォンやタブレット端末に代表されるモバイル機器においては、ユーザが直感的に操作できるよう、ユーザがボタン等が表示された画面(タッチパネル、タッチスクリーン)を触れることにより、操作を受け付けている。 In mobile devices typified by smartphones and tablet terminals, a user accepts an operation by touching a screen (touch panel, touch screen) on which buttons or the like are displayed so that the user can operate intuitively.
このように、モバイル機器などのタッチスクリーンをユーザが操作する場合、ユーザの指や手の一部がスクリーン上の操作点周辺の表示領域を遮ることになる。そのため、ユーザは指でタッチしようとしている点の実際の位置を視認することができず、正確に位置を把握することができない。 Thus, when the user operates a touch screen such as a mobile device, a part of the user's finger or hand blocks the display area around the operation point on the screen. Therefore, the user cannot visually recognize the actual position of the point to be touched with the finger, and cannot accurately grasp the position.
ユーザはスクリーン上のタッチ点を推定しながら操作しなければならないため、スクリーンに対して感覚や勘を利用して操作を行う必要がある。したがって、ユーザは所望の点をタッチできない可能性があり、しばしば操作ミスが発生する。 Since the user must operate while estimating the touch point on the screen, it is necessary to perform an operation on the screen using senses and intuition. Therefore, the user may not be able to touch a desired point, and an operation error often occurs.
例えば、メールやWebブラウザのURLを含むテキスト編集作業、あるいは指を使って絵を描くような作業を考える。ユーザが文字を入力したい位置にキャレット(カーソル)を移動させるとき、上記の理由によりうまく位置を指定できない場合がある。ユーザは何度かタッチ操作を繰り返すか、カーソルボタンを使いながらキャレットを所望の位置に移動させるため操作回数が多くなってしまう。 For example, consider a text editing operation including a mail or a URL of a Web browser, or a drawing operation using a finger. When the user moves the caret (cursor) to a position where he / she wants to input characters, the position may not be specified well for the above reason. The user repeats the touch operation several times or moves the caret to a desired position while using the cursor button, so that the number of operations increases.
また、ユーザが線と線をつなぎ合わせるような操作をする場合には、線を引いては失敗した操作を取り消すというタッチ操作を何度か繰り返すことになるかもしれない。 In addition, when the user performs an operation of connecting the lines, the touch operation of drawing the line and canceling the failed operation may be repeated several times.
このような操作回数が増加するという問題に対し、操作精度を改善するための技術として、キャレット周辺の拡大表示機能やタッチペンが挙げられる。 As a technique for improving the operation accuracy with respect to such a problem that the number of operations increases, an enlarged display function and a touch pen around the caret can be cited.
特許文献1には、タッチパネルに複数の選択ボタンを表示した状態で、タッチパネルが指でタッチされたとき、指接触部の周辺にある選択ボタンを拡大再配列して、タッチ座標にある選択ボタン及びそれに隣接する選択ボタンを表示する仕組みについて記載がされている。 In Patent Literature 1, when a touch panel is touched with a finger in a state where a plurality of selection buttons are displayed on the touch panel, the selection buttons located around the finger contact portion are enlarged and rearranged, It describes the mechanism for displaying the selection button adjacent to it.
キャレット周辺の拡大表示機能については、キャレット移動操作時にタッチ点周辺領域の表示内容を異なるウィンドウに拡大画像を表示する方法であり、ユーザの指が画面を覆っていると思われる画面領域の表示内容をタッチ点以外の位置に提示するものである。それにより、タッチ点およびその周辺に対する操作状況をユーザが認識できるようになるため、操作ミスやその回復作業に要するタッチ操作の回数を抑制するものといえる。 The enlarged display function around the caret is a method of displaying an enlarged image in a different window with the display content of the area around the touch point when moving the caret, and the display content of the screen area where the user's finger is supposed to cover the screen Is presented at a position other than the touch point. Thereby, since the user can recognize the operation state with respect to the touch point and its surroundings, it can be said that the operation error and the number of touch operations required for the recovery operation are suppressed.
しかしながら、ウィンドウの表示場所によっては拡大表示のウィンドウがユーザの指や手などで隠れてしまい、目的をうまく達成できないことがある。また、ユーザが拡大表示のためのタッチ操作を知っている必要があるため、直観的な操作とは言い難い。 However, depending on the window display location, the enlarged display window may be hidden by the user's finger or hand, and the objective may not be achieved successfully. Further, since the user needs to know the touch operation for the enlarged display, it is difficult to say that the operation is intuitive.
タッチペンについては、ペン先が指先より細いためタッチ点周辺に表示している情報の視認性が向上し、タッチ操作の精度を向上させることが可能となる。 As for the touch pen, since the pen tip is thinner than the fingertip, the visibility of information displayed around the touch point is improved, and the accuracy of the touch operation can be improved.
しかしながら、タッチ操作インタフェース特有の直観的な操作方法であるマルチタッチの操作を行う際にはペンを使用しないため、ペンを使用する場合と使用しない場合の操作が混在する状況が発生する。このような場合においてはペンの持ち替えが度々発生することが考えられるため画面操作が煩雑なものとなる。 However, since a pen is not used when performing a multi-touch operation that is an intuitive operation method unique to the touch operation interface, a situation occurs in which operations are performed when the pen is used and when the pen is not used. In such a case, it is conceivable that the change of the pen frequently occurs, so that the screen operation becomes complicated.
そこで、本発明は、タッチ操作の直観的な操作性を維持しつつ、操作の精度を向上させることが可能な仕組みを提供することを目的とする。 Therefore, an object of the present invention is to provide a mechanism capable of improving the accuracy of operation while maintaining the intuitive operability of the touch operation.
本発明の情報処理装置は、携帯端末の表示部の領域を撮影し、当該領域の画像を取得する取得手段と、前記携帯端末の表示部に表示された画像を、当該携帯端末から受信する受信手段と、前記受信手段により受信した画像と、前記取得手段により取得した画像との差分を算出する算出手段と、前記算出手段により算出された差分の画像を表示する表示手段と、を備えることを特徴とする。 An information processing apparatus according to the present invention captures an area of a display unit of a mobile terminal, acquires an image of the area, and receives an image displayed on the display unit of the mobile terminal from the mobile terminal And means for calculating a difference between the image received by the receiving means and the image acquired by the acquiring means, and a display means for displaying an image of the difference calculated by the calculating means. Features.
本発明の情報処理方法は、情報処理装置の取得手段が、携帯端末の表示部の領域を撮影し、当該領域の画像を取得する取得工程と、前記情報処理装置の受信手段が、前記携帯端末の表示部に表示された画像を、当該携帯端末から受信する受信工程と、前記情報処理装置の算出手段が、前記受信工程により受信した画像と、前記取得工程により取得した画像との差分を算出する算出工程と、前記情報処理装置の表示手段が、前記算出工程により算出された差分の画像を表示する表示工程と、を備えることを特徴とする。 In the information processing method of the present invention, the acquisition unit of the information processing device captures an area of the display unit of the mobile terminal and acquires an image of the area, and the reception unit of the information processing apparatus includes the mobile terminal. The receiving step of receiving the image displayed on the display unit from the portable terminal, and the calculation means of the information processing device calculates the difference between the image received by the receiving step and the image acquired by the acquiring step And a display step in which the display means of the information processing apparatus displays a difference image calculated in the calculation step.
本発明のプログラムは、情報処理装置において実行可能なプログラムであって、前記情報処理装置を、携帯端末の表示部の領域を撮影し、当該領域の画像を取得する取得手段と、前記携帯端末の表示部に表示された画像を、当該携帯端末から受信する受信手段と、前記受信手段により受信した画像と、前記取得手段により取得した画像との差分を算出する算出手段と、前記算出手段により算出された差分の画像を表示する表示手段として機能させることを特徴とする。 The program of the present invention is a program that can be executed in an information processing device, and the information processing device captures an area of a display unit of a mobile terminal and acquires an image of the area; An image displayed on the display unit is calculated by a receiving unit that receives from the portable terminal, a calculating unit that calculates a difference between the image received by the receiving unit and the image acquired by the acquiring unit, and is calculated by the calculating unit It is made to function as a display means for displaying the difference image.
本発明によれば、タッチ操作の直観的な操作性を維持しつつ、操作の精度を向上させることが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to improve the precision of operation, maintaining the intuitive operativity of touch operation.
以下、図面を参照して、本発明の実施形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明のシステムの構成の一例を示すシステム構成図である。 FIG. 1 is a system configuration diagram showing an example of a system configuration of the present invention.
図1は、1つの携帯端末100と、1つの情報処理装置101が通信可能に接続された構成となっている。 FIG. 1 shows a configuration in which one mobile terminal 100 and one information processing apparatus 101 are communicably connected.
携帯端末100はユーザに情報を提示し、ユーザのタッチ操作を入力として受け取るユーザインタフェースの機能を持つオペレーションシステムを搭載したモバイル端末である。例えば、スマートフォンやタブレット端末が好適な例である。 The mobile terminal 100 is a mobile terminal equipped with an operation system having a user interface function that presents information to a user and receives a user's touch operation as an input. For example, a smartphone or a tablet terminal is a suitable example.
情報処理装置101はユーザの視界に重ねて画像を表示することができる装置であり、本発明においてはユーザが携帯端末100を操作する状況に応じてユーザインタフェース画像をオーバレイ表示する。いわゆるヘッドマウントディスプレイと呼ばれる装置が好適な例である。 The information processing apparatus 101 is an apparatus that can display an image superimposed on the user's field of view. In the present invention, the user interface image is displayed in an overlay according to the situation in which the user operates the mobile terminal 100. A so-called head-mounted display is a suitable example.
本実施形態のシステムでは、上述した構成の1つの携帯端末100および1つの情報処理装置101に物理的なキーボードが接続されないか、物理的なキーボードが接続されていても不使用とする構成であってもよい。 In the system according to the present embodiment, a physical keyboard is not connected to one mobile terminal 100 and one information processing apparatus 101 having the above-described configuration, or even if a physical keyboard is connected, the system is not used. May be.
図2は、図1に示した携帯端末100および情報処理装置101のハードウェア構成を示すブロック図である。 FIG. 2 is a block diagram illustrating a hardware configuration of the mobile terminal 100 and the information processing apparatus 101 illustrated in FIG.
図2において、201はCPUで、システムバス204に接続される各デバイスやコントローラを統括的に制御する。また、ROM203あるいは外部メモリ213には、CPU201の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、各携帯端末の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。
In FIG. 2,
202はRAMで、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM203あるいは外部メモリ(フラッシュメモリ(ROM))213からRAM202にロードして、該ロードしたプログラムを実行することで各種動作を実現するものである。
A
また、205は入力コントローラで、キーボード(KB)209、タッチパネル210、カメラ211、あるいは不図示の加速度センサ等のセンサ等からの入力を制御する。
An
キーボード209は外部接続する装置も含む。タッチパネル210は、画面上の複数のタッチ点を感知できる検出方式の装置と、画面から距離が少し離れている指の位置を感知できる検出方式の装置とを併せて構成する。
The
画面上の複数のタッチ点を感知できる技術として相互容量方式のタッチパネルがある。また、画面から距離が少し離れている指の位置を感知できる技術として、自己容量方式のタッチパネルがある。 There is a mutual capacitive touch panel as a technology that can detect a plurality of touch points on the screen. In addition, there is a self-capacitance type touch panel as a technique that can sense the position of a finger that is slightly away from the screen.
あるいは、画面から距離が少し離れている指の位置を感知する方法として画面と指が映った画像の解析によるものも可能であるため、画像入力装置としてカメラ211を利用しても良い。
Alternatively, as a method for detecting the position of a finger that is slightly away from the screen, it is possible to use an analysis of an image on which the screen and the finger are reflected, so the
カメラ211はまた、情報処理装置101においては画像表示処理に必要な位置情報を取得する手段になっており、カメラ画像から携帯端末に付加したマーカを読み取って、携帯端末の姿勢を判別するために用いる。
The
206はビデオコントローラで、ディスプレイ212等の表示器への表示を制御する。ディスプレイ212の上に前記タッチパネル210を重ねてユーザのタッチ操作を受け付けるように構成する。なお、図2で示す表示器は液晶ディスプレイだけでなく、有機EL等の他の表示器であってもよい。
A
207はメモリコントローラで、ブートプログラム,各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶する外部メモリ213へのアクセスを制御する。
A
208は通信I/Fコントローラで、ネットワーク(例えば、不図示の3G等の通信ネットワークや無線LAN)を介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信等が可能である。
A communication I /
なお、CPU201は、例えばRAM202内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ212上での表示を可能としている。また、CPU201は、ディスプレイ212上の不図示のユーザインタフェース等でのユーザ指示を可能とする。
Note that the
本発明を実現するための後述する各種プログラムは、ROM203または外部メモリ213に記録されており、必要に応じてRAM202にロードされることによりCPU201によって実行されるものである。さらに、上記プログラムの実行時に用いられる定義ファイル及び各種情報テーブル等も、ROM203または外部メモリ213に格納されており、これらについての詳細な説明も後述する。
Various programs to be described later for realizing the present invention are recorded in the
次に、図3を用いて、本発明の情報処理装置としての携帯端末100の機能ブロック図について説明する。 Next, a functional block diagram of the mobile terminal 100 as the information processing apparatus of the present invention will be described with reference to FIG.
尚、各機能ブロックが処理する詳細な制御については、後述するフローチャートにて説明する。 In addition, the detailed control which each functional block processes is demonstrated with the flowchart mentioned later.
図3において、ディスプレイ表示画像取得部301は、ディスプレイ212に表示している画像データをROM203または外部メモリ213に格納する。
In FIG. 3, the display display
ディスプレイ表示画像送信部302は、情報処理装置101から要求があった場合、ディスプレイ表示画像取得部301により取得した画像データを情報処理装置101に送信する。
When receiving a request from the information processing apparatus 101, the display display
タッチ情報取得部303は、タッチパネル210が指を感知したかどうかの情報と、感知した指の画面上の座標(または画面上の指がもっとも接近している座標)を取得する。
The touch
タッチ情報送信部304は、情報処理装置101から要求があった場合、タッチ点情報取得部303により取得したタッチ点情報を情報処理装置101に送信する。
When there is a request from the information processing device 101, the touch
次に、図3を用いて、本発明の情報処理装置としての情報処理装置101の機能ブロック図について説明する。 Next, a functional block diagram of the information processing apparatus 101 as the information processing apparatus of the present invention will be described with reference to FIG.
尚、各機能ブロックが処理する詳細な制御については、後述するフローチャートにて説明する。 In addition, the detailed control which each functional block processes is demonstrated with the flowchart mentioned later.
図3において、カメラ画像取得部305は、情報処理装置101のカメラ211が撮影している画像データをROM203または外部メモリ213に格納する。
In FIG. 3, a camera
マーカー情報取得部306は、カメラ211により撮影された画像データを解析し、携帯端末100に付加されたマーカーの姿勢を判別する。
The marker
ディスプレイ表示画像受信部307は、携帯端末100に対して要求したディスプレイ表示画像データを受信する。
The display display
タッチ情報受信部308は、携帯端末100に対して要求したタッチ点情報を受信する。
The touch
画像生成部309は、マーカー情報取得部306により取得したマーカーの姿勢と、ディスプレイ表示画像受信部307により取得した画像データから、オーバレイ表示する画像データを生成する。
The
画像表示部310は、画像生成部309により生成した画像データを情報処理装置101のディスプレイ212に描画する。図1の例では、眼鏡のレンズ部分が画像表示部310となり、レンズ部分に画像生成部309が生成した画像を描画することで、ユーザに視覚に画像が入ることになる。
以下、本実施形態におけるシステム全体の流れを説明する。
The
The overall system flow in the present embodiment will be described below.
情報処理装置101のカメラ211が、携帯端末100に付与されたマーカーを検知すると、情報処理装置は携帯端末100に画像データの送信を要求する。また、情報処理装置101は検知したマーカー情報から携帯端末100の姿勢情報ならびに透視変換行列を得る。
When the
携帯端末100は画像データ送信の要求を受け付けると表示画像データを情報処理装置101に送信する。情報処理装置101は携帯端末100から受信した画像データを透視変換行列により変換し、カメラ211により撮影されたマーカー領域内の画像との差分を求める。これにより携帯端末100においてユーザの指や手によっておおわれているスクリーン上の領域(携帯端末100が表示している画像と、情報処理装置101のカメラ211により撮影されたマーカー領域内の画像との差分)を情報処理装置101が特定する。
When the portable terminal 100 receives a request for image data transmission, the portable terminal 100 transmits display image data to the information processing apparatus 101. The information processing apparatus 101 converts the image data received from the mobile terminal 100 using a perspective transformation matrix, and obtains a difference from the image in the marker area captured by the
情報処理装置101は、この差分領域に対して、変換した表示画像データを重ねて表示する。情報処理装置101はまた、携帯端末100のスクリーンと指との距離が一定以内の場合、情報処理装置101はさらに、スクリーン上のタッチ点を示す画像も重ねて表示する。 The information processing apparatus 101 displays the converted display image data so as to overlap the difference area. In addition, when the distance between the screen of the portable terminal 100 and the finger is within a certain range, the information processing apparatus 101 further displays an image indicating a touch point on the screen in an overlapping manner.
以下、図4を参照して、本実施形態のシステムにおけるUI表示処理について説明する。 Hereinafter, the UI display process in the system of the present embodiment will be described with reference to FIG.
図4のフローチャートで示す処理は、情報処理装置101のCPU201が所定の制御プログラムを読み出して実行する処理である。
The process shown in the flowchart of FIG. 4 is a process in which the
ステップS401では、情報処理装置101のカメラ211により、画面周囲にマーカーを付加した状態の携帯端末100を撮影する。そして、撮影された画像に対して解析を行い、マーカーの画像パターンを抽出(取得)する。
In step S401, the
マーカーの一例を図7に示す。また、マーカーが付加された携帯端末100の一例を図8に示す。 An example of the marker is shown in FIG. An example of the mobile terminal 100 to which a marker is added is shown in FIG.
なお、本実施例においては、マーカーについては、図7に示すように携帯端末100の画面周囲を囲むように付加されているが、マーカーの態様はこれに限られず、携帯端末の画面領域を認識させることが可能なものであれば、いずれの態様でもよい。 In this embodiment, the marker is added so as to surround the periphery of the screen of the mobile terminal 100 as shown in FIG. 7, but the mode of the marker is not limited to this and recognizes the screen area of the mobile terminal. Any embodiment may be used as long as it can be applied.
ステップS402では、ステップS401で取得したマーカーの画像パターンが、予め登録されているマーカー画像パターンに合致(一致)するか判断する。 In step S402, it is determined whether the marker image pattern acquired in step S401 matches (matches) a previously registered marker image pattern.
一致する場合(ステップS402:YES)は、処理をステップS403に移行する。
一致しない場合は、本フローチャートの処理を終了する。
If they match (step S402: YES), the process proceeds to step S403.
If they do not match, the process of this flowchart is terminated.
ステップS403では、ステップS401で取得したマーカーの画像からマーカー領域の4頂点を取得し、携帯端末100の表示画像領域からマーカー領域への射影変換行列を算出する。ただし、情報処理装置101を装着しているユーザの視点に対するマーカー座標の補正を行う必要がある。 In step S403, four vertices of the marker area are acquired from the marker image acquired in step S401, and a projective transformation matrix from the display image area of the portable terminal 100 to the marker area is calculated. However, it is necessary to correct the marker coordinates with respect to the viewpoint of the user wearing the information processing apparatus 101.
ステップS404において、情報処理装置101は携帯端末100に対して表示画像データの送信を要求する。表示画像データ送信の要求を受けた携帯端末100は、表示画像データ送信処理を実行する。そして、情報処理装置101は携帯端末100より、表示画像データを受信する。
表示画像データ送信処理の詳細は、図5を用いて説明する。
In step S <b> 404, the information processing apparatus 101 requests the mobile terminal 100 to transmit display image data. Receiving the display image data transmission request, the portable terminal 100 executes display image data transmission processing. Then, the information processing apparatus 101 receives display image data from the mobile terminal 100.
Details of the display image data transmission processing will be described with reference to FIG.
図5のフローチャートで示す処理は、携帯端末100のCPU201が所定の制御プログラムを読み出して実行する処理である。
The process shown in the flowchart of FIG. 5 is a process in which the
ステップS501では、携帯端末100のCPU201は、情報処理装置101から画像データ送信要求を受信する。
In step S <b> 501, the
ステップS502では、携帯端末100のCPU201は、画面(表示部)に表示されている画像データを取得する。
In step S502, the
ステップS503では、携帯端末100のCPU201は、ステップS502で取得した画像データを情報処理装置101に対して送信する。
図4の説明に戻る。
In step S503, the
Returning to the description of FIG.
ステップS405で、情報処理装置101はステップS404で取得した表示画像データに対してS403にて算出した射影変換行列を掛け、表示画像データからマーカー領域への射影画像データを生成する。 In step S405, the information processing apparatus 101 multiplies the display image data acquired in step S404 by the projection transformation matrix calculated in S403, and generates projection image data from the display image data to the marker area.
そして、情報処理装置101はカメラ211で撮影された画像におけるマーカー領域内の画像と射影画像データとの差分を取得する。この差分画像はマーカー座標系に変換されているため、情報処理装置101から見た、ユーザの指または手の一部などが携帯端末100のスクリーン(表示部)を覆っている領域に一致する。
Then, the information processing apparatus 101 acquires the difference between the image in the marker area in the image captured by the
ステップS406では、ステップS405で差分画像が取得できたか判断する。 In step S406, it is determined whether a difference image has been acquired in step S405.
差分画像が取得できた場合(ステップS406:YES)は、処理をステップS407に移行する。 If the difference image has been acquired (step S406: YES), the process proceeds to step S407.
差分画像が取得できない場合(ステップS406:NO)、すなわち、表示領域がユーザの指や手の一部などで覆われていない場合は、処理をステップS401に移行する。 If the difference image cannot be acquired (step S406: NO), that is, if the display area is not covered with a part of the user's finger or hand, the process proceeds to step S401.
ステップS407で、情報処理装置101はステップS405において取得した差分画像を情報処理装置101のディスプレイ212に表示する。
In step S407, the information processing apparatus 101 displays the difference image acquired in step S405 on the
このとき、情報処理装置101のユーザがスクリーンを通して携帯端末100を見ると、実映像に差分画像が重って表示されている状態を確認できる。つまりマーカー領域内においてユーザの指が携帯端末100のスクリーンを覆っている部分について、携帯端末100の画面に表示中の画像が表示されている(一例を図10に示す)。 At this time, when the user of the information processing apparatus 101 views the mobile terminal 100 through the screen, it can be confirmed that the difference image is displayed on the actual video. That is, an image being displayed on the screen of the mobile terminal 100 is displayed for a portion where the user's finger covers the screen of the mobile terminal 100 in the marker area (an example is shown in FIG. 10).
ステップS408で、情報処理装置101は携帯端末100に対してタッチ点情報の送信を要求する。 In step S <b> 408, the information processing apparatus 101 requests the portable terminal 100 to transmit touch point information.
タッチ点情報送信の要求を受けた携帯端末100は、タッチ点情報送信処理(図6)を実行し、情報処理装置101に対してタッチ点情報を送信する。そして、情報処理装置101は、送信されたタッチ点情報を受信する。 The mobile terminal 100 that has received the request for touch point information transmission executes touch point information transmission processing (FIG. 6) and transmits the touch point information to the information processing apparatus 101. Then, the information processing apparatus 101 receives the transmitted touch point information.
タッチ点情報送信処理の詳細については、図6のフローチャートを用いて説明する。 Details of the touch point information transmission processing will be described with reference to the flowchart of FIG.
図6のフローチャートで示す処理は、携帯端末100のCPU201が所定の制御プログラムを読み出して実行する処理である。
The process shown in the flowchart of FIG. 6 is a process in which the
ステップS601では、携帯端末100のCPU201は、情報処理装置101からタッチ点情報の送信要求を受信する。
In step S <b> 601, the
ステップS602では、携帯端末100のCPU201は、画面上のタッチ点情報を取得する。具体的には、ユーザの指やスタイラスペンと画面との距離がもっとも近い点を取得する。
In step S602, the
ステップS603では、携帯端末100のCPU201は、ステップS602で取得したタッチ点情報を情報処理装置101に送信する。
図4の説明に戻る。
In step S <b> 603, the
Returning to the description of FIG.
ステップS409で、情報処理装置101はステップS408で取得したタッチ点情報を参照し、指とディスプレイが一定の距離内にあるかを判断する。 In step S409, the information processing apparatus 101 refers to the touch point information acquired in step S408, and determines whether the finger and the display are within a certain distance.
一定距離内にある場合(ステップS409:YES)は、処理をステップS410に移行する。 If within a certain distance (step S409: YES), the process proceeds to step S410.
一定距離内にない場合(ステップS409:NO)は、処理をステップS401に戻す。 If it is not within the certain distance (step S409: NO), the process returns to step S401.
ステップS410で、情報処理装置101はステップS408で取得したタッチ点情報に対してS403にて算出した射影変換行列を掛け、マーカー領域における変換後のタッチ点座標を算出する。 In step S410, the information processing apparatus 101 multiplies the touch point information acquired in step S408 by the projective transformation matrix calculated in step S403, and calculates the converted touch point coordinates in the marker area.
変換後のタッチ点座標に対して情報処理装置101はディスプレイ212にポインタ画像を重ねて表示する。このときマーカー領域内においてユーザの指が携帯端末100のスクリーンを覆っている部分について、ステップS407の差分画像の上にさらにタッチ点を示すポインタ画像が表示されている。図11に一例を示す。
The information processing apparatus 101 displays the pointer image superimposed on the
図9は、携帯端末100の画面において、指やスタイラスペンなど(901)が表示部を覆っている様子を示す図である。 FIG. 9 is a diagram illustrating a state where a finger, a stylus pen, or the like (901) covers the display unit on the screen of the mobile terminal 100.
図10は、本実施形態のシステムにおける情報処理装置101での画面表示の一例を示す図である。ユーザがタッチ操作を行う場合、指が携帯端末100の画面を遮ってしまい、画面の一部が見えなくなるが、その領域に対して情報処理装置101は差分画像1000をディスプレイ212に表示する。その際、差分画像1000の枠線(輪郭線)を表示することで、ユーザは自身が操作する指や手の占める領域を認識できるため、携帯端末100の画面のどの箇所を操作しているかが分かる。
FIG. 10 is a diagram illustrating an example of a screen display on the information processing apparatus 101 in the system according to the present embodiment. When the user performs a touch operation, the finger blocks the screen of the portable terminal 100 and a part of the screen becomes invisible, but the information processing apparatus 101 displays the
図11は、本実施形態のシステムにおける情報処理装置101でのポインタ画像表示の一例を示す図である。情報処理装置101が差分画像の上に重ねて表示しているポインタ画像1100により、ユーザは自身が操作しているタッチ点の位置を認識できるため、タッチ操作の誤りを抑制できる。
FIG. 11 is a diagram illustrating an example of pointer image display on the information processing apparatus 101 in the system according to the present embodiment. Since the user can recognize the position of the touch point being operated by the
以上のように、本発明によれば、ユーザがタッチスクリーンを操作する際、ユーザの指や手の一部により視界が遮られているタッチ点周辺の画面情報とタッチ点の位置とをユーザが認識できるため、操作精度が向上する。 As described above, according to the present invention, when the user operates the touch screen, the user can determine the screen information around the touch point where the view is blocked by a part of the user's finger or hand and the position of the touch point. Since it can be recognized, the operation accuracy is improved.
例えば、スクリーンに表示されている文字列に対して直観的なタッチ操作によりキャレット(ポインタ、カーソル)を所望の位置に移動させることができる。 For example, the caret (pointer, cursor) can be moved to a desired position by an intuitive touch operation on a character string displayed on the screen.
あるいは、Webブラウザにて表示しているリンクが近接している場合でも所望のリンクを容易にタッチすることが可能となる。その他にも、指を使うタッチ操作が不得意とするような細かな操作においてその精度を高めることができる。 Alternatively, it is possible to easily touch a desired link even when links displayed on the Web browser are close to each other. In addition, the accuracy can be improved in a fine operation that is not good at a touch operation using a finger.
また、本発明におけるプログラムは、図4〜図6の処理をコンピュータに実行させるプログラムである。なお、本発明におけるプログラムは、図4〜図6の各処理ごとのプログラムであってもよい。 Moreover, the program in this invention is a program which makes a computer perform the process of FIGS. The program in the present invention may be a program for each process in FIGS.
以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読み出し、実行することによっても本発明の目的が達成されることは言うまでもない。 As described above, a recording medium that records a program that implements the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus stores the program stored in the recording medium. It goes without saying that the object of the present invention can also be achieved by reading and executing.
この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記録した記録媒体は本発明を構成することになる。 In this case, the program itself read from the recording medium realizes the novel function of the present invention, and the recording medium recording the program constitutes the present invention.
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク等を用いることが出来る。 As a recording medium for supplying the program, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, DVD-ROM, magnetic tape, nonvolatile memory card, ROM, EEPROM, silicon A disk or the like can be used.
また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on an instruction of the program is actually It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the processing and the processing is included.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, after the program read from the recording medium is written to the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board is based on the instructions of the program code. It goes without saying that the case where the CPU or the like provided in the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
また、本発明は、複数の機器から構成されるシステムに適用しても、ひとつの機器から成る装置に適用しても良い。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 The present invention may be applied to a system constituted by a plurality of devices or an apparatus constituted by a single device. Needless to say, the present invention can be applied to a case where the present invention is achieved by supplying a program to a system or apparatus. In this case, by reading a recording medium storing a program for achieving the present invention into the system or apparatus, the system or apparatus can enjoy the effects of the present invention.
さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。 Furthermore, by downloading and reading a program for achieving the present invention from a server, database, etc. on a network using a communication program, the system or apparatus can enjoy the effects of the present invention. In addition, all the structures which combined each embodiment mentioned above and its modification are also included in this invention.
100 携帯端末
101 情報処理装置
100 mobile terminal 101 information processing apparatus
Claims (5)
前記携帯端末の表示部に表示された画像を、当該携帯端末から受信する受信手段と、
前記受信手段により受信した画像と、前記取得手段により取得した画像との差分を算出する算出手段と、
前記算出手段により算出された差分の画像を表示する表示手段と、
を備えることを特徴とする情報処理装置。 An acquisition unit that captures an image of the area of the display unit of the mobile terminal and acquires an image of the area;
Receiving means for receiving an image displayed on the display unit of the mobile terminal from the mobile terminal;
Calculating means for calculating a difference between the image received by the receiving means and the image acquired by the acquiring means;
Display means for displaying an image of the difference calculated by the calculation means;
An information processing apparatus comprising:
前記表示手段は、前記タッチ点情報取得手段により取得した位置を示す情報にタッチ点を示す画像を表示することを特徴とする請求項1に記載の情報処理装置。 Touch point information acquisition means for acquiring information indicating a position touched by the user in the display unit of the mobile terminal;
The information processing apparatus according to claim 1, wherein the display unit displays an image indicating a touch point on information indicating the position acquired by the touch point information acquisition unit.
前記情報処理装置の取得手段が、携帯端末の表示部の領域を撮影し、当該領域の画像を取得する取得工程と、
前記情報処理装置の受信手段が、前記携帯端末の表示部に表示された画像を、当該携帯端末から受信する受信工程と、
前記情報処理装置の算出手段が、前記受信工程により受信した画像と、前記取得工程により取得した画像との差分を算出する算出工程と、
前記情報処理装置の表示手段が、前記算出工程により算出された差分の画像を表示する表示工程と、
を備えることを特徴とする情報処理方法。 An information processing method in an information processing apparatus,
An acquisition step in which the acquisition unit of the information processing apparatus captures an image of the display unit of the mobile terminal and acquires an image of the area;
A receiving step in which the receiving unit of the information processing apparatus receives an image displayed on the display unit of the mobile terminal from the mobile terminal;
A calculating step of calculating a difference between the image received by the receiving step and the image acquired by the acquiring step;
A display step in which the display means of the information processing apparatus displays an image of the difference calculated by the calculation step;
An information processing method comprising:
前記情報処理装置を、
携帯端末の表示部の領域を撮影し、当該領域の画像を取得する取得手段と、
前記携帯端末の表示部に表示された画像を、当該携帯端末から受信する受信手段と、
前記受信手段により受信した画像と、前記取得手段により取得した画像との差分を算出する算出手段と、
前記算出手段により算出された差分の画像を表示する表示手段として機能させることを特徴とするプログラム。 A program executable in the information processing apparatus,
The information processing apparatus;
An acquisition unit that captures an image of the area of the display unit of the mobile terminal and acquires an image of the area;
Receiving means for receiving an image displayed on the display unit of the mobile terminal from the mobile terminal;
Calculating means for calculating a difference between the image received by the receiving means and the image acquired by the acquiring means;
A program that functions as a display unit that displays an image of a difference calculated by the calculation unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014259631A JP2016119019A (en) | 2014-12-24 | 2014-12-24 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014259631A JP2016119019A (en) | 2014-12-24 | 2014-12-24 | Information processing apparatus, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016119019A true JP2016119019A (en) | 2016-06-30 |
Family
ID=56243072
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014259631A Pending JP2016119019A (en) | 2014-12-24 | 2014-12-24 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016119019A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019113693A (en) * | 2017-12-22 | 2019-07-11 | セイコーエプソン株式会社 | Display system, method for controlling display system, display, and method for controlling display |
US10572007B2 (en) | 2017-12-15 | 2020-02-25 | International Business Machines Corporation | Preventing unintended input |
CN111837174A (en) * | 2018-06-25 | 2020-10-27 | 麦克赛尔株式会社 | Head-mounted display, head-mounted display cooperation system and method thereof |
-
2014
- 2014-12-24 JP JP2014259631A patent/JP2016119019A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10572007B2 (en) | 2017-12-15 | 2020-02-25 | International Business Machines Corporation | Preventing unintended input |
JP2019113693A (en) * | 2017-12-22 | 2019-07-11 | セイコーエプソン株式会社 | Display system, method for controlling display system, display, and method for controlling display |
JP7035510B2 (en) | 2017-12-22 | 2022-03-15 | セイコーエプソン株式会社 | Display system and control method of display system |
CN111837174A (en) * | 2018-06-25 | 2020-10-27 | 麦克赛尔株式会社 | Head-mounted display, head-mounted display cooperation system and method thereof |
JPWO2020003361A1 (en) * | 2018-06-25 | 2021-03-11 | マクセル株式会社 | Head-mounted display, head-mounted display cooperation system and its method |
JP2021192116A (en) * | 2018-06-25 | 2021-12-16 | マクセル株式会社 | Display device |
JP7209786B2 (en) | 2018-06-25 | 2023-01-20 | マクセル株式会社 | Display device |
JP7379734B2 (en) | 2018-06-25 | 2023-11-14 | マクセル株式会社 | head mounted display |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10444908B2 (en) | Virtual touchpads for wearable and portable devices | |
US20170293351A1 (en) | Head mounted display linked to a touch sensitive input device | |
JP6000797B2 (en) | Touch panel type input device, control method thereof, and program | |
EP2996022A1 (en) | Input assistance device, input assistance method, and program | |
US8947397B2 (en) | Electronic apparatus and drawing method | |
US20160349926A1 (en) | Interface device, portable device, control device and module | |
EP2919103B1 (en) | Information processing device, information processing method and computer-readable recording medium | |
US20140075302A1 (en) | Electronic apparatus and handwritten document processing method | |
EP2840478B1 (en) | Method and apparatus for providing user interface for medical diagnostic apparatus | |
US9378427B2 (en) | Displaying handwritten strokes on a device according to a determined stroke direction matching the present direction of inclination of the device | |
US10140002B2 (en) | Information processing apparatus, information processing method, and program | |
US10176556B2 (en) | Display control apparatus, display control method, and non-transitory computer readable medium | |
JP6483556B2 (en) | Operation recognition device, operation recognition method and program | |
TWI668600B (en) | Method, device, and non-transitory computer readable storage medium for virtual reality or augmented reality | |
US20140320461A1 (en) | Electronic apparatus, calibration method and storage medium | |
JP2016119019A (en) | Information processing apparatus, information processing method, and program | |
US20150009136A1 (en) | Operation input device and input operation processing method | |
JP2013171529A (en) | Operation input device, operation determination method, and program | |
WO2016081280A1 (en) | Method and system for mouse pointer to automatically follow cursor | |
US20150062038A1 (en) | Electronic device, control method, and computer program product | |
US20220197498A1 (en) | Display device, display method, and recording medium recording display program | |
KR20160048411A (en) | Mobile terminal | |
JP2010086367A (en) | Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment | |
KR102288431B1 (en) | Imagedata input system using virtual reality device and method of generating imagedata thereof | |
US9787731B2 (en) | Dynamically determining workspace bounds during a collaboration session |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20161101 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20161101 |