JP2012221348A - Pointing system, image generation device, and image generation program - Google Patents

Pointing system, image generation device, and image generation program Download PDF

Info

Publication number
JP2012221348A
JP2012221348A JP2011088131A JP2011088131A JP2012221348A JP 2012221348 A JP2012221348 A JP 2012221348A JP 2011088131 A JP2011088131 A JP 2011088131A JP 2011088131 A JP2011088131 A JP 2011088131A JP 2012221348 A JP2012221348 A JP 2012221348A
Authority
JP
Japan
Prior art keywords
image
pointer
pointing device
information
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011088131A
Other languages
Japanese (ja)
Other versions
JP5817192B2 (en
Inventor
Toru Sakai
徹 境井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011088131A priority Critical patent/JP5817192B2/en
Publication of JP2012221348A publication Critical patent/JP2012221348A/en
Application granted granted Critical
Publication of JP5817192B2 publication Critical patent/JP5817192B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a pointing system, an image generation device, and an image generation program, capable of reducing a difference between a position indicated by a pointing device and a position where a pointer is displayed more easily than before.SOLUTION: A pointing system 1 includes an image generation device 300 for generating a composite image by compositing a pointer image indicating a pointer and a prescribed image, and an image display unit 600 for displaying the composite image. Also, the pointing system 1 includes a displacement amount detection unit for detecting a displacement amount of the position of a pointing device indicating the displayed composite image, and an operation detection unit for detecting an operation performed to the pointing device. The image generation device 300 turns a composition position for compositing the pointer image with the prescribed image to an initial position when a prescribed operation is detected, and then moves the composition position of the pointer image by a moving amount corresponding to the detected displacement amount.

Description

本発明は、ポインティングシステム、画像生成装置、及び画像生成プログラムに関する。   The present invention relates to a pointing system, an image generation device, and an image generation program.

従来から、ポインティングデバイスに搭載された軸方向が異なる2つの角速度センサで検出された当該ポインティングデバイスの変位量に基づいて、大型ディスプレイに表示されるポインタの位置を変化させるパソコンが知られている(例えば、特許文献1)。   2. Description of the Related Art Conventionally, a personal computer that changes the position of a pointer displayed on a large display based on displacement amounts of the pointing device detected by two angular velocity sensors with different axial directions mounted on the pointing device is known ( For example, Patent Document 1).

特開2009−238004公報JP 2009-238004 A

ここで、特許文献1のパソコンでは、ポインティングデバイスが指し示す大型ディスプレイの位置を取得できないため、当該位置と大型ディスプレイに表示されたポインタの位置とを略一致させる(つまり、キャリブレーションする)ことが困難であるという問題があった。   Here, since the position of the large display pointed to by the pointing device cannot be acquired with the personal computer of Patent Document 1, it is difficult to substantially match (that is, calibrate) the position and the position of the pointer displayed on the large display. There was a problem of being.

本発明は、このような点に鑑みてなされたものであり、その目的とするところは、ポインティングデバイスが指し示す位置とポインタの表示される位置との差異を従来よりも容易に縮小できるポインティングシステム、画像生成装置、及び画像生成プログラムを提供することにある。   The present invention has been made in view of such a point, and the object of the present invention is a pointing system that can easily reduce the difference between the position indicated by the pointing device and the position where the pointer is displayed, as compared with the prior art, An object is to provide an image generation apparatus and an image generation program.

上記目的を達成するため、本発明の第1の観点に係るポインティングシステムは、
ポインタを表すポインタ画像と、所定の画像とを合成することで合成画像を生成する画像生成手段と、
前記生成された合成画像を表示する画像表示手段と、
前記表示された合成画像を指し示すポインティングデバイスの位置の変位量を検出する変位量検出手段と、
前記ポインティングデバイスに対して行われる操作を検出する操作検出手段と、を備え、
前記画像生成手段は、所定の操作が検出されると、前記所定の画像に対して前記ポインタ画像を合成する合成位置を予め定められた初期位置とした後に、前記検出された変位量に応じた移動量だけ前記ポインタ画像の合成位置を移動させる、
ことを特徴とする。
In order to achieve the above object, a pointing system according to the first aspect of the present invention provides:
Image generating means for generating a composite image by combining a pointer image representing a pointer and a predetermined image;
Image display means for displaying the generated composite image;
A displacement amount detecting means for detecting a displacement amount of the position of the pointing device indicating the displayed composite image;
An operation detection means for detecting an operation performed on the pointing device,
When a predetermined operation is detected, the image generation unit sets a combination position for combining the pointer image with the predetermined image as a predetermined initial position, and then according to the detected displacement amount. Move the composite position of the pointer image by the amount of movement;
It is characterized by that.

本発明のポインティングシステム、画像生成装置、及び画像生成プログラムによれば、ポインティングデバイスが指し示す位置とポインタの表示される位置との差異を従来よりも容易に縮小できる。   According to the pointing system, the image generation apparatus, and the image generation program of the present invention, the difference between the position indicated by the pointing device and the position where the pointer is displayed can be reduced more easily than in the past.

本発明の実施形態1に係るポインティングシステムの一例を示すシステム構成図である。It is a system configuration figure showing an example of a pointing system concerning Embodiment 1 of the present invention. ポインティングデバイスを基準とした座標系の一例とワールド座標系の一例とを表す図である。It is a figure showing an example of the coordinate system on the basis of a pointing device, and an example of a world coordinate system. ポインティングデバイスの一構成例を表すハードウェア構成図である。It is a hardware block diagram showing the example of 1 structure of a pointing device. ポインティングデバイスが有する機能の一例を表す機能ブロック図である。It is a functional block diagram showing an example of the function which a pointing device has. ポインティングデバイスが実行する第1操作時処理の一例を表すフローチャートである。It is a flowchart showing an example of the process at the time of the 1st operation which a pointing device performs. 実施形態1のポインティングデバイスが実行するタイマ割込処理の一例を表すフローチャートである。3 is a flowchart illustrating an example of timer interrupt processing executed by the pointing device according to the first embodiment. 画像生成装置の一構成例を表すハードウェア構成図である。It is a hardware block diagram showing the example of 1 structure of an image generation apparatus. 実施形態1の画像生成装置が実行する画像生成処理の一例を表すフローチャートの一部である。3 is a part of a flowchart illustrating an example of image generation processing executed by the image generation apparatus according to the first embodiment. 画像生成装置が実行する画像生成処理の一例を表すフローチャートの他部である。It is the other part of the flowchart showing an example of the image generation process which an image generation apparatus performs. 画像生成装置が有する機能の一例を表す機能ブロック図である。It is a functional block diagram showing an example of the function which an image generation apparatus has. 指定画像を基準とした座標系の一例を表す図である。It is a figure showing an example of the coordinate system on the basis of the designated image. 実施形態1の変形例に係るポインティングシステムの一例を示すシステム構成図である。It is a system configuration figure showing an example of a pointing system concerning a modification of Embodiment 1. 実施形態2におけるキャリブレーション方法を説明するための図である。FIG. 10 is a diagram for explaining a calibration method in the second embodiment. 実施形態2におけるポインティングデバイスが有する機能の一例を表す機能ブロック図である。6 is a functional block diagram illustrating an example of functions of a pointing device according to Embodiment 2. FIG. 実施形態2のポインティングデバイスが実行するタイマ割込処理の一例を表すフローチャートである。10 is a flowchart illustrating an example of a timer interrupt process executed by the pointing device according to the second embodiment. (a)は、スクリーンからポインティングデバイスまでの距離とポインティングデバイスの移動範囲との一関係例を説明するための図である。(b)は、スクリーンからポインティングデバイスまでの距離とポインティングデバイスの移動範囲との他の関係例を説明するための図である。(A) is a figure for demonstrating the example of one relationship between the distance from a screen to a pointing device, and the movement range of a pointing device. (B) is a figure for demonstrating the other example of a relationship between the distance from a screen to a pointing device, and the movement range of a pointing device. 実施形態2の画像生成装置が実行する画像生成処理の一例を表すフローチャートの一部である。10 is a part of a flowchart illustrating an example of image generation processing executed by the image generation apparatus according to the second embodiment. スクリーンに投影された画像を指し示すためにポインティングデバイスを移動させる移動範囲の一例を表す図である。It is a figure showing an example of the movement range which moves a pointing device in order to point the image projected on the screen.

(実施形態1)
以下、本発明の実施形態1に係るポインティングシステム1について、添付図面を参照しつつ説明する。
(Embodiment 1)
Hereinafter, a pointing system 1 according to Embodiment 1 of the present invention will be described with reference to the accompanying drawings.

本発明の実施形態1に係るポインティングシステム1は、図1に示すようなポインティングデバイス100、アクセスポイント200、画像生成装置300、画像投影装置400、及びスクリーン500で構成される。   A pointing system 1 according to the first embodiment of the present invention includes a pointing device 100, an access point 200, an image generation device 300, an image projection device 400, and a screen 500 as shown in FIG.

ポインティングデバイス100は、図2に示すようなハンディターミナルで構成される。尚、ポインティングデバイス100は、PDA(Personal Digital Assistant)、携帯電話、又はPHS(Personal Handy-phone System)で構成されても良い。   The pointing device 100 includes a handy terminal as shown in FIG. The pointing device 100 may be configured by a PDA (Personal Digital Assistant), a mobile phone, or a PHS (Personal Handy-phone System).

ポインティングデバイス100は、図2に示すようなLCD100iとキーボード100jとを備える。ポインティングデバイス100は、LCD100iに向かって右方向にXp軸の正方向が規定されており、LCD100iの表示方向(つまり、LCD100iの画面と垂直方向)にYp軸の正方向が規定されており、上方向(つまり、LCD100iが表示する画像の上方向)にZp軸の正方向が規定されている。また、Xp軸、Yp軸、及びZp軸とそれぞれ並行であり、ポインティングデバイス100に電源が投入された三次元空間上の位置を原点Owとするワールド座標系のXw軸、Yw軸、及びZw軸が規定されている。   The pointing device 100 includes an LCD 100i and a keyboard 100j as shown in FIG. The pointing device 100 has a positive direction of the Xp axis defined in the right direction toward the LCD 100i, and a positive direction of the Yp axis defined in the display direction of the LCD 100i (that is, the direction perpendicular to the screen of the LCD 100i). The positive direction of the Zp axis is defined in the direction (that is, the upward direction of the image displayed on the LCD 100i). In addition, the Xw axis, the Yw axis, and the Zw axis of the world coordinate system are parallel to the Xp axis, the Yp axis, and the Zp axis, respectively, and the origin Ow is a position in the three-dimensional space where the power is supplied to the pointing device 100. Is stipulated.

ユーザは、ポインティングデバイス100を用いて指し示す位置が、ポインティングデバイス100の+Zp方向となるように、ポインティングデバイス100を移動させる。ポインティングデバイス100は、ユーザによって移動させられると、ワールド座標系のXw軸方向及びYw軸方向における位置の変位量(Δx,Δy)を検出する。また、ポインティングデバイス100は、ユーザによってキーボード100jに対して行われた操作を検出する。ポインティングデバイス100は、これら検出された操作を表す操作情報、及び検出された変位量(Δx,Δy)を表す変位量情報を、アクセスポイント200を介して画像生成装置300へ送信する。尚、ポインティングデバイス100は、レーザ光によってユーザの指し示す位置をポイントすることはない。   The user moves the pointing device 100 so that the position pointed to using the pointing device 100 is in the + Zp direction of the pointing device 100. When the pointing device 100 is moved by the user, it detects the displacement amount (Δx, Δy) of the position in the Xw axis direction and the Yw axis direction of the world coordinate system. The pointing device 100 detects an operation performed on the keyboard 100j by the user. The pointing device 100 transmits the operation information representing these detected operations and the displacement amount information representing the detected displacement amounts (Δx, Δy) to the image generation apparatus 300 via the access point 200. The pointing device 100 does not point at the position pointed to by the user with the laser beam.

アクセスポイント200は、ポインティングデバイス100と画像生成装置300との間で通信される情報を仲介する。   The access point 200 mediates information communicated between the pointing device 100 and the image generation apparatus 300.

画像生成装置300は、所定の画像と、ユーザがポインティングデバイス100で指し示す位置を表すポインタ画像とを合成することで合成画像を生成する。画像生成装置300は、ポインティングデバイス100から受信した情報で表される操作及び変位量に基づいて、ポインタ画像を所定の画像に合成する位置(以下、合成位置という)を変更する。その後、画像生成装置300は、当該所定の画像の変更後の位置にポインタ画像を合成し、生成した合成画像を表す情報を画像投影装置400へ送信する。   The image generation apparatus 300 generates a composite image by combining a predetermined image and a pointer image representing a position pointed to by the user with the pointing device 100. The image generation apparatus 300 changes a position (hereinafter referred to as a combining position) where the pointer image is combined with a predetermined image based on the operation and the displacement amount represented by the information received from the pointing device 100. Thereafter, the image generation apparatus 300 synthesizes the pointer image at the changed position of the predetermined image, and transmits information representing the generated synthesized image to the image projection apparatus 400.

画像投影装置400は、液晶プロジェクタで構成され、画像生成装置300から受信した情報で表される合成画像をスクリーン500へ投影することで、スクリーン500に合成画像を表示する画像表示手段である。   The image projection device 400 is an image display unit that is configured by a liquid crystal projector and displays a composite image on the screen 500 by projecting a composite image represented by information received from the image generation device 300 onto the screen 500.

図1のポインティングデバイス100は、図3に示すようなCPU(Central Processing Unit)100a、ROM(Read Only Memory)100b、RAM(Random Access Memory)100c、ハードディスク100d、メディアコントローラ100e、無線LANカード(Local Area Network)100f、ビデオカード100h、LCD(Liquid Crystal Display)100i、キーボード100j、スピーカ100k、加速度センサ100l、及びタイマ100mで構成される。   The pointing device 100 in FIG. 1 includes a CPU (Central Processing Unit) 100a, a ROM (Read Only Memory) 100b, a RAM (Random Access Memory) 100c, a hard disk 100d, a media controller 100e, a wireless LAN card (Local Area network) 100f, video card 100h, LCD (Liquid Crystal Display) 100i, keyboard 100j, speaker 100k, acceleration sensor 100l, and timer 100m.

CPU100aは、ROM100b又はハードディスク100dに保存されたプログラムに従ってソフトウェア処理を実行することで、ポインティングデバイス100の全体制御を行う。RAM100cは、CPU100aによるプログラムの実行時において、処理対象とする情報(つまり、データ)を一時的に記憶する。   The CPU 100a performs overall control of the pointing device 100 by executing software processing according to a program stored in the ROM 100b or the hard disk 100d. The RAM 100c temporarily stores information (that is, data) to be processed when the CPU 100a executes the program.

ハードディスク100dは、各種の情報(つまり、データ)を記憶する。尚、ポインティングデバイス100は、ハードディスク100dの代わりに、フラッシュメモリを備えても良い。   The hard disk 100d stores various types of information (that is, data). The pointing device 100 may include a flash memory instead of the hard disk 100d.

メディアコントローラ100eは、フラッシュメモリ、CD(Compact Disc)、DVD(Digital Versatile Disc)、及びブルーレイディスク(Blu-ray Disc)(登録商標)を含む記録媒体から各種のデータ及びプログラムを読み出す。   The media controller 100e reads various data and programs from a recording medium including a flash memory, a CD (Compact Disc), a DVD (Digital Versatile Disc), and a Blu-ray Disc (registered trademark).

無線LANカード100fは、不図示の通信網10を介して接続するアクセスポイント200を経由して、画像生成装置300と各種情報を電波通信する。キーボード100jは、ユーザの操作に応じた信号又は情報を入力する。   The wireless LAN card 100f performs radio wave communication of various types of information with the image generation apparatus 300 via an access point 200 connected via a communication network 10 (not shown). The keyboard 100j inputs a signal or information corresponding to a user operation.

ビデオカード100hは、CPU100aから出力されたデジタル信号に基づいて画像を描画(つまり、レンダリング)すると共に、描画された画像を表す画像信号を出力する。LCD100iは、ビデオカード100hから出力された画像信号に従って画像を表示する。なお、ポインティングデバイス100は、LCD100iの代わりに、PDP(Plasma Display Panel)又はEL(Electroluminescence)ディスプレイを備えても良い。スピーカ100kは、CPU100aから出力された信号に基づいて音声を出力する。   The video card 100h draws (that is, renders) an image based on the digital signal output from the CPU 100a, and outputs an image signal representing the drawn image. The LCD 100i displays an image according to the image signal output from the video card 100h. The pointing device 100 may include a PDP (Plasma Display Panel) or an EL (Electroluminescence) display instead of the LCD 100i. The speaker 100k outputs sound based on the signal output from the CPU 100a.

加速度センサ100lは、図2のXp軸を軸方向とする不図示の加速度センサ、及びYp軸を軸方向とする不図示の加速度センサとを備え、ポインティングデバイス100に対してXp軸にかかる加速度と、Yp軸にかかる加速度とをそれぞれ検出する。   The acceleration sensor 100l includes an acceleration sensor (not shown) whose axial direction is the Xp axis in FIG. 2 and an acceleration sensor (not shown) whose axial direction is the Yp axis, and the acceleration applied to the pointing device 100 along the Xp axis. , And the acceleration applied to the Yp axis, respectively.

タイマ100mは、CPU100aによって動作をスタートさせられると、CPU100aに設定された周期で割込信号をCPU100aへ入力し、CPU100aによってストップさせられると、割込信号の出力を中止する。   When the operation of the timer 100m is started by the CPU 100a, an interrupt signal is input to the CPU 100a at a cycle set in the CPU 100a, and when the CPU 100a is stopped, the output of the interrupt signal is stopped.

図3のCPU100aは、図1のスクリーン500に投影される画像を指定する、不図示の画像指定処理を実行する。この画像指定処理の実行により、CPU100aは、図3のキーボード100jと協働することで、図4に示すような操作検出部101として機能し、無線LANカード100fと協働することで図4の情報送信部102として機能する。   The CPU 100a in FIG. 3 executes an image designation process (not shown) that designates an image to be projected on the screen 500 in FIG. By executing this image designation process, the CPU 100a functions as the operation detection unit 101 as shown in FIG. 4 by cooperating with the keyboard 100j of FIG. 3, and by cooperating with the wireless LAN card 100f in FIG. It functions as the information transmission unit 102.

画像指定処理が開始されると、操作検出部101は、ユーザによるキーボード100jの操作を検出する。操作検出部101は、検出された操作が、スクリーン500に提示される画像を指定する操作(以下、指定操作という)であるか否かを判別する。このとき、操作検出部101は、検出された操作が指定操作でないと判別すると、画像指定処理の実行を終了する。これに対して、操作検出部101が、検出された操作は指定操作であると判別すると、情報送信部102は、検出された指定操作を表す操作情報を、図1のアクセスポイント200を介して画像生成装置300へ送信した後に、画像指定処理の実行を終了する。   When the image designation process is started, the operation detection unit 101 detects an operation of the keyboard 100j by the user. The operation detection unit 101 determines whether or not the detected operation is an operation for designating an image presented on the screen 500 (hereinafter referred to as a designation operation). At this time, if the operation detection unit 101 determines that the detected operation is not a designation operation, the operation designation unit 101 ends the execution of the image designation process. On the other hand, when the operation detecting unit 101 determines that the detected operation is a designated operation, the information transmitting unit 102 transmits operation information representing the detected designated operation via the access point 200 in FIG. After transmission to the image generation device 300, execution of the image designation process is terminated.

図1の画像生成装置300は、ポインティングデバイス100から送信された操作情報を受信すると、当該操作情報で表される指定操作によって指定された画像を表す情報(以下、画像情報という)を、画像生成装置300が記憶するドキュメントファイルから抽出する。次に、画像生成装置300は、抽出された画像情報を図1の画像投影装置400へ出力し、当該画像情報をポインティングデバイス100へ送信する。画像投影装置400は、出力された画像情報で表される画像を、図1のスクリーン500へ投影する。   When receiving the operation information transmitted from the pointing device 100, the image generating apparatus 300 in FIG. 1 generates information (hereinafter referred to as image information) representing an image designated by the designated operation represented by the operation information. Extracted from the document file stored in the apparatus 300. Next, the image generation apparatus 300 outputs the extracted image information to the image projection apparatus 400 in FIG. 1 and transmits the image information to the pointing device 100. The image projection device 400 projects an image represented by the output image information onto the screen 500 of FIG.

ポインティングデバイス100のCPU100aは、画像生成装置300から送信された情報で表される画像を表示する不図示の画像表示処理を実行する。この画像表示処理の実行により、CPU100aは、ビデオカード100h及びLCD100iと協働することで、図4の画像表示部105としてさらに機能し、無線LANカード100fと協働することで情報受信部104として機能する。   The CPU 100a of the pointing device 100 executes an image display process (not shown) that displays an image represented by information transmitted from the image generation apparatus 300. By executing this image display processing, the CPU 100a further functions as the image display unit 105 in FIG. 4 by cooperating with the video card 100h and the LCD 100i, and as the information receiving unit 104 by cooperating with the wireless LAN card 100f. Function.

画像表示処理が開始されると、図4の情報受信部104は、画像生成装置300から画像を表す画像情報を受信し、図4の画像表示部105が、受信された情報で表される画像を表示した後に、画像表示処理の実行が終了される。   When the image display process is started, the information reception unit 104 in FIG. 4 receives image information representing an image from the image generation apparatus 300, and the image display unit 105 in FIG. 4 displays an image represented by the received information. Is displayed, the execution of the image display process is terminated.

ユーザは、図4の画像表示部105に表示された画像又は図1のスクリーン500に投影(つまり、表示)された画像を目視しながら、ポインティングデバイス100の操作を行う。ユーザがポインティングデバイス100に対して行う操作は、図1のスクリーン500に対してポインタ画像の投影を開始させる操作(以下、第1の操作という)と、ポインタ画像の投影を終了させる操作(以下、第2の操作という)とを含む。本実施形態では、第1の操作は、図3のキーボード100jの「1」キーを押し下げる操作(以下、押下操作という)であり、第2の操作は、「1」キーを押し上げる操作であるとして説明するが、これに限定される訳ではない。   The user operates the pointing device 100 while viewing the image displayed on the image display unit 105 in FIG. 4 or the image projected (that is, displayed) on the screen 500 in FIG. The operations performed by the user on the pointing device 100 include an operation for starting projection of a pointer image on the screen 500 in FIG. 1 (hereinafter referred to as a first operation) and an operation for ending projection of the pointer image (hereinafter referred to as “first operation”). The second operation). In the present embodiment, it is assumed that the first operation is an operation of depressing the “1” key of the keyboard 100j in FIG. 3 (hereinafter referred to as a depressing operation), and the second operation is an operation of depressing the “1” key. Although explained, it is not necessarily limited to this.

ポインティングデバイス100のCPU100aは、図3のキーボード100jの「1」キーに対して第1の操作が行われることで、当該操作に応じたイベント(以下、押下イベントという)が発生すると、CPU100aは、図5の第1の操作時処理の実行を開始する。   When the CPU 100a of the pointing device 100 performs the first operation on the “1” key of the keyboard 100j in FIG. 3 and an event corresponding to the operation (hereinafter referred to as a pressing event) occurs, the CPU 100a The execution of the first operation process in FIG. 5 is started.

先ず、CPU100aは、ポインタ画像の投影を開始させるように求めるスタート要求を表す情報(以下、スタート要求情報という)を、押下イベントの発生後に送信したか否かを表す値を格納する変数firstに対して、未だ送信していないことを表す値「1」を格納する(ステップS11)。次に、CPU100aは、図3のタイマ100mの動作をスタートさせる(ステップS12)。   First, the CPU 100a sets a variable first to store a value indicating whether or not information indicating a start request to start projection of a pointer image (hereinafter referred to as start request information) is transmitted after the occurrence of a pressing event. Then, the value “1” indicating that the data has not been transmitted yet is stored (step S11). Next, the CPU 100a starts the operation of the timer 100m in FIG. 3 (step S12).

動作を開始したタイマ100mが割込信号を入力する度に、図3のCPU100aは、図6に示すようなタイマ割込処理を実行する。これにより、CPU100aは、図3の加速度センサ100lと協働することで、図4の変位量検出部103として機能する。   Each time the timer 100m that started the operation inputs an interrupt signal, the CPU 100a in FIG. 3 executes a timer interrupt process as shown in FIG. Thus, the CPU 100a functions as the displacement amount detection unit 103 in FIG. 4 by cooperating with the acceleration sensor 100l in FIG.

図6のタイマ割込処理を開始すると、図4の操作検出部101は、図3のキーボード100jから出力される信号に基づいて、「1」キーが押し下げられているか(つまり、押下中か)否かを判別する(ステップS21)。このとき、「1」キーが押し下げられていると判別されると(ステップS21;Yes)、図4の変化量検出部103は、図3の加速度センサ100lの検出値を読み込む(つまり、センサリード)(ステップS22)。その後、変化量検出部103は、読み込んだ値に基づいて、図2のワールド座標系XwYwZwにおけるポインティングデバイス100のXwYwZw座標を算出する。その後、変化量検出部103は、算出された座標のXw座標(つまり、x成分)を変数xに格納し、Yw座標(つまり、y成分)を変数yに格納する(ステップS23)。   When the timer interrupt process in FIG. 6 is started, the operation detection unit 101 in FIG. 4 determines whether the “1” key is pressed (that is, is being pressed) based on a signal output from the keyboard 100j in FIG. It is determined whether or not (step S21). At this time, if it is determined that the “1” key is depressed (step S21; Yes), the change amount detection unit 103 in FIG. 4 reads the detection value of the acceleration sensor 100l in FIG. (Step S22). Thereafter, the change amount detection unit 103 calculates the XwYwZw coordinates of the pointing device 100 in the world coordinate system XwYwZw of FIG. 2 based on the read value. Thereafter, the change amount detection unit 103 stores the Xw coordinate (that is, the x component) of the calculated coordinate in the variable x, and stores the Yw coordinate (that is, the y component) in the variable y (step S23).

次に、図4の情報送信部102は、変数firstが値「1」であるか否か(つまり、スタート要求情報を送信していないかしているか)を判別する(ステップS24)。このとき、情報送信部102は、変数firstが値「1」であると判別すると(ステップS24;Yes)、ステップS23で値を格納された変数xの値を変数x0に格納し、ステップS23で値を格納された変数yの値を変数y0に格納する(ステップS25)。   Next, the information transmission unit 102 in FIG. 4 determines whether or not the variable first is a value “1” (that is, whether or not start request information is transmitted) (step S24). At this time, when determining that the variable first is the value “1” (step S24; Yes), the information transmission unit 102 stores the value of the variable x stored in step S23 in the variable x0, and in step S23. The value of the variable y that stores the value is stored in the variable y0 (step S25).

その後、情報送信部102は、ポインタ画像の投影を開始させるように求めるスタート要求情報を、図1の画像生成装置300へ送信した後に(ステップS26)、変数firstの値を、スタート要求情報が既に送信されたことを表す値「0」に更新した後に(ステップS27)、ステップS21から上記処理を繰り返す。   Thereafter, the information transmitting unit 102 transmits start request information for requesting to start projection of the pointer image to the image generating apparatus 300 in FIG. 1 (step S26), and then the value of the variable first is already set. After updating to the value “0” indicating transmission (step S27), the above processing is repeated from step S21.

ステップS24において、情報送信部102は、変数firstが値「0」であると判別すると(ステップS24;No)、ステップS23において、今回算出されたXw座標値を格納した変数xの値から、前回算出されたXw座標値を格納した変数x0の値を減算することで、ポインティングデバイス100のXw軸方向の変位量Δxを算出する。また同様に、情報送信部102は、前回算出されたYw座標値を格納した変数yから、前回算出されたYw座標値を格納した変数y0を減算することで、ポインティングデバイス100のYw軸方向の変位量Δyを算出する(ステップS28)。   In step S24, when the information transmission unit 102 determines that the variable first is the value “0” (step S24; No), in step S23, from the value of the variable x storing the Xw coordinate value calculated this time, By subtracting the value of the variable x0 storing the calculated Xw coordinate value, the displacement amount Δx of the pointing device 100 in the Xw axis direction is calculated. Similarly, the information transmission unit 102 subtracts the variable y0 that stores the previously calculated Yw coordinate value from the variable y that stores the previously calculated Yw coordinate value, so that the Yw axis direction of the pointing device 100 can be reduced. A displacement amount Δy is calculated (step S28).

その後、情報送信部102は、算出された変位量ΔxとΔyとを表す変位量情報を画像生成装置300へ送信する(ステップS29)。その後、ステップS25と同様の処理が実行された後に(ステップS30)、ステップS21から上記処理が繰り返される。   Thereafter, the information transmission unit 102 transmits displacement amount information representing the calculated displacement amounts Δx and Δy to the image generation device 300 (step S29). Then, after the process similar to step S25 is performed (step S30), the said process is repeated from step S21.

ステップS21において、「1」キーが押し下げられていないと判別されると(ステップS21;No)、「1」キーが押し上げられたと操作検出部101が判別し、操作検出部101は、第2の操作を検出する。次に、情報送信部102は、ポインタ画像の投影を停止させるように求めるストップ要求を表す情報(以下、ストップ要求情報という)を、図1の画像生成装置300へ送信する(ステップS31)。その後、図5のステップS12でスタートさせたタイマの動作をストップさせた後に(ステップS32)、タイマ割込処理の実行を終了する。   If it is determined in step S21 that the “1” key has not been depressed (step S21; No), the operation detection unit 101 determines that the “1” key has been depressed, and the operation detection unit 101 performs the second operation. Detect operations. Next, the information transmitting unit 102 transmits information representing a stop request for stopping the projection of the pointer image (hereinafter referred to as stop request information) to the image generating apparatus 300 in FIG. 1 (step S31). Then, after stopping the operation of the timer started in step S12 of FIG. 5 (step S32), the execution of the timer interrupt process is terminated.

図1の画像生成装置300は、図7に示すようなCPU300a、ROM300b、RAM300c、ハードディスク300d、メディアコントローラ300e、無線LANカード300f、有線LANカード300g、ビデオカード300h、LCD300i、キーボード300j、及びスピーカ300kで構成される。   1 includes a CPU 300a, ROM 300b, RAM 300c, hard disk 300d, media controller 300e, wireless LAN card 300f, wired LAN card 300g, video card 300h, LCD 300i, keyboard 300j, and speaker 300k as shown in FIG. Consists of.

CPU300a、ROM300b、RAM300c、ハードディスク300d、メディアコントローラ300e、ビデオカード300h、LCD300i、キーボード300j、及びスピーカ300kは、図3のCPU100a、ROM100b、RAM100c、ハードディスク100d、メディアコントローラ100e、ビデオカード100h、LCD100i、キーボード100j、及びスピーカ100kと同様であるので説明を省略する。   The CPU 300a, ROM 300b, RAM 300c, hard disk 300d, media controller 300e, video card 300h, LCD 300i, keyboard 300j, and speaker 300k are the CPU 100a, ROM 100b, RAM 100c, hard disk 100d, media controller 100e, video card 100h, LCD 100i, keyboard of FIG. Since it is the same as 100j and the speaker 100k, description is abbreviate | omitted.

無線LANカード300fは、アクセスポイント200を介してポインティングデバイス100との間で各種の情報を電波通信する。有線LANカード300gは、画像投影装置400との間で各種の情報を有線通信する。   The wireless LAN card 300f performs radio wave communication of various types of information with the pointing device 100 via the access point 200. The wired LAN card 300g performs wired communication of various types of information with the image projection device 400.

CPU300aは、図7のハードウェアを用いて図8及び図9に示すような画像生成処理を実行する。これにより、CPU300aは、図10に示すような情報検索部302及び画像生成部304として機能し、ハードディスク300dと協働することで図10の情報記憶部303として機能し、無線LANカード300fと協働することで図10の情報受信部301及び情報送信部308として機能し、有線LANカード300gと協働することで図10の情報出力部307として機能する。   The CPU 300a executes image generation processing as shown in FIGS. 8 and 9 using the hardware of FIG. Accordingly, the CPU 300a functions as the information search unit 302 and the image generation unit 304 as illustrated in FIG. 10, and functions as the information storage unit 303 in FIG. 10 by cooperating with the hard disk 300d and cooperates with the wireless LAN card 300f. 10 functions as the information receiving unit 301 and the information transmitting unit 308 in FIG. 10, and functions as the information output unit 307 in FIG. 10 in cooperation with the wired LAN card 300g.

図10の情報記憶部303は、所定の画像を表す情報が記録された電子ファイルを記憶している。本実施形態において、所定の画像は、文書を表す文書画像であり、情報記憶部303は、文書画像を表す情報が記録された電子ファイル(つまり、ドキュメントファイルという)を記憶しているとして説明するが、これに限定される訳ではない。また、ドキュメントファイルは、例えば、プレゼンテーション用のソフトウェアを用いて作成された電子ファイルであるとして説明するが、これに限定される訳ではない。   The information storage unit 303 in FIG. 10 stores an electronic file in which information representing a predetermined image is recorded. In the present embodiment, it is assumed that the predetermined image is a document image representing a document, and the information storage unit 303 stores an electronic file in which information representing the document image is recorded (that is, referred to as a document file). However, it is not limited to this. The document file is described as an electronic file created using, for example, presentation software. However, the document file is not limited to this.

図8の画像生成処理の実行が開始されると、図10の情報受信部301は、図1のアクセスポイント200を介してポインティングデバイス100から情報を受信したか否かを判別する(ステップS41)。このとき、情報受信部301は、情報を受信していないと判別すると(ステップS41;No)、所定時間経過後にステップS41の処理を再度繰り返す。   When the execution of the image generation process in FIG. 8 is started, the information receiving unit 301 in FIG. 10 determines whether information is received from the pointing device 100 via the access point 200 in FIG. 1 (step S41). . At this time, if the information receiving unit 301 determines that the information is not received (step S41; No), the process of step S41 is repeated again after a predetermined time has elapsed.

ステップS41において、情報受信部301は、情報を受信したと判別すると(ステップS41;Yes)、受信された情報が指定操作を表す情報(以下、指定操作情報という)であるか否かを判別する(ステップS42)。このとき、受信された情報が指定操作情報であると判別されると(ステップS42;Yes)、図10の情報検索部302は、指定操作で指定された画像(以下、指定画像という)を表す情報(以下、指定画像情報という)を、情報記憶部303に記憶されたドキュメントファイルから検索する(ステップS43)。次に、情報検索部302は、情報記憶部303に記憶されたポインタ画像を表す情報(以下、ポインタ画像情報という)を検索する(ステップS44)。その後、ポインタ画像をスクリーン500に投影するか否かを表すポインタ変数に、ポインタ画像を投影しないことを表す値(ポインタOFFと図示する)を格納する(ステップS45)。   In step S41, when the information receiving unit 301 determines that the information has been received (step S41; Yes), the information receiving unit 301 determines whether the received information is information indicating a specified operation (hereinafter referred to as specified operation information). (Step S42). At this time, if it is determined that the received information is designated operation information (step S42; Yes), the information search unit 302 in FIG. 10 represents an image designated by the designated operation (hereinafter referred to as a designated image). Information (hereinafter referred to as designated image information) is searched from the document file stored in the information storage unit 303 (step S43). Next, the information search unit 302 searches for information representing the pointer image stored in the information storage unit 303 (hereinafter referred to as pointer image information) (step S44). Thereafter, a value indicating that the pointer image is not projected (shown as pointer OFF) is stored in a pointer variable indicating whether or not the pointer image is projected on the screen 500 (step S45).

ステップS42において、受信された情報が指定操作情報でないと判別すると(ステップS42;No)、情報受信部301は、受信された情報がスタート要求情報であるか否かを判別する(ステップS46)。このとき、受信された情報がスタート要求情報であると判別されると(ステップS46;Yes)、画像生成部304は、前回の合成位置から今回の合成位置までの移動量を「0」とする。具体的には、合成位置の移動量は、図11に示すようなXfYf座標系であって、図8のステップS43で検索された情報で表される指定画像Fの中心を原点Ofとし、指定画像Fの走査方向をXf軸とし、指定画像Fの副走査方向をYf軸とする画像座標系を用いて表される。このため、画像生成部304は、合成位置のXf軸方向における移動量を表す移動量変数xの値を「0」で初期化し、Yf軸方向における移動量を表す移動量変数yの値を「0」で初期化する。   If it is determined in step S42 that the received information is not designated operation information (step S42; No), the information receiving unit 301 determines whether the received information is start request information (step S46). At this time, if it is determined that the received information is start request information (step S46; Yes), the image generation unit 304 sets the movement amount from the previous synthesis position to the current synthesis position to “0”. . Specifically, the amount of movement of the composite position is an XfYf coordinate system as shown in FIG. 11, and the center of the designated image F represented by the information retrieved in step S43 in FIG. This is expressed using an image coordinate system in which the scanning direction of the image F is the Xf axis and the sub-scanning direction of the designated image F is the Yf axis. For this reason, the image generation unit 304 initializes the value of the movement amount variable x representing the movement amount of the composite position in the Xf-axis direction with “0”, and sets the value of the movement amount variable y representing the movement amount in the Yf-axis direction to “ Initialize with “0”.

また、画像生成部304は、前回の合成位置のXf座標値を格納する変数lastXの値及び前回の合成位置のYf座標値を格納する変数lastYの値をそれぞれ値「0」として初期化する(ステップS47)。   Further, the image generation unit 304 initializes the value of the variable lastX that stores the Xf coordinate value of the previous combined position and the value of the variable lastY that stores the Yf coordinate value of the previous combined position as the value “0” ( Step S47).

次に、画像生成部304は、今回の合成位置を、図10の情報記憶部303に記憶された情報で表される所定の初期位置とする。本実施形態において、初期位置は、画像座標系の原点Ofであるとして説明する。このため、画像生成部304は、ポインタ画像の合成位置(つまり、ポインタ位置)のXf座標及びYf座標を、それぞれ値「0」とする(ステップS48)。しかし、これに限定される訳ではなく、合成位置の初期位置は、例えば、指定画像Fに含まれる点の内で、Xf座標値及びYf座標値の双方が最も小さい点Of’であるとしても良い。ステップS48の後に、画像生成部304は、ポインタ画像を投影することを表す値(ポインタON)でポインタ変数の値を更新する(ステップS49)。   Next, the image generation unit 304 sets the current synthesis position as a predetermined initial position represented by information stored in the information storage unit 303 of FIG. In the present embodiment, the description will be made assuming that the initial position is the origin Of of the image coordinate system. For this reason, the image generation unit 304 sets the Xf coordinate and Yf coordinate of the combined position of the pointer image (that is, the pointer position) to the value “0” (step S48). However, the present invention is not limited to this, and the initial position of the composite position may be, for example, the point Of ′ having the smallest Xf coordinate value and Yf coordinate value among the points included in the designated image F. good. After step S48, the image generation unit 304 updates the value of the pointer variable with a value indicating that the pointer image is projected (pointer ON) (step S49).

ステップS46において、情報受信部301は、受信された情報がスタート要求情報でないと判別すると(ステップS46;No)、受信された情報がストップ要求情報であるか否かを判別する(ステップS50)。このとき、受信された情報がストップ要求を表す情報でないと判別されると(ステップS50;No)、情報受信部301は、受信された情報がポインティングデバイス100の変位量を表す情報(つまり、変位量情報)であると判別する。   In step S46, when the information receiving unit 301 determines that the received information is not start request information (step S46; No), the information receiving unit 301 determines whether the received information is stop request information (step S50). At this time, if it is determined that the received information is not information indicating a stop request (step S50; No), the information receiving unit 301 receives information indicating that the received information indicates the amount of displacement of the pointing device 100 (that is, displacement). Amount information).

次に、画像生成部304は、受信された情報で表される変位量に基づいてポインタ画像を指定画像Fに合成する合成位置を移動させる。具体的には、画像生成部304は、受信された情報で表される変位量を読み出し(データリードと図示する)、移動量変数xに対して、読み出されたXp軸方向の変位量(つまり、Δx)を代入し、移動量変数yに対してYp軸方向の変位量(つまり、Δy)を代入する(ステップS51)。   Next, the image generation unit 304 moves the combining position where the pointer image is combined with the designated image F based on the displacement amount represented by the received information. Specifically, the image generation unit 304 reads the displacement amount represented by the received information (shown as data read), and reads the displacement amount in the Xp-axis direction with respect to the movement amount variable x ( That is, Δx) is substituted, and the displacement amount in the Yp-axis direction (that is, Δy) is substituted for the movement amount variable y (step S51).

その後、画像生成部304は、ポインタ画像の合成位置のXf座標を、変数lastXの値(つまり、前回の合成位置のXf座標値)から移動量変数xの値(つまり、ポインティングデバイス100のXp軸方向の変位量)を減算した値とし、かつYf座標を、変数lastYの値から移動量変数yの値を減算した値とする(ステップS52)。   Thereafter, the image generation unit 304 changes the Xf coordinate of the pointer image combining position from the value of the variable lastX (that is, the Xf coordinate value of the previous combining position) to the value of the movement variable x (that is, the Xp axis of the pointing device 100). (Direction displacement amount) is subtracted, and the Yf coordinate is a value obtained by subtracting the value of the movement amount variable y from the value of the variable lastY (step S52).

ステップS50において、情報受信部301が、受信された情報がストップ要求情報であると判別すると(ステップS50;Yes)、画像生成部304は、ポインタ画像を投影しないことを表す値(ポインタOFF)でポインタ変数の値を更新する(ステップS53)。   In step S50, when the information reception unit 301 determines that the received information is stop request information (step S50; Yes), the image generation unit 304 uses a value (pointer OFF) indicating that the pointer image is not projected. The value of the pointer variable is updated (step S53).

図8のステップS45、ステップS49、ステップS52、及びステップS53の後に、図10の画像生成部304は、変数lastXの値を、今回の合成位置のXf座標値(つまり、変数lastXの値から移動量変数xの値を減算した値)で更新し、変数lastYの値を、今回の合成位置のYf座標値で更新する(図9のステップS54)。   After step S45, step S49, step S52, and step S53 in FIG. 8, the image generation unit 304 in FIG. 10 moves the value of the variable lastX from the Xf coordinate value of the current synthesis position (that is, the value of the variable lastX). The value of the variable lastY is updated with the Yf coordinate value of the current composite position (step S54 in FIG. 9).

その後、画像生成部304は、ポインタ変数に格納された値がポインタ画像を投影することを表す値(ポインタON)であるか否かを判別する(ステップS55)。このとき、画像生成部304は、ポインタ変数に格納された値がポインタ画像を投影することを表す値(ポインタON)であると判別すると(ステップS55;Yes)、図8のステップS43で検索された情報で表される指定画像における、図8のステップS48及びステップS52で更新されたポインタ位置(つまり、合成位置)に、ステップS44で検索された情報で表されるポインタ画像を合成する(ステップS56)。その後、画像生成部304は、スクリーン500に投影される画像(以下、投影画像という)を、ステップS56で生成された合成画像とする。   Thereafter, the image generation unit 304 determines whether or not the value stored in the pointer variable is a value indicating that the pointer image is projected (pointer ON) (step S55). At this time, if the image generation unit 304 determines that the value stored in the pointer variable is a value indicating that the pointer image is projected (pointer ON) (step S55; Yes), the image generation unit 304 is searched in step S43 of FIG. The pointer image represented by the information retrieved in step S44 is synthesized with the pointer position updated in steps S48 and S52 of FIG. S56). Thereafter, the image generation unit 304 sets an image projected on the screen 500 (hereinafter referred to as a projection image) as the composite image generated in step S56.

ステップS55において、ポインタ変数に格納された値がポインタ画像を投影することを表す値(ポインタON)でないと判別された場合(ステップS55;No)、画像生成部304は、図8のステップS43で検索された情報で表される指定画像を投影画像とする。その後又はステップS56の後に、図10の情報出力部307は、投影画像を表す情報(以下、投影画像情報という)を、図1の画像投影装置400へ出力する(ステップS57)。尚、画像投影装置400は、出力された情報で表される投影画像を、図1のスクリーン500へ投影する。その後、ステップS41から上記処理が繰り返される。   If it is determined in step S55 that the value stored in the pointer variable is not a value indicating that the pointer image is projected (pointer ON) (step S55; No), the image generation unit 304 performs step S43 in FIG. A designated image represented by the retrieved information is set as a projection image. Thereafter or after step S56, the information output unit 307 in FIG. 10 outputs information representing the projection image (hereinafter referred to as projection image information) to the image projection apparatus 400 in FIG. 1 (step S57). The image projection apparatus 400 projects a projection image represented by the output information onto the screen 500 in FIG. Thereafter, the above process is repeated from step S41.

次に、図10の情報送信部308は、投影画像情報を、ポインティングデバイス100へ送信する(ステップS58)。尚、ポインティングデバイス100は、既に説明したように、送信された情報で表される投影画像を、図4の画像表示部105に表示する。   Next, the information transmission unit 308 in FIG. 10 transmits the projection image information to the pointing device 100 (step S58). Note that the pointing device 100 displays the projection image represented by the transmitted information on the image display unit 105 in FIG. 4 as described above.

尚、図1のポインティングデバイス100と、画像生成装置300とは、アクセスポイント200を介さずに情報を無線通信しても良い。また、画像生成装置300は、ポインティングデバイス100に搭載され、ポインティングデバイス100は、アクセスポイント200を介して、又は介さずに画像投影装置400と情報を無線通信しても良い。さらに、画像生成装置300は、画像投影装置400に搭載され、ポインティングデバイス100は、アクセスポイント200を介して、又は介さずに画像投影装置400と情報を無線通信しても良い。   Note that the pointing device 100 of FIG. 1 and the image generation apparatus 300 may wirelessly communicate information without using the access point 200. Further, the image generation apparatus 300 may be mounted on the pointing device 100, and the pointing device 100 may wirelessly communicate information with the image projection apparatus 400 via or without the access point 200. Furthermore, the image generation apparatus 300 may be mounted on the image projection apparatus 400, and the pointing device 100 may wirelessly communicate information with the image projection apparatus 400 via or without the access point 200.

また、図1のポインティングシステム1は、1台の画像投影装置400と、1枚のスクリーン500とで構成されるとして説明したが、これに限定される訳ではない。ポインティングシステム1は、複数台の画像投影装置と、複数台の画像投影装置によってそれぞれ画像が投影される複数枚のスクリーンとで構成され、複数台の画像投影装置のそれぞれは、画像生成装置300から出力された情報で表される合成画像を、それぞれのスクリーンに投影するとしても良い。ここで、レーザ光を用いてポイントするポインティングデバイスでは、1枚のスクリーンに表示された画像にポイントを表示することしかできない。しかしこの構成によれば、複数枚のスクリーンに表示された複数の画像に対して同時に複数のポインタを表示できる。   Further, the pointing system 1 of FIG. 1 has been described as being configured by one image projection device 400 and one screen 500, but is not limited thereto. The pointing system 1 includes a plurality of image projecting apparatuses and a plurality of screens onto which images are projected by the plurality of image projecting apparatuses. A composite image represented by the output information may be projected on each screen. Here, with a pointing device that points using laser light, it is only possible to display points on an image displayed on one screen. However, according to this configuration, a plurality of pointers can be displayed simultaneously on a plurality of images displayed on a plurality of screens.

(実施形態1の変形例)
本実施形態に係るポインティングシステム1は、図1に示すように、ポインティングデバイス100、アクセスポイント200、画像生成装置300、画像投影装置400、及びスクリーン500で構成されるとして説明した。しかし、これに限定される訳ではなく、図12に示すように、ポインティングシステム1は、画像投影装置400及びスクリーン500の代わりに、画像表示手段である画像表示装置600で構成されても良い。この画像表示装置600は、例えば、LCDディスプレイ、ELディスプレイ、又はPDPディスプレイで構成される。この構成において、画像表示装置600は、画像生成装置300から出力された情報で表される画像を表示し、ユーザは、ポインティングデバイス100を操作しながら画像表示装置600に表示された画像を指し示す構成を採用できる。
(Modification of Embodiment 1)
As shown in FIG. 1, the pointing system 1 according to the present embodiment has been described as including a pointing device 100, an access point 200, an image generation device 300, an image projection device 400, and a screen 500. However, the present invention is not limited to this, and as shown in FIG. 12, the pointing system 1 may be configured by an image display device 600 that is an image display unit instead of the image projection device 400 and the screen 500. The image display device 600 is configured by, for example, an LCD display, an EL display, or a PDP display. In this configuration, the image display device 600 displays an image represented by the information output from the image generation device 300, and the user points to the image displayed on the image display device 600 while operating the pointing device 100. Can be adopted.

さらにこれらの構成において、図12の画像生成装置300は、画像表示装置600に搭載され、ポインティングデバイス100は、アクセスポイント200を介して、又は介さずに画像表示装置600と情報を無線通信しても良い。   Further, in these configurations, the image generation apparatus 300 of FIG. 12 is mounted on the image display apparatus 600, and the pointing device 100 wirelessly communicates information with the image display apparatus 600 via or without the access point 200. Also good.

これらの構成によれば、所定の操作である第1の操作が検出されると、ポインタ画像を所定の画像の初期位置に合成するため、初期位置にポインタ画像が合成された合成画像が表示される。その後、第1の操作が検出された位置からポインティングデバイス100が変位すると、検出された当該位置からの変位量(つまり、相対的な移動量)に応じて、ポインタ画像の合成位置が初期位置から移動させられる。このため、予めポインティングデバイス100に対してキャリブレーション操作が行われなくとも、ポインタ画像が表示される位置をポインティングデバイス100で容易に指し示すことができるのでポインティングデバイス100の利便性が従来よりも向上するだけでなく、ポインティングデバイス100が指し示す位置と、ポインタの表示される位置との差異も従来より容易に縮小できる。   According to these configurations, when the first operation, which is a predetermined operation, is detected, the composite image obtained by combining the pointer image is displayed at the initial position in order to combine the pointer image with the initial position of the predetermined image. The After that, when the pointing device 100 is displaced from the position where the first operation is detected, the composite position of the pointer image is changed from the initial position according to the detected displacement amount (that is, relative movement amount). Moved. For this reason, even if the calibration operation is not performed on the pointing device 100 in advance, the position where the pointer image is displayed can be easily pointed by the pointing device 100, so that the convenience of the pointing device 100 is improved compared to the conventional case. In addition, the difference between the position indicated by the pointing device 100 and the position where the pointer is displayed can be reduced more easily than in the past.

またこれらの構成によれば、第2の操作がなされてから第1の操作がなされるまでの間は、ポインタ画像が合成されていない所定の画像が表示される。このため、ポインタ画像により所定の画像の表示が妨げられることを防止できる。これに対して、第1の操作がなされてから第2の操作がなされるまでは、初期位置にポインタ画像が合成された合成画像が表示された後に、ポインティングデバイス100の変位量に応じた量だけ初期位置から移動した位置にポインタ画像が合成された合成画像が表示される。このため、ポインタ画像の表示を再開すると、表示された合成画像の初期位置にポインタ画像が表示されるので、ポインティングデバイスが指し示す位置と、ポインタの表示される位置との差異を従来よりも容易に縮小できる。   In addition, according to these configurations, a predetermined image in which the pointer image is not combined is displayed after the second operation is performed until the first operation is performed. For this reason, it is possible to prevent the display of the predetermined image from being hindered by the pointer image. On the other hand, after the first operation is performed until the second operation is performed, after the composite image in which the pointer image is combined is displayed at the initial position, the amount corresponding to the displacement amount of the pointing device 100 is displayed. Thus, a combined image in which the pointer image is combined is displayed at the position moved from the initial position. For this reason, when the display of the pointer image is resumed, the pointer image is displayed at the initial position of the displayed composite image, so the difference between the position indicated by the pointing device and the position where the pointer is displayed can be made easier than before. Can be reduced.

さらにこれらの構成によれば、ポインティングデバイス100は、画像が指定されると、指定された画像を図4の画像表示部105に表示し、画像表示手段である図1の画像投影装置400及び図12の画像表示装置600は、指定された画像又は当該画像とポインタ画像とを合成した合成画像を表示する。このため、ユーザは、画像投影装置400又は画像表示装置600によって表示される画像を、ポインティングデバイス100を用いて確認できるので利便性が従来よりも向上する。   Further, according to these configurations, when the image is designated, the pointing device 100 displays the designated image on the image display unit 105 in FIG. 4, and the image projection apparatus 400 in FIG. The twelve image display devices 600 display a designated image or a synthesized image obtained by synthesizing the image and the pointer image. For this reason, since the user can confirm the image displayed by the image projection apparatus 400 or the image display apparatus 600 using the pointing device 100, the convenience improves compared with the past.

またさらにこれらの構成によれば、ポインティングデバイス100は、図1の画像投影装置400及び図12の画像表示装置600によって表示された画像と同一の画像を表示する。このため、ユーザは、画像投影装置400及び図12の画像表示装置600によって表示された画像を黙視できない場合であっても、ポインティングデバイス100に表示された画像を目視することで、画像投影装置400又は画像表示装置600によって表示される画像を指し示すポインタの表示位置を移動させることができるので利便性が従来よりも向上する。   Furthermore, according to these configurations, the pointing device 100 displays the same image as that displayed by the image projection device 400 of FIG. 1 and the image display device 600 of FIG. For this reason, even when the user cannot stare at the images displayed by the image projection apparatus 400 and the image display apparatus 600 of FIG. 12, the image projection apparatus 400 can be viewed by visually observing the image displayed on the pointing device 100. Alternatively, since the display position of the pointer pointing to the image displayed by the image display device 600 can be moved, the convenience is improved as compared with the conventional case.

(実施形態2)
次に、実施形態2について説明を行う。尚、実施形態2に係るポインティングシステムの構成の内で、実施形態1と共通する構成については説明を省略する。
(Embodiment 2)
Next, Embodiment 2 will be described. Note that, in the configuration of the pointing system according to the second embodiment, the description of the configuration common to the first embodiment is omitted.

実施形態2のポインティングシステムは、実施形態1のポインティングシステム1と同様に、ポインティングデバイス100、アクセスポイント200、画像生成装置300、画像投影装置400、及びスクリーン500で構成される。   Similar to the pointing system 1 of the first embodiment, the pointing system of the second embodiment includes a pointing device 100, an access point 200, an image generation device 300, an image projection device 400, and a screen 500.

ユーザは、図13に示すようなスクリーン500に表示された画像の最も左上の点P1をポインティングデバイス100で指し示した後に、第3の操作をポインティングデバイス100に行いながら、残りの四隅の点P2からP4までを順に指し示す。本実施形態では、第3の操作は、図3のキーボード100jの「9」キーを押し下げる操作であり、第4の操作は、「9」キーを押し上げる操作であるとして説明するが、これに限定される訳ではない。   After the user points the upper left point P1 of the image displayed on the screen 500 as shown in FIG. 13 with the pointing device 100, the user performs the third operation on the pointing device 100 and starts from the remaining four corner points P2. Point to P4 in order. In the present embodiment, the third operation is an operation of depressing the “9” key of the keyboard 100j in FIG. 3, and the fourth operation is an operation of depressing the “9” key. However, the present invention is not limited to this. It is not done.

ポインティングデバイス100のCPU100aは、図3のキーボード100jの「9」キーに対して第3の操作が行われると、CPU100aは、図5の第1の操作時処理と同様の処理を実行する。その後、CPU100aは、図3のキーボード100jの「9」キーに対して第4の操作が行われるまで(つまり、押上操作が行われるまで)、図3のタイマ100mが割込信号を入力する度に、不図示の移動範囲特定処理を実行する。移動範囲特定処理とは、図13の画像が表示された表示領域RSをユーザが所定の位置から指し示すためにポインティングデバイス100を移動させる移動範囲RMを特定する処理である。この処理の実行により、CPU100aは、図14に示すような範囲特定部106としてさらに機能する。   When the third operation is performed on the “9” key of the keyboard 100 j in FIG. 3, the CPU 100 a of the pointing device 100 executes the same process as the first operation time process in FIG. 5. Thereafter, the CPU 100a receives the interrupt signal from the timer 100m in FIG. 3 until the fourth operation is performed on the “9” key of the keyboard 100j in FIG. 3 (that is, until the push-up operation is performed). In addition, a movement range specifying process (not shown) is executed. The movement range specifying process is a process of specifying a movement range RM in which the pointing device 100 is moved so that the user points from the predetermined position to the display area RS on which the image of FIG. 13 is displayed. By executing this process, the CPU 100a further functions as a range specifying unit 106 as shown in FIG.

不図示の移動範囲特定処理の実行が開始されると、範囲特定部106は、変位量検出部103が検出した変位量に基づいてXwYwZw座標系におけるポインティングデバイス100のXw座標値及びYw座標値を算出する。次に、範囲特定部106は、算出したポインティングデバイス100のXw座標値及びYw座標値に基づいて、ポインティングデバイス100のXwYw平面上の移動範囲RMを特定する。   When execution of a movement range specifying process (not shown) is started, the range specifying unit 106 calculates the Xw coordinate value and the Yw coordinate value of the pointing device 100 in the XwYwZw coordinate system based on the displacement amount detected by the displacement amount detection unit 103. calculate. Next, the range specifying unit 106 specifies the movement range RM of the pointing device 100 on the XwYw plane based on the calculated Xw coordinate value and Yw coordinate value of the pointing device 100.

その後、範囲特定部106は、特定された移動範囲RMのXw方向の中心からXw方向における移動範囲RMの一端までの距離を算出し、算出された値を変数xlenに格納する。同様に、範囲特定部106は、特定された移動範囲RMのYw方向の中心からYw方向における移動範囲RMの一端までの距離を算出し、算出された値を変数ylenに格納する。その後、範囲特定部106は、移動範囲特定処理の実行を終了する。   Thereafter, the range specifying unit 106 calculates the distance from the center of the specified moving range RM in the Xw direction to one end of the moving range RM in the Xw direction, and stores the calculated value in the variable xlen. Similarly, the range specifying unit 106 calculates the distance from the center in the Yw direction of the specified moving range RM to one end of the moving range RM in the Yw direction, and stores the calculated value in the variable ylen. Thereafter, the range specifying unit 106 ends the execution of the movement range specifying process.

実施形態2のポインティングデバイス100は、実施形態1と同様に、第1の操作を検出してから第2の操作を検出するまでの間において、図6のタイマ割込処理に相当する処理を実行する。この処理は、図15に示すようなタイマ割込処理であり、ステップS68の処理が、ポインティングデバイス100のXw方向の変位量及びYw方向の変位量を、移動範囲RMのXw方向の長さ及びYw方向の長さを用いてそれぞれ正規化された値とする処理である点で、実施形態1で実行される図6のステップS28と相違している。   As in the first embodiment, the pointing device 100 according to the second embodiment executes a process corresponding to the timer interrupt process in FIG. 6 from the time when the first operation is detected until the second operation is detected. To do. This process is a timer interruption process as shown in FIG. 15, and the process of step S68 determines the displacement amount of the pointing device 100 in the Xw direction and the displacement amount in the Yw direction, the length of the movement range RM in the Xw direction, and This is different from step S28 of FIG. 6 executed in the first embodiment in that it is a process of obtaining normalized values using lengths in the Yw direction.

具体的には、ステップS68の処理は、今回のポインティングデバイス100のXw座標値から前回のXw座標値を減算した値を100倍した後に、100倍された値を変数xlenに格納された移動範囲RMのXw方向の長さで除算することで算出された値(つまり、xlenに対するXw座標値の変化量の百分率)を、正規化されたXw方向の変位量とする処理である。尚、今回のXw座標値から前回のXw座標値を減算した値を100倍するのは、桁落ちによる誤差の発生を防止するためでもある。   Specifically, the process of step S68 is performed by multiplying the value obtained by subtracting the previous Xw coordinate value from the Xw coordinate value of the current pointing device 100 by 100, and then moving the value multiplied by 100 to the variable xlen. In this process, the value calculated by dividing the RM by the length in the Xw direction (that is, the percentage of the change amount of the Xw coordinate value with respect to xlen) is used as the normalized displacement amount in the Xw direction. The reason why the value obtained by subtracting the previous Xw coordinate value from the current Xw coordinate value is multiplied by 100 is also to prevent the occurrence of an error due to a digit loss.

同様に、ステップS68の処理は、今回のポインティングデバイス100のYw座標値から前回のYw座標値を減算した値を「100」倍した後に、「100」倍された値を変数ylenに格納された値で除算することで算出された百分率を、正規化されたYw方向の変位量とする処理でもある。   Similarly, in step S68, the value obtained by subtracting the previous Yw coordinate value from the Yw coordinate value of the current pointing device 100 is multiplied by “100”, and then the value multiplied by “100” is stored in the variable ylen. This is also a process of setting the percentage calculated by dividing by the value to the normalized displacement amount in the Yw direction.

ここで、図16(a)及び図16(b)に示すように、スクリーン500に表示された画像を、ポインティングデバイス100を用いて指し示すために、ユーザがポインティングデバイス100を移動させる移動範囲RMは、スクリーン500に対してユーザが近づく程広くなる。また、スクリーン500とユーザとのの距離が同じであっても、ポインティングデバイス100を移動させる移動範囲RMは、ユーザ毎に異なる。   Here, as shown in FIG. 16A and FIG. 16B, in order to point the image displayed on the screen 500 using the pointing device 100, a moving range RM in which the user moves the pointing device 100 is It becomes wider as the user approaches the screen 500. Further, even if the distance between the screen 500 and the user is the same, the moving range RM for moving the pointing device 100 is different for each user.

このため、これらの構成によれば、特定されたポインティングデバイス100の移動範囲RMに基づいて正規化されたポインティングデバイス100の変位量を表す情報が送信されるので、スクリーン500に表示された画像とポインティングデバイス100との距離やポインティングデバイス100を使用するユーザが変化したとしても、ポインティングデバイス100が指し示す位置の変位量が同じであれば、送信される変動量情報を略同一とすることができる。   Therefore, according to these configurations, information indicating the displacement amount of the pointing device 100 normalized based on the specified movement range RM of the pointing device 100 is transmitted, and thus the image displayed on the screen 500 and Even if the distance to the pointing device 100 or the user using the pointing device 100 changes, if the displacement amount of the position indicated by the pointing device 100 is the same, the transmitted variation amount information can be made substantially the same.

実施形態2における画像生成装置300は、実施形態1で実行される画像生成処理と同様の処理を実行する。この処理は、図17に示すような画像生成処理であり、ステップS91の処理が、ポインティングデバイス100の正規化されたXw方向の変位量Δxに対して、図11に示した指定画像Fの中心からXf方向の一端までの長さXLENを乗算した値を、図15のステップS68で桁落ち防止のために用いた数「100」で除算する処理である点、及び正規化された変位量Δyに対して指定画像Fの中心からYf方向の一端までの長さYLENを乗算した値を数「100」で除算する処理である点で、実施形態1で実行される図8のステップS51と相違している。尚、XLENを表す情報及びYLENを表す情報は、それぞれ図10の情報記憶部303に記憶されている。   The image generation apparatus 300 according to the second embodiment executes processing similar to the image generation processing executed in the first embodiment. This process is an image generation process as shown in FIG. 17, and the process of step S91 is the center of the designated image F shown in FIG. 11 with respect to the normalized displacement amount Δx in the Xw direction of the pointing device 100. And the value obtained by multiplying the length XLEN from one end in the Xf direction by the number “100” used for preventing digit loss in step S68 of FIG. 15, and the normalized displacement Δy Is different from step S51 in FIG. 8 executed in the first embodiment in that the value obtained by multiplying the length YLEN from the center of the designated image F to one end in the Yf direction by the number “100” is divided. is doing. Note that information representing XLEN and information representing YLEN are stored in the information storage unit 303 in FIG.

これらの構成によれば、ポインティングデバイス100を移動させる移動範囲RMを特定し、特定された移動範囲RMに基づいてポインタ画像の合成位置の移動量を変更するため、表示された画像とポインティングデバイス100との距離が変化したり、ポインティングデバイス100を使用するユーザが変化したり、表示される画像の大きさが変化したりしても、ポインティングデバイスが指し示す位置と、ポインタの表示される位置との差異を従来よりも縮小できる。特に、これらの構成によれば、ユーザは、第3の操作を行ってから第4の操作を行うまでに、スクリーン500に表示された画像を指し示しながらポインティングデバイス100の位置を移動範囲RMにおいて移動させるだけで、ポインティングデバイス100に対してキャリブレーションを行う(つまり、ポインティングデバイスが指し示す位置と、ポインタの表示される位置との差異を縮小させる)ことができるので従来よりも利便性が向上する。   According to these configurations, since the movement range RM for moving the pointing device 100 is specified and the movement amount of the composite position of the pointer image is changed based on the specified movement range RM, the displayed image and the pointing device 100 are changed. The position indicated by the pointing device and the position where the pointer is displayed are changed even if the distance to the user changes, the user who uses the pointing device 100 changes, or the size of the displayed image changes. The difference can be reduced more than before. In particular, according to these configurations, the user moves the position of the pointing device 100 in the movement range RM while pointing the image displayed on the screen 500 from the third operation to the fourth operation. Therefore, the pointing device 100 can be calibrated (that is, the difference between the position pointed to by the pointing device and the position where the pointer is displayed) can be reduced.

(実施形態2の変形例)
次に、実施形態2の変形例について説明する。実施形態2の変形例においては、図18に示すように、スクリーン500の右斜め前方の位置から、スクリーン500に表示された画像をユーザがポインティングデバイス100を用いて指し示す例について説明する。
(Modification of Embodiment 2)
Next, a modification of the second embodiment will be described. In the modification of the second embodiment, as shown in FIG. 18, an example will be described in which the user points an image displayed on the screen 500 using the pointing device 100 from a position diagonally forward to the right of the screen 500.

図18に示したスクリーン500に画像が表示された範囲RSの形状は長方形である。また、当該画像をスクリーン500に投影した画像投影装置400に対して出力された情報で表される投影画像の形状も、図11に示すような長方形である。しかし、図18の位置からユーザがスクリーン500に表示された画像を指し示すために、ポインティングデバイス100を移動させる移動範囲RMの形状は台形である。これは、スクリーン500に表示された長方形の画像を、スクリーン500の右斜め前方の位置からユーザが視認したからである。   The shape of the range RS where the image is displayed on the screen 500 shown in FIG. 18 is a rectangle. Further, the shape of the projected image represented by the information output to the image projection apparatus 400 that projects the image onto the screen 500 is also a rectangle as shown in FIG. However, since the user points to the image displayed on the screen 500 from the position of FIG. 18, the shape of the moving range RM for moving the pointing device 100 is a trapezoid. This is because the user visually recognizes the rectangular image displayed on the screen 500 from a position diagonally forward to the right of the screen 500.

本実施形態の変形例において、ポインティングデバイス100は、図14の範囲特定部106でポインティングデバイス100の移動範囲RMを特定すると、情報送信部102で移動範囲RMを表す移動範囲情報を画像生成装置300へ電波送信する。   In the modification of the present embodiment, when the pointing device 100 specifies the moving range RM of the pointing device 100 with the range specifying unit 106 in FIG. 14, the information transmitting unit 102 displays the moving range information representing the moving range RM with the image generating apparatus 300. Send radio waves to

画像生成装置300が、図10の情報受信部301で移動範囲情報を受信すると、情報検索部302は、情報記憶部303に記憶された指定画像を表す画像情報を検索する。次に、画像生成部304は、受信された移動範囲情報で表される移動範囲RMの形状(つまり、台形)を、検索された画像情報で表される指定画像の形状(つまり、長方形)に変換する変換行列を算出する。   When the image generation apparatus 300 receives the movement range information by the information reception unit 301 in FIG. 10, the information search unit 302 searches for image information representing the designated image stored in the information storage unit 303. Next, the image generation unit 304 changes the shape of the movement range RM represented by the received movement range information (that is, a trapezoid) to the shape of the designated image represented by the searched image information (that is, a rectangle). A conversion matrix to be converted is calculated.

図17の画像生成処理が実行されると、画像生成部304は、ステップS91において、ポインティングデバイス100から受信した情報で表される変化量Δx及びΔyを、上記変換行列で変換することで補正した後に、補正された変化量Δx及びΔyを用いてポインタ画像の合成位置の移動量x及びyを算出する。尚、画像生成部304は、変化量Δx及びΔyを用いて合成位置の移動量x及びyを算出した後に、算出された移動量x及びyを、上記変換行列を用いて補正しても良い。その後、画像生成部304は、ステップS92から画像生成処理の実行を継続する。   When the image generation processing of FIG. 17 is executed, the image generation unit 304 corrects the change amounts Δx and Δy represented by the information received from the pointing device 100 by converting them using the conversion matrix in step S91. Later, the movement amounts x and y of the composite position of the pointer image are calculated using the corrected changes Δx and Δy. Note that the image generation unit 304 may correct the calculated movement amounts x and y using the conversion matrix after calculating the movement amounts x and y of the combined position using the change amounts Δx and Δy. . Thereafter, the image generation unit 304 continues to execute the image generation process from step S92.

これらの構成によれば、ポインティングデバイス100の移動範囲RMを、スクリーン500に画像が表示された表示範囲RSに変換する変換行列に基づいてポインタ画像の合成位置の移動量x及びyを補正する。このため、例えば、ユーザがスクリーン500に対して正対していない場合であっても、ポインティングデバイスが指し示す位置と、ポインタの表示される位置との差異を従来よりも縮小できる。   According to these configurations, the movement amounts x and y of the composite position of the pointer image are corrected based on the conversion matrix for converting the movement range RM of the pointing device 100 into the display range RS where the image is displayed on the screen 500. For this reason, for example, even when the user is not facing the screen 500, the difference between the position indicated by the pointing device and the position where the pointer is displayed can be reduced as compared with the conventional case.

本発明の実施形態1、実施形態1の変形例、実施形態2、及び実施形態2の変形例とは、それぞれ互いに組み合わせることができる。   Embodiment 1, Embodiment 1 of the present invention, Embodiment 2 and Embodiment 2 can be combined with each other.

なお、実施形態1、実施形態1の変形例、実施形態2、又は実施形態2の変形例に係る機能を実現するための構成を予め備えたポインティングデバイス100として提供できることはもとより、プログラムの適用により、既存のポインティングデバイスを実施形態1、実施形態1の変形例、実施形態2、又は実施形態2の変形例に係るポインティングデバイス100として機能させることもできる。すなわち、実施形態1、実施形態1の変形例、実施形態2、又は実施形態2の変形例で例示したポインティングデバイス100による各機能構成を実現させるためのプログラムを、既存のポインティングデバイスを制御するコンピュータ(CPUなど)が実行できるように適用することで、実施形態1、実施形態1の変形例、実施形態2、又は実施形態2の変形例に係るポインティングデバイス100として機能させることができる。   It should be noted that the present invention can be provided as a pointing device 100 that has a configuration for realizing the functions according to the first embodiment, the first modification, the second embodiment, or the second embodiment, as well as the application of the program. The existing pointing device can also function as the pointing device 100 according to the first embodiment, the modified example of the first embodiment, the second embodiment, or the modified example of the second embodiment. That is, a computer for controlling an existing pointing device with a program for realizing each functional configuration by the pointing device 100 exemplified in the first embodiment, the modification of the first embodiment, the second embodiment, or the modification of the second embodiment. By being applied so that it can be executed (such as a CPU), it can function as the pointing device 100 according to the first embodiment, the modification example of the first embodiment, the second embodiment, or the modification example of the second embodiment.

同様に、実施形態1、実施形態1の変形例、実施形態2、又は実施形態2の変形例に係る機能を実現するための構成を予め備えた画像生成装置300として提供できることはもとより、プログラムの適用により、既存の画像生成装置を実施形態1、実施形態1の変形例、実施形態2、又は実施形態2の変形例に係る画像生成装置300として機能させることもできる。すなわち、実施形態1、実施形態1の変形例、実施形態2、又は実施形態2の変形例で例示した画像生成装置300による各機能構成を実現させるためのプログラムを、既存の画像生成装置を制御するコンピュータ(CPUなど)が実行できるように適用することで、実施形態1、実施形態1の変形例、実施形態2、又は実施形態2の変形例に係る画像生成装置300として機能させることができる。   Similarly, the program can be provided as an image generation apparatus 300 having a configuration for realizing the functions according to the first embodiment, the first modification, the second embodiment, or the second modification. By application, the existing image generation apparatus can be caused to function as the image generation apparatus 300 according to the first embodiment, the modification example of the first embodiment, the second embodiment, or the modification example of the second embodiment. That is, a program for realizing each functional configuration by the image generation apparatus 300 exemplified in the first embodiment, the modification example of the first embodiment, the second embodiment, or the modification example of the second embodiment is controlled by the existing image generation apparatus. By being applied so that it can be executed by a computer (such as a CPU), it can function as the image generation apparatus 300 according to the first embodiment, the first variation, the second embodiment, or the second variation. .

このようなプログラムの配布方法は任意であり、例えば、メモリカード、CD−ROM、又はDVD−ROMなどの記録媒体に格納して配布できる他、インタネットなどの通信媒体を介して配布することもできる。   Such a program distribution method is arbitrary. For example, the program can be distributed by being stored in a recording medium such as a memory card, a CD-ROM, or a DVD-ROM, or via a communication medium such as the Internet. .

また、本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。つまり、本発明のいくつかの実施形態を説明したが、上述した実施形態は本発明を説明するためのものであり、本発明の範囲を限定するものではない。本発明の範囲は、実施形態ではなく、特許請求の範囲に記載された発明とその均等の範囲を含む。
以下に本願出願の当初の特許請求の範囲に記載された発明を付記する。
Various embodiments and modifications of the present invention are possible without departing from the broad spirit and scope of the present invention. That is, although several embodiments of the present invention have been described, the above-described embodiments are for explaining the present invention and do not limit the scope of the present invention. The scope of the present invention includes the invention described in the scope of claims and its equivalents, not the embodiments.
The invention described in the scope of claims of the present application is appended below.

(付記1)
ポインタを表すポインタ画像と、所定の画像とを合成することで合成画像を生成する画像生成手段と、
前記生成された合成画像を表示する画像表示手段と、
前記表示された合成画像を指し示すポインティングデバイスの位置の変位量を検出する変位量検出手段と、
前記ポインティングデバイスに対して行われる操作を検出する操作検出手段と、を備え、
前記画像生成手段は、所定の操作が検出されると、前記所定の画像に対して前記ポインタ画像を合成する合成位置を予め定められた初期位置とした後に、前記検出された変位量に応じた移動量だけ前記ポインタ画像の合成位置を移動させる、
ことを特徴とするポインティングシステム。
(Appendix 1)
Image generating means for generating a composite image by combining a pointer image representing a pointer and a predetermined image;
Image display means for displaying the generated composite image;
A displacement amount detecting means for detecting a displacement amount of the position of the pointing device indicating the displayed composite image;
An operation detection means for detecting an operation performed on the pointing device,
When a predetermined operation is detected, the image generation unit sets a combination position for combining the pointer image with the predetermined image as a predetermined initial position, and then according to the detected displacement amount. Move the composite position of the pointer image by the amount of movement;
A pointing system characterized by that.

(付記2)
前記操作検出手段は、前記所定の操作である第1の操作の他に、前記ポインティングデバイスに対して行われる第2の操作をさらに検出し、
前記画像生成手段は、
前記第1の操作が検出されると、前記ポインタ画像の合成位置を前記初期位置とし、
前記第1の操作が検出されてから前記第2の操作が検出されるまで、前記ポインタ画像の合成位置を前記検出された変位量に応じて移動させ、
前記第2の操作が検出されてから前記第1の操作が再度検出されるまで、前記所定の画像に対する前記ポインタ画像の合成を中止し、
前記画像表示手段は、前記第1の操作が検出されてから前記第2の操作が検出されるまで前記合成画像を表示し、前記第2の操作が行われてから前記第1の操作が再度行われるまで前記所定の画像を表示する、
ことを特徴とする付記1に記載のポインティングシステム。
(Appendix 2)
The operation detecting means further detects a second operation performed on the pointing device in addition to the first operation which is the predetermined operation,
The image generating means includes
When the first operation is detected, the composite position of the pointer image is set as the initial position,
Until the second operation is detected after the first operation is detected, the composite position of the pointer image is moved according to the detected displacement amount,
Until the first operation is detected again after the second operation is detected, the synthesis of the pointer image with respect to the predetermined image is stopped,
The image display means displays the composite image from when the first operation is detected until the second operation is detected, and after the second operation is performed, the first operation is performed again. Display the predetermined image until done
The pointing system according to appendix 1, wherein

(付記3)
前記操作検出手段は、前記ポインティングデバイスに対して行われる第3の操作と第4の操作とをさらに検出し、
前記第3の操作が検出されてから前記第4の操作が検出されるまでに検出された前記ポインティングデバイスの変位量に基づいて、前記表示された合成画像を所定の位置から指し示すために前記ポインティングデバイスが移動させられる移動範囲を特定する移動範囲特定手段、をさらに備え、
前記画像生成手段は、前記特定された移動範囲に基づいて前記ポインタ画像の合成位置の移動量を変更する、
ことを特徴とする付記2に記載のポインティングシステム。
(Appendix 3)
The operation detection means further detects a third operation and a fourth operation performed on the pointing device,
In order to point the displayed composite image from a predetermined position on the basis of a displacement amount of the pointing device detected from when the third operation is detected until the fourth operation is detected, the pointing A moving range specifying means for specifying a moving range in which the device is moved;
The image generation means changes a moving amount of the composite position of the pointer image based on the specified moving range.
The pointing system as set forth in Appendix 2, wherein

(付記4)
前記所定の画像を表す情報を記憶する情報記憶手段、をさらに備え、
前記画像生成手段は、前記検出された移動範囲の形状を、前記記憶された情報で表される前記所定の画像の形状に変換する変換行列を用いて、前記ポインタ画像の合成位置の移動量を補正する、
ことを特徴とする付記3に記載のポインティングシステム。
(Appendix 4)
Information storage means for storing information representing the predetermined image;
The image generation means uses the conversion matrix for converting the shape of the detected movement range into the shape of the predetermined image represented by the stored information, and calculates the movement amount of the composite position of the pointer image. to correct,
The pointing system according to Supplementary Note 3, wherein

(付記5)
前記操作検出手段は、前記所定の画像を指定する指定操作をさらに検出し、
前記ポインティングデバイスは、前記操作検出手段と、前記操作検出手段で検出された指定操作を表す操作情報を送信する情報送信手段と、当該指定操作によって指定された画像を表示する手段と、を有する携帯端末であり、
前記画像表示手段は、前記送信された操作情報が表す指定操作で指定された所定の画像又は前記指定された所定の画像と前記ポインタ画像とを合成した合成画像を表示する、
ことを特徴とする付記1から4のいずれか一つに記載のポインティングシステム。
(Appendix 5)
The operation detection means further detects a designation operation for designating the predetermined image,
The pointing device includes a portable terminal having the operation detection unit, an information transmission unit that transmits operation information representing a designated operation detected by the operation detection unit, and a unit that displays an image designated by the designation operation. Terminal,
The image display means displays a predetermined image designated by a designation operation represented by the transmitted operation information or a synthesized image obtained by synthesizing the designated predetermined image and the pointer image;
The pointing system according to any one of appendices 1 to 4, characterized in that:

(付記6)
前記画像表示手段は、前記画像生成手段で生成された合成画像を対象物に投影することで、前記対象物に合成画像を表示する、
ことを特徴とする付記1から5のいずれか一つに記載のポインティングシステム。
(Appendix 6)
The image display means displays the composite image on the object by projecting the composite image generated by the image generation means onto the object.
The pointing system according to any one of appendices 1 to 5, characterized in that:

(付記7)
ポインタを表すポインタ画像と、文書を表す文書画像とを合成することで合成画像を生成する画像生成手段と、
表示された前記合成画像を指し示すポインティングデバイスに対して行われた操作を表す情報と、前記ポインティングデバイスの変位量を表す情報とを受信する情報受信手段と、を備え、
前記画像生成手段は、前記受信された情報で表される操作が所定の操作である場合に、前記文書画像に対して前記ポインタ画像を合成する合成位置を所定の初期位置とした後に、前記検出された変位量に応じた移動量だけ前記ポインタ画像の合成位置を移動させる、
ことを特徴とする画像生成装置。
(Appendix 7)
Image generating means for generating a composite image by combining a pointer image representing a pointer and a document image representing a document;
Information receiving means for receiving information representing an operation performed on the pointing device pointing to the displayed composite image, and information representing a displacement amount of the pointing device;
When the operation represented by the received information is a predetermined operation, the image generation means sets the combination position for combining the pointer image to the document image as a predetermined initial position, and then performs the detection. Moving the composite position of the pointer image by a movement amount corresponding to the displacement amount made,
An image generation apparatus characterized by that.

(付記8)
コンピュータを、
ポインタを表すポインタ画像と、文書を表す文書画像とを合成することで合成画像を生成する画像生成手段、
表示された前記合成画像を指し示すポインティングデバイスに対して行われた操作を表す情報と、前記ポインティングデバイスの変位量を表す情報とを受信する情報受信手段、として機能させ、
前記画像生成手段は、前記受信された情報で表される操作が所定の操作である場合に、前記文書画像に対して前記ポインタ画像を合成する合成位置を所定の初期位置とした後に、前記検出された変位量に応じた移動量だけ前記ポインタ画像の合成位置を移動させる、
ことを特徴とする画像生成プログラム。
(Appendix 8)
Computer
Image generating means for generating a composite image by combining a pointer image representing a pointer and a document image representing a document;
Functioning as information receiving means for receiving information representing an operation performed on the pointing device pointing to the displayed composite image and information representing a displacement amount of the pointing device;
When the operation represented by the received information is a predetermined operation, the image generation means sets the combination position for combining the pointer image to the document image as a predetermined initial position, and then performs the detection. Moving the composite position of the pointer image by a movement amount corresponding to the displacement amount made,
An image generation program characterized by that.

1・・・ポインティングシステム、100・・・ポインティングデバイス、100a・・・CPU、100b・・・ROM、100c・・・RAM、100d・・・ハードディスク、100e・・・メディアコントローラ、100f・・・無線LANカード、100h・・・ビデオカード、100i・・・LCD、100j・・・キーボード、100k・・・スピーカ、100l・・・加速度センサ、100m・・・タイマ、101・・・操作検出部、102・・・情報送信部、103・・・変位量検出部、104・・・情報受信部、105・・・画像表示部、106・・・範囲特定部、200・・・アクセスポイント、300・・・画像生成装置、300a・・・CPU、300b・・・ROM、300c・・・RAM、300d・・・ハードディスク、300e・・・メディアコントローラ、300f・・・無線LANカード、300g・・・有線LANカード、300h・・・ビデオカード、300i・・・LCD、300j・・・キーボード、300k・・・スピーカ、301・・・情報受信部、302・・・情報検索部、303・・・情報記憶部、304・・・画像生成部、307・・・情報出力部、308・・・情報送信部、400・・・画像投影装置、500・・・スクリーン、600・・・画像表示装置 DESCRIPTION OF SYMBOLS 1 ... Pointing system, 100 ... Pointing device, 100a ... CPU, 100b ... ROM, 100c ... RAM, 100d ... Hard disk, 100e ... Media controller, 100f ... Wireless LAN card, 100h, video card, 100i, LCD, 100j, keyboard, 100k, speaker, 100l, acceleration sensor, 100m, timer, 101, operation detection unit, 102 ...... Information transmission unit 103 ... Displacement amount detection unit 104 ... Information reception unit 105 ... Image display unit 106 ... Range specifying unit 200 ... Access point 300 ... Image generating device, 300a ... CPU, 300b ... ROM, 300c ... RAM, 300d ... C Disk, 300e ... media controller, 300f ... wireless LAN card, 300g ... wired LAN card, 300h ... video card, 300i ... LCD, 300j ... keyboard, 300k ... speaker , 301... Information reception unit, 302... Information search unit, 303... Information storage unit, 304... Image generation unit, 307. ... Image projection device, 500 ... Screen, 600 ... Image display device

Claims (8)

ポインタを表すポインタ画像と、所定の画像とを合成することで合成画像を生成する画像生成手段と、
前記生成された合成画像を表示する画像表示手段と、
前記表示された合成画像を指し示すポインティングデバイスの位置の変位量を検出する変位量検出手段と、
前記ポインティングデバイスに対して行われる操作を検出する操作検出手段と、を備え、
前記画像生成手段は、所定の操作が検出されると、前記所定の画像に対して前記ポインタ画像を合成する合成位置を予め定められた初期位置とした後に、前記検出された変位量に応じた移動量だけ前記ポインタ画像の合成位置を移動させる、
ことを特徴とするポインティングシステム。
Image generating means for generating a composite image by combining a pointer image representing a pointer and a predetermined image;
Image display means for displaying the generated composite image;
A displacement amount detecting means for detecting a displacement amount of the position of the pointing device indicating the displayed composite image;
An operation detection means for detecting an operation performed on the pointing device,
When a predetermined operation is detected, the image generation unit sets a combination position for combining the pointer image with the predetermined image as a predetermined initial position, and then according to the detected displacement amount. Move the composite position of the pointer image by the amount of movement;
A pointing system characterized by that.
前記操作検出手段は、前記所定の操作である第1の操作の他に、前記ポインティングデバイスに対して行われる第2の操作をさらに検出し、
前記画像生成手段は、
前記第1の操作が検出されると、前記ポインタ画像の合成位置を前記初期位置とし、
前記第1の操作が検出されてから前記第2の操作が検出されるまで、前記ポインタ画像の合成位置を前記検出された変位量に応じて移動させ、
前記第2の操作が検出されてから前記第1の操作が再度検出されるまで、前記所定の画像に対する前記ポインタ画像の合成を中止し、
前記画像表示手段は、前記第1の操作が検出されてから前記第2の操作が検出されるまで前記合成画像を表示し、前記第2の操作が行われてから前記第1の操作が再度行われるまで前記所定の画像を表示する、
ことを特徴とする請求項1に記載のポインティングシステム。
The operation detecting means further detects a second operation performed on the pointing device in addition to the first operation which is the predetermined operation,
The image generating means includes
When the first operation is detected, the composite position of the pointer image is set as the initial position,
Until the second operation is detected after the first operation is detected, the composite position of the pointer image is moved according to the detected displacement amount,
Until the first operation is detected again after the second operation is detected, the synthesis of the pointer image with respect to the predetermined image is stopped,
The image display means displays the composite image from when the first operation is detected until the second operation is detected, and after the second operation is performed, the first operation is performed again. Display the predetermined image until done
The pointing system according to claim 1.
前記操作検出手段は、前記ポインティングデバイスに対して行われる第3の操作と第4の操作とをさらに検出し、
前記第3の操作が検出されてから前記第4の操作が検出されるまでに検出された前記ポインティングデバイスの変位量に基づいて、前記表示された合成画像を所定の位置から指し示すために前記ポインティングデバイスが移動させられる移動範囲を特定する移動範囲特定手段、をさらに備え、
前記画像生成手段は、前記特定された移動範囲に基づいて前記ポインタ画像の合成位置の移動量を変更する、
ことを特徴とする請求項2に記載のポインティングシステム。
The operation detection means further detects a third operation and a fourth operation performed on the pointing device,
In order to point the displayed composite image from a predetermined position on the basis of a displacement amount of the pointing device detected from when the third operation is detected until the fourth operation is detected, the pointing A moving range specifying means for specifying a moving range in which the device is moved;
The image generation means changes a moving amount of the composite position of the pointer image based on the specified moving range.
The pointing system according to claim 2.
前記所定の画像を表す情報を記憶する情報記憶手段、をさらに備え、
前記画像生成手段は、前記検出された移動範囲の形状を、前記記憶された情報で表される前記所定の画像の形状に変換する変換行列を用いて、前記ポインタ画像の合成位置の移動量を補正する、
ことを特徴とする請求項3に記載のポインティングシステム。
Information storage means for storing information representing the predetermined image;
The image generation means uses the conversion matrix for converting the shape of the detected movement range into the shape of the predetermined image represented by the stored information, and calculates the movement amount of the composite position of the pointer image. to correct,
The pointing system according to claim 3.
前記操作検出手段は、前記所定の画像を指定する指定操作をさらに検出し、
前記ポインティングデバイスは、前記操作検出手段と、前記操作検出手段で検出された指定操作を表す操作情報を送信する情報送信手段と、当該指定操作によって指定された画像を表示する手段と、を有する携帯端末であり、
前記画像表示手段は、前記送信された操作情報が表す指定操作で指定された所定の画像又は前記指定された所定の画像と前記ポインタ画像とを合成した合成画像を表示する、
ことを特徴とする請求項1から4のいずれか一項に記載のポインティングシステム。
The operation detection means further detects a designation operation for designating the predetermined image,
The pointing device includes a portable terminal having the operation detection unit, an information transmission unit that transmits operation information representing a designated operation detected by the operation detection unit, and a unit that displays an image designated by the designation operation. Terminal,
The image display means displays a predetermined image designated by a designation operation represented by the transmitted operation information or a synthesized image obtained by synthesizing the designated predetermined image and the pointer image;
The pointing system according to any one of claims 1 to 4, wherein
前記画像表示手段は、前記画像生成手段で生成された合成画像を対象物に投影することで、前記対象物に合成画像を表示する、
ことを特徴とする請求項1から5のいずれか一項に記載のポインティングシステム。
The image display means displays the composite image on the object by projecting the composite image generated by the image generation means onto the object.
The pointing system according to any one of claims 1 to 5, wherein:
ポインタを表すポインタ画像と、文書を表す文書画像とを合成することで合成画像を生成する画像生成手段と、
表示された前記合成画像を指し示すポインティングデバイスに対して行われた操作を表す情報と、前記ポインティングデバイスの変位量を表す情報とを受信する情報受信手段と、を備え、
前記画像生成手段は、前記受信された情報で表される操作が所定の操作である場合に、前記文書画像に対して前記ポインタ画像を合成する合成位置を所定の初期位置とした後に、前記検出された変位量に応じた移動量だけ前記ポインタ画像の合成位置を移動させる、
ことを特徴とする画像生成装置。
Image generating means for generating a composite image by combining a pointer image representing a pointer and a document image representing a document;
Information receiving means for receiving information representing an operation performed on the pointing device pointing to the displayed composite image, and information representing a displacement amount of the pointing device;
When the operation represented by the received information is a predetermined operation, the image generation means sets the combination position for combining the pointer image to the document image as a predetermined initial position, and then performs the detection. Moving the composite position of the pointer image by a movement amount corresponding to the displacement amount made,
An image generation apparatus characterized by that.
コンピュータを、
ポインタを表すポインタ画像と、文書を表す文書画像とを合成することで合成画像を生成する画像生成手段、
表示された前記合成画像を指し示すポインティングデバイスに対して行われた操作を表す情報と、前記ポインティングデバイスの変位量を表す情報とを受信する情報受信手段、として機能させ、
前記画像生成手段は、前記受信された情報で表される操作が所定の操作である場合に、前記文書画像に対して前記ポインタ画像を合成する合成位置を所定の初期位置とした後に、前記検出された変位量に応じた移動量だけ前記ポインタ画像の合成位置を移動させる、
ことを特徴とする画像生成プログラム。
Computer
Image generating means for generating a composite image by combining a pointer image representing a pointer and a document image representing a document;
Functioning as information receiving means for receiving information representing an operation performed on the pointing device pointing to the displayed composite image and information representing a displacement amount of the pointing device;
When the operation represented by the received information is a predetermined operation, the image generation means sets the combination position for combining the pointer image to the document image as a predetermined initial position, and then performs the detection. Moving the composite position of the pointer image by a movement amount corresponding to the displacement amount made,
An image generation program characterized by that.
JP2011088131A 2011-04-12 2011-04-12 Pointing system, image generation apparatus, and image generation program Active JP5817192B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011088131A JP5817192B2 (en) 2011-04-12 2011-04-12 Pointing system, image generation apparatus, and image generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011088131A JP5817192B2 (en) 2011-04-12 2011-04-12 Pointing system, image generation apparatus, and image generation program

Publications (2)

Publication Number Publication Date
JP2012221348A true JP2012221348A (en) 2012-11-12
JP5817192B2 JP5817192B2 (en) 2015-11-18

Family

ID=47272747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011088131A Active JP5817192B2 (en) 2011-04-12 2011-04-12 Pointing system, image generation apparatus, and image generation program

Country Status (1)

Country Link
JP (1) JP5817192B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000357054A (en) * 1999-06-17 2000-12-26 Nec Viewtechnology Ltd Method for setting pointer moving speed and control system for auxiliary input device
JP2008166982A (en) * 2006-12-27 2008-07-17 Toshiba Corp Dvd player and display control method thereof
WO2009072471A1 (en) * 2007-12-07 2009-06-11 Sony Corporation Input device, control device, control system, control method and handheld device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000357054A (en) * 1999-06-17 2000-12-26 Nec Viewtechnology Ltd Method for setting pointer moving speed and control system for auxiliary input device
JP2008166982A (en) * 2006-12-27 2008-07-17 Toshiba Corp Dvd player and display control method thereof
WO2009072471A1 (en) * 2007-12-07 2009-06-11 Sony Corporation Input device, control device, control system, control method and handheld device

Also Published As

Publication number Publication date
JP5817192B2 (en) 2015-11-18

Similar Documents

Publication Publication Date Title
US10764626B2 (en) Method and apparatus for presenting and controlling panoramic image, and storage medium
JP3509652B2 (en) Projector device
JP5272583B2 (en) Acceleration sensor-based pairing method, system, and apparatus, and acceleration sensor-based pairing program
US20120139952A1 (en) Image transmission method, device, and computer-readable storage medium storing image transmission program
US20120058801A1 (en) Methods, apparatuses, and computer program products for enhancing activation of an augmented reality mode
US20140043535A1 (en) Display apparatus, information processing system and recording medium
US10746815B2 (en) Magnetic interference detection and correction
JP2013235373A (en) Image processing apparatus, and projection control method and program
EP2835720A1 (en) Method, video terminal and system for implementing simple air mouse
JP6047763B2 (en) User interface device and projector device
US20150130847A1 (en) Display system, display device, display terminal, display method of display terminal, and control program
JP2007114820A (en) Portable pointer device and display system
JP6515787B2 (en) Virtual desktop program, virtual desktop processing method, and virtual desktop system
JP4199641B2 (en) Projector device
US11386612B2 (en) Non-transitory computer-readable medium, image processing method, and image processing system for controlling progress of information processing in response to a user operation
JP5817192B2 (en) Pointing system, image generation apparatus, and image generation program
KR102014146B1 (en) Distance detecting device and Image processing apparatus including the same
JP5245805B2 (en) Projector, control method therefor, and control program therefor
JP2012242793A (en) Display system and electronic apparatus
JP5861684B2 (en) Information processing apparatus and program
KR20140031956A (en) Method for creating music video contents at a sensor attached device
CN104580967A (en) Map projection method based on portable projector, and device for projection
US20120162198A1 (en) Information Processor, Information Processing Method, and Computer Program Product
JP5077277B2 (en) Terminal apparatus, communication control system, communication control method, and terminal control program
JP2012088959A (en) Remote operation system, remote operation method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150914

R150 Certificate of patent or registration of utility model

Ref document number: 5817192

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150