JP6500974B2 - Detection apparatus, detection method and program - Google Patents

Detection apparatus, detection method and program Download PDF

Info

Publication number
JP6500974B2
JP6500974B2 JP2017243451A JP2017243451A JP6500974B2 JP 6500974 B2 JP6500974 B2 JP 6500974B2 JP 2017243451 A JP2017243451 A JP 2017243451A JP 2017243451 A JP2017243451 A JP 2017243451A JP 6500974 B2 JP6500974 B2 JP 6500974B2
Authority
JP
Japan
Prior art keywords
input image
pointer
coordinates
projection
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017243451A
Other languages
Japanese (ja)
Other versions
JP2018097880A (en
Inventor
友哉 牧野
友哉 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017243451A priority Critical patent/JP6500974B2/en
Publication of JP2018097880A publication Critical patent/JP2018097880A/en
Application granted granted Critical
Publication of JP6500974B2 publication Critical patent/JP6500974B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、検出装置、検出方法及びプログラムに関する。 The present invention relates to a detection device, a detection method, and a program.

従来、スクリーン等に投影された投影画面上をユーザがポインティング装置で指示すると、その指示位置の座標を取得して、指示された位置に応じた処理を行うシステムが知られている。このようなシステムにおいて、ユーザの意図する位置にポインタを合わせやすくするための技術が提案されている。   2. Description of the Related Art Conventionally, there is known a system in which, when a user points on a projection screen projected on a screen or the like with a pointing device, the coordinates of the indicated position are acquired and processing is performed according to the indicated position. In such a system, techniques have been proposed to make it easy to set the pointer to the position intended by the user.

例えば、特許文献1には、ポインティング装置のポインタの座標と投影画面上のアイコン等の選択対象の座標との座標差が所定範囲内である場合に、選択対象の座標へポインタの座標を変換することで、ユーザが意図する選択対象へポインタを自動で導くことができる技術が記載されている(例えば、特許文献1参照)。   For example, in Patent Document 1, when the difference between the coordinates of the pointer of the pointing device and the coordinates of the selection target such as an icon on the projection screen is within a predetermined range, the coordinates of the pointer are converted to the coordinates of the selection target Thus, there has been described a technology capable of automatically guiding a pointer to a selection object intended by the user (see, for example, Patent Document 1).

特開2013−77226号公報JP, 2013-77226, A

ところで、投影装置では、入力画像の解像度(画像の総画素数)と投影画面の解像度が一致しない場合、入力画像にスケーリング処理を行って投影画面の解像度に変換してから投影を行っている。しかし、入力画像を1より小さいスケーリング倍率でダウンスケーリング(低解像度に変換)してから投影画面として投影すると、投影画面上のアイコンが小さく表示されるため(図6参照)、手振れ等によりポインタが合わせづらいといった問題があった。特許文献1には、このスケーリング倍率によって生じる操作性の問題については記載されていない。   By the way, in the projection apparatus, when the resolution of the input image (the total number of pixels of the image) and the resolution of the projection screen do not match, the input image is scaled and converted to the resolution of the projection screen before projection. However, when the input image is downscaled (converted to a low resolution) with a scaling factor smaller than 1 and then projected as a projection screen, the icon on the projection screen is displayed small (see FIG. 6). There was a problem that it was difficult to fit. Patent Document 1 does not describe the problem of operability caused by this scaling factor.

本発明の課題は、スケーリング倍率に拘わらず、ユーザが意図した場所にポインタを合わせやすくし、操作性を向上させることである。   An object of the present invention is to make it easy to put a pointer at a place intended by the user regardless of the scaling factor, and to improve operability.

上記課題を解決するため、請求項1に記載の検出装置は、
入力画像の解像度と表示面の解像度とに基づいて、前記入力画像に基づく投影画面上のポインタの位置を検出する際に用いるフレーム数を設定する設定手段と、
前記表示面上でポインティング装置により指示された位置の座標を取得する取得手段と、
前記設定手段により設定されたフレーム数分の前記取得手段により取得された座標に基づいて、前記入力画像に基づく表示面上のポインタの座標を検出する検出手段と、
を備える。
In order to solve the above-mentioned subject, a detection device according to claim 1 is
A setting unit on the basis of the resolution and the display surface of the input image resolution, sets the number of frames to be used for detecting the position of the pointer on the projection screen based on the entering force image,
Acquisition means for acquiring coordinates of a position designated by a pointing device on the display surface;
A detection unit that detects coordinates of a pointer on a display surface based on the input image based on the coordinates acquired by the acquisition unit for the number of frames set by the setting unit;
Equipped with

本発明によれば、スケーリング倍率に拘わらず、ユーザが意図した場所にポインタを合わせやすくし、操作性を向上させることができる。   According to the present invention, regardless of the scaling factor, the pointer can be easily placed at the place intended by the user, and operability can be improved.

本発明の実施形態に係る投影システムの全体構成例を示す図である。It is a figure showing an example of whole composition of a projection system concerning an embodiment of the present invention. 図1の投影装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the projection apparatus of FIG. 図1のポインティング装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the pointing device of FIG. 図2のCPUにより実行される投影制御処理を示すフローチャートである。It is a flowchart which shows the projection control processing performed by CPU of FIG. 図4のステップS1において実行されるフィルタ数設定処理を示すフローチャートである。It is a flowchart which shows the number setting process of filters performed in FIG.4 S1. 入力画像を投影装置の出力解像度にダウンスケーリングして投影した投影画面の一例を示す図である。It is a figure which shows an example of the projection screen which downscaled and projected the input image to the output resolution of a projector. 入力画像をスケーリング処理なしで投影した投影画面の一例を示す図である。It is a figure which shows an example of the projection screen which projected the input image without scaling processing. 入力画像を投影装置の出力解像度にアップスケーリングして投影した投影画面の一例を示す図である。It is a figure which shows an example of the projection screen which upscaled and projected the input image to the output resolution of a projector.

以下に、本発明を実施するための形態について、図面を用いて説明する。但し、以下に述べる実施形態には、本発明を実施するために技術的に好ましい種々の限定が付されている。そのため、本発明の技術的範囲を以下の実施形態及び図示例に限定するものではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the embodiments described below are subject to various technically preferable limitations for practicing the present invention. Therefore, the technical scope of the present invention is not limited to the following embodiments and illustrated examples.

[投影システム100の構成]
図1は、本発明に係る投影システム100の全体構成を示す図である。投影システム100は、投影装置1、ポインティング装置2、スクリーン3、PC(Personal Computer)4を備えて構成されている。この投影システム100は、PC4から出力された映像信号に基づく画像を投影装置1により投影画面31としてスクリーン3に投影するものである。スクリーン3には、投影画面31上のポインタの位置を示すカーソル32(ポインタ画像)が表示される。このカーソル32は、ポインティング装置2が指示した位置に応じて投影装置1がPC4から入力された画像に合成したもので、ユーザによるポインティング装置2の操作に応じて移動するようになっている。
[Configuration of Projection System 100]
FIG. 1 is a view showing the overall configuration of a projection system 100 according to the present invention. The projection system 100 includes a projection device 1, a pointing device 2, a screen 3, and a PC (Personal Computer) 4. The projection system 100 projects an image based on a video signal output from the PC 4 onto the screen 3 as the projection screen 31 by the projection device 1. On the screen 3, a cursor 32 (pointer image) indicating the position of the pointer on the projection screen 31 is displayed. The cursor 32 is one synthesized with the image input from the PC 4 by the projection device 1 in accordance with the position indicated by the pointing device 2, and is moved according to the operation of the pointing device 2 by the user.

[投影装置1の構成]
図2は、投影装置1の機能的構成を示すブロック図である。図2に示すように、投影装置1は、CPU(Central Processing Unit)10、ROM(Read Only Memory)11、RAM(Random Access Memory)12、映像信号入力部13、光照射装置14、表示素子15、投影レンズ16、レンズ制御部17、無線通信部18、オーディオデバイス19、キー入力部101、USBコントローラ102部等を備えて構成されている。
[Configuration of Projection Device 1]
FIG. 2 is a block diagram showing a functional configuration of the projection device 1. As shown in FIG. 2, the projection device 1 includes a central processing unit (CPU) 10, a read only memory (ROM) 11, a random access memory (RAM) 12, a video signal input unit 13, a light irradiation device 14, and a display element 15. A projection lens 16, a lens control unit 17, a wireless communication unit 18, an audio device 19, a key input unit 101, a USB controller 102, and the like are provided.

CPU10は、ROM11に記憶されているプログラム11aを読み出し、RAM12のワークエリアに展開し、該プログラムに従って各部を制御して、後述する投影制御処理、フィルタ数設定処理を始めとする各種処理を実行する。CPU10は、投影制御処理を実行することにより、スケーリング手段、合成手段として機能する。また、フィルタ数設定処理を実行することにより、算出手段、設定手段、検出手段として機能する。また、CPU10は、無線通信部18との協働により、取得手段として機能する。   The CPU 10 reads the program 11a stored in the ROM 11, expands it in the work area of the RAM 12, controls each part according to the program, and executes various processes including the projection control process and the filter number setting process described later. . The CPU 10 functions as a scaling unit and a combining unit by executing the projection control process. Also, by executing the filter number setting process, it functions as a calculation means, a setting means, and a detection means. The CPU 10 also functions as an acquisition unit in cooperation with the wireless communication unit 18.

ROM11は、投影装置1に対応するプログラム11a及びこれらのプログラムで使用されるデータ等を記憶する。プログラム11aには、後述する投影制御処理及びフィルタ数設定処理を実行するためのプログラムが含まれる。
また、ROM11には、フィルタ数取得テーブル11bが記憶されている。フィルタ数取得テーブル11bについては後述する。
The ROM 11 stores a program 11a corresponding to the projection device 1, data used by these programs, and the like. The program 11a includes a program for executing projection control processing and filter number setting processing described later.
In addition, the filter number acquisition table 11 b is stored in the ROM 11. The filter number acquisition table 11b will be described later.

RAM12は、CPU10により実行制御される上記各種処理において、プログラム11a、入力若しくは出力データ、及びパラメータ等の一時的な格納領域を形成する。例えば、RAM12は、後述するフィルタ数設定処理において設定されたフィルタ数(詳細後述)を格納するためのフィルタ数設定領域12a、ポインティング装置2から取得した座標データを順次格納するための座標データ記憶領域12bを形成する。   The RAM 12 forms a temporary storage area for the program 11a, input or output data, parameters, and the like in the above-described various processes executed and controlled by the CPU 10. For example, the RAM 12 is a filter number setting area 12a for storing the number of filters (described in detail later) set in the filter number setting process described later, and a coordinate data storage area for sequentially storing coordinate data acquired from the pointing device 2 Form 12b.

映像信号入力部13は、例えば、HDMI(登録商標)端子、RGB端子、DVI端子等の映像入力端子を備え、PC4から映像入力端子を介して入力されたRGB信号やビデオ信号等の映像信号を所定の規格の画像データ(入力画像)や音声データに変換し、CPU10に出力する。   The video signal input unit 13 includes, for example, video input terminals such as an HDMI (registered trademark) terminal, an RGB terminal, and a DVI terminal, and receives video signals such as RGB signals and video signals input from the PC 4 via the video input terminal. It is converted into image data (input image) and audio data of a predetermined standard, and is output to the CPU 10.

光照射装置14は、CPU10から出力される制御信号に従って、例えば、時分割でR(赤色光)、G(緑色光)、B(青色光)、および可視光以外の光(例えば、赤外光)を循環的に出射する。この光照射装置14からのR、G、Bの原色光および赤外光が、表示素子15に照射される。   The light irradiation device 14 receives light (eg, infrared light) other than visible light (eg, red light), G (green light), B (blue light), and visible light according to a control signal output from the CPU 10, for example. ) Is emitted cyclically. The display element 15 is irradiated with the R, G, B primary color light and infrared light from the light irradiation device 14.

表示素子15は、例えば、アレイ状に配列された複数個(XGAの場合、横1024画素×縦768画素)の微小ミラーを有するマイクロミラー素子である。表示素子15は、CPU10から出力される制御信号に応じて、各微小ミラーの傾斜角度を高速でオン/オフ動作して画像を表示することで、その反射光により光像を形成する。
表示素子15は、原色光が照射されている場合に入力画像に基づいた光像を形成し、赤外光が照射されている場合に、投影画面31の座標位置に応じて階調の異なる位置検出用画像パターンを投影するための光像を形成する。
The display element 15 is, for example, a micro mirror element having a plurality of micro mirrors (1024 horizontal pixels × 768 vertical pixels in the case of XGA) arranged in an array. The display element 15 forms an optical image by the reflected light by displaying the image by turning on / off the tilt angle of each micro mirror at high speed according to the control signal output from the CPU 10.
The display element 15 forms a light image based on the input image when the primary color light is irradiated, and when the infrared light is irradiated, the position where the gradation is different according to the coordinate position of the projection screen 31 A light image for projecting a detection image pattern is formed.

投影レンズ16は、表示素子15によって形成された光像を投影レンズ16の光学ズームポジションで決定される所定の拡大倍率に応じてスクリーン3に投影する。光像がスクリーン3に投影されることによって、スクリーン3上に入力画像と位置検出用画像とが投影画面31として表示される。なお、位置検出用画像は、赤外光によって形成されるので人間の目には見えない。
レンズ制御部17は、投影レンズ16を制御してズームやフォーカシングを行う。
光照射装置14、表示素子15、投影レンズ16、レンズ制御部17は、投影手段として機能する。
The projection lens 16 projects the light image formed by the display element 15 onto the screen 3 in accordance with a predetermined magnification determined at the optical zoom position of the projection lens 16. By projecting the light image on the screen 3, the input image and the position detection image are displayed as the projection screen 31 on the screen 3. In addition, since the image for position detection is formed of infrared light, it is invisible to human eyes.
The lens control unit 17 controls the projection lens 16 to perform zooming and focusing.
The light irradiation device 14, the display element 15, the projection lens 16, and the lens control unit 17 function as projection means.

無線通信部18は、CPU10から出力される制御信号に従ってポインティング装置2との通信を行う。   The wireless communication unit 18 communicates with the pointing device 2 in accordance with the control signal output from the CPU 10.

オーディオデバイス19は、D/Aコンバータ、増幅器、スピーカ等を備え、CPU10から出力される制御信号に従って映像信号の音声信号をD/Aコンバータによりアナログ信号に変換後、このアナログ音声信号を増幅器により所定の音量に増幅して、スピーカから音声として出力する。   The audio device 19 includes a D / A converter, an amplifier, a speaker, and the like, converts an audio signal of a video signal into an analog signal by a D / A converter according to a control signal output from the CPU 10, and determines the analog audio signal by an amplifier. Amplified to the volume of and output as sound from the speaker.

キー入力部101は、複数の操作ボタン等から構成され、ユーザの操作信号をCPU10に出力する。   The key input unit 101 includes a plurality of operation buttons and the like, and outputs a user operation signal to the CPU 10.

USBコントローラ(Universal Serial Bus)102は、PC4のUSBコントローラと通信を行い、ポインティング装置2から受信した座標データに基づいて検出されたポインタの座標データ(ポインタ座標データと呼ぶ)や操作データをPC4に送信する。   The USB controller (Universal Serial Bus) 102 communicates with the USB controller of the PC 4 and transmits coordinate data (called pointer coordinate data) of pointer detected based on coordinate data received from the pointing device 2 and operation data to the PC 4 Send.

[ポインティング装置2の構成]
図3は、投影装置1の機能的構成を示すブロック図である。図3に示すように、
ポインティング装置2は、制御部20、光センサ21、操作部22、無線通信部23等を備えて構成されている。
[Configuration of pointing device 2]
FIG. 3 is a block diagram showing a functional configuration of the projection device 1. As shown in Figure 3,
The pointing device 2 includes a control unit 20, an optical sensor 21, an operation unit 22, a wireless communication unit 23, and the like.

制御部20は、CPU、ROM、RAM等により構成される。制御部20のCPUは、ROMに記憶されているプログラムを読み出し、RAMのワークエリアに展開し、該プログラムに従って各部を制御する。   The control unit 20 is configured of a CPU, a ROM, a RAM, and the like. The CPU of the control unit 20 reads a program stored in the ROM, expands it in a work area of the RAM, and controls each unit according to the program.

光センサ21は、スクリーン3に投影された位置検出用画像に対応する赤外光を受光し、受光した赤外光の強度に応じた電気信号を生成し、制御部20に出力する。制御部20は、光センサ21からの電気信号に基づいて、ポインティング装置2により指示された位置座標を示す座標データ生成し、無線通信部23により投影装置1に送信する。   The light sensor 21 receives infrared light corresponding to the position detection image projected on the screen 3, generates an electric signal according to the intensity of the received infrared light, and outputs the electric signal to the control unit 20. The control unit 20 generates coordinate data indicating position coordinates designated by the pointing device 2 based on the electrical signal from the light sensor 21, and transmits the coordinate data to the projection device 1 by the wireless communication unit 23.

操作部22は、例えば、右ボタン、左ボタン等を備え、各ボタンの操作信号を制御部20に出力する。制御部20は、操作部22からの各ボタンの操作信号に基づいて、各ボタンの操作データをその操作信号が入力されたタイミングに応じた座標データに対応付けて無線通信部23により投影装置1に送信する。   The operation unit 22 includes, for example, a right button, a left button, and the like, and outputs an operation signal of each button to the control unit 20. The control unit 20 associates the operation data of each button with the coordinate data according to the timing when the operation signal is input based on the operation signal of each button from the operation unit 22 and causes the wireless communication unit 23 to use the projection device 1 Send to

無線通信部23は、制御部20から出力される制御信号に従って投影装置1との通信を行う。   The wireless communication unit 23 communicates with the projection device 1 according to the control signal output from the control unit 20.

[PC4の構成]
PC4は、CPU、ROM、RAM、操作部、表示部、記憶部、映像信号出力部、USBコントローラ等を備えたコンピュータ装置である。PC4のCPUは、ROMに記憶されているプログラムに従って、映像信号に基づく画像を表示部に表示させるとともに、その映像信号を投影装置1に出力する。また、投影装置1からUSBコントローラを介して受信したポインタ座標データや操作データに基づいて、投影画面31上でのアイコン等の操作に応じた処理を実行する。
[Configuration of PC 4]
The PC 4 is a computer device provided with a CPU, a ROM, a RAM, an operation unit, a display unit, a storage unit, a video signal output unit, a USB controller, and the like. The CPU of the PC 4 causes the display unit to display an image based on the video signal according to a program stored in the ROM, and outputs the video signal to the projection device 1. Further, based on pointer coordinate data and operation data received from the projection device 1 via the USB controller, processing corresponding to operation of an icon or the like on the projection screen 31 is executed.

[投影装置1の動作]
次に、本実施形態の動作について説明する。
図4は、投影装置1のCPU10により実行される投影制御処理のフローチャートである。投影制御処理は、入力画像の入力が開始された際に、CPU10とROM11に記憶されているプログラム11aとの協働により実行される。
[Operation of Projection Device 1]
Next, the operation of this embodiment will be described.
FIG. 4 is a flowchart of the projection control process executed by the CPU 10 of the projection device 1. The projection control process is executed by the cooperation of the CPU 10 and the program 11 a stored in the ROM 11 when the input of the input image is started.

まず、CPU10は、フィルタ数設定処理を実行する(ステップS1)。
図5は、図4のステップS1において実行されるフィルタ数設定処理のフローチャートを示す。フィルタ数設定処理は、CPU10とプログラム11aとの協働により実行される。
First, the CPU 10 executes a filter number setting process (step S1).
FIG. 5 shows a flowchart of the filter number setting process executed in step S1 of FIG. The filter number setting process is executed by the cooperation of the CPU 10 and the program 11a.

フィルタ数設定処理において、CPU10は、まず、入力画像の解像度を取得する(ステップS101)。ここでいう解像度とは、画像における画素の密度をいうのではなく、画像の総画素数(画像の縦方向の画素数×画像の横方向の画素数)をいう。   In the filter number setting process, the CPU 10 first acquires the resolution of the input image (step S101). The resolution herein does not refer to the density of pixels in an image, but to the total number of pixels of the image (the number of pixels in the vertical direction of the image × the number of pixels in the horizontal direction of the image).

次いで、CPU10は、投影画面31の解像度、即ち、投影装置1の出力解像度(表示素子15の解像度)を取得する(ステップS102)。   Next, the CPU 10 acquires the resolution of the projection screen 31, that is, the output resolution of the projection device 1 (the resolution of the display element 15) (step S102).

次いで、CPU10は、入力画像の解像度と投影装置1の出力解像度とに基づいて、スケーリング倍率を算出する(ステップS103)。ここでいうスケーリングとは、入力画像の画素数を増減すること(解像度変換)をいう。スケーリング倍率とは、画素数の増減の倍率をいう。画素数を増減しない場合は、スケーリング倍率は1倍となる。   Next, the CPU 10 calculates a scaling factor based on the resolution of the input image and the output resolution of the projection device 1 (step S103). As used herein, scaling refers to increasing or decreasing the number of pixels of an input image (resolution conversion). The scaling factor refers to the scaling factor of the number of pixels. If the number of pixels is not increased or decreased, the scaling factor is 1x.

次いで、CPU10は、ROM11に記憶されているフィルタ数取得テーブル11bを読み出して、ステップS103で算出したスケーリング倍率に応じたフィルタ数を取得し(ステップS104)、取得したフィルタ数をRAM12のフィルタ数設定領域12aに設定し(ステップS105)、図4のステップS2に移行する。
フィルタ数とは、入力画像に基づく(入力画像を投影した)投影画面31におけるポインタの座標を検出する際の座標平均化に使用する座標数(フレーム数)をいう。フィルタ数取得テーブル11bは、スケーリング倍率に対応付けて、そのスケーリング倍率に最適なフィルタ数を記憶したテーブルである。フィルタ数取得テーブル11bにおいては、スケーリング倍率が1倍のときのフィルタ数を基準として、スケーリング倍率が1倍より大きくなるほど少ないフィルタ数が対応付けられ、スケーリング倍率が小さくなるほど多くのフィルタ数が対応付けられている。
Next, the CPU 10 reads the number-of-filters acquisition table 11b stored in the ROM 11, acquires the number of filters according to the scaling factor calculated in step S103 (step S104), and sets the acquired number of filters as the number of filters in the RAM 12. The area 12a is set (step S105), and the process proceeds to step S2 in FIG.
The number of filters means the number of coordinates (number of frames) used for coordinate averaging when detecting the coordinates of the pointer on the projection screen 31 based on the input image (projecting the input image). The filter number acquisition table 11 b is a table in which the number of filters optimum for the scaling factor is stored in association with the scaling factor. In the number-of-filters acquisition table 11b, based on the number of filters when the scaling ratio is 1, the smaller the number of filters is associated as the scaling ratio is larger than 1, the larger the number of filters is associated as the scaling ratio becomes smaller. It is done.

ここで、スケーリング倍率とフィルタ数の関係について説明する。
図6に、入力画像を投影装置1の出力解像度にダウンスケーリング(低解像度化)して投影した投影画面31の一例を示す。図6は、例として、1600×1200画素の入力画像を1024×768画素にダウンスケーリングして投影したときの投影画面31を示している。
図7に、入力画像をスケーリング処理なしで投影した投影画面31の一例を示す。図7は、例として、1024×768画素の投影画面31を示している。
図8に、入力画像を投影装置1の出力解像度にアップスケーリング(高解像度化)して投影した投影画面31の一例を示す。図8は、例として、800×600画素の入力画像を1024×768画素にアップスケーリングしたときの投影画面31を示している。
Here, the relationship between the scaling factor and the number of filters will be described.
FIG. 6 shows an example of a projection screen 31 which is projected by downscaling (reduction of resolution) of the input image to the output resolution of the projection device 1. FIG. 6 shows the projection screen 31 when the input image of 1600 × 1200 pixels is downscaled to 1024 × 768 pixels and projected as an example.
FIG. 7 shows an example of a projection screen 31 obtained by projecting an input image without scaling processing. FIG. 7 shows a projection screen 31 of 1024 × 768 pixels as an example.
FIG. 8 shows an example of a projection screen 31 which is projected by upscaling (resolution increase) of the input image to the output resolution of the projection device 1. FIG. 8 shows, as an example, the projection screen 31 when the input image of 800 × 600 pixels is upscaled to 1024 × 768 pixels.

図6に示すように、入力画像をダウンスケーリングした場合、画像中のアイコンやボタン等の画素数もダウンスケーリングされ、投影画面31に表示されるアイコンやボタン等も小さくなる。ポインティング装置2を使用した場合、机により支持されて安定した操作が可能なパソコンのマウスに比べて手振れが起き易いため、小さいアイコン等にポインタを合わせることは難しく、ユーザのストレスとなる。   As shown in FIG. 6, when the input image is downscaled, the number of pixels such as icons and buttons in the image is also downscaled, and the icons and buttons displayed on the projection screen 31 are also reduced. When the pointing device 2 is used, camera shake is more likely to occur compared to a mouse of a personal computer supported by a desk and capable of stable operation, so it is difficult to set a pointer on a small icon or the like, which causes user stress.

ポインティング装置2が指示した投影画面31上の位置座標の座標データは、投影画面31のフレーム毎にポインティング装置2により取得されて投影装置1に送信され無線通信部18により受信される。この座標データをそのままポインタの位置として検出した場合、ポインタ移動の応答性(追従性)は良いが、座標取得の誤りや手振れがそのまま反映されてしまう。そこで、投影装置1においては、フィルタ数として設定した数のフレームのそれぞれにおいて取得した座標データを平均化し、この平均化した座標をポインタの座標として検出し、投影画面31上の検出された座標の位置にカーソル32を表示したり、操作データとともにポインタ座標データをPC4に送信して操作に応じた処理を実行させたりする。フィルタ数を多くするほど、手振れ等による位置のブレが緩和されるため、スケーリング倍率が1より小さい場合、フィルタ数を基準よりも多くすることで、手ぶれ防止を図り、ユーザが意図した位置にポインタを合わせやすくし、操作性を向上させる。   Coordinate data of position coordinates on the projection screen 31 designated by the pointing device 2 is acquired by the pointing device 2 for each frame of the projection screen 31, transmitted to the projection device 1, and received by the wireless communication unit 18. If this coordinate data is detected as the position of the pointer as it is, the response (followability) of the pointer movement is good, but an error in coordinate acquisition and camera shake are reflected as it is. Therefore, in the projection device 1, the coordinate data acquired in each of the frames set as the number of filters is averaged, and the averaged coordinates are detected as the coordinates of the pointer. The cursor 32 is displayed at the position, and pointer coordinate data is transmitted to the PC 4 together with operation data to execute processing according to the operation. As the number of filters is increased, blurring of the position due to camera shake or the like is alleviated. When the scaling factor is smaller than 1, camera blurring is prevented by increasing the number of filters beyond the reference, and a pointer to the position intended by the user Make it easy to match and improve operability.

一方、図8に示すように、入力画像をアップスケーリングした場合、画像中のアイコン等の画素数もアップスケーリングされ、投影画面31に表示されるアイコンやボタン等も大きくなる。アイコンやボタンが大きい場合、多少の手振れがあってもそこにポインタを合わせることは容易である。一方で、フィルタ数を多くするとポインティング装置2への操作に対してポインタの追従性が悪くなるため、ユーザはストレスを感じる。そこで、本実施形態においては、スケーリング倍率が1より大きい場合、フィルタ数を基準よりも少なくすることで、ポインタ移動の追従性を高め、操作性を向上させる。   On the other hand, as shown in FIG. 8, when the input image is upscaled, the number of pixels such as icons in the image is also upscaled, and the icons, buttons, etc. displayed on the projection screen 31 become large. When the icon or button is large, it is easy to set the pointer there even if there is some hand movement. On the other hand, when the number of filters is increased, the followability of the pointer with respect to the operation on the pointing device 2 is deteriorated, and the user feels stress. Therefore, in the present embodiment, when the scaling factor is larger than 1, the followability of pointer movement is improved and operability is improved by reducing the number of filters below the reference.

図4に戻り、ステップS2において、CPU10は、入力画像の解像度と投影装置1の出力解像度に基づいて算出されるスケーリング倍率で入力画像をスケーリングする(ステップS2)。   Returning to FIG. 4, in step S2, the CPU 10 scales the input image with a scaling factor calculated based on the resolution of the input image and the output resolution of the projection apparatus 1 (step S2).

次いで、CPU10は、無線通信部18によりポインティング装置2から送信された座標データ及び操作データを取得してRAM12の座標データ記憶領域12bに記憶する(ステップS3)。ここで、座標データ記憶領域12bには、フィルタ数取得テーブル11bに記憶されている最大のフィルタ数分の座標データをその座標データが取得されたフレームのフレーム番号に対応付けて記憶できるようになっており、ステップS3において、CPU10は、座標データ記憶領域12bに記憶されている座標データが規定数を超える場合は、最も古い座標データを削除して新たな座標データを座標データ記憶領域12bに記憶する。   Next, the CPU 10 acquires coordinate data and operation data transmitted from the pointing device 2 by the wireless communication unit 18 and stores the acquired coordinate data and operation data in the coordinate data storage area 12 b of the RAM 12 (step S3). Here, the coordinate data storage area 12b can store coordinate data for the maximum number of filters stored in the filter number acquisition table 11b in association with the frame number of the frame for which the coordinate data is acquired. In step S3, when the coordinate data stored in the coordinate data storage area 12b exceeds the specified number, the CPU 10 deletes the oldest coordinate data and stores new coordinate data in the coordinate data storage area 12b. Do.

次いで、CPU10は、フィルタ数設定領域12aに設定されているフィルタ数で座標平均化を行い、平均化した座標を入力画像に基づく投影画面31におけるポインタの座標として検出する(ステップS4)。例えば、CPU10は、座標データ記憶領域12bに記憶されているフィルタ数分の座標データを新しいものから読み出して、x座標、y座標のそれぞれの平均を算出することにより、座標の平均化を行う。なお、設定されたフィルタ数分の座標データが未だフィルタ数設定領域12aに記憶されていない場合は、フィルタ数設定領域12aに記憶されている座標データを用いて平均化を行う。   Next, the CPU 10 performs coordinate averaging with the number of filters set in the filter number setting area 12a, and detects the averaged coordinates as the coordinates of the pointer on the projection screen 31 based on the input image (step S4). For example, the CPU 10 performs coordinate averaging by reading out coordinate data for the number of filters stored in the coordinate data storage area 12b from new ones and calculating an average of each of the x coordinate and the y coordinate. When coordinate data for the set number of filters is not stored in the filter number setting area 12a yet, averaging is performed using the coordinate data stored in the filter number setting area 12a.

次いで、CPU10は、スケーリング済みの入力画像のステップS4で平均化された座標の位置にカーソル32の画像を合成するとともに(ステップS5)、平均化された座標の座標データをポインタ座標データとして、ポインティング装置2から取得した操作データとともにUSBコントローラ102を介してPC4に送信する(ステップS6)。そして、CPU10は、光照射装置14、表示素子15、レンズ制御部17を制御してカーソル32が合成された合成画像を投影画面31としてスクリーン3に投影する(ステップS7)。   Next, the CPU 10 combines the image of the cursor 32 at the position of the coordinates averaged in step S4 of the scaled input image (step S5), and performs pointing using the coordinate data of the averaged coordinates as pointer coordinate data. It transmits to PC4 via the USB controller 102 with the operation data acquired from the apparatus 2 (step S6). Then, the CPU 10 controls the light emitting device 14, the display element 15, and the lens control unit 17 to project the composite image in which the cursor 32 is composited on the screen 3 as the projection screen 31 (step S7).

次いで、CPU10は、次の入力画像(フレーム)が存在するか否かを判断する(ステップS8)。次の入力画像が存在すると判断した場合(ステップS8;YES)、CPU10は、入力画像の解像度に変更があったか否かを判断する(ステップS9)。入力画像の解像度に変更があったと判断した場合(ステップS9;YES)、CPU10は、ステップS1に戻る。入力画像の解像度に変更がないと判断した場合(ステップS9;NO)、CPU10は、ステップS2に戻る。
一方、ステップS8において、次の入力画像が存在しないと判断した場合(ステップS8;NO)、CPU10は、投影制御処理を終了する。
Next, the CPU 10 determines whether the next input image (frame) is present (step S8). If it is determined that the next input image exists (step S8; YES), the CPU 10 determines whether the resolution of the input image has been changed (step S9). If it is determined that the resolution of the input image has been changed (step S9; YES), the CPU 10 returns to step S1. If it is determined that there is no change in the resolution of the input image (step S9; NO), the CPU 10 returns to step S2.
On the other hand, when it is determined in step S8 that the next input image does not exist (step S8; NO), the CPU 10 ends the projection control process.

以上説明したように、投影装置1のCPU10によれば、入力画像の解像度と投影画面の解像度とに基づいて、入力画像のスケーリング倍率を算出し、算出したスケーリング倍率に基づいて、入力画像に基づく投影画面31上のポインタの位置を検出する際に用いるフレーム数であるフィルタ数を設定する。そして、ポインティング装置2から取得した、設定されたフィルタ数分の座標に基づいて、入力画像に基づく投影画面31上のポインタの座標を検出する。具体的に、CPU10は、設定したフレーム数分の座標を平均化し、当該平均化した座標を入力画像に基づく投影画面31上のポインタの座標として検出する。
従って、スケーリング倍率に拘わらず、ユーザが意図した場所にポインタを合わせやすくし、操作性を向上させることができる。
As described above, according to the CPU 10 of the projection device 1, the scaling factor of the input image is calculated based on the resolution of the input image and the resolution of the projection screen, and the scaling factor of the input image is calculated based on the calculated scaling factor. The number of filters, which is the number of frames used when detecting the position of the pointer on the projection screen 31, is set. Then, the coordinates of the pointer on the projection screen 31 based on the input image are detected based on the coordinates for the set number of filters acquired from the pointing device 2. Specifically, the CPU 10 averages the coordinates for the set number of frames, and detects the averaged coordinates as the coordinates of the pointer on the projection screen 31 based on the input image.
Therefore, regardless of the scaling factor, the pointer can be easily placed at the place intended by the user, and operability can be improved.

例えば、CPU10は、スケーリング倍率がダウンスケーリングの場合は、フィルタ数を予め定められた基準よりも多く設定する。従って、アイコン等が小さく表示されてしまうダウンスケーリングした投影画面31において、手振れ等によりユーザが意図したところにポインタを合わせづらいといった状態を緩和して、ユーザが意図した位置にポインタを置きやすくすることができ、操作性を向上させることができる。   For example, when the scaling factor is downscaling, the CPU 10 sets the number of filters larger than a predetermined reference. Therefore, in the downscaled projection screen 31 where icons and the like are displayed small, it is easy to place the pointer at the position intended by the user by alleviating the situation where it is difficult for the user to position the pointer at the place intended by the user. Operation can be improved.

また、例えば、CPU10は、スケーリング倍率がアップスケーリングの場合は、フィルタ数を予め定められた基準よりも少なく設定する。従って、アイコン等が大きく表示されるアップスケーリングした投影画面31において、ポインタ移動の追従性を高め、操作性を向上させることができる。   Also, for example, when the scaling factor is upscaling, the CPU 10 sets the number of filters smaller than a predetermined reference. Therefore, the follow-up property of the pointer movement can be enhanced and the operability can be improved on the up-scaled projection screen 31 in which the icons and the like are displayed large.

また、CPU10は、算出されたスケーリング倍率で入力画像をスケーリングし、スケーリングされた入力画像のポインタの位置にカーソル32を合成し、カーソル32が合成された合成画像に基づいて投影画面31を投影する。従って、検出されたポインタの位置を可視化して投影画面31に反映させることができる。   The CPU 10 also scales the input image with the calculated scaling factor, combines the cursor 32 at the position of the pointer of the scaled input image, and projects the projection screen 31 based on the combined image into which the cursor 32 is combined. . Therefore, the position of the detected pointer can be visualized and reflected on the projection screen 31.

なお、上記実施形態における記述内容は、本発明に係る投影システムの好適な一例であり、これに限定されるものではない。   In addition, the description content in the said embodiment is a suitable example of the projection system which concerns on this invention, and is not limited to this.

例えば、上記実施形態においては、ポインティング装置2が光センサ21を備え、スクリーン3に対して赤外光によって形成された位置検出用画像を投影し、この位置検出用投影画像を光センサ21で受光することによりポインティング装置2の指示した位置座標を取得することとしたが、これに限定されない。例えば、投影装置1にスクリーン3の投影画面31を撮影する撮影手段を設け、この撮影手段により取得された撮影画像に基づいてポインティング装置2の位置座標を取得することとしてもよい。   For example, in the above embodiment, the pointing device 2 includes the light sensor 21, projects the position detection image formed by the infrared light on the screen 3, and receives the position detection projection image by the light sensor 21. Although it has been decided to acquire the position coordinates designated by the pointing device 2 by doing this, the present invention is not limited to this. For example, the projection device 1 may be provided with photographing means for photographing the projection screen 31 of the screen 3 and position coordinates of the pointing device 2 may be acquired based on the photographed image acquired by the photographing means.

また、例えば、上記実施形態においては、フィルタ数設定処理により設定されたフィルタ数分の座標を平均化することによりポインタの座標を検出することとしたが、例えば、フィルタ数分の座標に対し、取得された時期によって重み付けを行ってから(例えば、新しく取得された座標ほど重みを高くする等)平均化を行うこととしてもよい。   Further, for example, in the above embodiment, the coordinates of the pointer are detected by averaging the coordinates of the number of filters set by the process of setting the number of filters. The weighting may be performed according to the acquired time (for example, the weight of the newly acquired coordinate may be increased), and the averaging may be performed.

また、上記実施形態においては、投影装置1がマイクロミラー素子を利用したDLP(Digital Light Processing)(登録商標)プロジェクタである場合を例にとり説明したが、これに限定されず、例えば、CRTプロジェクタ、液晶プロジェクタ等のその他の方式のプロジェクタであってもよい。
その他、投影システムを構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。
In the above embodiment, the projector 1 is a digital light processing (DLP) (registered trademark) projector using a micro mirror element as an example. However, the present invention is not limited to this. For example, a CRT projector, It may be a projector of another type such as a liquid crystal projector.
In addition, the detailed configuration and the detailed operation of each device constituting the projection system can be appropriately modified without departing from the scope of the invention.

以上に本発明の実施形態を説明したが、本発明の技術的範囲は上述の実施の形態に限定するものではなく、特許請求の範囲に記載に基づいて定められる。更に、特許請求の範囲の記載から本発明の本質とは関係のない変更を加えた均等な範囲も本発明の技術的範囲に含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
入力画像の解像度と投影画面の解像度とに基づいて、前記入力画像のスケーリング倍率を算出する算出手段と、
前記算出手段により算出されたスケーリング倍率に基づいて、前記入力画像に基づく投影画面上のポインタの位置を検出する際に用いるフレーム数を設定する設定手段と、
前記投影画面上でポインティング装置により指示された位置の座標を取得する取得手段と、
前記設定手段により設定されたフレーム数分の前記取得手段により取得された座標に基づいて、前記入力画像に基づく投影画面上のポインタの座標を検出する検出手段と、
を備える投影装置。
<請求項2>
前記検出手段は、前記設定手段により設定されたフレーム数分の前記取得手段により取得された座標を平均化し、当該平均化した座標を前記入力画像に基づく投影画面上のポインタの座標として検出する請求項1に記載の投影装置。
<請求項3>
前記設定手段は、前記スケーリング倍率がダウンスケーリングの場合は、前記座標数を予め定められた基準よりも多く設定する請求項1又は2に記載の投影装置。
<請求項4>
前記設定手段は、前記スケーリング倍率がアップスケーリングの場合は、前記座標数を予め定められた基準よりも少なく設定する請求項1〜3の何れか一項に記載の投影装置。
<請求項5>
前記入力画像を前記算出されたスケーリング倍率でスケーリングするスケーリング手段と、
前記スケーリングされた入力画像の前記検出されたポインタの位置にポインタ画像を合成する合成手段と、
前記ポインタ画像が合成された合成画像に基づいて前記入力画像に基づく投影画面を投影する投影手段と、
を備える請求項1〜4の何れか一項に記載の投影装置。
<請求項6>
コンピュータを、
入力画像の解像度と投影画面の解像度とに基づいて、前記入力画像のスケーリング倍率を算出する算出手段、
前記算出手段により算出されたスケーリング倍率に基づいて、前記入力画像に基づく投影画面上のポインタの位置を検出する際に用いるフレーム数を設定する設定手段、
前記投影画面上でポインティング装置により指示された位置の座標を取得する取得手段、
前記設定手段により設定されたフレーム数分の前記取得手段により取得された座標に基づいて、前記入力画像に基づく投影画面上のポインタの座標を検出する検出手段、
として機能させるためのプログラム。
Although the embodiments of the present invention have been described above, the technical scope of the present invention is not limited to the above-described embodiments, and may be determined based on the claims. Furthermore, the equivalent scope which added the change which is not related to the essence of this invention from description of a claim is also included in the technical scope of this invention.
In the following, the invention described in the claims initially attached to the request for this application is appended. The item numbers of the claims described in the appendix are as in the claims attached at the beginning of the application for this application.
[Supplementary Note]
<Claim 1>
Calculating means for calculating a scaling factor of the input image based on the resolution of the input image and the resolution of the projection screen;
Setting means for setting the number of frames used when detecting the position of the pointer on the projection screen based on the input image based on the scaling factor calculated by the calculation means;
Acquisition means for acquiring coordinates of a position designated by a pointing device on the projection screen;
A detection unit that detects coordinates of a pointer on a projection screen based on the input image based on the coordinates acquired by the acquisition unit for the number of frames set by the setting unit;
A projection device comprising:
<Claim 2>
The detection means averages the coordinates acquired by the acquisition means for the number of frames set by the setting means, and detects the averaged coordinates as coordinates of a pointer on a projection screen based on the input image. Item 1. A projection device according to item 1.
<Claim 3>
The projection apparatus according to claim 1, wherein the setting unit sets the number of coordinates more than a predetermined reference when the scaling factor is downscaling.
<Claim 4>
The projection apparatus according to any one of claims 1 to 3, wherein the setting unit sets the number of coordinates smaller than a predetermined reference when the scaling factor is upscaling.
<Claim 5>
Scaling means for scaling the input image by the calculated scaling factor;
Combining means for combining a pointer image at the position of the detected pointer of the scaled input image;
Projection means for projecting a projection screen based on the input image based on the synthesized image obtained by synthesizing the pointer image;
The projection apparatus according to any one of claims 1 to 4, comprising:
<Claim 6>
Computer,
Calculating means for calculating a scaling factor of the input image based on the resolution of the input image and the resolution of the projection screen;
Setting means for setting the number of frames used when detecting the position of the pointer on the projection screen based on the input image based on the scaling factor calculated by the calculation means;
Acquisition means for acquiring coordinates of a position designated by a pointing device on the projection screen;
A detection unit that detects coordinates of a pointer on a projection screen based on the input image based on the coordinates acquired by the acquisition unit for the number of frames set by the setting unit;
Program to function as.

100 投影システム
1 投影装置
10 CPU
11 ROM
11a プログラム
11b フィルタ数取得テーブル
12 RAM
12a フィルタ数設定領域
12b 座標データ記憶領域
13 映像信号入力部
14 光照射装置
15 表示素子
16 投影レンズ
17 レンズ制御部
18 無線通信部
19 オーディオデバイス
101 キー入力部
102 USBコントローラ
2 ポインティング装置
20 制御部
21 光センサ
22 操作部
23 無線通信部
3 スクリーン
31 投影画面
32 カーソル
4 PC
100 Projection system 1 Projection device 10 CPU
11 ROM
11a program 11b filter number acquisition table 12 RAM
12a Filter number setting area 12b Coordinate data storage area 13 Video signal input unit 14 Light irradiation device 15 Display element 16 Projection lens 17 Lens control unit 18 Wireless communication unit 19 Audio device 101 Key input unit 102 USB controller 2 Pointing device 20 Control unit 21 Optical sensor 22 Operation unit 23 Wireless communication unit 3 Screen 31 Projection screen 32 Cursor 4 PC

Claims (7)

入力画像の解像度と表示面の解像度とに基づいて、前記入力画像に基づく投影画面上のポインタの位置を検出する際に用いるフレーム数を設定する設定手段と、
前記表示面上でポインティング装置により指示された位置の座標を取得する取得手段と、
前記設定手段により設定されたフレーム数分の前記取得手段により取得された座標に基づいて、前記入力画像に基づく表示面上のポインタの座標を検出する検出手段と、
を備える検出装置。
Setting means for setting the number of frames used when detecting the position of the pointer on the projection screen based on the input image based on the resolution of the input image and the resolution of the display surface;
Acquisition means for acquiring coordinates of a position designated by a pointing device on the display surface;
A detection unit that detects coordinates of a pointer on a display surface based on the input image based on the coordinates acquired by the acquisition unit for the number of frames set by the setting unit;
A detection device comprising:
前記検出手段は、前記設定手段により設定されたフレーム数分の前記取得手段により取得された座標を平均化し、当該平均化した座標を前記入力画像に基づく投影画面上のポインタの座標として検出する請求項1に記載の検出装置。   The detection means averages the coordinates acquired by the acquisition means for the number of frames set by the setting means, and detects the averaged coordinates as coordinates of a pointer on a projection screen based on the input image. The detection device according to Item 1. 前記設定手段は、スケーリング倍率がダウンスケーリングの場合は、前記フレーム数を予め定められた基準よりも多く設定する請求項1又は2に記載の検出装置。 The setting means, if scaling magnification is downscaling, detecting device according to claim 1 or 2 set many than a predetermined reference number the frames. 前記設定手段は、前記スケーリング倍率がアップスケーリングの場合は、前記フレーム数を予め定められた基準よりも少なく設定する請求項3に記載の検出装置。 The detection apparatus according to claim 3, wherein the setting unit sets the number of frames smaller than a predetermined reference when the scaling factor is upscaling. 前記入力画像を前記算出されたスケーリング倍率でスケーリングするスケーリング手段と、
前記スケーリングされた入力画像の前記検出されたポインタの位置にポインタ画像を合成する合成手段と、
前記ポインタ画像が合成された合成画像に基づいて前記入力画像に基づく投影画面を投影する投影手段と、
を備える請求項3又は4の何れか一項に記載の検出装置。
Scaling means for scaling the input image by the calculated scaling factor;
Combining means for combining a pointer image at the position of the detected pointer of the scaled input image;
Projection means for projecting a projection screen based on the input image based on the synthesized image obtained by synthesizing the pointer image;
The detection apparatus as described in any one of Claim 3 or 4 provided with.
検出装置を用いて実行される検出方法であって、
入力画像の解像度と表示面の解像度とに基づいて、前記入力画像に基づく投影画面上のポインタの位置を検出する際に用いるフレーム数を設定する設定ステップと、
前記表示面上でポインティング装置により指示された位置の座標を取得する取得ステップと、
前記設定ステップにより設定されたフレーム数分の前記取得ステップにより取得された座標に基づいて、前記入力画像に基づく表示面上のポインタの座標を検出する検出ステップと、
を含む検出方法。
A detection method implemented using a detection device, comprising
Setting the number of frames used when detecting the position of the pointer on the projection screen based on the input image based on the resolution of the input image and the resolution of the display surface;
An acquisition step of acquiring coordinates of a position designated by a pointing device on the display surface;
Detecting the coordinates of the pointer on the display surface based on the input image based on the coordinates acquired by the acquisition step for the number of frames set by the setting step;
Detection methods including:
コンピュータを、
入力画像の解像度と表示面の解像度とに基づいて、前記入力画像に基づく投影画面上のポインタの位置を検出する際に用いるフレーム数を設定する設定手段、
前記表示面上でポインティング装置により指示された位置の座標を取得する取得手段、
前記設定手段により設定されたフレーム数分の前記取得手段により取得された座標に基づいて、前記入力画像に基づく表示面上のポインタの座標を検出する検出手段、
として機能させるためのプログラム。
Computer,
Setting means for setting the number of frames used when detecting the position of the pointer on the projection screen based on the resolution of the input image and the resolution of the display surface;
Acquisition means for acquiring coordinates of a position designated by a pointing device on the display surface;
A detection unit that detects coordinates of a pointer on a display surface based on the input image, based on the coordinates acquired by the acquisition unit for the number of frames set by the setting unit;
Program to function as.
JP2017243451A 2017-12-20 2017-12-20 Detection apparatus, detection method and program Active JP6500974B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017243451A JP6500974B2 (en) 2017-12-20 2017-12-20 Detection apparatus, detection method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017243451A JP6500974B2 (en) 2017-12-20 2017-12-20 Detection apparatus, detection method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014052961A Division JP6264114B2 (en) 2014-03-17 2014-03-17 Projection apparatus and program

Publications (2)

Publication Number Publication Date
JP2018097880A JP2018097880A (en) 2018-06-21
JP6500974B2 true JP6500974B2 (en) 2019-04-17

Family

ID=62632261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017243451A Active JP6500974B2 (en) 2017-12-20 2017-12-20 Detection apparatus, detection method and program

Country Status (1)

Country Link
JP (1) JP6500974B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3810981B2 (en) * 2000-04-25 2006-08-16 パイオニア株式会社 Coordinate position detection method and display device using the same
JP2004287473A (en) * 2001-10-30 2004-10-14 Internatl Business Mach Corp <Ibm> Information processor and program
JP4136584B2 (en) * 2002-10-09 2008-08-20 キヤノン株式会社 Coordinate input device, coordinate value output method and program
JP5768639B2 (en) * 2011-09-30 2015-08-26 カシオ計算機株式会社 Pointer control device, projector and program
JP2013080361A (en) * 2011-10-04 2013-05-02 Panasonic Corp Touch panel device
JP5874401B2 (en) * 2012-01-06 2016-03-02 セイコーエプソン株式会社 Display device, projector, display system, and device switching method
JP5854928B2 (en) * 2012-05-25 2016-02-09 京セラ株式会社 Electronic device having touch detection function, program, and control method of electronic device having touch detection function

Also Published As

Publication number Publication date
JP2018097880A (en) 2018-06-21

Similar Documents

Publication Publication Date Title
USRE46976E1 (en) Image processing device, image processing method, and image processing program
EP2822267A2 (en) Method and apparatus for previewing a dual-shot image
CN109218606B (en) Image pickup control apparatus, control method thereof, and computer readable medium
KR20150113889A (en) Image processing apparatus, image processing method, and storage medium
KR102280000B1 (en) Display control apparatus, display control method, and storage medium
US20170142382A1 (en) Communication apparatus, method of controlling communication apparatus, non-transitory computer-readable storage medium
US10725723B2 (en) Image processing apparatus and image processing method for dynamic thumbnail generation of omnidirectional image
JP5768639B2 (en) Pointer control device, projector and program
KR102529479B1 (en) Control apparatus, control method, and storage medium
JP2005318177A (en) Material presentation apparatus
JP2016085380A (en) Controller, control method, and program
US8937676B2 (en) Video processing apparatus, imaging apparatus, video processing method, and storage medium
JP2013083755A (en) Display device, method of controlling display device, and program
JP2010028452A (en) Image processor and electronic camera
US20180270424A1 (en) Repositioning camera lenses during capturing of media
JP6500974B2 (en) Detection apparatus, detection method and program
JP2019062462A (en) Display unit and control apparatus thereof, and control method therefor
JP2010146328A (en) Projector, and method and program for controlling the same
JP7195816B2 (en) PROJECTION DEVICE, PROJECTION DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2011108251A (en) Presentation controller and program
JP6264114B2 (en) Projection apparatus and program
CN114979591B (en) Information processing apparatus and information processing system
TWI745992B (en) Projection apparatus and method for virtual touch control
EP4246994A1 (en) Image capture apparatus and control method therefor
JP5338248B2 (en) Image processing apparatus, electronic camera, and image processing program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190304

R150 Certificate of patent or registration of utility model

Ref document number: 6500974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150