JP2012216928A - Projection system, projection device, projection method and program - Google Patents

Projection system, projection device, projection method and program Download PDF

Info

Publication number
JP2012216928A
JP2012216928A JP2011079616A JP2011079616A JP2012216928A JP 2012216928 A JP2012216928 A JP 2012216928A JP 2011079616 A JP2011079616 A JP 2011079616A JP 2011079616 A JP2011079616 A JP 2011079616A JP 2012216928 A JP2012216928 A JP 2012216928A
Authority
JP
Japan
Prior art keywords
image
projection
projected
unit
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011079616A
Other languages
Japanese (ja)
Other versions
JP5830899B2 (en
Inventor
Kazuyasu Fukano
和靖 深野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011079616A priority Critical patent/JP5830899B2/en
Publication of JP2012216928A publication Critical patent/JP2012216928A/en
Application granted granted Critical
Publication of JP5830899B2 publication Critical patent/JP5830899B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To directly execute three-dimensional position designation and image drawing corresponding to a three-dimensional image for projection.SOLUTION: A projection system includes: an input unit 11 for inputting an image signal; a projection system (13-18) for projecting a left-eye image and a right-eye image, each having invisible position coordinate information superposed thereon, corresponding to the image signal input by the input unit 11; an antenna 26 and a pointer communication unit 24 for receiving information indicative of each position coordinate of the left-eye image and the right-eye image sent from a point device (2) and information indicative of the direction and the magnitude of external force given to the pointer device (2); and a CPU 19 for calculating, based on the received information, the designation position of the image, projected by the projection system (13-18), in a three-dimensional space, and for projecting an image obtained by adding a predetermined point image to the image projected by the projection system (13-18) according to the calculated designation position in the three-dimensional space.

Description

本発明は、立体画像の投影を行なう投影システム、投影装置、投影方法及びプログラムに関する。   The present invention relates to a projection system, a projection apparatus, a projection method, and a program for projecting a stereoscopic image.

近時、映画や液晶テレビ、携帯ゲームで立体画像の投影、表示が実用化されており、広く一般に普及しようとしている。プロジェクタ装置でこの種の立体画像の投影機能を実現しようとした場合、例えば液晶シャッタ式の専用眼鏡を用いる立体方式等であれば、液晶テレビなどと原理的に同様であるため、比較的容易に実現できるものと考えられる。   Recently, projection and display of stereoscopic images have been put into practical use in movies, liquid crystal televisions, and portable games, and they are going to spread widely. When it is intended to realize this type of stereoscopic image projection function with a projector device, for example, a stereoscopic system using liquid crystal shutter-type dedicated glasses is similar in principle to a liquid crystal television and the like. It can be realized.

しかるにプロジェクタ装置では、液晶テレビ等と異なり、投影されている画像中の任意の位置を例えばレーザポインタのような道具を用いて指示する必要が生じる場合があるが、上記レーザポインタ等では、投影画像中の2次元的な位置を示す(ポイントする)ものとなるので、例えば、投影している立体画像との奥行き方向の関係等を表現することができない。   However, unlike a liquid crystal television or the like, a projector device may need to indicate an arbitrary position in a projected image using a tool such as a laser pointer. Since it indicates (points to) a two-dimensional position in the middle, for example, the relationship in the depth direction with the projected stereoscopic image cannot be expressed.

また、GUI(グラフィカル・ユーザ・インターフェイス)を用いたコンピュータの分野では、擬似的に3次元表示されたアイテムを、筆圧感知型タブレットなどの擬似的に三次元情報を入力する装置を用いて操作する技術が考えられている。(例えば、特許文献1)   In the field of computers using a GUI (graphical user interface), an item displayed in a pseudo three-dimensional manner is operated using a device that inputs pseudo three-dimensional information such as a pressure-sensitive tablet. Technology to do is considered. (For example, Patent Document 1)

特開平11−007372号公報JP-A-11-007372

上記特許文献は、GUIを用いたコンピュータで、タブレットなどの間接的な操作で位置を指定するポインタとして考えられた技術であり、表示された画像中の任意の位置を直接指示できるものではない。そのため、プロジェクタ装置のような投影装置で、投影する立体画像中の位置を直接指示するような技術には適用できない。   The above-mentioned patent document is a technology that is considered as a pointer for designating a position by an indirect operation of a tablet or the like with a computer using a GUI, and cannot directly designate an arbitrary position in a displayed image. Therefore, it cannot be applied to a technique that directly indicates a position in a stereoscopic image to be projected by a projection apparatus such as a projector apparatus.

本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、投影する3次元画像に対応して立体的なポインティングや描画等を直接実行することが可能な投影システム、投影装置、投影方法及びプログラムを提供することにある。   The present invention has been made in view of the above circumstances, and the object of the present invention is a projection system capable of directly executing three-dimensional pointing and drawing corresponding to a three-dimensional image to be projected, To provide a projection device, a projection method, and a program.

本発明の一態様は、投影装置と、この投影装置が投影する画像中の任意位置を指定するポイント装置とを有する投影システムであって、上記ポイント装置は、上記投影装置が投影する左目用画像及び右目用画像に向けてポイント操作された際、該各画像に重畳されている各位置座標を示す情報を読取って復調する位置取得手段と、上記ポイント操作時に装置に与えられる外力の方向及び大きさを検知する操作検知手段と、上記位置取得手段で得た各位置座標を示す情報と上記操作検知手段で検知した外力の方向及び大きさを示す情報とを上記投影装置に対して送信する送信手段とを備え、上記投影装置は、画像信号を入力する入力手段と、上記入力手段で入力した画像信号に対応し、それぞれに不可視の位置座標情報を重畳した左目用画像と右目用画像とを投影する投影手段と、上記ポイント装置の送信手段から送られてくる、左目用画像及び右目用画像の各位置座標を示す情報と、外力の方向及び大きさを示す情報とを受信する受信手段と、上記受信手段で受信した情報に基づき、上記投影手段で投影している画像の3次元空間中の指定位置を算出する位置算出手段と、上記位置算出手段で算出した3次元空間中の指定位置に従って上記投影手段で投影する画像中に所定のポイント画像を加えて投影させる投影制御手段とを備えることを特徴とする。   One aspect of the present invention is a projection system that includes a projection device and a point device that designates an arbitrary position in an image projected by the projection device, and the point device is a left-eye image projected by the projection device. And position acquisition means for reading and demodulating information indicating each position coordinate superimposed on each image when the point operation is performed toward the right-eye image, and the direction and magnitude of the external force applied to the apparatus during the point operation. A transmission for transmitting to the projection apparatus information indicating the position coordinates obtained by the position acquisition means and information indicating the direction and magnitude of the external force detected by the operation detection means. The projection device includes: an input unit that inputs an image signal; and an image for the left eye that corresponds to the image signal input by the input unit and in which invisible position coordinate information is superimposed on each of the image signal Projecting means for projecting the eye image, information indicating the position coordinates of the image for the left eye and the image for the right eye, and information indicating the direction and magnitude of the external force sent from the transmitting means of the point device. A receiving means for receiving, a position calculating means for calculating a designated position in a three-dimensional space of an image projected by the projecting means based on information received by the receiving means, and a three-dimensional value calculated by the position calculating means. Projection control means for adding a predetermined point image to an image projected by the projection means according to a specified position in space and projecting the image.

本発明によれば、投影する3次元画像に対応して立体的なポインティングや描画等を直接実行することが可能となる。   According to the present invention, it is possible to directly execute three-dimensional pointing, drawing, or the like corresponding to a three-dimensional image to be projected.

本発明の一実施形態に係る投影システムの概略構成を示す図。The figure which shows schematic structure of the projection system which concerns on one Embodiment of this invention. 同実施形態に係るデータプロジェクタ装置内部の機能構成を示すブロック図。FIG. 3 is a block diagram showing a functional configuration inside the data projector apparatus according to the embodiment. 同実施形態に係るポイントペン内部の機能構成を示すブロック図。The block diagram which shows the function structure inside the point pen which concerns on the same embodiment. 同実施形態に係るデータプロジェクタ装置で投影動作時に実行する主としてポイントペン操作に伴う描画処理の内容を示すフローチャート。9 is a flowchart showing the contents of a drawing process mainly accompanying a point pen operation that is executed during a projection operation in the data projector apparatus according to the embodiment.

以下本発明をDLP(登録商標)方式のデータプロジェクタ装置を含む3D投影システムに適用した場合の一実施形態について図面を参照して説明する。
図1は、上記3D投影システムの概略構成を示す。同図で1がデータプロジェクタ装置、2が上記データプロジェクタ装置1専用のポイントペンであり、データプロジェクタ装置1とポイントペン2とは例えばBluetooth(登録商標)技術により無線接続される。データプロジェクタ装置1は外部接続される機器、あるいはUSBメモリ等に記録された画像ファイルから入力する画像信号に応じた画像を、投影対象のスクリーンSCに投影する。
Hereinafter, an embodiment in which the present invention is applied to a 3D projection system including a DLP (registered trademark) type data projector apparatus will be described with reference to the drawings.
FIG. 1 shows a schematic configuration of the 3D projection system. In FIG. 1, reference numeral 1 denotes a data projector device, and 2 denotes a point pen dedicated to the data projector device 1. The data projector device 1 and the point pen 2 are wirelessly connected by, for example, Bluetooth (registered trademark) technology. The data projector apparatus 1 projects an image corresponding to an image signal input from an externally connected device or an image file recorded in a USB memory or the like onto a screen SC to be projected.

データプロジェクタ装置1が投影する画像は、肉眼では不可視であるが本来の画像に対して各画素領域毎に位置座標情報が階調表現上でPWM変調して重畳されている。   The image projected by the data projector apparatus 1 is invisible to the naked eye, but the position coordinate information is superimposed on the original image by PWM modulation on the gradation expression for each pixel area.

加えてデータプロジェクタ装置1が投影する画像は、時分割で左目用画像と右目用画像が交互に出力される。スクリーンSCに投影された画像を見るユーザは、3Dメガネ3を装着することで、投影画像に同期して左目と右目が交互にレンズ面に形成された液晶シャッタにより遮蔽されるため、左目用画像と右目用画像とが正しく視認され、3D(立体)画像として認識することができる。   In addition, the image projected by the data projector apparatus 1 is alternately output as a left-eye image and a right-eye image by time division. The user who views the image projected on the screen SC wears the 3D glasses 3, and the left eye and the right eye are shielded by the liquid crystal shutter formed alternately on the lens surface in synchronization with the projected image. And the right-eye image are correctly recognized and can be recognized as a 3D (stereoscopic) image.

ポイントペン2は、詳しくは後述するが、内部に受光系及び上記位置座標信号の復調回路を備え、投影画像中の任意の位置をポイントとすることにより、そのポイント位置の位置座標信号を復調し、その時点でポイントペン2を操作した際の外力を示す情報と共にプロジェクタ1に送信する。   As will be described in detail later, the point pen 2 includes a light receiving system and a demodulating circuit for the position coordinate signal, and demodulates the position coordinate signal at the point position by setting an arbitrary position in the projected image as a point. Then, the information indicating the external force when the point pen 2 is operated at that time is transmitted to the projector 1.

これを受けたデータプロジェクタ装置1は、例えば投影画像中の該当位置に図示する如くポインタ画像PTを重ねて投影させる。   Receiving this, the data projector device 1 projects the pointer image PT on the corresponding position in the projection image, for example, as shown in the figure.

次に図2により上記データプロジェクタ装置1の概略機能構成を説明する。
同図で11は入力部であり、例えばビデオ入力端子、RGB入力端子、VGA端子などを備え、これらのいずれかの端子に与えられる画像信号に対し、必要に応じてデジタル化した後に、システムバスSB1を介して画像変換部13に送る。
Next, the schematic functional configuration of the data projector apparatus 1 will be described with reference to FIG.
In the figure, reference numeral 11 denotes an input unit which includes, for example, a video input terminal, an RGB input terminal, a VGA terminal and the like. The image is sent to the image conversion unit 13 via SB1.

また、12はUSB(Universal Serial Bus)インタフェース(I/F)であり、Universal Serial Bus端子を備える。図示しないUSBケーブルを用い、外部機器として例えばパーソナルコンピュータを接続した場合、データプロジェクタ装置1にはUSBのアイソクロナス転送により静止画、動画や音声等のデジタルデータが入力可能となる。   Reference numeral 12 denotes a USB (Universal Serial Bus) interface (I / F), which includes a Universal Serial Bus terminal. When, for example, a personal computer is connected as an external device using a USB cable (not shown), digital data such as a still image, a moving image, and sound can be input to the data projector apparatus 1 by USB isochronous transfer.

しかるに、入力部11またはUSBインタフェース12を介して入力した画像信号に対し、スケーラとも称される画像変換部13が投影に適した所定のフォーマットの画像データに変換して投影処理部14へ送る。   However, the image conversion unit 13, also called a scaler, converts the image signal input via the input unit 11 or the USB interface 12 into image data of a predetermined format suitable for projection, and sends the image data to the projection processing unit 14.

この際、OSD(On Screen Display)用の各種動作状態を示すシンボル、上述したポインタ画像PT等の画像データも必要に応じて画像変換部13が画像データに重畳加工し、加工後の画像データを投影処理部14へ送る。   At this time, the image conversion unit 13 also superimposes the image data such as symbols indicating various operation states for OSD (On Screen Display) and the above-described image data such as the pointer image PT on the image data as necessary, and converts the processed image data into the image data. The image is sent to the projection processing unit 14.

投影処理部14は、内部に表示用のメモリ(ビデオメモリ)を有し、送られてきた画像データに応じて、所定のフォーマットに従ったフレームレート、例えば120[フレーム/秒](左目用画像及び右目用画像共に60[フレーム/秒])と色成分の分割数、及び表示階調数を乗算した、より高速な時分割駆動により、上記表示用のメモリに記憶したデータを用いて空間的光変調素子であるマイクロミラー素子15を表示するべく駆動する。   The projection processing unit 14 has a display memory (video memory) inside, and according to the transmitted image data, a frame rate according to a predetermined format, for example, 120 [frames / second] (left-eye image). And the right-eye image are multiplied by 60 [frames / second]), the number of divisions of the color component, and the number of display gradations, and the data stored in the display memory is spatially generated by faster time-division driving. The micromirror element 15 which is a light modulation element is driven to display.

このマイクロミラー素子15は、アレイ状に配列された複数、例えばWXGA(Wide eXtended Graphic Array)(横1280画素×縦800画素)分の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して画像を表示することで、その反射光により光像を形成する。   The micromirror element 15 is individually turned on / off at a high speed for each inclination angle of a plurality of micromirrors arranged in an array, for example, WXGA (Wide eXtended Graphics Array) (1280 pixels × 800 pixels). By displaying the image, an optical image is formed by the reflected light.

このときマイクロミラー素子15で表示する画像には、肉眼では不可視であるが本来の画像に対して各画素領域毎に位置座標情報が階調表現上でPWM変調して重畳されている。   At this time, the image displayed by the micromirror element 15 is invisible to the naked eye, but the position coordinate information for each pixel region is superimposed on the original image by PWM modulation on the gradation expression.

一方で、光源部16から時分割でR,G,Bの原色光を含む複数色の光が循環的に時分割で順次出射される。この光源部16からの光が、ミラー17で全反射して上記マイクロミラー素子15に照射される。   On the other hand, light of a plurality of colors including primary color lights of R, G, and B is sequentially emitted in a time division manner from the light source unit 16 in a time division manner. The light from the light source unit 16 is totally reflected by the mirror 17 and applied to the micromirror element 15.

そして、マイクロミラー素子15での反射光で光源光の色に応じた光像が形成され、形成された光像が投影レンズ部18を介して、投影対象となる図示しないスクリーンに投影表示される。   Then, a light image corresponding to the color of the light source light is formed by the reflected light from the micromirror element 15, and the formed light image is projected and displayed on a screen (not shown) to be projected via the projection lens unit 18. .

上記各回路の動作すべてをCPU19が制御する。このCPU19は、メインメモリ20及びプログラムメモリ21と直接接続される。メインメモリ20は、例えばSRAMで構成され、CPU19のワークメモリとして機能する。プログラムメモリ21は、電気的に書換可能な不揮発性メモリで構成され、CPU19が実行する動作プログラムや各種定型データ等を記憶する。CPU19は、上記メインメモリ20及びプログラムメモリ21を用いて、このデータプロジェクタ装置1内の制御動作を実行する。   The CPU 19 controls all the operations of the above circuits. The CPU 19 is directly connected to the main memory 20 and the program memory 21. The main memory 20 is composed of, for example, an SRAM and functions as a work memory for the CPU 19. The program memory 21 is composed of an electrically rewritable nonvolatile memory, and stores an operation program executed by the CPU 19 and various fixed data. The CPU 19 uses the main memory 20 and the program memory 21 to execute a control operation in the data projector device 1.

上記CPU19は、操作部22からのキー操作信号に応じて各種投影動作を実行する。
この操作部22は、データプロジェクタ装置1の本体に設けられるキー操作部と、このデータプロジェクタ装置1専用の図示しないリモートコントローラからの赤外光を受光する赤外線受光部とを含み、ユーザが本体のキー操作部またはリモートコントローラで操作したキーに基づくキー操作信号をCPU19へ直接出力する。
The CPU 19 executes various projection operations in accordance with key operation signals from the operation unit 22.
The operation unit 22 includes a key operation unit provided in the main body of the data projector device 1 and an infrared light receiving unit that receives infrared light from a remote controller (not shown) dedicated to the data projector device 1. A key operation signal based on the key operated by the key operation unit or the remote controller is directly output to the CPU 19.

上記CPU19はさらに、上記システムバスSB1を介して音声処理部23、ポインタ通信部24とも接続される。音声処理部23は、PCM音源等の音源回路を備え、投影動作時に与えられる音声データをアナログ化し、スピーカ部25を駆動して拡声放音させ、あるいは必要によりビープ音等を発生させる。   The CPU 19 is further connected to an audio processing unit 23 and a pointer communication unit 24 via the system bus SB1. The sound processing unit 23 includes a sound source circuit such as a PCM sound source, converts the sound data given during the projection operation into an analog signal, drives the speaker unit 25 to emit a loud sound, or generates a beep sound or the like as necessary.

ポインタ通信部24は、アンテナ26を介して上記ポイントペン2と無線接続し、ポイントペン2から送られてくる座標情報やポイントペン2に与えられた外力に応じた検知信号、及びポイントペン2に備えられる各種キーの操作信号等を受信して上記CPU19へ送出する。   The pointer communication unit 24 is wirelessly connected to the point pen 2 through the antenna 26, and the detection signal according to the coordinate information sent from the point pen 2 and the external force applied to the point pen 2, and the point pen 2 It receives operation signals of various keys provided and sends them to the CPU 19.

次に図3により上記ポイントペン2の概略機能構成を説明する。   Next, a schematic functional configuration of the point pen 2 will be described with reference to FIG.

同図で31は受光レンズ部31である。上記スクリーンSCにこの受光レンズ部31を対向させた場合、そのスクリーンSC上のスポット位置における光の明滅が受光レンズ部31で捉えられ、受光センサ32上で結像される。受光センサ32の出力する受光信号は受光復調部33に送られる。   In the figure, reference numeral 31 denotes a light receiving lens unit 31. When the light receiving lens unit 31 is opposed to the screen SC, the blinking of light at the spot position on the screen SC is captured by the light receiving lens unit 31 and imaged on the light receiving sensor 32. The light reception signal output from the light reception sensor 32 is sent to the light reception demodulation unit 33.

受光復調部33は、送られてきた受光信号をデジタル化した後に復調することで、受光レンズ部31が対向していたスクリーンSC上の投影画像内における2次元の位置座標を取得し、取得した位置座標データを、システムバスSB2を介してCPU34へ送出する。   The light receiving demodulator 33 obtains the two-dimensional position coordinates in the projected image on the screen SC on which the light receiving lens unit 31 is facing, by demodulating the received light signal after digitizing it. The position coordinate data is sent to the CPU 34 via the system bus SB2.

このCPU34は、メインメモリ35及びプログラムメモリ36と直接接続される。メインメモリ35は、例えばSRAMで構成され、CPU34のワークメモリとして機能する。プログラムメモリ36は、電気的に書換可能な不揮発性メモリで構成され、CPU34が実行する動作プログラムや各種定型データ等を記憶する。CPU34は、上記メインメモリ35及びプログラムメモリ36を用いて、このポイントペン2内の制御動作を実行する。   The CPU 34 is directly connected to the main memory 35 and the program memory 36. The main memory 35 is composed of, for example, an SRAM and functions as a work memory for the CPU 34. The program memory 36 is composed of an electrically rewritable nonvolatile memory, and stores an operation program executed by the CPU 34, various fixed data, and the like. The CPU 34 executes the control operation in the point pen 2 using the main memory 35 and the program memory 36.

上記CPU34は、キー操作部37からのキー操作信号に応じて各種ポイント動作を実行する。
このキー操作部37は、例えばこのポイントペン2の電源キー、クリック操作に使用するクリックキー、動作メニュー選択時にメニュー項目を選択するための番号キー等を含み、それらのキー操作に基づくキー操作信号をCPU34へ直接出力する。
The CPU 34 executes various point operations in response to key operation signals from the key operation unit 37.
The key operation unit 37 includes, for example, a power key of the point pen 2, a click key used for a click operation, a number key for selecting a menu item when selecting an operation menu, and a key operation signal based on the key operation. Is directly output to the CPU 34.

上記CPU34はさらに、上記システムバスSB2を介してジャイロセンサ38、3軸加速度センサ39、及びプロジェクタ通信部40とも接続される。
ジャイロセンサ38は、例えば振動型のジャイロセンサで構成され、振動片に加わるコリオリの力から角速度を検出して、このポイントペン2がユーザの外力に操作された場合の角度を検知する。
The CPU 34 is further connected to a gyro sensor 38, a triaxial acceleration sensor 39, and a projector communication unit 40 via the system bus SB2.
The gyro sensor 38 is composed of, for example, a vibration type gyro sensor, detects an angular velocity from the Coriolis force applied to the vibration piece, and detects an angle when the point pen 2 is operated by an external force of the user.

3軸加速度センサ39は、3次元空間内に働く、重力加速度を含む加速度を検知するもので、検知した加速度を積分することでポイントペン2の移動速度を、その移動速度を積分することで移動距離を求めることができる。   The three-axis acceleration sensor 39 detects acceleration including gravitational acceleration that works in a three-dimensional space. The movement speed of the point pen 2 is integrated by integrating the detected acceleration, and the movement speed is integrated by integrating the movement speed. The distance can be determined.

したがって、ジャイロセンサ38と3軸加速度センサ39の検知出力を用いることで、CPU34はポイントペン2がユーザによってどのような方向にどの程度の大きさで操作されたのかを検知することができる。   Accordingly, by using the detection outputs of the gyro sensor 38 and the triaxial acceleration sensor 39, the CPU 34 can detect in what direction and in what size the point pen 2 is operated by the user.

プロジェクタ通信部40は、アンテナ41を介して上記データプロジェクタ装置1側と無線接続し、上記投影画像の位置座標データや上記ジャイロセンサ38、3軸加速度センサ39で検知した検知データ等をデータプロジェクタ装置1に向けて送信する。   The projector communication unit 40 is wirelessly connected to the data projector device 1 side via the antenna 41, and the data projector device detects position coordinate data of the projection image, detection data detected by the gyro sensor 38, the triaxial acceleration sensor 39, and the like. Send to 1

次に上記実施形態の動作について説明する。
なお、以下に示す動作は3D画像の投影動作時にデータプロジェクタ装置1内でCPU19の制御に基づいて実行するものである。CPU19はプログラムメモリ21に記憶されている動作プログラムやデータを読出し、メインメモリ20に展開して記憶させた上で該動作プログラムを実行する。
Next, the operation of the above embodiment will be described.
The operation described below is executed based on the control of the CPU 19 in the data projector device 1 during the 3D image projection operation. The CPU 19 reads out the operation program and data stored in the program memory 21, develops and stores the operation program and data in the main memory 20, and executes the operation program.

プログラムメモリ21に記憶されている動作プログラム等は、このデータプロジェクタ装置1の製造工場出荷時にプログラムメモリ21に記憶されていたものに加え、例えばこのデータプロジェクタ装置1のバージョンアップに際して、データプロジェクタ装置1を、上記USBインタフェース12を介してパーソナルコンピュータと接続、あるいはバージョンアップ用のソフトウェアを格納したUSBメモリをUSB端子に接続することにより外部から新たな動作プログラム等をインストールするものも含む。   The operation program stored in the program memory 21 is stored in the program memory 21 at the time of shipment of the data projector apparatus 1 from the manufacturing factory. For example, when the data projector apparatus 1 is upgraded, the data projector apparatus 1 In this case, a new operation program or the like is installed from the outside by connecting to a personal computer via the USB interface 12 or by connecting a USB memory storing software for upgrading to a USB terminal.

図4は、3D画像の投影モード時に投影する一つの画像に対し、ポイントペン2の操作に対応した処理内容を示すフローチャートである。
その当初においてCPU19は、入力部11またはUSBインタフェース12から入力される画像信号に応じた3D画像のスクリーンSCへの投影処理を実行する(ステップS101)。
FIG. 4 is a flowchart showing the processing contents corresponding to the operation of the point pen 2 for one image projected in the 3D image projection mode.
Initially, the CPU 19 performs a projection process on the screen SC of a 3D image corresponding to an image signal input from the input unit 11 or the USB interface 12 (step S101).

その上でCPU19は、それまで投影していた画像を切換えるなどの理由により当該画像の投影の終了タイミングとなったか否かを判断する(ステップS102)。
ここでまだ画像の終了タイミングとはなっていないと判断した場合、さらにCPU19はポイントペン2の描画用のキー操作、例えばクリックキーの操作があったか否かをポインタ通信部24からの受信状況により判断する(ステップS103)。
Then, the CPU 19 determines whether or not the projection end timing of the image has been reached due to reasons such as switching the image projected so far (step S102).
If it is determined that the end timing of the image has not yet been reached, the CPU 19 further determines whether or not there has been a key operation for drawing the point pen 2, for example, a click key operation, based on the reception status from the pointer communication unit 24. (Step S103).

ポイントペン2の描画用のキー操作がないと判断した場合、CPU19は上記ステップS101からの処理に戻る。   When determining that there is no drawing key operation for the point pen 2, the CPU 19 returns to the processing from step S101.

また上記ステップS103でポイントペン2の描画用のキー操作があった判断した場合は、次にその時点でポイントペン2から受信している位置座標データの内容を確認した上で(ステップS104)、当該位置座標データがあるか否かにより、その時点でポイントペン2によりスクリーンSC上の投影画像の範囲内をポイント中であるか否かを判断する(ステップS105)。   If it is determined in step S103 that the key operation for drawing the point pen 2 has been performed, after confirming the contents of the position coordinate data received from the point pen 2 at that time (step S104), Based on whether or not the position coordinate data exists, it is determined whether or not the point pen 2 is currently pointing within the range of the projected image on the screen SC (step S105).

ここで、当該位置座標データがなく、投影画像の範囲内をポイントしていないと判断した場合には、描画を行なうことができないものとして、上記ポイントペン2の描画用のキー操作を無効とし、上記ステップS101からの処理に戻る。   Here, when it is determined that there is no position coordinate data and the point within the range of the projection image is not pointed out, it is assumed that drawing cannot be performed, and the key operation for drawing the point pen 2 is invalidated, Returning to the processing from step S101.

また上記ステップS105で当該位置座標データがあり、投影画像の範囲内をポイント中であると判断するとCPU19は、あらためて左目用画像の投影タイミングに同期して投影画像でポイントしている位置の位置座標データを取得する(ステップS106)。   If it is determined in step S105 that the position coordinate data is present and the point is within the range of the projection image, the CPU 19 again determines the position coordinate of the position pointed to by the projection image in synchronization with the projection timing of the left-eye image. Data is acquired (step S106).

続けてCPU19は、右目用画像の投影タイミングに同期して投影画像でポイントしている位置の位置座標データを取得する(ステップS107)。   Subsequently, the CPU 19 acquires position coordinate data of the position pointed to in the projection image in synchronization with the projection timing of the right-eye image (step S107).

さらに、その時点でポイントペン2内のジャイロセンサ38の検知出力である角速度を取得すると共に(ステップS108)、3軸加速度センサ39の検知出力である3軸加速度を取得する(ステップS109)。   Further, at that time, the angular velocity that is the detection output of the gyro sensor 38 in the point pen 2 is acquired (step S108), and the triaxial acceleration that is the detection output of the triaxial acceleration sensor 39 is acquired (step S109).

ここで、描画が連続した描画の第1点目である場合にのみ、初期位置の設定処理を実行する(ステップS110pre)。この初期位置設定処理では、上記取得した左目用画像のポイント位置の位置座標データと右目用画像のポイント位置の位置座標データのみを用い、基準となる奥行き方向の位置(初期位置)を設定するためのもので、そのときは、上記各センサの検知出力は用いられない。   Here, only when the drawing is the first point of continuous drawing, the initial position setting process is executed (step S110pre). In this initial position setting process, only the position coordinate data of the acquired point position of the image for the left eye and the position coordinate data of the point position of the image for the right eye are used to set the position in the depth direction as a reference (initial position). In this case, the detection output of each sensor is not used.

この基準位置(初期位置)の設定は、例えば、ポイントペン2のキー操作によって行なうことができる。   This reference position (initial position) can be set by, for example, key operation of the point pen 2.

次に、上記取得した左目用画像のポイント位置の位置座標データ、右目用画像のポイント位置の位置座標データ、ジャイロセンサ38及び3軸加速度センサ39の各検知出力によりCPU19は、その時点でポイントペン2が3D投影している画像中のどの位置がポイントされ、且つそのときにポイントペン2がどの方向にどれだけの大きさで操作されたのかを算出することで、基準位置(初期位置)に対する3次元空間内での位置座標を算出する(ステップS110)。   Next, the CPU 19 uses the detected position output data of the point position of the image for the left eye, the position coordinate data of the point position of the image for the right eye, and the detection outputs of the gyro sensor 38 and the three-axis acceleration sensor 39 to execute the point pen at that time. By calculating which position in the image on which 2 is projected in 3D is pointed and at which time the point pen 2 is operated and in what size, the reference position (initial position) is calculated. The position coordinates in the three-dimensional space are calculated (step S110).

この算出結果に従ってCPU19は、ポイント位置を示す3Dの描画データを作成する(ステップS111)。この3Dの描画データの作成に際して、上記ステップS110preにより基準位置(初期位置)の設定時にのみ各センサ出力が無効化され、以後のポイントペン2の操作によりこの基準位置(初期位置)を始点(基準点)とした描画が実行されることとなる。   In accordance with the calculation result, the CPU 19 creates 3D drawing data indicating the point position (step S111). When generating the 3D drawing data, the output of each sensor is invalidated only when the reference position (initial position) is set in step S110pre, and the reference position (initial position) is set to the start point (reference position) by the subsequent operation of the point pen 2. Drawing is performed as (dot).

つまり、2点目以降の始点からの奥行き方向の変化は、上記各センサの検知出力に対して、予め設定されたパラメータ(感度係数)によって設定される。   That is, the change in the depth direction from the start point after the second point is set by a preset parameter (sensitivity coefficient) for the detection output of each sensor.

こうして作成した描画データを当該位置に上書きするように入力画像に重畳処理して投影処理部14内部の表示用メモリに設定した上で投影処理を行ない(ステップS112)、上記ステップS101からの処理に戻る。   The drawing data created in this way is superimposed on the input image so as to overwrite the position and set in the display memory inside the projection processing unit 14 to perform the projection processing (step S112), and the processing from step S101 is performed. Return.

上記動作自体は、投影している画像情報とは基本的には関係がないが、このようにして、作成した描画データを、投影されている立体画像の視差に対応するように立体表示されるようにしてもよい。   The above operation itself is basically unrelated to the projected image information, but the created drawing data is displayed in a three-dimensional manner so as to correspond to the parallax of the projected stereoscopic image. You may do it.

また、このとき投影している入力画像の画像情報、立体画像の奥行き情報を判断することにより、描画データに入力画像との関係を表す描画効果を与えることもできる。   Further, by determining the image information of the input image projected at this time and the depth information of the stereoscopic image, it is possible to give a drawing effect representing the relationship with the input image to the drawing data.

例えば、図1に示すような直方体を立体投影している場合を考える。このときポイント指示された位置が、3次元空間中で投影している画像の表面を含めてその手前に位置すると見なされる場合には、予め設定されている色、例えば黄色の実線による描画データを作成する。   For example, consider a case in which a rectangular parallelepiped as shown in FIG. At this time, when the point-indicated position is considered to be positioned in front of the projected image in the three-dimensional space, drawing data with a preset color, for example, a yellow solid line is used. create.

一方で、ポイント指示された位置が、3次元空間中で投影している画像の表面より内部(奥側)であると見なされる場合には、予め設定されている色、例えば黄色により意図的に隙間を規則的に配置して形成した点線等の描画データを作成するような動作である。   On the other hand, when the pointed position is considered to be inside (back side) from the surface of the image projected in the three-dimensional space, it is intentionally set in a preset color, for example, yellow. This is an operation for creating drawing data such as dotted lines formed by regularly arranging gaps.

例えば、ポイントペン2によりスクリーンSC上に投影された画像の範囲内をポイントする際、例えばポイントペン2をスクリーンSCの面と平行に移動させるようにユーザがポイントペン2を操作した場合には、その操作状態をジャイロセンサ38及び3軸加速度センサ39の各検知出力により判断して、投影されている画像に重ねて完全に上書きするような描画を行なう。   For example, when the user operates the point pen 2 so as to move the point pen 2 in parallel with the plane of the screen SC when pointing within the range of the image projected on the screen SC by the point pen 2, The operation state is determined by the detection outputs of the gyro sensor 38 and the triaxial acceleration sensor 39, and drawing is performed so as to completely overwrite the projected image.

一方で、ポイントペン2で投影画像をポイントした後にポイントペン2をスクリーンSC面と垂直な(奥側の)方向に押し込むような操作、あるいはポイントペン2の先端をスクリーンSC面の奥側に向けて振るような小さい幅でのスイング状の操作を行なった場合に、その操作の方向と大きさとをジャイロセンサ38及び3軸加速度センサ39の各検知出力により判断して、投影されている画像の内部に埋没するような点線等の描画を行なうことができる。   On the other hand, after pointing the projected image with the point pen 2, an operation of pushing the point pen 2 in a direction perpendicular to the screen SC plane (back side), or pointing the tip of the point pen 2 toward the back side of the screen SC plane When a swing-like operation with such a small width as to swing is performed, the direction and magnitude of the operation are determined by the detection outputs of the gyro sensor 38 and the triaxial acceleration sensor 39, and the projected image It is possible to draw a dotted line or the like that is buried inside.

このように投影される画像に対する描画データは、入力部11またはUSBインタフェース12より入力されている画像信号に対応したものとして随時、線種を表す情報と位置座標とを含むベクトルデータ化してメインメモリ20に蓄積しながら記憶しておく。   The drawing data for the image projected in this way is converted into vector data including information indicating the line type and position coordinates as needed corresponding to the image signal input from the input unit 11 or the USB interface 12, and is stored in the main memory. 20 is stored while being accumulated.

しかるに、投影する画像を切換える場合、または投影動作を終了する場合など、それまで投影していた画像の投影を終了するタイミングとなった場合、上記ステップS102でそれを判断する。   However, when it is time to end the projection of the image that has been projected so far, such as when the image to be projected is switched or when the projection operation is terminated, this is determined in step S102.

このときCPU19は、それまでメインメモリ20に記憶していた、線種を表す情報と位置座標とを含むベクトルデータ化した描画データを取り纏めて、元の画像信号に添付する描画データのファイルを作成し、作成したファイルを、USBインタフェース12を介してUSB端子にUSBメモリが装着されている場合に該USBメモリに保存させる(ステップS113)。   At this time, the CPU 19 collects the drawing data converted into vector data including the information indicating the line type and the position coordinates, which has been stored in the main memory 20 so far, and creates a drawing data file to be attached to the original image signal. Then, when the USB memory is attached to the USB terminal via the USB interface 12, the created file is stored in the USB memory (step S113).

以上で、入力された1つの画像信号に対応したポイントペン2の操作を含む処理を終了し、次に入力され画像に対する同様の処理に移行する。   Thus, the process including the operation of the point pen 2 corresponding to one input image signal is finished, and the process proceeds to the same process for the next input image.

なお、上記動作の説明では、投影画像に対してポイントペン2を用いて描画を行なうものとし、ポイントペン2のクリックキーを操作した状態での操作位置を描画するものとして説明したが、その他にも、例えば投影画像中の任意の2点、または3点を指定することで、その2点または3点を通るような直線、または平面(図形に対する切断面など)を規定するなど、上記実施形態では示さなかった種々の操作を考えることができる。   In the above description of the operation, the point pen 2 is used to draw the projected image, and the operation position in the state where the click key of the point pen 2 is operated is described. Also, for example, by specifying any two or three points in the projection image, a straight line passing through the two or three points, or a plane (such as a cut surface with respect to a figure) is defined. Various operations that were not shown can be considered.

以上詳述した如く本実施形態によれば、投影する3次元画像に対応して立体的なポインティングや描画等を直接実行することが可能となる。   As described above in detail, according to the present embodiment, it is possible to directly execute three-dimensional pointing, drawing, or the like corresponding to the three-dimensional image to be projected.

加えて上記実施形態では、入力される画像信号の視差に対応するように、ユーザが投影時にポイントペン2を用いて操作した内容に視差を与えるようにすれば、入力される画像信号に整合のとれたポイント画像を重畳することができる。   In addition, in the above embodiment, if the parallax is given to the content operated by the user using the point pen 2 at the time of projection so as to correspond to the parallax of the input image signal, the input image signal can be matched. The taken point image can be superimposed.

さらに上記実施形態では、入力される画像信号に対してユーザが投影時にポイントペン2を用いて操作した内容を保存できるものとしたので、投影段階でユーザが画像に対して付加した各種の情報を電子化して後に活用することができる。   Furthermore, in the above-described embodiment, since the contents operated by the user using the point pen 2 at the time of projection can be stored for the input image signal, various information added to the image by the user at the projection stage can be stored. It can be digitized and used later.

また上記実施形態では、投影した画像に対してユーザがポイントペン2の操作により描画等を行なった場合、その操作の仕方によって3次元空間中の位置により投影する描画部分の態様、例えば線の種類などを変えて投影させるものとしたため、より多彩な表現を用いて3次元画像のポイント操作を実現できる。   In the above embodiment, when the user performs drawing or the like on the projected image by operating the point pen 2, the aspect of the drawing portion that is projected by the position in the three-dimensional space according to the operation, for example, the type of line Since the projection is performed by changing, etc., the point operation of the three-dimensional image can be realized using more various expressions.

なお、上記実施形態はDLP(登録商標)方式のデータプロジェクタ装置を含む3D投影システムに適用した例であるが、本発明はプロジェクタ方式等を限定することなく、例えばカラー液晶パネルを用いたプロジェクタ装置を含むシステム等でも同様に適用可能となる。   Although the above embodiment is an example applied to a 3D projection system including a DLP (registered trademark) type data projector apparatus, the present invention is not limited to the projector system and the like, for example, a projector apparatus using a color liquid crystal panel. The same applies to systems including

その他、本発明は上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。上述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組み合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。   In addition, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention in the implementation stage. Further, the functions executed in the above-described embodiments may be combined as appropriate as possible. The above-described embodiment includes various stages, and various inventions can be extracted by an appropriate combination of a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the effect is obtained, a configuration from which the constituent requirements are deleted can be extracted as an invention.

以下に、本願出願の当所の特許請求の範囲に記載された発明を付記する。
請求項1記載の発明は、投影装置と、この投影装置が投影する画像中の任意位置を指定するポイント装置とを有する投影システムであって、上記ポイント装置は、上記投影装置が投影する左目用画像及び右目用画像に向けてポイント操作された際、該各画像に重畳されている各位置座標を示す情報を読取って復調する位置取得手段と、上記ポイント操作時に装置に与えられる外力の方向及び大きさを検知する操作検知手段と、上記位置取得手段で得た各位置座標を示す情報と上記操作検知手段で検知した外力の方向及び大きさを示す情報とを上記投影装置に対して送信する送信手段とを備え、上記投影装置は、画像信号を入力する入力手段と、上記入力手段で入力した画像信号に対応し、それぞれに不可視の位置座標情報を重畳した左目用画像と右目用画像とを投影する投影手段と、上記ポイント装置の送信手段から送られてくる、左目用画像及び右目用画像の各位置座標を示す情報と、外力の方向及び大きさを示す情報とを受信する受信手段と、上記受信手段で受信した情報に基づき、上記投影手段で投影している画像の3次元空間中の指定位置を算出する位置算出手段と、上記位置算出手段で算出した3次元空間中の指定位置に従って上記投影手段で投影する画像中に所定のポイント画像を加えて投影させる投影制御手段とを備えることを特徴とする。
The invention described in the claims of the present application of the present application will be appended below.
The invention according to claim 1 is a projection system having a projection device and a point device for designating an arbitrary position in an image projected by the projection device, and the point device is for the left eye projected by the projection device. When a point operation is performed toward the image and the right-eye image, position acquisition means for reading and demodulating information indicating each position coordinate superimposed on each image, and a direction of an external force applied to the apparatus during the point operation, and Operation detection means for detecting the magnitude, information indicating each position coordinate obtained by the position acquisition means, and information indicating the direction and magnitude of the external force detected by the operation detection means are transmitted to the projection apparatus. The projection apparatus includes: an input unit that inputs an image signal; and an image for left eye that corresponds to the image signal input by the input unit and in which invisible position coordinate information is superimposed on each of the image signals. Projection means for projecting the image for the right eye, information indicating the position coordinates of the image for the left eye and the image for the right eye, and information indicating the direction and magnitude of the external force sent from the transmission means of the point device Based on the information received by the receiving means, position calculating means for calculating a designated position in the three-dimensional space of the image projected by the projecting means, and 3 calculated by the position calculating means. Projection control means for adding a predetermined point image to an image projected by the projection means according to a designated position in a dimensional space and projecting the image.

請求項2記載の発明は、上記請求項1記載の発明において、上記投影装置の投影制御手段は、上記投影させる所定のポイント画像を、投影されている画像信号の視差に対応するように加えることを特徴とする。   According to a second aspect of the invention, in the first aspect of the invention, the projection control means of the projection device adds the predetermined point image to be projected so as to correspond to the parallax of the projected image signal. It is characterized by.

請求項3記載の発明は、上記請求項1または2記載の発明において、上記投影装置は、上記投影制御手段で加えて投影するポイント画像を示す画像信号を保持する保持手段と、上記投影手段で投影する画像の切換時に、上記保持手段で保持する、当該画像に加えて投影した一連のポイント画像を示す画像信号を保存する保存手段とをさらに備えることを特徴とする。   According to a third aspect of the present invention, in the first or second aspect of the invention, the projection apparatus includes a holding unit that holds an image signal indicating a point image to be projected in addition to the projection control unit, and the projection unit. The image processing apparatus further includes storage means for storing an image signal indicating a series of projected point images in addition to the image held by the holding means when the image to be projected is switched.

請求項4記載の発明は、上記請求項1乃至3いずれかに記載の発明において、上記投影装置の投影制御手段は、上記投影手段で投影する画像に応じて、加えて投影させる所定のポイント画像の態様を可変することを特徴とする。   According to a fourth aspect of the present invention, in the invention according to any one of the first to third aspects, the projection control means of the projection device further adds a predetermined point image to be projected according to the image projected by the projection means. It is characterized in that the mode of the above is variable.

請求項5記載の発明は、投影画像中の任意位置を指定するポイント装置を投影時に併用する投影装置であって、画像信号を入力する入力手段と、上記入力手段で入力した画像信号に対応し、それぞれに不可視の位置座標情報を重畳した左目用画像と右目用画像とを投影する投影手段と、上記ポイント装置から送られてくる、左目用画像及び右目用画像の各位置座標を示す情報と、ポインタ装置に与えられた外力の方向及び大きさを示す情報とを受信する受信手段と、上記受信手段で受信した情報に基づき、上記投影手段で投影している画像の3次元空間中の指定位置を算出する位置算出手段と、上記位置算出手段で算出した3次元空間中の指定位置に従って上記投影手段で投影する画像中に所定のポイント画像を加えて投影させる投影制御手段とを備えたことを特徴とする。   The invention according to claim 5 is a projection device that uses a point device for designating an arbitrary position in a projection image at the time of projection, and corresponds to the input means for inputting an image signal and the image signal input by the input means. Projecting means for projecting a left-eye image and a right-eye image on which invisible position coordinate information is superimposed, and information indicating the position coordinates of the left-eye image and the right-eye image sent from the point device; , Receiving means for receiving information indicating the direction and magnitude of the external force applied to the pointer device, and designation in the three-dimensional space of the image projected by the projection means based on the information received by the receiving means A position calculating means for calculating a position, and a projection control means for projecting by adding a predetermined point image to the image projected by the projecting means according to the designated position in the three-dimensional space calculated by the position calculating means Characterized by comprising and.

請求項6記載の発明は、投影画像中の任意位置を指定するポイント装置を投影時に併用する、画像信号を入力する入力部、及び上記入力部で入力した画像信号に対応し、それぞれに不可視の位置座標情報を重畳した左目用画像と右目用画像とを投影する投影部を備えた装置での投影方法であって、上記ポイント装置から送られてくる、左目用画像及び右目用画像の各位置座標を示す情報と、ポインタ装置に与えられた外力の方向及び大きさを示す情報とを受信する受信工程と、上記受信工程で受信した情報に基づき、上記投影部で投影している画像の3次元空間中の指定位置を算出する位置算出工程と、上記位置算出工程で算出した3次元空間中の指定位置に従って上記投影部で投影する画像中に所定のポイント画像を加えて投影させる投影制御工程とを有したことを特徴とする。   The invention according to claim 6 corresponds to an input unit for inputting an image signal, which uses a point device for designating an arbitrary position in a projected image at the time of projection, and an image signal input from the input unit, and is invisible to each of them. A projection method in a device including a projection unit that projects a left-eye image and a right-eye image on which position coordinate information is superimposed, and each position of a left-eye image and a right-eye image sent from the point device A receiving step for receiving information indicating coordinates and information indicating the direction and magnitude of an external force applied to the pointer device, and 3 of the image projected by the projection unit based on the information received in the receiving step. A position calculating step for calculating a specified position in the three-dimensional space, and a projection for adding a predetermined point image to the image projected by the projection unit according to the specified position in the three-dimensional space calculated in the position calculating step. Characterized in that and a control step.

請求項7記載の発明は、投影画像中の任意位置を指定するポイント装置を投影時に併用する、画像信号を入力する入力部、及び上記入力部で入力した画像信号に対応し、それぞれに不可視の位置座標情報を重畳した左目用画像と右目用画像とを投影する投影部を備えた装置が内蔵するコンピュータが実行するプログラムであって、上記コンピュータを、上記ポイント装置から送られてくる、左目用画像及び右目用画像の各位置座標を示す情報と、ポインタ装置に与えられた外力の方向及び大きさを示す情報とを受信する受信手段、上記受信手段で受信した情報に基づき、上記投影部で投影している画像の3次元空間中の指定位置を算出する位置算出手段、及び上記位置算出手段で算出した3次元空間中の指定位置に従って上記投影部で投影する画像中に所定のポイント画像を加えて投影させる投影制御手段として機能させることを特徴とする。   The invention according to claim 7 corresponds to an input unit for inputting an image signal, which uses a point device for designating an arbitrary position in a projection image at the time of projection, and an image signal input from the input unit, and is invisible to each of them. A program executed by a computer built in a device including a projection unit that projects a left-eye image and a right-eye image on which position coordinate information is superimposed, and the computer is sent from the point device. Based on the information received by the receiving means, receiving means for receiving information indicating the position coordinates of the image and the right-eye image and information indicating the direction and magnitude of the external force applied to the pointer device, Projecting by the projection unit according to the position calculating means for calculating the designated position in the three-dimensional space of the projected image and the designated position in the three-dimensional space calculated by the position calculating means Characterized in that to function as the projection control means to project by adding a given point image in the image.

1…データプロジェクタ装置、2…ポイントペン、3…3Dメガネ、11…入力部、12…USBインタフェース(I/F)、13…画像変換部、14…投影処理部、15…マイクロミラー素子、16…光源部、17…ミラー、18…投影レンズ部、19…CPU、20…メインメモリ、21…プログラムメモリ、22…操作部、23…音声処理部、24…ポインタ通信部、25…スピーカ部、26…アンテナ、31…受光レンズ部、32…受光センサ、33…受光復調部、34…CPU、35…メインメモリ、36…キー操作部、37…キー操作部、38…ジャイロセンサ、39…3軸加速度センサ、40…プロジェクタ通信部、41…アンテナ、SB1,SB2…システムバス、SC…スクリーン。   DESCRIPTION OF SYMBOLS 1 ... Data projector apparatus, 2 ... Point pen, 3 ... 3D glasses, 11 ... Input part, 12 ... USB interface (I / F), 13 ... Image conversion part, 14 ... Projection process part, 15 ... Micromirror element, 16 DESCRIPTION OF SYMBOLS ... Light source part, 17 ... Mirror, 18 ... Projection lens part, 19 ... CPU, 20 ... Main memory, 21 ... Program memory, 22 ... Operation part, 23 ... Sound processing part, 24 ... Pointer communication part, 25 ... Speaker part, 26 ... Antenna, 31 ... Light receiving lens part, 32 ... Light receiving sensor, 33 ... Light receiving demodulation part, 34 ... CPU, 35 ... Main memory, 36 ... Key operation part, 37 ... Key operation part, 38 ... Gyro sensor, 39 ... 3 Axis acceleration sensor, 40 ... projector communication unit, 41 ... antenna, SB1, SB2 ... system bus, SC ... screen.

Claims (7)

投影装置と、この投影装置が投影する画像中の任意位置を指定するポイント装置とを有する投影システムであって、
上記ポイント装置は、
上記投影装置が投影する左目用画像及び右目用画像に向けてポイント操作された際、該各画像に重畳されている各位置座標を示す情報を読取って復調する位置取得手段と、
上記ポイント操作時に装置に与えられる外力の方向及び大きさを検知する操作検知手段と、
上記位置取得手段で得た各位置座標を示す情報と上記操作検知手段で検知した外力の方向及び大きさを示す情報とを上記投影装置に対して送信する送信手段と
を備え、
上記投影装置は、
画像信号を入力する入力手段と、
上記入力手段で入力した画像信号に対応し、それぞれに不可視の位置座標情報を重畳した左目用画像と右目用画像とを投影する投影手段と、
上記ポイント装置の送信手段から送られてくる、左目用画像及び右目用画像の各位置座標を示す情報と、外力の方向及び大きさを示す情報とを受信する受信手段と、
上記受信手段で受信した情報に基づき、上記投影手段で投影している画像の3次元空間中の指定位置を算出する位置算出手段と、
上記位置算出手段で算出した3次元空間中の指定位置に従って上記投影手段で投影する画像中に所定のポイント画像を加えて投影させる投影制御手段と
を備える
ことを特徴とする投影システム。
A projection system having a projection device and a point device for designating an arbitrary position in an image projected by the projection device,
The point device
Position acquisition means for reading and demodulating information indicating each position coordinate superimposed on each image when the point operation is performed toward the left-eye image and the right-eye image projected by the projection device;
Operation detecting means for detecting the direction and magnitude of an external force applied to the device during the point operation;
Transmission means for transmitting information indicating the position coordinates obtained by the position acquisition means and information indicating the direction and magnitude of the external force detected by the operation detection means to the projection device;
The projection apparatus is
An input means for inputting an image signal;
Projecting means for projecting a left-eye image and a right-eye image corresponding to the image signal input by the input means, each of which is superimposed with invisible position coordinate information,
Receiving means for receiving information indicating the position coordinates of the image for the left eye and the image for the right eye and information indicating the direction and magnitude of the external force sent from the transmission means of the point device;
Position calculating means for calculating a designated position in the three-dimensional space of the image projected by the projection means based on the information received by the receiving means;
A projection system comprising: a projection control unit that projects a predetermined point image in an image projected by the projection unit according to a specified position in the three-dimensional space calculated by the position calculation unit.
上記投影装置の投影制御手段は、上記投影させる所定のポイント画像を、投影されている画像信号の視差に対応するように加えることを特徴とする請求項1記載の投影システム。   The projection system according to claim 1, wherein the projection control unit of the projection apparatus adds the predetermined point image to be projected so as to correspond to the parallax of the projected image signal. 上記投影装置は、
上記投影制御手段で加えて投影するポイント画像を示す画像信号を保持する保持手段と、
上記投影手段で投影する画像の切換時に、上記保持手段で保持する、当該画像に加えて投影した一連のポイント画像を示す画像信号を保存する保存手段と
をさらに備えることを特徴とする請求項1または2記載の投影システム。
The projection apparatus is
Holding means for holding an image signal indicating a point image to be projected in addition to the projection control means;
2. The image processing apparatus according to claim 1, further comprising a storage unit configured to store an image signal indicating a series of point images projected in addition to the image held by the holding unit when the image projected by the projection unit is switched. Or the projection system of 2.
上記投影装置の投影制御手段は、上記投影手段で投影する画像に応じて、加えて投影させる所定のポイント画像の態様を可変することを特徴とする請求項1乃至3いずれかに記載の投影システム。   4. The projection system according to claim 1, wherein the projection control unit of the projection apparatus changes a mode of a predetermined point image to be projected according to an image projected by the projection unit. 5. . 投影画像中の任意位置を指定するポイント装置を投影時に併用する投影装置であって、
画像信号を入力する入力手段と、
上記入力手段で入力した画像信号に対応し、それぞれに不可視の位置座標情報を重畳した左目用画像と右目用画像とを投影する投影手段と、
上記ポイント装置から送られてくる、左目用画像及び右目用画像の各位置座標を示す情報と、ポインタ装置に与えられた外力の方向及び大きさを示す情報とを受信する受信手段と、
上記受信手段で受信した情報に基づき、上記投影手段で投影している画像の3次元空間中の指定位置を算出する位置算出手段と、
上記位置算出手段で算出した3次元空間中の指定位置に従って上記投影手段で投影する画像中に所定のポイント画像を加えて投影させる投影制御手段と
を備えたことを特徴とする投影装置。
A projection device that uses a point device for designating an arbitrary position in a projection image at the time of projection,
An input means for inputting an image signal;
Projecting means for projecting a left-eye image and a right-eye image corresponding to the image signal input by the input means, each of which is superimposed with invisible position coordinate information,
Receiving means for receiving information indicating the position coordinates of the image for the left eye and the image for the right eye, and information indicating the direction and magnitude of the external force applied to the pointer device, sent from the point device;
Position calculating means for calculating a designated position in the three-dimensional space of the image projected by the projection means based on the information received by the receiving means;
A projection apparatus comprising: a projection control unit that projects a predetermined point image in an image projected by the projection unit according to a specified position in the three-dimensional space calculated by the position calculation unit.
投影画像中の任意位置を指定するポイント装置を投影時に併用する、画像信号を入力する入力部、及び上記入力部で入力した画像信号に対応し、それぞれに不可視の位置座標情報を重畳した左目用画像と右目用画像とを投影する投影部を備えた装置での投影方法であって、
上記ポイント装置から送られてくる、左目用画像及び右目用画像の各位置座標を示す情報と、ポインタ装置に与えられた外力の方向及び大きさを示す情報とを受信する受信工程と、
上記受信工程で受信した情報に基づき、上記投影部で投影している画像の3次元空間中の指定位置を算出する位置算出工程と、
上記位置算出工程で算出した3次元空間中の指定位置に従って上記投影部で投影する画像中に所定のポイント画像を加えて投影させる投影制御工程と
を有したことを特徴とする投影方法。
A point device that specifies an arbitrary position in the projected image is used at the time of projection, an input unit for inputting an image signal, and an image signal input by the input unit for the left eye on which invisible position coordinate information is superimposed. A projection method in an apparatus including a projection unit that projects an image and a right-eye image,
A receiving step of receiving information indicating the position coordinates of the image for the left eye and the image for the right eye, and information indicating the direction and magnitude of the external force applied to the pointer device, sent from the point device;
A position calculating step of calculating a designated position in the three-dimensional space of the image projected by the projection unit based on the information received in the receiving step;
A projection control step of projecting a predetermined point image to an image projected by the projection unit according to a specified position in the three-dimensional space calculated in the position calculation step.
投影画像中の任意位置を指定するポイント装置を投影時に併用する、画像信号を入力する入力部、及び上記入力部で入力した画像信号に対応し、それぞれに不可視の位置座標情報を重畳した左目用画像と右目用画像とを投影する投影部を備えた装置が内蔵するコンピュータが実行するプログラムであって、
上記コンピュータを、
上記ポイント装置から送られてくる、左目用画像及び右目用画像の各位置座標を示す情報と、ポインタ装置に与えられた外力の方向及び大きさを示す情報とを受信する受信手段、
上記受信手段で受信した情報に基づき、上記投影部で投影している画像の3次元空間中の指定位置を算出する位置算出手段、及び
上記位置算出手段で算出した3次元空間中の指定位置に従って上記投影部で投影する画像中に所定のポイント画像を加えて投影させる投影制御手段
として機能させることを特徴とするプログラム。
A point device that specifies an arbitrary position in the projected image is used at the time of projection, an input unit for inputting an image signal, and an image signal input by the input unit for the left eye on which invisible position coordinate information is superimposed. A program executed by a computer built in an apparatus including a projection unit that projects an image and a right-eye image,
The above computer
Receiving means for receiving information indicating the position coordinates of the image for the left eye and the image for the right eye, and information indicating the direction and magnitude of the external force applied to the pointer device, sent from the point device;
Based on the information received by the receiving means, a position calculating means for calculating a specified position in the three-dimensional space of the image projected by the projection unit, and a specified position in the three-dimensional space calculated by the position calculating means. A program that functions as a projection control unit that projects a predetermined point image in an image projected by the projection unit.
JP2011079616A 2011-03-31 2011-03-31 Projection system, projection apparatus, projection method and program Active JP5830899B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011079616A JP5830899B2 (en) 2011-03-31 2011-03-31 Projection system, projection apparatus, projection method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011079616A JP5830899B2 (en) 2011-03-31 2011-03-31 Projection system, projection apparatus, projection method and program

Publications (2)

Publication Number Publication Date
JP2012216928A true JP2012216928A (en) 2012-11-08
JP5830899B2 JP5830899B2 (en) 2015-12-09

Family

ID=47269320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011079616A Active JP5830899B2 (en) 2011-03-31 2011-03-31 Projection system, projection apparatus, projection method and program

Country Status (1)

Country Link
JP (1) JP5830899B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105912101B (en) * 2016-03-31 2020-08-25 联想(北京)有限公司 Projection control method and electronic equipment
JP7121650B2 (en) 2018-12-18 2022-08-18 株式会社Subaru Load calculator and aircraft

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004094679A (en) * 2002-08-30 2004-03-25 Ricoh Co Ltd Display controller, display device with touch panel, and controlling method and control program for display device with touch panel
JP2004194033A (en) * 2002-12-12 2004-07-08 Canon Inc System for displaying three-dimensional image and method for displaying three-dimensional pointer
JP2007017516A (en) * 2005-07-05 2007-01-25 Plus Vision Corp Projector provided with function of projecting two-dimensional positional information
JP2007257639A (en) * 2006-03-20 2007-10-04 Samsung Electronics Co Ltd Pointing input device, method and system using image pattern
JP2007316929A (en) * 2006-05-25 2007-12-06 Fujitsu Ltd Information processing apparatus, information processing method and program
JP2008250960A (en) * 2007-03-30 2008-10-16 Toshiba Corp Screen position detecting device and screen position detection method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004094679A (en) * 2002-08-30 2004-03-25 Ricoh Co Ltd Display controller, display device with touch panel, and controlling method and control program for display device with touch panel
JP2004194033A (en) * 2002-12-12 2004-07-08 Canon Inc System for displaying three-dimensional image and method for displaying three-dimensional pointer
JP2007017516A (en) * 2005-07-05 2007-01-25 Plus Vision Corp Projector provided with function of projecting two-dimensional positional information
JP2007257639A (en) * 2006-03-20 2007-10-04 Samsung Electronics Co Ltd Pointing input device, method and system using image pattern
JP2007316929A (en) * 2006-05-25 2007-12-06 Fujitsu Ltd Information processing apparatus, information processing method and program
JP2008250960A (en) * 2007-03-30 2008-10-16 Toshiba Corp Screen position detecting device and screen position detection method

Also Published As

Publication number Publication date
JP5830899B2 (en) 2015-12-09

Similar Documents

Publication Publication Date Title
US11676349B2 (en) Wearable augmented reality devices with object detection and tracking
US11087728B1 (en) Computer vision and mapping for audio applications
CN111034181B (en) Image capturing apparatus, image display system, and operation method
US9824497B2 (en) Information processing apparatus, information processing system, and information processing method
US20120026376A1 (en) Anamorphic projection device
JP2015114818A (en) Information processing device, information processing method, and program
KR20150093831A (en) Direct interaction system for mixed reality environments
CN103513895A (en) Remote control apparatus and control method thereof
EP4172733A1 (en) Augmented reality eyewear 3d painting
KR20160003676A (en) Multiple laser drive system
WO2015093130A1 (en) Information processing device, information processing method, and program
US20140359437A1 (en) Method, device, and system for providing sensory information and sense
JP6603706B2 (en) Laser diode voltage source controlled by video prefetching.
US10462454B2 (en) Extensible authoring and playback platform for complex virtual reality interactions and immersive applications
JP5830899B2 (en) Projection system, projection apparatus, projection method and program
KR102590132B1 (en) Display device and controlling method thereof
KR20160072306A (en) Content Augmentation Method and System using a Smart Pen
KR102248741B1 (en) Display appaeatus and control method thereof
KR102250087B1 (en) Method and device for processing an image and recording medium thereof
JP6882147B2 (en) Operation guidance system
CN102736378A (en) Projection apparatus, projection method, and storage medium having program stored thereon
US11720313B2 (en) Display system, display method and program
US11275547B2 (en) Display system, display method, and program
US11449296B2 (en) Display system, display method, and program
CN105468171A (en) Display system and display method for display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151012

R150 Certificate of patent or registration of utility model

Ref document number: 5830899

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150