JP4807322B2 - Image processing system, image processing apparatus and method, and program - Google Patents

Image processing system, image processing apparatus and method, and program Download PDF

Info

Publication number
JP4807322B2
JP4807322B2 JP2007133758A JP2007133758A JP4807322B2 JP 4807322 B2 JP4807322 B2 JP 4807322B2 JP 2007133758 A JP2007133758 A JP 2007133758A JP 2007133758 A JP2007133758 A JP 2007133758A JP 4807322 B2 JP4807322 B2 JP 4807322B2
Authority
JP
Japan
Prior art keywords
image
light
indicating light
display
pointer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007133758A
Other languages
Japanese (ja)
Other versions
JP2008287625A (en
Inventor
智経 増野
浩之 塩谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007133758A priority Critical patent/JP4807322B2/en
Publication of JP2008287625A publication Critical patent/JP2008287625A/en
Application granted granted Critical
Publication of JP4807322B2 publication Critical patent/JP4807322B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は画像処理システム、画像処理装置および方法、並びにプログラムに関し、特に、仮想3次元空間上の位置を簡単に指定することができるようにした画像処理システム、画像処理装置および方法、並びにプログラムに関する。   The present invention relates to an image processing system, an image processing apparatus and method, and a program, and more particularly, to an image processing system, an image processing apparatus and method, and a program that can easily specify a position in a virtual three-dimensional space. .

従来、2次元の画面に対して仮想3次元空間を想定し、その仮想3次元空間における位置を指定できるプレゼンテーションシステムが提案されている。   Conventionally, a presentation system has been proposed that assumes a virtual three-dimensional space for a two-dimensional screen and can specify a position in the virtual three-dimensional space.

例えば、そのようなプレゼンテーションシステムとして、画像が表示されるスクリーンの四隅に音波センサを配置し、入力ペンからの音波信号をそれらの音波センサにより受信することで、スクリーンに表示された2次元の画像に対して設定された、仮想3次元空間における位置を指定するものもある(例えば、特許文献1参照)。このプレゼンテーションシステムにおいては、音波信号の検出を容易に行うことができるように、音波信号からエンベロープ信号を検出し、検出されたエンベロープ信号を音波信号の音波センサへの到達時間の検出に利用している。これにより、従来問題となっていた音波信号のレベル変動や反射波の影響を低減させ、安定して仮想3次元空間における位置を検出することができる。   For example, as such a presentation system, sound wave sensors are arranged at four corners of a screen on which an image is displayed, and a sound wave signal from an input pen is received by the sound wave sensor, whereby a two-dimensional image displayed on the screen. There is also one that designates a position in a virtual three-dimensional space set for (for example, see Patent Document 1). In this presentation system, the envelope signal is detected from the sound wave signal so that the sound wave signal can be easily detected, and the detected envelope signal is used to detect the arrival time of the sound wave signal to the sound wave sensor. Yes. As a result, it is possible to reduce the level fluctuation of the sound wave signal and the influence of the reflected wave, which have been problems in the past, and to stably detect the position in the virtual three-dimensional space.

また、プレゼンテーションシステムには、ディスプレイに固定された磁界発生源と、その磁界発生源からの磁気を検出する棒状の位置センサとを利用して、ディスプレイ上の仮想3次元空間におけるオブジェクトに対して、直感的に操作を行うことができるようにするものもある(例えば、特許文献2参照)。   In addition, the presentation system uses a magnetic field generation source fixed to the display and a bar-shaped position sensor that detects magnetism from the magnetic field generation source, for an object in a virtual three-dimensional space on the display, Some devices allow intuitive operation (see, for example, Patent Document 2).

さらに、プレゼンテーションシステムには、複数のカメラを用いたステレオ法により距離画像を生成し、生成した距離画像を用いて、ユーザの指先や腕などの予め定められた部位を検出することにより、仮想3次元空間内の物体を指定するものもある(例えば、特許文献3参照)。このプレゼンテーションシステムにおいては、検出されたユーザの部位により指し示される方向に位置する物体が指定されるため、ユーザは、例えばマウスなどのインターフェースを装着する必要がなく、利便性の向上が期待される。また、スクリーン上ではなく、実空間上の位置を指定することも可能であり、応用性も高いと考えられている。   Furthermore, the presentation system generates a distance image by a stereo method using a plurality of cameras, and uses the generated distance image to detect a predetermined part such as a user's fingertip or arm, thereby generating a virtual 3 Some specify an object in a dimensional space (see, for example, Patent Document 3). In this presentation system, since an object positioned in the direction indicated by the detected user's part is specified, the user does not need to wear an interface such as a mouse, and convenience is expected to be improved. . Further, it is possible to designate a position in the real space instead of on the screen, and it is considered that the applicability is high.

特開2002−351605号公報JP 2002-351605 A 特開2003−85590号公報JP 2003-85590 A 特開2004−265222号公報JP 2004-265222 A

しかしながら、上述した技術では、その特性上、検出の対象となる入力ペンやユーザの部位の位置の計測を広い範囲で行うことができないため、CRT(Cathode Ray Tube)ディスプレイ、PDP(Plasma Display Panel)、小型スクリーンなどの比較的小さい表示装置に画像を表示させ、その画像に対して想定された仮想3次元空間上の位置を指定することしかできなかった。また、上述したプレゼンテーションシステムは、周囲の環境による影響を受けやすく、確実に仮想3次元空間上の位置を指定することができない場合があった。   However, the above-mentioned technology, due to its characteristics, cannot measure the position of the input pen or the user's part to be detected in a wide range, so a CRT (Cathode Ray Tube) display, PDP (Plasma Display Panel) However, it is only possible to display an image on a relatively small display device such as a small screen and to specify a position in the virtual three-dimensional space assumed for the image. Further, the above-described presentation system is easily influenced by the surrounding environment, and there are cases where the position in the virtual three-dimensional space cannot be specified reliably.

例えば、音波信号を利用する方法では、反射波などの影響をある程度回避可能であるものの、音波信号を利用しているため、仮想3次元空間上の位置の指定に対する反応速度には音速による制限があった。そのため、スクリーンが大きくなるほど処理に時間がかかり、無視できない遅延が生じる恐れがある。また、入力ペンおよび音波センサとしての音波信号の発信機および受信機は、それほど一般的なものではないためコストが高くなってしまう。   For example, in the method using the sound wave signal, the influence of the reflected wave or the like can be avoided to some extent, but since the sound wave signal is used, the reaction speed for the designation of the position in the virtual three-dimensional space is limited by the sound speed. there were. For this reason, the larger the screen, the longer the processing takes, and a delay that cannot be ignored may occur. Moreover, since the transmitter and receiver of the sound wave signal as the input pen and the sound wave sensor are not so common, the cost becomes high.

さらに、磁界発生源および棒状の位置センサを用いる方法では、磁気を利用するため、プレゼンテーションシステムの周囲に磁気を帯びた物体等がある場合には、位置センサによる位置の計測に誤差が生じる場合がある。また、磁界発生源を用いるため、広範囲で位置センサによる位置の計測ができるようにするためには、その範囲に見合った強い磁界が必要であり、位置センサの位置の計測精度が低下したり、コストが高くなったりする恐れがある。   Furthermore, since the method using the magnetic field generation source and the rod-shaped position sensor uses magnetism, an error may occur in the position measurement by the position sensor when there is a magnetic object around the presentation system. is there. In addition, since a magnetic field generation source is used, in order to be able to measure a position by a position sensor in a wide range, a strong magnetic field corresponding to the range is required, and the position sensor position measurement accuracy is reduced, The cost may increase.

さらに、また、ユーザの所定の部位を検出する方法では、仮想3次元空間上の指定することのできる位置の範囲は、ユーザが体で示すことのできる範囲に限られる。さらに、複数のカメラを設置する必要があるため、コストが高くなってしまうだけでなく、複数のカメラにより得られた画像から指定された位置を求めるための処理時間も、より長くなってしまう。   Furthermore, in the method of detecting a predetermined part of the user, the range of positions that can be specified in the virtual three-dimensional space is limited to the range that the user can show with the body. Furthermore, since it is necessary to install a plurality of cameras, not only the cost is increased, but also the processing time for obtaining the designated position from the images obtained by the plurality of cameras becomes longer.

本発明は、このような状況に鑑みてなされたものであり、表示させる画像の大きさや周囲の環境によらず、低コストで、より確実に仮想3次元空間上の位置を指定することができるようにするものである。   The present invention has been made in view of such a situation, and the position in the virtual three-dimensional space can be more reliably specified at low cost regardless of the size of the image to be displayed and the surrounding environment. It is what you want to do.

本発明の第1の側面の画像処理システムは、表示画像を表示する表示装置と、前記表示画像に光を照射して、前記表示画像上に表示されるポインタの位置を指示する指示装置と、前記表示画像が表示されている領域を撮像する撮像装置と、前記撮像装置による撮像により得られた撮像画像に基づいて、新たに表示画像を生成する画像処理装置とから構成される画像処理システムであって、前記指示装置は、前記表示装置により表示されている前記表示画像に対して想定された仮想3次元空間上の表示位置であって、前記ポインタを表示させる表示位置を指示するための光である位置指示光を射出する位置指示光射出手段と、前記位置指示光とは異なる波長の光であり、前記位置指示光の光路と平行な方向への前記ポインタの移動を指示する方向指示光を射出する方向指示光射出手段とを備え、前記撮像装置は、前記表示画像に照射された前記位置指示光の像、および前記方向指示光の像を前記撮像画像として撮像し、前記画像処理装置は、前記撮像画像から、前記位置指示光と同じ波長の光の画像である位置指示光画像と、前記方向指示光と同じ波長の光の画像である方向指示光画像とを分離する分離手段と、前記位置指示光画像から、前記表示画像上における前記位置指示光の像の位置および形状を検出する位置指示光検出手段と、前記方向指示光画像から前記方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記方向への移動が指示されたか否かを示す方向情報を出力する方向指示光検出手段と、前記位置指示光の像の位置および形状と、出力された前記方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定手段と、前記位置特定手段により特定された前記ポインタの表示位置に対応する前記表示画像上の位置に、前記ポインタが表示された新たな表示画像を生成する表示画像生成手段とを備え、前記表示装置は、これまで表示していた前記表示画像の表示を、生成された前記新たな表示画像に切り替える。   An image processing system according to a first aspect of the present invention includes a display device that displays a display image, an instruction device that irradiates light to the display image and indicates the position of a pointer displayed on the display image, An image processing system including an imaging device that captures an area in which the display image is displayed, and an image processing device that newly generates a display image based on a captured image obtained by imaging by the imaging device. The pointing device is a light for instructing a display position on the virtual three-dimensional space assumed for the display image displayed by the display device and displaying the pointer. A position indicating light emitting means for emitting a position indicating light, and a light having a wavelength different from that of the position indicating light and instructing movement of the pointer in a direction parallel to the optical path of the position indicating light Direction indication light emitting means for emitting indication light, and the imaging device picks up the image of the position indication light and the image of the direction indication light irradiated on the display image as the captured image, and the image The processing device separates, from the captured image, a position indication light image that is an image of light having the same wavelength as the position indication light and a direction indication light image that is an image of light having the same wavelength as the direction indication light. Means for detecting the position and shape of the image of the position indicating light on the display image from the position indicating light image, and detecting the image of the direction indicating light from the direction indicating light image. Based on the detection result, direction indicating light detecting means for outputting direction information indicating whether or not movement of the pointer in the direction is instructed, and the position and shape of the image of the position indicating light are output. Said person Based on the information, the position specifying means for specifying the display position of the pointer in the virtual three-dimensional space, and the position on the display image corresponding to the display position of the pointer specified by the position specifying means, Display image generating means for generating a new display image on which the pointer is displayed, and the display device switches the display of the display image displayed so far to the generated new display image.

本発明の第1の側面においては、表示画像を表示する表示装置と、前記表示画像に光を照射して、前記表示画像上に表示されるポインタの位置を指示する指示装置と、前記表示画像が表示されている領域を撮像する撮像装置と、前記撮像装置による撮像により得られた撮像画像に基づいて、新たに表示画像を生成する画像処理装置とから構成される画像処理システムにおいて、前記指示装置により、前記表示装置により表示されている前記表示画像に対して想定された仮想3次元空間上の表示位置であって、前記ポインタを表示させる表示位置を指示するための光である位置指示光が射出され、前記位置指示光とは異なる波長の光であり、前記位置指示光の光路と平行な方向への前記ポインタの移動を指示する方向指示光が射出され、前記撮像装置により、前記表示画像に照射された前記位置指示光の像、および前記方向指示光の像が前記撮像画像として撮像され、前記画像処理装置により、前記撮像画像から、前記位置指示光と同じ波長の光の画像である位置指示光画像と、前記方向指示光と同じ波長の光の画像である方向指示光画像とが分離され、前記位置指示光画像から、前記表示画像上における前記位置指示光の像の位置および形状が検出され、前記方向指示光画像から前記方向指示光の像が検出され、その検出結果に基づいて、前記ポインタの前記方向への移動が指示されたか否かを示す方向情報が出力され、前記位置指示光の像の位置および形状と、出力された前記方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置が特定され、前記位置特定手段により特定された前記ポインタの表示位置に対応する前記表示画像上の位置に、前記ポインタが表示された新たな表示画像が生成され、前記表示装置により、これまで表示していた前記表示画像の表示が、生成された前記新たな表示画像に切り替えられる。   In the first aspect of the present invention, a display device that displays a display image, an indication device that irradiates light to the display image and indicates the position of a pointer displayed on the display image, and the display image In the image processing system including an imaging device that captures an area in which the image is displayed and an image processing device that newly generates a display image based on a captured image obtained by imaging by the imaging device, the instruction Position indication light which is a light for instructing a display position on the virtual three-dimensional space assumed for the display image displayed on the display device by the device and displaying the pointer. Is emitted, which is light having a wavelength different from that of the position indication light, and direction indication light for instructing movement of the pointer in a direction parallel to the optical path of the position indication light is emitted. An image of the position indicating light and an image of the direction indicating light irradiated on the display image are picked up as the picked-up image by the device, and the same wavelength as that of the position indicating light from the picked-up image by the image processing device. A position indicating light image that is an image of the light of the direction and a direction indicating light image that is an image of the light having the same wavelength as the direction indicating light are separated, and the position indicating light on the display image is separated from the position indicating light image A direction indicating whether or not movement of the pointer in the direction is instructed based on the detection result of detecting the position and shape of the image of the image, detecting the image of the direction indicating light from the direction indicating light image. Information is output, and the display position of the pointer in the virtual three-dimensional space is specified based on the position and shape of the image of the position indicating light and the output direction information, and the position A new display image in which the pointer is displayed is generated at a position on the display image corresponding to the display position of the pointer specified by the determination means, and the display image displayed so far by the display device Is switched to the generated new display image.

本発明の第2の側面の画像処理装置は、表示画像に対して想定された仮想3次元空間上の表示位置であり、ポインタを表示させる表示位置を特定する画像処理装置であって、前記表示画像が表示されている領域を撮像して得られる位置指示光画像であって、前記仮想3次元空間上の前記ポインタを表示させる表示位置を指示するための位置指示光と同じ波長の光の画像である位置指示光画像から、前記表示画像上における、前記表示画像に照射された前記位置指示光の像の位置および形状を検出する位置指示光検出手段と、前記表示画像が表示されている前記領域を撮像して得られる第1の方向指示光画像であって、前記位置指示光の光路と平行な第1の方向への前記ポインタの移動を指示する第1の方向指示光と同じ波長であり、前記位置指示光とは異なる波長の光の画像である第1の方向指示光画像から、前記表示画像に照射された前記第1の方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記第1の方向への移動が指示されたか否かを示す第1の方向情報を出力する第1の方向指示光検出手段と、前記位置指示光の像の位置および形状と、出力された前記第1の方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定手段とを備える。   An image processing apparatus according to a second aspect of the present invention is an image processing apparatus that is a display position in a virtual three-dimensional space assumed for a display image, and that specifies a display position for displaying a pointer. A position indicating light image obtained by imaging a region where an image is displayed, and an image of light having the same wavelength as the position indicating light for indicating the display position for displaying the pointer in the virtual three-dimensional space A position indicating light detecting means for detecting a position and a shape of an image of the position indicating light irradiated on the display image on the display image, and the display image being displayed. It is the 1st direction indication light image obtained by imaging a field, and is the same wavelength as the 1st direction indication light which instruct | indicates the movement of the said pointer to the 1st direction parallel to the optical path of the said position indication light Yes, said position An image of the first direction indicating light irradiated on the display image is detected from a first direction indicating light image which is an image of light having a wavelength different from the indication light, and the pointer is based on the detection result. First direction indicating light detecting means for outputting first direction information indicating whether or not movement in the first direction has been instructed, and the position and shape of the image of the position indicating light, and output Position specifying means for specifying the display position of the pointer in the virtual three-dimensional space based on the first direction information.

画像処理装置には、前記位置特定手段により特定された前記ポインタの表示位置に対応する前記表示画像上の位置に、前記ポインタが表示された新たな表示画像を生成する表示画像生成手段をさらに設けることができる。   The image processing apparatus further includes display image generation means for generating a new display image on which the pointer is displayed at a position on the display image corresponding to the display position of the pointer specified by the position specifying means. be able to.

前記位置指示光は、その断面を真円形状とすることができる。   The position indicating light may have a perfect circular cross section.

前記ポインタの表示位置は、前記位置指示光の像の位置に対応する前記仮想3次元空間上の位置を通り、前記位置指示光の像の形状から特定される前記第1の方向と平行な直線上の位置とすることができる。   The display position of the pointer passes through the position in the virtual three-dimensional space corresponding to the position of the image of the position indicating light, and is a straight line parallel to the first direction specified from the shape of the image of the position indicating light It can be in the upper position.

前記位置特定手段には、前記位置指示光の像の位置に対応する前記仮想3次元空間上の位置から、前記ポインタの表示位置までの長さを定める奥行き長さを記憶させ、前記第1の方向情報に基づいて前記奥行き長さを変更させ、さらに変更後の前記奥行き長さと、前記位置指示光の像の位置および形状とに基づいて、前記ポインタの表示位置を特定させることができる。   The position specifying means stores a depth length that determines a length from a position in the virtual three-dimensional space corresponding to a position of the image of the position indicating light to a display position of the pointer, and The depth length can be changed based on the direction information, and the display position of the pointer can be specified based on the changed depth length and the position and shape of the image of the position indicating light.

前記表示画像が表示されている前記領域を撮像して得られる第2の方向指示光画像であって、前記第1の方向とは反対の第2の方向への前記ポインタの移動を指示する第2の方向指示光と同じ波長であり、前記位置指示光および前記第1の方向指示光とは異なる波長の光の画像である第2の方向指示光画像から、前記表示画像に照射された前記第2の方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記第2の方向への移動が指示されたか否かを示す第2の方向情報を出力する第2の方向指示光検出手段をさらに設け、前記位置特定手段には、前記第1の方向情報および前記第2の方向情報に基づいて、前記奥行き長さを変更させることができる。   A second direction indicating light image obtained by imaging the area where the display image is displayed, wherein the pointer indicates movement of the pointer in a second direction opposite to the first direction. The display image is irradiated from a second direction indicating light image having the same wavelength as the direction indicating light of 2 and a light having a wavelength different from that of the position indicating light and the first direction indicating light. A second direction that detects an image of the second direction indicating light and outputs second direction information indicating whether or not the movement of the pointer in the second direction is instructed based on the detection result. An instruction light detection unit is further provided, and the position specifying unit can change the depth length based on the first direction information and the second direction information.

画像処理装置には、前記表示画像、前記表示画像に照射された前記位置指示光の像、および前記表示画像に照射された前記第1の方向指示光の像を前記撮像画像として撮像する撮像手段と、前記撮像画像から、前記位置指示光画像と、前記第1の方向指示光画像とを分離する分離手段とをさらに設けることができる。   In the image processing apparatus, an imaging unit that captures the display image, the image of the position indicating light irradiated on the display image, and the image of the first direction indicating light irradiated on the display image as the captured image. And a separating means for separating the position indicating light image and the first direction indicating light image from the captured image.

前記位置指示光および前記第1の方向指示光は、不可視光とすることができる。   The position indicating light and the first direction indicating light may be invisible light.

本発明の第2の側面の画像処理方法またはプログラムは、表示画像に対して想定された仮想3次元空間上の表示位置であり、ポインタを表示させる表示位置を特定する画像処理装置の画像処理方法またはプログラムであって、前記表示画像が表示されている領域を撮像して得られる位置指示光画像であって、前記仮想3次元空間上の前記ポインタを表示させる表示位置を指示するための位置指示光と同じ波長の光の画像である位置指示光画像から、前記表示画像上における、前記表示画像に照射された前記位置指示光の像の位置および形状を検出する位置指示光検出ステップと、前記表示画像が表示されている前記領域を撮像して得られる方向指示光画像であって、前記位置指示光の光路と平行な方向への前記ポインタの移動を指示する方向指示光と同じ波長であり、前記位置指示光とは異なる波長の光の画像である方向指示光画像から、前記表示画像に照射された前記方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記方向への移動が指示されたか否かを示す方向情報を出力する方向指示光検出ステップと、前記位置指示光の像の位置および形状と、出力された前記方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定ステップとを含む。   An image processing method or program according to a second aspect of the present invention is an image processing method for an image processing apparatus that specifies a display position on a virtual three-dimensional space assumed for a display image and displays a pointer. Or a position indication light image obtained by imaging a region where the display image is displayed, the program being a position indication for indicating a display position for displaying the pointer in the virtual three-dimensional space A position indicating light detecting step for detecting a position and shape of an image of the position indicating light irradiated on the display image on the display image from a position indicating light image which is an image of light having the same wavelength as the light; A direction indicating light image obtained by imaging the area where a display image is displayed, the direction indicating the movement of the pointer in a direction parallel to the optical path of the position indicating light Based on the detection result, an image of the direction indicating light irradiated on the display image is detected from a direction indicating light image that is an image of light having the same wavelength as the indicating light and a wavelength different from that of the position indicating light. A direction indicating light detecting step for outputting direction information indicating whether or not movement of the pointer in the direction is instructed, a position and shape of an image of the position indicating light, and the output direction information. And a position specifying step for specifying the display position of the pointer in the virtual three-dimensional space.

本発明の第2の側面においては、表示画像が表示されている領域を撮像して得られる位置指示光画像であって、仮想3次元空間上のポインタを表示させる表示位置を指示するための位置指示光と同じ波長の光の画像である位置指示光画像から、前記表示画像上における、前記表示画像に照射された前記位置指示光の像の位置および形状が検出され、前記表示画像が表示されている前記領域を撮像して得られる方向指示光画像であって、前記位置指示光の光路と平行な方向への前記ポインタの移動を指示する方向指示光と同じ波長であり、前記位置指示光とは異なる波長の光の画像である方向指示光画像から、前記表示画像に照射された前記方向指示光の像が検出され、その検出結果に基づいて、前記ポインタの前記方向への移動が指示されたか否かを示す方向情報が出力され、前記位置指示光の像の位置および形状と、出力された前記方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置が特定される。   In the second aspect of the present invention, a position indicating light image obtained by imaging a region where a display image is displayed, the position for indicating a display position for displaying a pointer in a virtual three-dimensional space From the position indication light image that is an image of light having the same wavelength as the indication light, the position and shape of the image of the position indication light irradiated on the display image on the display image are detected, and the display image is displayed. A direction-indicating light image obtained by imaging the region, and having the same wavelength as the direction-indicating light instructing movement of the pointer in a direction parallel to the optical path of the position-indicating light, An image of the direction indicating light irradiated on the display image is detected from a direction indicating light image that is an image of light having a wavelength different from that of the pointer, and based on the detection result, the movement of the pointer in the direction is instructed. Was Direction information indicating whether the output, the position and shape of the image of the position indicator light, on the basis of said direction information output, display position of the pointer in the virtual three-dimensional space is specified.

本発明の第1の側面によれば、仮想3次元空間上の位置を指定することができる。特に、本発明の第1の側面によれば、表示させる画像の大きさや周囲の環境によらず、低コストで、より確実に仮想3次元空間上の位置を指定することができる。   According to the first aspect of the present invention, a position in a virtual three-dimensional space can be designated. In particular, according to the first aspect of the present invention, the position in the virtual three-dimensional space can be more reliably specified at low cost regardless of the size of the image to be displayed and the surrounding environment.

本発明の第2の側面によれば、仮想3次元空間上の位置を指定することができる。特に、本発明の第2の側面によれば、表示させる画像の大きさや周囲の環境によらず、低コストで、より確実に仮想3次元空間上の位置を指定することができる。   According to the second aspect of the present invention, a position in a virtual three-dimensional space can be designated. In particular, according to the second aspect of the present invention, the position in the virtual three-dimensional space can be more reliably specified at low cost regardless of the size of the image to be displayed and the surrounding environment.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. Not something to do.

本発明の第1の側面の画像処理システム(例えば、図1のプレゼンテーションシステム11)は、表示画像を表示する表示装置(例えば、図1のプロジェクタ25)と、前記表示画像に光を照射して、前記表示画像上に表示されるポインタ(例えば、図1の3次元ポインタ31)の位置を指示する指示装置(例えば、図1のレーザポインタ22)と、前記表示画像が表示されている領域を撮像する撮像装置(例えば、図1のカメラ23)と、前記撮像装置による撮像により得られた撮像画像に基づいて、新たに表示画像を生成する画像処理装置(例えば、図1の画像処理装置24)とから構成される画像処理システムであって、前記指示装置は、前記表示装置により表示されている前記表示画像に対して想定された仮想3次元空間上の表示位置であって、前記ポインタを表示させる表示位置を指示するための光である位置指示光を射出する位置指示光射出手段(例えば、図3の不可視光レーザ81)と、前記位置指示光とは異なる波長の光であり、前記位置指示光の光路と平行な方向への前記ポインタの移動を指示する方向指示光を射出する方向指示光射出手段(例えば、図3の不可視光レーザ83または不可視光レーザ84)とを備え、前記撮像装置は、前記表示画像に照射された前記位置指示光の像、および前記方向指示光の像を前記撮像画像として撮像し、前記画像処理装置は、前記撮像画像から、前記位置指示光と同じ波長の光の画像である位置指示光画像と、前記方向指示光と同じ波長の光の画像である方向指示光画像とを分離する分離手段(例えば、図10の幾何変換処理部222)と、前記位置指示光画像から、前記表示画像上における前記位置指示光の像の位置および形状を検出する位置指示光検出手段(例えば、図10の位置指示光検出部223)と、前記方向指示光画像から前記方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記方向への移動が指示されたか否かを示す方向情報を出力する方向指示光検出手段(例えば、図10の前進指示光検出部224または後進指示光検出部225)と、前記位置指示光の像の位置および形状と、出力された前記方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定手段(例えば、図10の座標計算部226)と、前記位置特定手段により特定された前記ポインタの表示位置に対応する前記表示画像上の位置に前記ポインタが表示された新たな表示画像を生成する表示画像生成手段(例えば、図10の表示画像処理部228)とを備え、前記表示装置は、これまで表示していた前記表示画像の表示を、生成された前記新たな表示画像に切り替える。   An image processing system according to the first aspect of the present invention (for example, the presentation system 11 in FIG. 1) includes a display device (for example, the projector 25 in FIG. 1) that displays a display image, and irradiates the display image with light. An instruction device (for example, the laser pointer 22 in FIG. 1) for indicating the position of a pointer (for example, the three-dimensional pointer 31 in FIG. 1) displayed on the display image, and an area in which the display image is displayed An image capturing apparatus that captures an image (for example, the camera 23 in FIG. 1) and an image processing apparatus that newly generates a display image based on the captured image obtained by capturing with the image capturing apparatus (for example, the image processing apparatus 24 in FIG. 1). ), Wherein the pointing device displays a display position in a virtual three-dimensional space assumed for the display image displayed by the display device. The position indicating light emitting means (for example, the invisible light laser 81 in FIG. 3) for emitting position indicating light that is light for indicating the display position for displaying the pointer is different from the position indicating light. Direction indicating light emitting means (for example, the invisible light laser 83 or the invisible light laser shown in FIG. 3) that emits a direction indicating light that is a light having a wavelength and instructs the movement of the pointer in a direction parallel to the optical path of the position indicating light. 84), and the imaging device captures the image of the position indicating light and the image of the direction indicating light irradiated on the display image as the captured image, and the image processing device extracts the captured image from the captured image. Separating means for separating a position indicating light image which is an image of light having the same wavelength as the position indicating light and a direction indicating light image which is an image of light having the same wavelength as the direction indicating light (for example, the geometry of FIG. conversion And a position indicating light detecting means (for example, a position indicating light detecting unit 223 in FIG. 10) for detecting the position and shape of the position indicating light image on the display image from the position indicating light image. , A direction indicating light detecting means for detecting an image of the direction indicating light from the direction indicating light image and outputting direction information indicating whether or not the movement of the pointer in the direction is instructed based on the detection result. Based on (for example, the forward instruction light detection unit 224 or the reverse instruction light detection unit 225 in FIG. 10), the position and shape of the image of the position instruction light, and the output direction information, the virtual three-dimensional space Position specifying means (for example, coordinate calculation unit 226 in FIG. 10) for specifying the display position of the pointer above, and the display corresponding to the display position of the pointer specified by the position specifying means Display image generating means (for example, the display image processing unit 228 in FIG. 10) that generates a new display image in which the pointer is displayed at a position on the image, and the display device displays the display The display image display is switched to the generated new display image.

本発明の第2の側面の画像処理装置(例えば、図10の画像処理装置24)は、表示画像に対して想定された仮想3次元空間上の表示位置であり、ポインタ(例えば、図1の3次元ポインタ31)を表示させる表示位置を特定する画像処理装置であって、前記表示画像が表示されている領域を撮像して得られる位置指示光画像であって、前記仮想3次元空間上の前記ポインタを表示させる表示位置を指示するための位置指示光と同じ波長の光の画像である位置指示光画像から、前記表示画像上における、前記表示画像に照射された前記位置指示光の像の位置および形状を検出する位置指示光検出手段(例えば、図10の位置指示光検出部223)と、前記表示画像が表示されている前記領域を撮像して得られる第1の方向指示光画像であって、前記位置指示光の光路と平行な第1の方向への前記ポインタの移動を指示する第1の方向指示光と同じ波長であり、前記位置指示光とは異なる波長の光の画像である第1の方向指示光画像から、前記表示画像に照射された前記第1の方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記第1の方向への移動が指示されたか否かを示す第1の方向情報を出力する第1の方向指示光検出手段(例えば、図10の前進指示光検出部224)と、前記位置指示光の像の位置および形状と、出力された前記第1の方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定手段(例えば、図10の座標計算部226)とを備える。   The image processing apparatus according to the second aspect of the present invention (for example, the image processing apparatus 24 in FIG. 10) is a display position in a virtual three-dimensional space assumed for a display image, and a pointer (for example, in FIG. 1). An image processing apparatus for specifying a display position for displaying a three-dimensional pointer 31), which is a position indicating light image obtained by capturing an image of a region where the display image is displayed, in the virtual three-dimensional space From the position indicating light image, which is an image of light having the same wavelength as the position indicating light for indicating the display position for displaying the pointer, the image of the position indicating light irradiated on the display image on the display image Position indication light detection means (for example, position indication light detection unit 223 in FIG. 10) for detecting the position and shape, and a first direction indication light image obtained by imaging the area where the display image is displayed There A first image that has the same wavelength as the first direction indicating light instructing movement of the pointer in a first direction parallel to the optical path of the position indicating light, and is a light having a wavelength different from that of the position indicating light. Whether or not the first direction indicating light image irradiated on the display image is detected from the direction indicating light image and whether or not the pointer is instructed to move in the first direction based on the detection result. First direction indicating light detecting means (for example, a forward indicating light detecting unit 224 in FIG. 10) that outputs first direction information indicating the position and shape of the image of the position indicating light, and the output Position specifying means for specifying the display position of the pointer in the virtual three-dimensional space based on the first direction information (for example, the coordinate calculation unit 226 in FIG. 10).

画像処理装置には、前記位置特定手段により特定された前記ポインタの表示位置に対応する前記表示画像上の位置に前記ポインタが表示された新たな表示画像を生成する表示画像生成手段(例えば、図10の表示画像処理部228)をさらに設けることができる。   In the image processing apparatus, a display image generating unit (for example, a diagram) that generates a new display image in which the pointer is displayed at a position on the display image corresponding to the display position of the pointer specified by the position specifying unit. Ten display image processing units 228) may be further provided.

前記位置特定手段には、前記位置指示光の像の位置に対応する前記仮想3次元空間上の位置から、前記ポインタの表示位置までの長さを定める奥行き長さを記憶させ、前記第1の方向情報に基づいて前記奥行き長さを変更させ、さらに変更後の前記奥行き長さと、前記位置指示光の像の位置および形状とに基づいて、前記ポインタの表示位置を特定させる(例えば、図29のステップS164乃至ステップS168の処理)ことができる。   The position specifying means stores a depth length that determines a length from a position in the virtual three-dimensional space corresponding to a position of the image of the position indicating light to a display position of the pointer, and The depth length is changed based on the direction information, and the display position of the pointer is specified based on the changed depth length and the position and shape of the image of the position indicating light (for example, FIG. 29). Step S164 to step S168).

画像処理装置には、前記表示画像が表示されている前記領域を撮像して得られる第2の方向指示光画像であって、前記第1の方向とは反対の第2の方向への前記ポインタの移動を指示する第2の方向指示光と同じ波長であり、前記位置指示光および前記第1の方向指示光とは異なる波長の光の画像である第2の方向指示光画像から、前記表示画像に照射された前記第2の方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記第2の方向への移動が指示されたか否かを示す第2の方向情報を出力する第2の方向指示光検出手段(例えば、図10の後進指示光検出部225)をさらに設け、前記位置特定手段には、前記第1の方向情報および前記第2の方向情報に基づいて、前記奥行き長さを変更させる(例えば、図29のステップS165またはステップS167の処理)ことができる。   The image processing apparatus includes a second direction indicating light image obtained by imaging the area where the display image is displayed, the pointer pointing in a second direction opposite to the first direction. From the second direction indicating light image which is the same wavelength as the second direction indicating light instructing the movement of the first direction indicating light and is an image of light having a wavelength different from that of the position indicating light and the first direction indicating light. The second direction information indicating whether or not the movement of the pointer in the second direction is instructed based on the detection result is detected on the image of the second direction indicating light irradiated on the image. Second direction indication light detection means (for example, reverse indication light detection unit 225 in FIG. 10) for outputting is further provided, and the position specifying means is based on the first direction information and the second direction information. The depth length is changed (for example, the length of FIG. Tsu processing of up S165 or step S167) can be.

画像処理装置には、前記表示画像、前記表示画像に照射された前記位置指示光の像、および前記表示画像に照射された前記第1の方向指示光の像を前記撮像画像として撮像する撮像手段(例えば、図1のカメラ23)と、前記撮像画像から、前記位置指示光画像と、前記第1の方向指示光画像とを分離する分離手段(例えば、図10の幾何変換処理部222)とをさらに設けることができる。   In the image processing apparatus, an imaging unit that captures the display image, the image of the position indicating light irradiated on the display image, and the image of the first direction indicating light irradiated on the display image as the captured image. (For example, the camera 23 in FIG. 1) and separation means (for example, the geometric transformation processing unit 222 in FIG. 10) that separates the position indicating light image and the first direction indicating light image from the captured image. Can be further provided.

本発明の第2の側面の画像処理方法またはプログラムは、表示画像に対して想定された仮想3次元空間上の表示位置であり、ポインタを表示させる表示位置を特定する画像処理装置の画像処理方法またはプログラムであって、前記表示画像が表示されている領域を撮像して得られる位置指示光画像であって、前記仮想3次元空間上の前記ポインタを表示させる表示位置を指示するための位置指示光と同じ波長の光の画像である位置指示光画像から、前記表示画像上における、前記表示画像に照射された前記位置指示光の像の位置および形状を検出する位置指示光検出ステップ(例えば、図12のステップS43)と、前記表示画像が表示されている前記領域を撮像して得られる方向指示光画像であって、前記位置指示光の光路と平行な方向への前記ポインタの移動を指示する方向指示光と同じ波長であり、前記位置指示光とは異なる波長の光の画像である方向指示光画像から、前記表示画像に照射された前記方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記方向への移動が指示されたか否かを示す第1の方向情報を出力する方向指示光検出ステップ(例えば、図12のステップS44またはステップS45)と、前記位置指示光の像の位置および形状と、出力された前記方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定ステップ(例えば、図12のステップS46)とを含む。   An image processing method or program according to a second aspect of the present invention is an image processing method for an image processing apparatus that specifies a display position on a virtual three-dimensional space assumed for a display image and displays a pointer. Or a position indication light image obtained by imaging a region where the display image is displayed, the program being a position indication for indicating a display position for displaying the pointer in the virtual three-dimensional space A position indicating light detection step for detecting the position and shape of the image of the position indicating light irradiated on the display image on the display image from the position indicating light image that is an image of light having the same wavelength as the light (for example, Step S43 in FIG. 12 and a direction indicating light image obtained by imaging the area where the display image is displayed, in a direction parallel to the optical path of the position indicating light An image of the direction indication light irradiated on the display image from a direction indication light image that is the same wavelength as the direction indication light instructing movement of the pointer and having a wavelength different from that of the position indication light. A direction indicating light detecting step (eg, step S44 or step S45 in FIG. 12) that detects and outputs first direction information indicating whether or not movement of the pointer in the direction is instructed based on the detection result. ), The position and shape of the image of the position indicating light, and the output direction information, a position specifying step for specifying the display position of the pointer in the virtual three-dimensional space (for example, FIG. Step S46).

以下、図面を参照して、本発明を適用した実施の形態について説明する。   Embodiments to which the present invention is applied will be described below with reference to the drawings.

図1は、本発明を適用したプレゼンテーションシステムの一実施の形態の構成例を示す図である。   FIG. 1 is a diagram showing a configuration example of an embodiment of a presentation system to which the present invention is applied.

プレゼンテーションシステム11は、スクリーン21、レーザポインタ22、カメラ23、画像処理装置24、およびプロジェクタ25から構成され、スクリーン21には、プロジェクタ25から投影された表示画像が表示される。   The presentation system 11 includes a screen 21, a laser pointer 22, a camera 23, an image processing device 24, and a projector 25. A display image projected from the projector 25 is displayed on the screen 21.

この表示画像は、表示されるオブジェクト等の仮想3次元空間上の情報に基づいて、それらのオブジェクト等を2次元の平面上に射影することにより生成された、3次元コンピュータグラフィクスとされる。表示画像上には仮想3次元空間が想定され、表示画像には、その仮想3次元空間上の所定の位置を示す3次元ポインタ31が表示されている。   This display image is three-dimensional computer graphics generated by projecting these objects on a two-dimensional plane based on information in a virtual three-dimensional space such as displayed objects. A virtual three-dimensional space is assumed on the display image, and a three-dimensional pointer 31 indicating a predetermined position on the virtual three-dimensional space is displayed on the display image.

プレゼンテーションを行うユーザ32は、スクリーン21から適度に離れた位置でレーザポインタ22を操作して、表示画像上に表示された3次元ポインタ31を移動させてプレゼンテーションを行う。レーザポインタ22は、ユーザ32の操作に応じて赤外光などの不可視光(非可視光)を射出することにより、3次元ポインタ31の位置を指定する。   A user 32 giving a presentation operates the laser pointer 22 at a position moderately away from the screen 21 and moves the three-dimensional pointer 31 displayed on the display image to give the presentation. The laser pointer 22 designates the position of the three-dimensional pointer 31 by emitting invisible light (invisible light) such as infrared light according to the operation of the user 32.

カメラ23は、マルチスペクトルカメラからなり、カメラ23とスクリーン21との間にユーザ32が位置しないようにカメラ23の配置位置が定められる。つまり、カメラ23は、スクリーン21上に表示されている表示画像の全体を撮像することができるような位置に配置される。   The camera 23 is a multispectral camera, and the position of the camera 23 is determined so that the user 32 is not positioned between the camera 23 and the screen 21. That is, the camera 23 is arranged at a position where the entire display image displayed on the screen 21 can be captured.

カメラ23は、スクリーン21と、その周囲の領域の画像を撮像し、これにより得られた撮像画像を画像処理装置24に供給する。したがって、カメラ23により撮像された撮像画像には、スクリーン21に投影された表示画像の他、スクリーン21上に映るレーザポインタ22から射出された不可視光の像も含まれることになる。   The camera 23 captures images of the screen 21 and the surrounding area, and supplies the captured image obtained thereby to the image processing device 24. Therefore, the captured image captured by the camera 23 includes an invisible light image emitted from the laser pointer 22 reflected on the screen 21 in addition to the display image projected on the screen 21.

このようにカメラ23が、表示画像の全体を含む画像を撮像画像として撮像するので、カメラ23がスクリーン21に対向する位置に配置されなくても、表示画像に照射された不可視光の像の表示画像上の位置を把握することができる。これにより、ユーザ32により指示された3次元ポインタ31の表示位置を確実に特定することができる。   Thus, since the camera 23 captures an image including the entire display image as a captured image, even if the camera 23 is not disposed at a position facing the screen 21, an image of invisible light irradiated on the display image is displayed. The position on the image can be grasped. Thereby, the display position of the three-dimensional pointer 31 instruct | indicated by the user 32 can be pinpointed reliably.

画像処理装置24は、カメラ23から供給された撮像画像に基づいて、ユーザ32がレーザポインタ22を操作することにより指定された、仮想3次元空間上の位置を求める。また、画像処理装置24は、説明資料としての3次元コンピュータグラフィクスである3次元画像を予め記録しており、記録している3次元画像に対して想定された仮想3次元空間上の求められた位置に、3次元ポインタ31が表示された画像を新たな表示画像として生成する。   The image processing device 24 obtains the position in the virtual three-dimensional space designated by the user 32 operating the laser pointer 22 based on the captured image supplied from the camera 23. Further, the image processing device 24 has recorded in advance a three-dimensional image, which is three-dimensional computer graphics as explanatory material, and has been obtained in a virtual three-dimensional space assumed for the recorded three-dimensional image. An image in which the three-dimensional pointer 31 is displayed at the position is generated as a new display image.

すなわち、3次元画像に対して想定された仮想3次元空間は、表示画像に対して想定された仮想3次元空間に対応しており、表示画像は、3次元画像の所定の位置に3次元ポインタ31が表示されている画像とされる。画像処理装置24は、生成した表示画像をプロジェクタ25に供給して、表示画像の表示を制御する。   That is, the virtual three-dimensional space assumed for the three-dimensional image corresponds to the virtual three-dimensional space assumed for the display image, and the display image has a three-dimensional pointer at a predetermined position of the three-dimensional image. 31 is the displayed image. The image processing device 24 supplies the generated display image to the projector 25 and controls the display of the display image.

プロジェクタ25は、画像処理装置24から供給された表示画像に基づいて、表示画像を表示させるための光をスクリーン21に投光し、スクリーン21に表示画像を表示させる。したがって、画像処理装置24により新たな表示画像が生成されるたびに、スクリーン21に表示される表示画像が更新される。   Based on the display image supplied from the image processing device 24, the projector 25 projects light for displaying the display image onto the screen 21 and displays the display image on the screen 21. Therefore, each time a new display image is generated by the image processing device 24, the display image displayed on the screen 21 is updated.

また、ユーザ32により操作されるレーザポインタ22は、例えば図2に示すように、ペン型のレーザポインタとされる。レーザポインタ22の図中、左側には、3つのボタンから構成されるボタン部51が設けられており、ユーザ32は、ボタン部51を操作することにより、レーザポインタ22の左端に設けられた射出口52から、操作に応じた不可視光を射出させる。   Further, the laser pointer 22 operated by the user 32 is a pen-type laser pointer, for example, as shown in FIG. A button unit 51 including three buttons is provided on the left side of the laser pointer 22 in the figure, and the user 32 operates the button unit 51 so as to operate a laser beam provided at the left end of the laser pointer 22. Invisible light is emitted from the exit 52 according to the operation.

すなわち、レーザポインタ22には、3次元ポインタ31の表示位置を指示するための不可視光として、赤外光を射出する複数の不可視光レーザが内蔵されており、矢印A11の方向から見たレーザポインタ22の断面には、図3に示すように、複数の不可視光レーザが配置されている。   That is, the laser pointer 22 includes a plurality of invisible light lasers that emit infrared light as invisible light for indicating the display position of the three-dimensional pointer 31, and the laser pointer viewed from the direction of the arrow A11. As shown in FIG. 3, a plurality of invisible light lasers are arranged in the cross section 22.

図3では、レーザポインタ22の断面は円形状とされており、レーザポインタ22のほぼ中央に断面が真円形状となるレーザ光(赤外光)を射出する不可視光レーザ81が配置されている。不可視光レーザ81からは、仮想3次元空間上における3次元ポインタ31の位置、すなわち表示画像上における3次元ポインタ31の表示位置を指定するためのレーザ光である位置指示光が射出される。   In FIG. 3, the laser pointer 22 has a circular cross section, and an invisible light laser 81 that emits laser light (infrared light) whose cross section is a perfect circle is disposed substantially at the center of the laser pointer 22. . The invisible light laser 81 emits position indicating light that is laser light for designating the position of the three-dimensional pointer 31 in the virtual three-dimensional space, that is, the display position of the three-dimensional pointer 31 on the display image.

不可視光レーザ81の図中、上側には、位置指示光と同じ波長のレーザ光である補助光を射出する不可視光レーザ82が設けられている。この補助光は、位置指示光が表示画像に照射されたときに、どの方向から位置指示光が照射されているかを識別することができるようにするためのレーザ光であり、その断面は真円形状とされる。   In the drawing of the invisible light laser 81, an invisible light laser 82 that emits auxiliary light that is laser light having the same wavelength as that of the position indicating light is provided on the upper side. This auxiliary light is a laser beam for identifying from which direction the position indicating light is irradiated when the position indicating light is irradiated on the display image, and its cross section is a perfect circle. Shaped.

また、補助光は、そのビーム径が位置指示光のビーム径よりも小さい光とされる。このように位置指示光と補助光のビーム径を異なるものとすることにより、スクリーン21上の位置指示光の像の大きさと、補助光の像の大きさとは異なるものとなり、それらの像が位置指示光の像であるのか、または補助光の像であるのかを区別することができる。   The auxiliary light is light whose beam diameter is smaller than that of the position indicating light. Thus, by making the beam diameters of the position indicating light and the auxiliary light different from each other, the size of the image of the position indicating light on the screen 21 is different from the size of the image of the auxiliary light. It is possible to distinguish whether the image is an indicator light image or an auxiliary light image.

例えば図4に示すように、スクリーン21上に位置指示光および補助光が照射され、スクリーン21に位置指示光の像111および補助光の像112が観察されたとする。この場合、画像処理装置24は、撮像画像上の位置指示光の像111だけでは、位置指示光が矢印A31により示される方向からスクリーン21に照射されたのか、または矢印A32により示される方向からスクリーン21に照射されたのかを知ることはできない。   For example, as shown in FIG. 4, it is assumed that the position indicating light and the auxiliary light are irradiated on the screen 21, and the image 111 of the position indicating light and the image 112 of the auxiliary light are observed on the screen 21. In this case, the image processing device 24 determines whether the position indicating light is applied to the screen 21 from the direction indicated by the arrow A31 or the screen from the direction indicated by the arrow A32 by using only the position indicating light image 111 on the captured image. It is not possible to know whether 21 has been irradiated.

そこで、補助光よりも位置指示光が常に鉛直方向側に位置するように、ユーザ32がレーザポインタ22を操作することによって、つまりボタン部51が常に、鉛直方向と反対の方向を向くように、ユーザ32がレーザポインタ22を操作することにより、どの方向から位置指示光が照射されているかを知ることができるようになる。   Therefore, when the user 32 operates the laser pointer 22 so that the position indicating light is always located on the vertical side with respect to the auxiliary light, that is, the button unit 51 always faces in the direction opposite to the vertical direction. By operating the laser pointer 22 by the user 32, it becomes possible to know from which direction the position indicating light is emitted.

図4において図中、下方向を鉛直方向とすると、ユーザ32は、ボタン部51を常に上側に向けながらレーザポインタ22の操作を行うので、補助光の像112は、常に位置指示光の像111の上側に位置することになり、これらの像111および像112の位置関係から、矢印A31の方向から位置指示光が照射されていることが分かる。   In FIG. 4, when the downward direction is the vertical direction in FIG. 4, the user 32 operates the laser pointer 22 while always pointing the button portion 51 upward, so that the auxiliary light image 112 is always the position indication light image 111. From the positional relationship between these images 111 and 112, it can be seen that the position indicating light is emitted from the direction of arrow A31.

図3の説明に戻り、不可視光レーザ81の図中、左側には、3次元ポインタ31を表示させる仮想3次元空間上の位置を、ユーザ32に対して手前側に移動させるためのレーザ光である後進指示光を射出する不可視光レーザ83が設けられている。後進指示光は、位置指示光とは異なる波長の不可視光であり、3次元ポインタ31の位置をユーザ32側に位置指示光の光路と平行に移動させるように指示するための光とされる。   Returning to the description of FIG. 3, the left side of the invisible light laser 81 is a laser beam for moving the position in the virtual three-dimensional space where the three-dimensional pointer 31 is displayed to the near side with respect to the user 32. An invisible light laser 83 that emits some backward instruction light is provided. The backward indicator light is invisible light having a wavelength different from that of the position indicator light, and is used to instruct the user 32 to move the position of the three-dimensional pointer 31 in parallel with the optical path of the position indicator light.

また、不可視光レーザ81の図中、右側には、3次元ポインタ31を表示させる仮想3次元空間上の位置を、ユーザ32に対して奥側に移動させるためのレーザ光である前進指示光を射出する不可視光レーザ84が設けられている。前進指示光は、位置指示光および後進指示光とは異なる波長の不可視光であり、3次元ポインタ31の位置をユーザ32側とは反対側に位置指示光の光路と平行に移動させるように指示するための光とされる。   Further, on the right side of the invisible light laser 81, forward instruction light, which is laser light for moving the position in the virtual three-dimensional space where the three-dimensional pointer 31 is displayed to the back side with respect to the user 32, is displayed. An invisible laser 84 that emits light is provided. The forward instruction light is invisible light having a wavelength different from that of the position instruction light and the reverse instruction light, and instructs to move the position of the three-dimensional pointer 31 to the side opposite to the user 32 side in parallel with the optical path of the position instruction light. It is said to be light for doing.

すなわち、図5に示すように、スクリーン21の所定の領域に表示画像141が表示されることとすると、表示画像141に対して想定される仮想3次元空間は、表示画像141の図中、左下の頂点を基準点O(原点)とする3次元空間座標系の空間とされる。図5においては、基準点Oから図中、右方向がx軸方向、上方向がy軸方向、表示画像141に直交し、奥側に向かう方向がz軸方向とされている。したがって、この仮想3次元空間をz軸方向に見た画像が表示画像141として表示されることになる。   That is, as shown in FIG. 5, when the display image 141 is displayed in a predetermined area of the screen 21, the virtual three-dimensional space assumed for the display image 141 is lower left in the figure of the display image 141. Is a space in a three-dimensional space coordinate system with a reference point O (origin) as a vertex. In FIG. 5, from the reference point O in the figure, the right direction is the x-axis direction, the upward direction is the y-axis direction, the direction orthogonal to the display image 141 and the direction toward the back is the z-axis direction. Therefore, an image obtained by viewing this virtual three-dimensional space in the z-axis direction is displayed as the display image 141.

また、直線142は、レーザポインタ22から射出された位置指示光の軌跡、つまり位置指示光の光路を示しており、表示画像141上の領域143および領域144は、位置指示光および補助光の像を表している。なお、以下、領域143および領域144を、位置指示光の像143および補助光の像144と称する。   A straight line 142 indicates the locus of the position indicating light emitted from the laser pointer 22, that is, the optical path of the position indicating light. The region 143 and the region 144 on the display image 141 are images of the position indicating light and the auxiliary light. Represents. Hereinafter, the region 143 and the region 144 are referred to as a position indicating light image 143 and an auxiliary light image 144.

図5では、位置指示光の像143および補助光の像144は、表示画像141上に位置し、表示画像141はxy平面上に位置している。また、3次元ポインタ31は、直線142の延長線上にある仮想3次元空間上の物体145の所定の位置を示している。この物体145は、実際には表示画像141上に表示されているが、仮想3次元空間内では、xy平面よりもz軸方向側に位置している。   In FIG. 5, the position indicating light image 143 and the auxiliary light image 144 are located on the display image 141, and the display image 141 is located on the xy plane. The three-dimensional pointer 31 indicates a predetermined position of the object 145 in the virtual three-dimensional space on the extension line of the straight line 142. The object 145 is actually displayed on the display image 141, but is located on the z-axis direction side of the xy plane in the virtual three-dimensional space.

ここで、画像処理装置24は、位置指示光の像143から、3次元ポインタ31により示される位置までの距離を示すパラメータである奥行き長さEを記憶しており、ユーザ32の操作に応じて奥行き長さEの値を変化させることで、3次元ポインタ31が直線142と平行な方向に移動された表示画像を新たに生成する。   Here, the image processing device 24 stores a depth length E that is a parameter indicating a distance from the image 143 of the position indicating light to the position indicated by the three-dimensional pointer 31, and corresponds to the operation of the user 32. By changing the value of the depth length E, a display image in which the three-dimensional pointer 31 is moved in a direction parallel to the straight line 142 is newly generated.

例えば、ユーザ32が、レーザポインタ22を動かさずに、つまりレーザポインタ22の位置および方向を変えずに、位置指示光とともに後進指示光が射出されるようにレーザポインタ22を操作した場合、奥行き長さEの値が所定の大きさだけ小さくなるように変更され、3次元ポインタ31(により示される位置)は、図中、手前側に、かつ直線142と平行な方向に移動する。つまり、移動後の3次元ポインタ31の位置は、直線142の延長線上の点であって、その点から位置指示光の像143までの長さが、変更後の奥行き長さEにより示される長さとなるような点の位置とされる。   For example, when the user 32 operates the laser pointer 22 without moving the laser pointer 22, that is, without changing the position and direction of the laser pointer 22, the backward instruction light is emitted together with the position instruction light. The value of the height E is changed so as to be reduced by a predetermined size, and the three-dimensional pointer 31 (position indicated by the position) moves to the near side in the drawing and in a direction parallel to the straight line 142. That is, the position of the three-dimensional pointer 31 after the movement is a point on the extension line of the straight line 142, and the length from the point to the image 143 of the position indicating light is a length indicated by the changed depth length E. The position of the point is

また、ユーザ32がレーザポインタ22を動かさずに、位置指示光とともに前進指示光が射出されるようにレーザポインタ22を操作した場合、奥行き長さEの値が所定の大きさだけ大きくなるように変更され、3次元ポインタ31(により示される位置)は、図中、奥側に、かつ直線142と平行な方向に移動する。   Further, when the user 32 operates the laser pointer 22 so that the forward instruction light is emitted together with the position instruction light without moving the laser pointer 22, the value of the depth length E is increased by a predetermined amount. The changed three-dimensional pointer 31 (the position indicated by the arrow) moves to the back side in the drawing and in a direction parallel to the straight line 142.

したがって、例えば、図6に示すように、位置指示光が表示画像上の基準点Oの位置に照射され、3次元ポインタ31により示される位置が仮想3次元空間上の点P11の位置である場合、ユーザ32は、レーザポインタ22を、その位置および方向を動かさずに操作することで、3次元ポインタ31の位置を、基準点Oおよび点P11を通る直線上の任意の位置に移動させることができる。例えば、ユーザ32は、後進指示光を射出させて3次元ポインタ31の位置を点P11から、基準点Oおよび点P11を通る直線上の点P12の位置に移動させたり、前進指示光を射出させて点P13の位置に移動させたりすることができる。   Therefore, for example, as shown in FIG. 6, when the position indicating light is irradiated to the position of the reference point O on the display image, the position indicated by the three-dimensional pointer 31 is the position of the point P11 in the virtual three-dimensional space. The user 32 can move the position of the three-dimensional pointer 31 to an arbitrary position on a straight line passing through the reference point O and the point P11 by operating the laser pointer 22 without moving its position and direction. it can. For example, the user 32 emits backward instruction light to move the position of the three-dimensional pointer 31 from the point P11 to the position of a point P12 on a straight line passing through the reference point O and the point P11, or emits forward instruction light. And can be moved to the position of the point P13.

なお、図6において、図中、右方向はx軸方向、上方向はy軸方向、x軸方向およびy軸方向に直交し、奥側に向かう方向はz軸方向とされている。また、以下の説明において、3次元ポインタ31を奥行き長さEが小さくなる方向に移動させることを、手前方向に移動させるともいい、逆に3次元ポインタ31を奥行き長さEが大きくなる方向に移動させることを、奥行き方向に移動させるともいう。さらに、奥行き長さEの値は、0以上の整数値とされる。すなわち、3次元ポインタ31は、仮想3次元空間において、z座標が負の値となるような位置には表示されない。   In FIG. 6, the right direction is the x-axis direction, the upper direction is the y-axis direction, the x-axis direction and the y-axis direction are orthogonal, and the direction toward the back is the z-axis direction. Further, in the following description, moving the three-dimensional pointer 31 in the direction in which the depth length E decreases may be referred to as moving forward, and conversely, the three-dimensional pointer 31 in the direction in which the depth length E increases. Moving is also referred to as moving in the depth direction. Further, the value of the depth length E is an integer value of 0 or more. That is, the three-dimensional pointer 31 is not displayed at a position where the z coordinate is a negative value in the virtual three-dimensional space.

このように、ユーザ32はレーザポインタ22に設けられたボタン部51を操作することにより、レーザポインタ22から不可視光を射出させて3次元ポインタ31の表示位置を指示する。   In this way, the user 32 operates the button unit 51 provided on the laser pointer 22 to emit invisible light from the laser pointer 22 and indicate the display position of the three-dimensional pointer 31.

例えば、奥行き長さEの値が変化せず、3次元ポインタ31が移動されるように、ユーザ32がレーザポインタ22を操作した場合、図7Aに示すように、不可視光レーザ81および不可視光レーザ82から位置指示光および補助光が射出され、不可視光レーザ83および不可視光レーザ84からは、後進指示光および前進指示光は射出されない。換言すれば、不可視光レーザ81および不可視光レーザ82だけが点灯し、不可視光レーザ83および不可視光レーザ84は点灯しない。   For example, when the user 32 operates the laser pointer 22 so that the value of the depth length E does not change and the three-dimensional pointer 31 is moved, as shown in FIG. 7A, the invisible light laser 81 and the invisible light laser The position indicating light and the auxiliary light are emitted from 82, and the backward instruction light and the forward instruction light are not emitted from the invisible light laser 83 and the invisible light laser 84. In other words, only the invisible light laser 81 and the invisible light laser 82 are turned on, and the invisible light laser 83 and the invisible light laser 84 are not turned on.

なお、図7Aにおいて、不可視光レーザ81乃至不可視光レーザ84のうち、斜線が施されているものは、点灯していることを表しており、斜線の施されていないものは、点灯していないことを表している。また、後述する図7Bおよび図7Cにおいても同様に、点灯している不可視光レーザには斜線が施されている。   In FIG. 7A, among the invisible light laser 81 to the invisible light laser 84, those that are shaded indicate that they are lit, and those that are not shaded are not lit. Represents that. Similarly, in FIGS. 7B and 7C, which will be described later, the lit invisible laser is shaded.

また、3次元ポインタ31が奥行き方向に移動するように、ユーザ32がレーザポインタ22を操作した場合、図7Bに示すように、不可視光レーザ81、不可視光レーザ82、および不可視光レーザ84が点灯し、不可視光レーザ83は点灯しない。すなわち、レーザポインタ22からは、位置指示光、補助光、および前進指示光が射出される。   When the user 32 operates the laser pointer 22 so that the three-dimensional pointer 31 moves in the depth direction, the invisible light laser 81, the invisible light laser 82, and the invisible light laser 84 are turned on as shown in FIG. 7B. However, the invisible light laser 83 is not turned on. That is, the laser pointer 22 emits position indicating light, auxiliary light, and forward indicating light.

さらに、3次元ポインタ31が手前方向に移動するように、ユーザ32がレーザポインタ22を操作した場合、図7Cに示すように、不可視光レーザ81、不可視光レーザ82、および不可視光レーザ83が点灯し、不可視光レーザ84は点灯しない。すなわち、レーザポインタ22からは、位置指示光、補助光、および後進指示光が射出される。   Further, when the user 32 operates the laser pointer 22 so that the three-dimensional pointer 31 moves in the forward direction, as shown in FIG. 7C, the invisible light laser 81, the invisible light laser 82, and the invisible light laser 83 are turned on. However, the invisible light laser 84 is not turned on. That is, from the laser pointer 22, position indicating light, auxiliary light, and reverse indicating light are emitted.

このように、レーザポインタ22からは、ユーザ32による操作に応じて、3次元ポインタ31の表示位置を指示するための赤外光が射出される。プレゼンテーションシステム11においては、レーザポインタ22から射出される位置指示光、補助光、前進指示光、および後進指示光を赤外光とすることで、レーザポインタとして可視光レーザを用いる場合と比べて安全性の向上を図ることができる。   As described above, infrared light for instructing the display position of the three-dimensional pointer 31 is emitted from the laser pointer 22 in accordance with an operation by the user 32. In the presentation system 11, the position indication light, auxiliary light, forward indication light, and reverse indication light emitted from the laser pointer 22 are infrared light, which is safer than when a visible light laser is used as the laser pointer. It is possible to improve the performance.

つまり、可視のレーザ光が人の目に入射した場合、その人に不快感を与えるだけでなく、人の目に障害を及ぼす恐れもある。これに対して、レーザポインタ22では、可視光よりも波長の長い赤外光を利用することで、人の目に対する安全性を向上させることができ、また、赤外光は不可視光なので人の目に入射しても不快感を与えることもない。さらに、表示画像に照射された位置指示光や前進指示光などは人の目には見えないので、余計な可視光が表示画像に照射されて、表示画像が見にくくなるようなこともない。   That is, when visible laser light is incident on a human eye, it not only causes discomfort to the person but also may cause damage to the human eye. On the other hand, the laser pointer 22 can improve safety for human eyes by using infrared light having a wavelength longer than that of visible light. In addition, since infrared light is invisible light, There is no discomfort when it enters the eye. Furthermore, since position indication light, forward instruction light, and the like irradiated to the display image are not visible to human eyes, extra visible light is not irradiated to the display image, and the display image is not difficult to see.

次に、図8は、図1のカメラ23の構成例を示すブロック図である。   Next, FIG. 8 is a block diagram illustrating a configuration example of the camera 23 of FIG.

カメラ23は、レンズ181、絞り182、CCD(Charge Coupled Devices)イメージセンサ183、相関2重サンプリング回路184、A/D(Analog/Digital)コンバータ185、DSP(Digital Signal Processor)186、タイミングジェネレータ187、D/A(Digital/Analog)コンバータ188、ビデオエンコーダ189、ディスプレイ190、CODEC(Compression/Decompression)191、メモリ192、バス193、CPU(Central Processing Unit)194、およびインプットデバイス195から構成される。   The camera 23 includes a lens 181, a diaphragm 182, a CCD (Charge Coupled Devices) image sensor 183, a correlated double sampling circuit 184, an A / D (Analog / Digital) converter 185, a DSP (Digital Signal Processor) 186, a timing generator 187, A D / A (Digital / Analog) converter 188, a video encoder 189, a display 190, a CODEC (Compression / Decompression) 191, a memory 192, a bus 193, a CPU (Central Processing Unit) 194, and an input device 195 are included.

レンズ181は、被写体であるスクリーン21とその周囲の領域からの光を集光し、集光した光を絞り182を介してCCDイメージセンサ183に入射させる。絞り182は、レンズ181からCCDイメージセンサ183に入射させる光の光量を調節する。   The lens 181 collects light from the screen 21 that is the subject and the surrounding area, and makes the collected light enter the CCD image sensor 183 through the diaphragm 182. The diaphragm 182 adjusts the amount of light incident on the CCD image sensor 183 from the lens 181.

CCDイメージセンサ183は、レンズ181から入射した光を光電変換することにより、入射した光を電気信号に変換し、スクリーン21とその周囲の領域の画像である撮像画像を生成する。ここで、撮像画像の各画素は、例えば光の3原色であるR(赤)、G(緑)、若しくはB(青)、位置指示光の波長の色、前進指示光の波長の色、または後進指示光の波長の色のいずれかの色のデータ(画素値)だけを有している。CCDイメージセンサ183は、生成した撮像画像を相関2重サンプリング回路184に供給する。   The CCD image sensor 183 photoelectrically converts the light incident from the lens 181 to convert the incident light into an electrical signal, and generates a captured image that is an image of the screen 21 and its surrounding area. Here, each pixel of the captured image is, for example, R (red), G (green), or B (blue) which are the three primary colors of light, the color of the wavelength of the position indicating light, the color of the wavelength of the forward indicating light, or Only the color data (pixel value) of any one of the colors of the wavelengths of the reverse indicator light is included. The CCD image sensor 183 supplies the generated captured image to the correlated double sampling circuit 184.

相関2重サンプリング回路184は、CCDイメージセンサ183からの撮像画像をサンプリングすることによって撮像画像からノイズを除去し、ノイズが除去された撮像画像をA/Dコンバータ185に供給する。A/Dコンバータ185は、相関2重サンプリング回路184からの撮像画像、より詳細には撮像画像の画像信号をアナログ信号からデジタル信号に変換してDSP186に供給する。   The correlated double sampling circuit 184 removes noise from the captured image by sampling the captured image from the CCD image sensor 183, and supplies the captured image from which the noise has been removed to the A / D converter 185. The A / D converter 185 converts the captured image from the correlated double sampling circuit 184, more specifically, the image signal of the captured image from an analog signal to a digital signal and supplies the converted signal to the DSP 186.

DSP186は、例えば信号処理用プロセッサおよび画像用RAM(Random Access Memory)から構成される。DSP186は、A/Dコンバータ185から供給され、画像用RAMに格納した撮像画像に対して、必要に応じて階調圧縮処理などの予めプログラムされた画像処理を施す。   The DSP 186 includes, for example, a signal processing processor and an image RAM (Random Access Memory). The DSP 186 performs pre-programmed image processing such as gradation compression processing as necessary on the captured image supplied from the A / D converter 185 and stored in the image RAM.

また、DSP186は、必要に応じて、撮像画像の各画素が、R(赤)、G(緑)、B(青)、位置指示光の波長の色、前進指示光の波長の色、および後進指示光の波長の色のそれぞれの色のデータを有するように、A/Dコンバータ185からの撮像画像に対して色同時化処理を施す。画像処理の施された撮像画像は、バス193を介して図1の画像処理装置24に供給されたり、D/Aコンバータ188またはCODEC191に供給されたりする。   Further, the DSP 186 determines that each pixel of the captured image is R (red), G (green), B (blue), the color of the position indicating light, the color of the forward indicating light, and the reverse as necessary. A color synchronization process is performed on the captured image from the A / D converter 185 so as to have each color data of the wavelength of the indicator light. The captured image subjected to the image processing is supplied to the image processing device 24 of FIG. 1 via the bus 193, or supplied to the D / A converter 188 or the CODEC 191.

また、バス193には、DSP186、タイミングジェネレータ187、CODEC191、メモリ192、CPU194、およびインプットデバイス195が接続されている。   Further, a DSP 186, a timing generator 187, a CODEC 191, a memory 192, a CPU 194, and an input device 195 are connected to the bus 193.

タイミングジェネレータ187は、CCDイメージセンサ183乃至DSP186のそれぞれの動作のタイミングを制御する。D/Aコンバータ188は、DSP186から供給された撮像画像をデジタル信号からアナログ信号に変換し、ビデオエンコーダ189に供給する。ビデオエンコーダ189は、D/Aコンバータ188からの撮像画像を、R、G、B等の通常のビデオ信号に変換してディスプレイ190に供給する。ディスプレイ190は、例えばファインダやビデオモニタとして機能するLCD(Liquid Crystal Display)などからなり、ビデオエンコーダ189から供給された撮像画像を表示する。   The timing generator 187 controls the operation timing of each of the CCD image sensors 183 to DSP 186. The D / A converter 188 converts the captured image supplied from the DSP 186 from a digital signal to an analog signal and supplies the analog signal to the video encoder 189. The video encoder 189 converts the captured image from the D / A converter 188 into a normal video signal such as R, G, B, etc., and supplies it to the display 190. The display 190 includes, for example, an LCD (Liquid Crystal Display) that functions as a finder or a video monitor, and displays the captured image supplied from the video encoder 189.

CODEC191は、DSP186からの撮像画像をエンコードしてメモリ192に記録させたり、メモリ192に記録されている撮像画像を読み出してデコードし、DSP186に供給したりする。メモリ192は、例えば磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどからなり、CODEC191から供給された撮像画像を記録したり、記録している撮像画像をCODEC191に供給したりする。   The CODEC 191 encodes the captured image from the DSP 186 and records the encoded image in the memory 192, or reads and decodes the captured image recorded in the memory 192 and supplies the decoded image to the DSP 186. The memory 192 includes, for example, a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, and the like, and records the captured image supplied from the CODEC 191 and supplies the recorded captured image to the CODEC 191.

CPU194は、インプットデバイス195からの操作信号などに応じて、カメラ23全体の動作を制御する。インプットデバイス195は、例えばボタンやスイッチなどからなり、ユーザ32の操作に応じた操作信号をCPU194に供給する。   The CPU 194 controls the operation of the entire camera 23 according to an operation signal from the input device 195 and the like. The input device 195 includes buttons and switches, for example, and supplies an operation signal according to the operation of the user 32 to the CPU 194.

また、CCDイメージセンサ183は、画素ごとに異なる分光感度を有している。すなわち、CCDイメージセンサ183の受光面には、画素ごとにR(赤)、G(緑)、B(青)、位置指示光の波長の色、前進指示光の波長の色、または後進指示光の波長の色のうちのいずれかの色の光だけを透過させるオンチップカラーフィルタが配置されており、CCDイメージセンサ183に入射した光はオンチップカラーフィルタを透過して、光電変換を行う撮像素子に入射する。   The CCD image sensor 183 has different spectral sensitivity for each pixel. That is, on the light receiving surface of the CCD image sensor 183, R (red), G (green), B (blue), the color of the wavelength of the position indicating light, the color of the wavelength of the forward indicating light, or the backward indicating light for each pixel. An on-chip color filter that transmits only light of any one of the colors of the wavelength of the color is disposed, and the light that has entered the CCD image sensor 183 passes through the on-chip color filter and performs photoelectric conversion. Incident on the element.

例えば、CCDイメージセンサ183の受光面には、図9に示すオンチップカラーフィルタが配置されている。なお、図9において、1つの正方形は1つの画素を表しており、それらの正方形内の文字R、G、B、L1、L2、およびL3のそれぞれは、R(赤)、G(緑)、B(青)、位置指示光の波長の色、前進指示光の波長の色、および後進指示光の波長の色の光のそれぞれだけを透過させるRのフィルタ、Gのフィルタ、Bのフィルタ、位置指示光の波長のフィルタ、前進指示光の波長のフィルタ、および後進指示光の波長のフィルタのそれぞれを表している。   For example, an on-chip color filter shown in FIG. 9 is arranged on the light receiving surface of the CCD image sensor 183. In FIG. 9, one square represents one pixel, and characters R, G, B, L1, L2, and L3 in the square are R (red), G (green), B (blue), R filter that transmits only the color of the wavelength of the position indicating light, the color of the wavelength of the forward indicating light, and the color of the wavelength of the backward indicating light, the G filter, the B filter, and the position Each of the filter of the indicator light wavelength, the filter of the forward indicator light wavelength, and the filter of the reverse indicator light wavelength is shown.

図9では、各フィルタのそれぞれがモザイク状に配置されている。すなわち、Gのフィルタおよび位置指示光の波長のフィルタが、1画素おきに図中、上下方向および左右方向に並べられており、Rのフィルタ、Bのフィルタ、前進指示光の波長のフィルタ、および後進指示光の波長のフィルタのそれぞれが、3画素おきに上下方向および左右方向に並べられている。   In FIG. 9, each of the filters is arranged in a mosaic pattern. That is, the G filter and the wavelength indicating light wavelength filter are arranged in the vertical and horizontal directions in the figure every other pixel, and the R filter, the B filter, the forward indicating light wavelength filter, and Each of the filters of the wavelength of the reverse instruction light is arranged in the vertical direction and the horizontal direction every three pixels.

図10は、図1の画像処理装置24の構成を示すブロック図である。   FIG. 10 is a block diagram showing a configuration of the image processing device 24 of FIG.

画像処理装置24は、色同時化処理部221、幾何変換処理部222、位置指示光検出部223、前進指示光検出部224、後進指示光検出部225、座標計算部226、3次元画像記録部227、および表示画像処理部228から構成される。   The image processing device 24 includes a color synchronization processing unit 221, a geometric conversion processing unit 222, a position indicating light detecting unit 223, a forward indicating light detecting unit 224, a reverse indicating light detecting unit 225, a coordinate calculating unit 226, and a three-dimensional image recording unit. 227 and a display image processing unit 228.

色同時化処理部221には、カメラ23のDSP186からバス193を介して撮像画像、より詳細には撮像画像の画像信号が供給される。ここで、色同時化処理部221に供給される撮像画像は、各画素がR(赤)、G(緑)、B(青)、位置指示光の波長の色、前進指示光の波長の色、または後進指示光の波長の色のいずれかの色の画素値だけを有する画像とされる。   The color synchronization processing unit 221 is supplied with a captured image, more specifically, an image signal of the captured image, from the DSP 186 of the camera 23 via the bus 193. Here, in the captured image supplied to the color synchronization processing unit 221, each pixel has R (red), G (green), B (blue), the color of the wavelength of the position indicating light, and the color of the wavelength of the forward indicating light. Or an image having only the pixel value of any one of the colors of the wavelengths of the reverse indicator light.

色同時化処理部221は、カメラ23から供給された撮像画像に対して、各色の画素値を補間する色同時化処理を施して、色同時化処理が施された撮像画像を幾何変換処理部222に供給する。これにより、色同時化処理の施された撮像画像は、各画素がR(赤)、G(緑)、B(青)、位置指示光の波長の色、前進指示光の波長の色、および後進指示光の波長の色のそれぞれの色の画素値を有する画像となる。   The color synchronization processing unit 221 performs a color synchronization process for interpolating the pixel values of each color on the captured image supplied from the camera 23, and converts the captured image subjected to the color synchronization process to a geometric conversion processing unit. 222 is supplied. As a result, the captured image subjected to the color synchronization processing has each pixel R (red), G (green), B (blue), the color of the wavelength of the position indicating light, the color of the wavelength of the forward indicating light, and An image having pixel values of the respective colors of the wavelengths of the reverse indicator light is obtained.

幾何変換処理部222は、色同時化処理部221から供給された撮像画像に幾何変換処理を施し、幾何変換処理が施された撮像画像から、撮像画像上の表示画像の領域の画像である抽出画像を抽出する。ここで、本来、スクリーン21に表示される表示画像は長方形であるが、カメラ23は必ずしもスクリーン21に対向する位置に配置される訳ではないので、撮像画像上の表示画像の領域は長方形とはならない場合がある。そこで、幾何変換処理部222は、撮像画像に幾何変換処理を施すことにより、撮像画像上の表示画像の領域を長方形の領域に変換する。   The geometric conversion processing unit 222 performs a geometric conversion process on the captured image supplied from the color synchronization processing unit 221 and extracts an image of a display image area on the captured image from the captured image subjected to the geometric conversion process. Extract images. Here, the display image displayed on the screen 21 is originally a rectangle, but the camera 23 is not necessarily arranged at a position facing the screen 21, so the area of the display image on the captured image is a rectangle. It may not be possible. Therefore, the geometric conversion processing unit 222 converts the region of the display image on the captured image into a rectangular region by performing a geometric conversion process on the captured image.

また、幾何変換処理部222は、抽出画像を位置指示光画像、前進指示光画像、および後進指示光画像のそれぞれに分離し、分離された位置指示光画像、前進指示光画像、および後進指示光画像のそれぞれを、位置指示光検出部223、前進指示光検出部224、および後進指示光検出部225のそれぞれに供給する。   Further, the geometric transformation processing unit 222 separates the extracted image into a position instruction light image, a forward instruction light image, and a reverse instruction light image, and the separated position instruction light image, forward instruction light image, and reverse instruction light are separated. Each of the images is supplied to each of the position instruction light detection unit 223, the forward instruction light detection unit 224, and the reverse instruction light detection unit 225.

ここで、位置指示光画像とは、位置指示光と同じ波長の光の画像、つまり各画素が位置指示光の波長の色の画素値をだけ有する画像をいい、前進指示光画像とは、前進指示光と同じ波長の光の画像、つまり各画素が前進指示光の波長の色の画素値だけを有する画像をいう。また、後進指示光画像とは、後進指示光と同じ波長の光の画像、つまり各画素が後進指示光の波長の色の画素値だけを有する画像をいう。   Here, the position indicating light image refers to an image of light having the same wavelength as that of the position indicating light, that is, an image in which each pixel has only a pixel value of the color of the wavelength of the position indicating light. An image of light having the same wavelength as that of the indicator light, that is, an image in which each pixel has only a pixel value of the color of the wavelength of the forward indicator light. The reverse instruction light image is an image of light having the same wavelength as the reverse instruction light, that is, an image in which each pixel has only a pixel value of a color of the reverse instruction light.

位置指示光検出部223は、幾何変換処理部222から供給された位置指示光画像から、位置指示光の像を検出し、その像を構成する画素数K、位置指示光の像の重心の座標(xi,yi)、位置指示光の像の輪郭とその輪郭の長軸との交点の座標(xf,yf)、および位置指示光の像の輪郭とその輪郭の短軸との交点の座標(xn,yn)を求める。   The position indicating light detecting unit 223 detects an image of the position indicating light from the position indicating light image supplied from the geometric transformation processing unit 222, and the number K of pixels constituting the image and the coordinates of the center of gravity of the image of the position indicating light. (Xi, yi), the coordinates (xf, yf) of the intersection of the contour of the position indicating light image and the major axis of the contour, and the coordinates of the intersection of the contour of the position indicating light image and the minor axis of the contour ( xn, yn).

すなわち、位置指示光の断面は真円形であるので、スクリーン21上の位置指示光の像の輪郭の形状は真円または楕円となる。したがって座標(xf,yf)は、輪郭としての円の長軸と、その円との交点の座標とされ、座標(xn,yn)は、長軸に直交する直線と、その円との交点の座標とされる。以下、座標(xi,yi)、座標(xf,yf)、および座標(xn,yn)のそれぞれを、重心座標、長軸交点座標、および短軸交点座標とも称する。   That is, since the cross section of the position indicating light is a perfect circle, the shape of the contour of the image of the position indicating light on the screen 21 is a perfect circle or an ellipse. Therefore, the coordinates (xf, yf) are the coordinates of the long axis of the circle as the contour and the intersection of the circle, and the coordinates (xn, yn) are the intersection of the straight line orthogonal to the long axis and the circle. It is a coordinate. Hereinafter, the coordinates (xi, yi), the coordinates (xf, yf), and the coordinates (xn, yn) are also referred to as barycentric coordinates, major axis intersection coordinates, and minor axis intersection coordinates.

位置指示光検出部223は、このようにして求められた画素数Kおよび重心座標(xi,yi)を、前進指示光検出部224および後進指示光検出部225に供給する。また、位置指示光検出部223は、重心座標(xi,yi)、長軸交点座標(xf,yf)、および短軸交点座標(xn,yn)を座標情報として座標計算部226に供給する。   The position indication light detection unit 223 supplies the number K of pixels and the barycentric coordinates (xi, yi) obtained in this way to the forward indication light detection unit 224 and the reverse indication light detection unit 225. Further, the position indicating light detection unit 223 supplies the barycentric coordinates (xi, yi), the long axis intersection coordinates (xf, yf), and the short axis intersection coordinates (xn, yn) as coordinate information to the coordinate calculation unit 226.

前進指示光検出部224は、位置指示光検出部223から供給された画素数Kおよび重心座標を用いて、幾何変換処理部222から供給された前進指示光画像から、前進指示光の像を検出する。そして、前進指示光検出部224は、その検出結果を示す情報である前進フラグを座標計算部226に供給する。ここで、前進フラグとは、ユーザ32により3次元ポインタ31の奥行き方向への移動が指示されたか否かを示す情報をいう。   The forward instruction light detection unit 224 detects an image of the forward instruction light from the forward instruction light image supplied from the geometric transformation processing unit 222 using the number of pixels K and the barycentric coordinates supplied from the position instruction light detection unit 223. To do. Then, the forward instruction light detection unit 224 supplies a forward flag, which is information indicating the detection result, to the coordinate calculation unit 226. Here, the forward flag refers to information indicating whether or not the user 32 has instructed to move the three-dimensional pointer 31 in the depth direction.

後進指示光検出部225は、位置指示光検出部223から供給された画素数Kおよび重心座標を用いて、幾何変換処理部222から供給された後進指示光画像から、後進指示光の像を検出する。そして、後進指示光検出部225は、その検出結果を示す情報である後進フラグを座標計算部226に供給する。ここで、後進フラグとは、ユーザ32により3次元ポインタ31の手前方向への移動が指示されたか否かを示す情報をいう。   The reverse indicator light detection unit 225 detects an image of the reverse indicator light from the reverse indicator light image supplied from the geometric transformation processing unit 222 using the number of pixels K and the barycentric coordinates supplied from the position indicator light detector 223. To do. Then, the reverse indicator light detector 225 supplies a reverse flag, which is information indicating the detection result, to the coordinate calculator 226. Here, the backward flag refers to information indicating whether or not the user 32 has instructed to move the three-dimensional pointer 31 in the forward direction.

座標計算部226は、奥行き長さEを記憶している。座標計算部226は、記憶している奥行き長さE、位置指示光検出部223からの座標情報、前進指示光検出部224からの前進フラグ、および後進指示光検出部225からの後進フラグに基づいて、3次元ポインタ31を表示させる位置を算出し、その結果得られた、3次元ポインタ31を表示させるべき位置を示す情報を表示画像処理部228に供給する。3次元画像記録部227は、3次元画像を記録しており、記録している3次元画像を必要に応じて表示画像処理部228に供給する。   The coordinate calculation unit 226 stores the depth length E. The coordinate calculation unit 226 is based on the stored depth length E, the coordinate information from the position indication light detection unit 223, the forward flag from the forward indication light detection unit 224, and the reverse flag from the reverse indication light detection unit 225. Then, the position where the three-dimensional pointer 31 is displayed is calculated, and information indicating the position where the three-dimensional pointer 31 is to be displayed is supplied to the display image processing unit 228. The three-dimensional image recording unit 227 records a three-dimensional image, and supplies the recorded three-dimensional image to the display image processing unit 228 as necessary.

表示画像処理部228は、座標計算部226から供給された、3次元ポインタ31を表示させるべき位置を示す情報と、3次元画像記録部227から供給された3次元画像とから表示画像を生成してプロジェクタ25に供給する。   The display image processing unit 228 generates a display image from the information indicating the position where the three-dimensional pointer 31 should be displayed supplied from the coordinate calculation unit 226 and the three-dimensional image supplied from the three-dimensional image recording unit 227. To the projector 25.

ところで、ユーザ32がプレゼンテーションを行うために、画像処理装置24を操作して表示画像のスクリーン21への表示を指示すると、表示画像処理部228は、ユーザ32に指示された3次元画像を表示画像としてプロジェクタ25に供給し、プロジェクタ25に表示画像の表示を指示する。すると、プロジェクタ25は、画像処理装置24の表示画像処理部228の制御に基づいて、表示画像処理部228から供給された表示画像を表示させるための光をスクリーン21に投光し、スクリーン21に表示画像を表示させる。   By the way, when the user 32 operates the image processing device 24 to instruct to display the display image on the screen 21 in order to make a presentation, the display image processing unit 228 displays the three-dimensional image instructed by the user 32 as the display image. To the projector 25, and instructs the projector 25 to display a display image. Then, the projector 25 projects light for displaying the display image supplied from the display image processing unit 228 on the screen 21 based on the control of the display image processing unit 228 of the image processing device 24. Display the display image.

スクリーン21に表示画像が表示されると、ユーザ32は、レーザポインタ22を操作して、3次元ポインタ31を移動させながらプレゼンテーションを行う。   When the display image is displayed on the screen 21, the user 32 performs a presentation while operating the laser pointer 22 and moving the three-dimensional pointer 31.

また、スクリーン21に表示画像が表示されると、プレゼンテーションシステム11により、ユーザ32によるレーザポインタ22への操作が反映された表示画像を表示する処理である表示処理が開始される。以下、図11のフローチャートを参照して、プレゼンテーションシステム11による表示処理について説明する。   When a display image is displayed on the screen 21, the presentation system 11 starts a display process that is a process for displaying a display image that reflects the operation of the user 32 on the laser pointer 22. Hereinafter, display processing by the presentation system 11 will be described with reference to the flowchart of FIG.

ステップS11において、カメラ23は、スクリーン21とその周囲の領域を撮像し、これにより得られた撮像画像を画像処理装置24の色同時化処理部221に供給する。すなわち、レンズ181は、入射した光を集光してCCDイメージセンサ183に入射させ、CCDイメージセンサ183は、レンズ181から入射した光を光電変換することにより撮像画像を生成して、生成した撮像画像を相関2重サンプリング回路184に供給する。また、相関2重サンプリング回路184は、CCDイメージセンサ183からの撮像画像をサンプリングすることによって、撮像画像からノイズを除去して、ノイズの除去された撮像画像をA/Dコンバータ185に供給する。A/Dコンバータ185は、相関2重サンプリング回路184からの撮像画像をアナログ信号からデジタル信号に変換してDSP186に供給する。   In step S <b> 11, the camera 23 images the screen 21 and the surrounding area, and supplies the captured image obtained thereby to the color synchronization processing unit 221 of the image processing device 24. That is, the lens 181 condenses the incident light and makes it incident on the CCD image sensor 183, and the CCD image sensor 183 generates a captured image by photoelectrically converting the light incident from the lens 181 and generates the captured image. The image is supplied to the correlated double sampling circuit 184. The correlated double sampling circuit 184 removes noise from the captured image by sampling the captured image from the CCD image sensor 183, and supplies the captured image from which noise has been removed to the A / D converter 185. The A / D converter 185 converts the captured image from the correlated double sampling circuit 184 from an analog signal to a digital signal and supplies the converted signal to the DSP 186.

そしてDSP186は、A/Dコンバータ185から供給された撮像画像に対して、必要に応じて階調圧縮処理などの画像処理を施し、画像処理の施された撮像画像を、バス193を介して画像処理装置24の色同時化処理部221に供給する。   The DSP 186 performs image processing such as gradation compression processing on the captured image supplied from the A / D converter 185 as necessary, and the captured image subjected to the image processing is converted into an image via the bus 193. This is supplied to the color synchronization processing unit 221 of the processing device 24.

ステップS12において、画像処理装置24は生成処理を行う。なお、生成処理の詳細は後述するが、この生成処理において、画像処理装置24は、カメラ23から供給された撮像画像を用いて、3次元ポインタ31を表示させるべき表示位置を特定し、その表示位置に3次元ポインタ31が表示される表示画像を生成する。表示画像が生成されると画像処理装置24は、生成した表示画像をプロジェクタ25に供給する。   In step S12, the image processing device 24 performs a generation process. Although details of the generation process will be described later, in this generation process, the image processing device 24 uses the captured image supplied from the camera 23 to specify the display position where the three-dimensional pointer 31 is to be displayed and displays the display position. A display image in which the three-dimensional pointer 31 is displayed at the position is generated. When the display image is generated, the image processing device 24 supplies the generated display image to the projector 25.

ステップS13において、画像処理装置24は、プロジェクタ25を制御して、スクリーン21に表示画像を表示させる。プロジェクタ25は、画像処理装置24から供給された表示画像に基づいて、表示画像を表示させるための光をスクリーン21に投光し、スクリーン21に表示画像を表示させる。これにより、スクリーン21の表示が、これまで表示されていた表示画像から、ユーザ32の操作が反映された新たな表示画像に切り替わる。   In step S <b> 13, the image processing device 24 controls the projector 25 to display a display image on the screen 21. Based on the display image supplied from the image processing device 24, the projector 25 projects light for displaying the display image onto the screen 21 and displays the display image on the screen 21. As a result, the display on the screen 21 is switched from the display image displayed so far to a new display image reflecting the operation of the user 32.

ステップS14において、画像処理装置24は、表示画像を表示させる処理を終了するか否かを判定する。例えば、ユーザ32により画像処理装置24が操作され、表示画像の表示の終了が指示されると、画像処理装置24は処理を終了すると判定する。   In step S14, the image processing device 24 determines whether or not to end the process of displaying the display image. For example, when the user 32 operates the image processing device 24 and gives an instruction to end the display of the display image, the image processing device 24 determines to end the processing.

ステップS14において、処理を終了しないと判定された場合、処理はステップS11に戻り、上述した処理が繰り返される。すなわち、画像処理装置24により新たに表示させるべき表示画像が生成されて、生成された表示画像が、プロジェクタ25によりスクリーン21に表示される。   If it is determined in step S14 that the process is not terminated, the process returns to step S11, and the above-described process is repeated. That is, a display image to be newly displayed is generated by the image processing device 24, and the generated display image is displayed on the screen 21 by the projector 25.

これに対して、ステップS14において、処理を終了すると判定された場合、プレゼンテーションシステム11の各装置は行っている処理を終了し、表示処理は終了する。   On the other hand, when it is determined in step S14 that the process is to be ended, each device of the presentation system 11 ends the process being performed, and the display process is ended.

このようにして、プレゼンテーションシステム11は、スクリーン21とその周囲の領域を撮像し、その結果得られた撮像画像から、ユーザ32による操作を反映した表示画像を生成する。そして、新たに生成した表示画像をスクリーン21に表示させる。   In this way, the presentation system 11 captures the screen 21 and the surrounding area, and generates a display image reflecting the operation by the user 32 from the captured image obtained as a result. Then, the newly generated display image is displayed on the screen 21.

次に、図12のフローチャートを参照して、図11のステップS12の処理に対応する処理である生成処理について説明する。   Next, generation processing that is processing corresponding to the processing in step S12 in FIG. 11 will be described with reference to the flowchart in FIG.

ステップS41において、色同時化処理部221は、カメラ23から供給された撮像画像に対して色同時化処理を施して、色同時化処理の施された撮像画像を幾何変換処理部222に供給する。   In step S <b> 41, the color synchronization processing unit 221 performs color synchronization processing on the captured image supplied from the camera 23, and supplies the captured image subjected to color synchronization processing to the geometric conversion processing unit 222. .

色同時化処理部221は色同時化処理を行うことにより、撮像画像の各画素について、それらの画素の周囲にある画素の画素値を用いて各色の画素値を補間する。これにより、各画素がR(赤)、G(緑)、B(青)、位置指示光の波長の色、前進指示光の波長の色、および後進指示光の波長の色のそれぞれの色の画素値を有する撮像画像が得られる。なお、この色同時化処理はデモザイク処理などとも呼ばれている。   The color synchronization processing unit 221 performs color synchronization processing to interpolate the pixel values of each color using the pixel values of the pixels around the pixels of the captured image. Accordingly, each pixel has R (red), G (green), B (blue), the color of the wavelength of the position indicating light, the color of the wavelength of the forward indicating light, and the color of the wavelength of the backward indicating light. A captured image having pixel values is obtained. This color synchronization processing is also called demosaic processing.

より具体的には、例えば、色同時化処理部221は、特開2003−230159号公報に記載されている技術を利用して色同時化処理を行う。すなわち、色同時化処理部221は、撮像画像のR、G、およびBの色の画素値から色差信号を生成し、撮像画像と色差信号とから全ての画素が輝度成分を有する輝度画像を生成する。そして、色同時化処理部221は、色差信号に基づいて、輝度画像を各画素がR、G、およびBの色の画素値を有する撮像画像に変換し、Gの色の画素値に基づいてRおよびBの画素値を補正する。   More specifically, for example, the color synchronization processing unit 221 performs color synchronization processing using a technique described in Japanese Patent Laid-Open No. 2003-230159. That is, the color synchronization processing unit 221 generates a color difference signal from the pixel values of R, G, and B colors of the captured image, and generates a luminance image in which all pixels have a luminance component from the captured image and the color difference signal. To do. Then, based on the color difference signal, the color synchronization processing unit 221 converts the luminance image into a captured image in which each pixel has R, G, and B pixel values, and based on the G color pixel value. R and B pixel values are corrected.

さらに、色同時化処理部221は、各画素のR、G、およびBの色の画素値と、所定の画素の位置指示光の波長の色、前進指示光の波長の色、および後進指示光の波長の色の画素値とを用いて、各画素の位置指示光の波長の色の画素値、前進指示光の波長の色の画素値、および後進指示光の波長の色の画素値を求めて、撮像画像を、各画素がR、G、B、位置指示光の波長の色、前進指示光の波長の色、および後進指示光の波長の色のそれぞれの画素値を有する画像とする。   Further, the color synchronization processing unit 221 includes the pixel values of the R, G, and B colors of each pixel, the color of the position indicating light wavelength of the predetermined pixel, the color of the wavelength of the forward indicating light, and the backward indicating light. The pixel value of the color of the position indicating light of each pixel, the pixel value of the color of the wavelength of the forward indicating light, and the pixel value of the color of the wavelength of the backward indicating light are obtained using The captured image is an image in which each pixel has pixel values of R, G, B, the color of the wavelength of the position indicating light, the color of the wavelength of the forward indicating light, and the color of the wavelength of the backward indicating light.

また、例えば、色同時化処理部221は、特表昭61−502424号公報に記載されている技術を利用して色同時化処理を行うようにしてもよい。そのような場合、色同時化処理部221は、撮像画像の画素のR、G、およびBの色の画素値から色相成分の値を求めて線形補間を行うことにより各画素の色相成分の値を得る。そして、色同時化処理部221は、各画素の色相成分の値から再びR、G、およびBの色の画素値を求める。   In addition, for example, the color synchronization processing unit 221 may perform color synchronization processing using a technique described in Japanese Patent Publication No. 61-502424. In such a case, the color synchronization processing unit 221 obtains the value of the hue component from the pixel values of the R, G, and B colors of the pixels of the captured image and performs linear interpolation to thereby determine the value of the hue component of each pixel. Get. Then, the color synchronization processing unit 221 obtains pixel values of R, G, and B colors again from the value of the hue component of each pixel.

さらに、色同時化処理部221は、各画素のR、G、およびBの色の画素値と、所定の画素の位置指示光の波長の色、前進指示光の波長の色、および後進指示光の波長の色のそれぞれの画素値とを用いて、各画素の位置指示光の波長の色の画素値、前進指示光の波長の色の画素値、および後進指示光の波長の色の画素値を求める。   Further, the color synchronization processing unit 221 includes the pixel values of the R, G, and B colors of each pixel, the color of the position indicating light wavelength of the predetermined pixel, the color of the wavelength of the forward indicating light, and the backward indicating light. And the pixel value of the color of the position indicating light wavelength, the pixel value of the color of the forward indicating light wavelength, and the pixel value of the color of the reverse indicating light wavelength Ask for.

色同時化処理が施された撮像画像が、色同時化処理部221から幾何変換処理部222に供給されると、ステップS42において、幾何変換処理部222は、色同時化処理部221から供給された撮像画像に幾何変換処理を施す。   When the captured image subjected to the color synchronization processing is supplied from the color synchronization processing unit 221 to the geometric conversion processing unit 222, the geometric conversion processing unit 222 is supplied from the color synchronization processing unit 221 in step S42. The captured image is subjected to a geometric transformation process.

例えば、図13に示すように、プロジェクタ25は、スクリーン21に対して正面から表示画像を表示させるための光を投光することができるように、スクリーン21の正面、つまりスクリーン21に対向する位置に配置される。   For example, as shown in FIG. 13, the projector 25 can project the light for displaying the display image from the front to the screen 21, that is, the position facing the front of the screen 21, that is, the screen 21. Placed in.

これに対して、カメラ23は、スクリーン21のほぼ全体の画像を撮像することができる位置に配置される。図13では、カメラ23は、スクリーン21に対して図中、右下の位置に配置されている。したがって、スクリーン21に表示されている長方形状の表示画像は、例えば、図14に示すように、撮像画像上においては台形状となる。   On the other hand, the camera 23 is arranged at a position where an almost entire image of the screen 21 can be taken. In FIG. 13, the camera 23 is disposed at the lower right position in the drawing with respect to the screen 21. Therefore, the rectangular display image displayed on the screen 21 has a trapezoidal shape on the captured image, for example, as shown in FIG.

図14に示す撮像画像251内には、スクリーン21に表示されている表示画像252が含まれている。また、表示画像252は、4つの点253−1乃至点253−4のそれぞれを頂点とする台形状の領域となっている。すなわち、カメラ23は、スクリーン21を斜め方向から撮像するので、スクリーン21上において長方形状である表示画像が、図14の撮像画像251上においては、図中、左側の辺よりも右側の辺が長い台形状となっている。   A captured image 251 shown in FIG. 14 includes a display image 252 displayed on the screen 21. In addition, the display image 252 is a trapezoidal region having apexes of the four points 253-1 to 253-4. That is, since the camera 23 images the screen 21 from an oblique direction, a display image that is rectangular on the screen 21 is displayed on the captured image 251 in FIG. It has a long trapezoid shape.

そこで、まず幾何変換処理部222は、図14の撮像画像251に対してエッジ検出をすることで、撮像画像251から表示画像252の領域を検出する。幾何変換処理部222は、検出された表示画像252の4つの頂点である点253−1乃至点253−4を特徴点とし、それらの点253−1乃至点253−4を頂点とする四角形の領域を、長方形の領域に変形するためのパラメータを算出し、算出したパラメータに基づいて撮像画像に幾何変換処理を施す。さらに、幾何変換処理部222は、幾何変換処理が施された撮像画像251から、点253−1乃至点253−4を頂点とする長方形状の領域を、抽出画像として抽出する。   Therefore, first, the geometric transformation processing unit 222 detects an area of the display image 252 from the captured image 251 by performing edge detection on the captured image 251 of FIG. The geometric transformation processing unit 222 uses points 253-1 to 253-4 which are the four vertices of the detected display image 252 as feature points, and has a rectangular shape with the points 253-1 to 253-4 as vertices. A parameter for transforming the region into a rectangular region is calculated, and a geometric transformation process is performed on the captured image based on the calculated parameter. Further, the geometric transformation processing unit 222 extracts a rectangular area having vertices at the points 253-1 to 253-4 as extracted images from the captured image 251 subjected to the geometric transformation processing.

そして、幾何変換処理部222は、撮像画像から抽出された抽出画像を、位置指示光画像、前進指示光画像、および後進指示光画像のそれぞれに分離し、分離された位置指示光画像、前進指示光画像、および後進指示光画像のそれぞれを、位置指示光検出部223、前進指示光検出部224、および後進指示光検出部225のそれぞれに供給する。   Then, the geometric transformation processing unit 222 separates the extracted image extracted from the captured image into a position indication light image, a forward indication light image, and a reverse indication light image, and the separated position indication light image and forward indication are separated. The optical image and the reverse instruction light image are supplied to the position instruction light detection unit 223, the forward instruction light detection unit 224, and the reverse instruction light detection unit 225, respectively.

例えば、カメラ23が撮像画像を撮像する時点において、スクリーン21に、図15Aに示す表示画像が表示されていたとする。図15Aに示す表示画像では、3つの物体が表示されており、それらの物体のうちの図中、一番左側にある物体上に3次元ポインタ31が表示されている。また、この表示画像が表示されているときに撮像されて得られた撮像画像からは、例えば図15Bに示す位置指示光画像が得られる。   For example, assume that the display image shown in FIG. 15A is displayed on the screen 21 when the camera 23 captures a captured image. In the display image shown in FIG. 15A, three objects are displayed, and a three-dimensional pointer 31 is displayed on the leftmost object in the figure. Further, for example, a position indication light image shown in FIG. 15B is obtained from a captured image obtained by capturing when the display image is displayed.

図15Bに示す位置指示光画像では、図中、左側に楕円形の位置指示光の像281と、楕円形の補助光の像282とが撮像されて表示されている。この位置指示光画像においては、補助光の像282が位置指示光の像281の図中、左上に位置しているので、位置指示光は、右下の方向からスクリーン21上の表示画像に照射されていることが分かる。   In the position indicating light image shown in FIG. 15B, an elliptical position indicating light image 281 and an elliptical auxiliary light image 282 are captured and displayed on the left side in the drawing. In this position indicating light image, since the auxiliary light image 282 is located at the upper left in the figure of the position indicating light image 281, the position indicating light is applied to the display image on the screen 21 from the lower right direction. You can see that.

さらに、スクリーン21に図15Aに示した表示画像が表示されており、ユーザ32により3次元ポインタ31の奥行き方向への移動が指示された場合、レーザポインタ22から表示画像には前進指示光が照射されるので、撮像画像からは、例えば図15Cに示す前進指示光画像が得られる。   Furthermore, when the display image shown in FIG. 15A is displayed on the screen 21 and the user 32 instructs to move the three-dimensional pointer 31 in the depth direction, the laser pointer 22 irradiates the display image with the forward instruction light. Therefore, for example, a forward instruction light image shown in FIG. 15C is obtained from the captured image.

なお、図15Cにおいて、図15Bにおける場合と対応する部分には同一の符号を付してあり、その説明は省略する。また、位置指示光および補助光の波長は、前進指示光の波長とは異なるので、位置指示光の像281および補助光の像282は、実際には前進指示光画像には表示されない。   In FIG. 15C, parts corresponding to those in FIG. 15B are denoted by the same reference numerals, and description thereof is omitted. Further, since the wavelength of the position indicating light and the auxiliary light are different from the wavelength of the forward indicating light, the position indicating light image 281 and the auxiliary light image 282 are not actually displayed in the forward indicating light image.

図15Cでは、位置指示光の像281の図中、右側に前進指示光の像291が撮像されて表示されている。すなわち、前進指示光画像からは、前進指示光の像291が検出されることになるので、3次元ポインタ31の奥行き方向への移動が指示されたとされる。   In FIG. 15C, the forward direction light image 291 is captured and displayed on the right side in the figure of the position direction light image 281. That is, since the forward instruction light image 291 is detected from the forward instruction light image, it is assumed that the movement of the three-dimensional pointer 31 in the depth direction is instructed.

また、スクリーン21に図15Aに示した表示画像が表示されており、ユーザ32により3次元ポインタ31の手前方向への移動が指示された場合、レーザポインタ22から表示画像には後進指示光が照射されるので、撮像画像からは、例えば図15Dに示す後進指示光画像が得られる。   When the display image shown in FIG. 15A is displayed on the screen 21 and the user 32 instructs to move the three-dimensional pointer 31 in the forward direction, the display image is irradiated with the backward instruction light from the laser pointer 22. Therefore, for example, a reverse instruction light image shown in FIG. 15D is obtained from the captured image.

なお、図15Dにおいて、図15Bにおける場合と対応する部分には同一の符号を付してあり、その説明は省略する。また、位置指示光および補助光の波長は、後進指示光の波長とは異なるので、位置指示光の像281および補助光の像282は、実際には後進指示光画像には表示されない。   In FIG. 15D, parts corresponding to those in FIG. 15B are denoted by the same reference numerals, and description thereof is omitted. Further, since the wavelength of the position indicating light and the auxiliary light is different from the wavelength of the reverse indicating light, the position indicating light image 281 and the auxiliary light image 282 are not actually displayed in the reverse indicating light image.

図15Dでは、位置指示光の像281の図中、左側に後進指示光の像301が撮像されて表示されている。すなわち、後進指示光画像からは、後進指示光の像301が検出されることになるので、3次元ポインタ31の手前方向への移動が指示されたとされる。   In FIG. 15D, the reverse instruction light image 301 is captured and displayed on the left side of the position instruction light image 281. That is, since the reverse instruction light image 301 is detected from the reverse instruction light image, it is assumed that the movement of the three-dimensional pointer 31 in the forward direction is instructed.

このように、幾何変換処理部222においては、抽出画像から、位置指示光画像、前進指示光画像、および後進指示光画像のそれぞれが分離される。   Thus, in the geometric transformation processing unit 222, each of the position instruction light image, the forward instruction light image, and the reverse instruction light image is separated from the extracted image.

図12のフローチャートの説明に戻り、ステップS42において撮像画像から位置指示光画像、前進指示光画像、および後進指示光画像が得られると、ステップS43において、位置指示光検出部223は、重心位置検出処理を行う。なお、重心位置検出処理の詳細は後述するが、この重心位置検出処理において、位置指示光検出部223は、幾何変換処理部222から供給された位置指示光画像から、画素数K、重心座標、長軸交点座標、および短軸交点座標を求める。そして、位置指示光検出部223は、画素数Kおよび重心座標を、前進指示光検出部224および後進指示光検出部225に供給し、重心座標、長軸交点座標、および短軸交点座標を座標計算部226に供給する。   Returning to the description of the flowchart in FIG. 12, when the position instruction light image, the forward instruction light image, and the reverse instruction light image are obtained from the captured image in step S42, in step S43, the position instruction light detection unit 223 detects the center of gravity position detection. Process. Although details of the center-of-gravity position detection process will be described later, in this center-of-gravity position detection process, the position indication light detection unit 223 uses the number of pixels K, the center of gravity coordinates, The major axis intersection coordinates and the minor axis intersection coordinates are obtained. Then, the position indicating light detection unit 223 supplies the number K of pixels and the barycentric coordinates to the forward indicating light detecting unit 224 and the reverse moving instruction light detecting unit 225, and coordinates the barycentric coordinates, the long axis intersection coordinates, and the short axis intersection coordinates. It supplies to the calculation part 226.

ステップS44において、前進指示光検出部224は、前進指示光の検出処理を行う。すなわち、前進指示光検出部224は、幾何変換処理部222から供給された前進指示光画像から前進指示光の像を検出し、その検出結果としての前進フラグを座標計算部226に供給する。   In step S44, the forward instruction light detection unit 224 performs forward instruction light detection processing. That is, the forward instruction light detection unit 224 detects an image of the forward instruction light from the forward instruction light image supplied from the geometric transformation processing unit 222 and supplies a forward flag as a detection result to the coordinate calculation unit 226.

ステップS45において、後進指示光検出部225は、後進指示光の検出処理を行う。すなわち、後進指示光検出部225は、幾何変換処理部222から供給された後進指示光画像から後進指示光の像を検出して、その検出結果としての後進フラグを座標計算部226に供給する。なお、前進指示光の検出処理および後進指示光の検出処理の詳細は後述する。   In step S45, the reverse instruction light detection unit 225 performs a reverse instruction light detection process. That is, the reverse instruction light detection unit 225 detects an image of the reverse instruction light from the reverse instruction light image supplied from the geometric transformation processing unit 222 and supplies a reverse flag as a detection result to the coordinate calculation unit 226. The details of the forward instruction light detection process and the reverse instruction light detection process will be described later.

ステップS46において、座標計算部226は、3次元ポインタ位置算出処理を行う。なお、3次元ポインタ位置算出処理の詳細は後述するが、この3次元ポインタ位置算出処理において、座標計算部226は、3次元ポインタ31の表示位置を求めて、3次元ポインタ31の表示位置を示す情報を表示画像処理部228に供給する。ここで、3次元ポインタ31の表示位置として、例えば表示画像に対して想定された仮想3次元空間上の位置を示す座標が求められ、その仮想3次元空間の座標を示す情報が、座標計算部226から表示画像処理部228に供給される。   In step S46, the coordinate calculation unit 226 performs a three-dimensional pointer position calculation process. Although details of the three-dimensional pointer position calculation process will be described later, in this three-dimensional pointer position calculation process, the coordinate calculation unit 226 obtains the display position of the three-dimensional pointer 31 and indicates the display position of the three-dimensional pointer 31. Information is supplied to the display image processing unit 228. Here, as the display position of the three-dimensional pointer 31, for example, coordinates indicating a position in the virtual three-dimensional space assumed for the display image are obtained, and information indicating the coordinates of the virtual three-dimensional space is the coordinate calculation unit. 226 to the display image processing unit 228.

ステップS47において、表示画像処理部228は、3次元画像記録部227に記録されている3次元画像と、座標計算部226から供給された3次元ポインタ31の表示位置を示す情報とに基づいて、表示画像を生成する。   In step S47, the display image processing unit 228 is based on the 3D image recorded in the 3D image recording unit 227 and the information indicating the display position of the 3D pointer 31 supplied from the coordinate calculation unit 226. Generate a display image.

すなわち、表示画像処理部228は、座標計算部226から供給された情報により特定される仮想3次元空間上の位置に対応する3次元画像上の位置に、3次元ポインタ31が表示される画像を表示画像として生成する。ここで、3次元ポインタ31が表示される3次元画像上の位置は、2次元の平面に表示される3次元画像上の位置であって、仮想3次元空間上の3次元ポインタ31の表示位置に対応する位置とされる。   That is, the display image processing unit 228 displays an image in which the three-dimensional pointer 31 is displayed at a position on the three-dimensional image corresponding to the position on the virtual three-dimensional space specified by the information supplied from the coordinate calculation unit 226. Generated as a display image. Here, the position on the 3D image where the 3D pointer 31 is displayed is the position on the 3D image displayed on the 2D plane, and the display position of the 3D pointer 31 in the virtual 3D space. It is a position corresponding to.

表示画像処理部228は、表示画像を生成すると、生成した表示画像をプロジェクタ25に供給して、プロジェクタ25に表示画像の表示を指示する。そして、プロジェクタ25に表示画像が供給されると、処理は図11のステップS13に進み、生成処理は終了する。   When the display image processing unit 228 generates the display image, the display image processing unit 228 supplies the generated display image to the projector 25 and instructs the projector 25 to display the display image. When the display image is supplied to the projector 25, the process proceeds to step S13 in FIG. 11, and the generation process ends.

このようにして、画像処理装置24は、撮像画像から位置指示光画像、前進指示光画像、および後進指示光画像を分離する。そして、画像処理装置24は、位置指示光画像、前進指示光画像、および後進指示光画像を用いて3次元ポインタ31の表示位置を特定し、その表示位置に3次元ポインタ31が表示される表示画像を生成する。   In this way, the image processing device 24 separates the position instruction light image, the forward instruction light image, and the reverse instruction light image from the captured image. Then, the image processing device 24 specifies the display position of the three-dimensional pointer 31 using the position instruction light image, the forward instruction light image, and the reverse instruction light image, and the display in which the three-dimensional pointer 31 is displayed at the display position. Generate an image.

つまり、画像処理装置24は、撮像画像から、前進指示光の像および後進指示光の像を検出することにより、3次元ポインタ31をどの方向に移動させるかを特定し、さらに、特定された方向、および位置指示光の像の位置とその形状から3次元ポインタ31を表示させるべき位置を特定する。   That is, the image processing device 24 identifies the direction in which the three-dimensional pointer 31 is moved by detecting the forward instruction light image and the reverse instruction light image from the captured image, and further specifies the specified direction. The position where the three-dimensional pointer 31 is to be displayed is specified from the position and shape of the image of the position indicating light.

このように、位置指示光画像、前進指示光画像、および後進指示光画像を用いて3次元ポインタ31の表示位置を求め、表示画像を生成することにより、簡単かつ確実にユーザ32により指定された3次元ポインタ31の表示位置を特定することができる。これにより、ユーザ32は、レーザポインタ22を操作して不可視光を表示画像に照射するだけで、2次元の平面に表示される画像に対して想定された仮想3次元空間上の位置を、簡単に指定することができる。   As described above, the display position of the three-dimensional pointer 31 is obtained using the position instruction light image, the forward instruction light image, and the reverse instruction light image, and the display image is generated. The display position of the three-dimensional pointer 31 can be specified. As a result, the user 32 simply operates the laser pointer 22 to irradiate the display image with invisible light, and can easily change the position in the virtual three-dimensional space assumed for the image displayed on the two-dimensional plane. Can be specified.

従来、表示画像に対して想定された仮想3次元空間上の位置を指定するには、磁気センサや磁気マーカ、超音波センサが用いられていたが、これらのセンサやマーカは高価であった。また、表示画像の大きさによっては、センサがセンシングを行う範囲を変更する必要があるため、表示画像を表示させる大きさに応じて、プレゼンテーションシステムに用いる磁気センサや超音波センサを選択しなければならなかった。   Conventionally, a magnetic sensor, a magnetic marker, and an ultrasonic sensor have been used to designate a position in a virtual three-dimensional space assumed for a display image. However, these sensors and markers are expensive. In addition, depending on the size of the display image, it is necessary to change the range in which the sensor performs sensing. Therefore, depending on the size of the display image to be displayed, a magnetic sensor or ultrasonic sensor used in the presentation system must be selected. did not become.

これに対して、プレゼンテーションシステム11においては、レーザポインタ22から射出された不可視光を撮像し、その結果得られた撮像画像を用いて3次元ポインタ31の表示位置を特定するようにしたので、周囲の環境に影響されることなく、また表示画像の大きさに関係なく、簡単かつ確実に仮想3次元空間上の位置を指定することができる。   In contrast, in the presentation system 11, the invisible light emitted from the laser pointer 22 is imaged, and the display position of the three-dimensional pointer 31 is specified using the captured image obtained as a result. The position in the virtual three-dimensional space can be specified easily and surely without being influenced by the environment, and irrespective of the size of the display image.

しかも、このプレゼンテーションシステム11は、スクリーン21およびプロジェクタ25として既存の装置を用いることができる。また、カメラ23としてのマルチスペクトルカメラは、一般的なカラーカメラの撮像素子の受光面に配置されるオンチップカラーフィルタを、図9に示したオンチップカラーフィルタに置き換えるだけで簡単かつ安価に作成することができるため、量産効果により通常のカラーカメラと同等のコストで得られることが期待できる。   In addition, the presentation system 11 can use existing devices as the screen 21 and the projector 25. The multi-spectral camera as the camera 23 can be easily and inexpensively created by simply replacing the on-chip color filter arranged on the light receiving surface of an image sensor of a general color camera with the on-chip color filter shown in FIG. Therefore, it can be expected to be obtained at the same cost as a normal color camera due to the mass production effect.

さらに、レーザポインタ22は不可視光を射出するレーザポインタであるが、不可視光のレーザポインタは既に製品として販売されており、その価格も可視光のレーザポインタと比較してそれほど高価ではない。   Furthermore, although the laser pointer 22 is a laser pointer that emits invisible light, the laser pointer for invisible light has already been sold as a product, and its price is not so expensive as compared with the laser pointer for visible light.

したがって、既存の装置を利用することで、汎用性を低下させることなく、低コストでプレゼンテーションシステム11を実現することができる。   Therefore, by using an existing apparatus, the presentation system 11 can be realized at a low cost without reducing versatility.

次に、図16のフローチャートを参照して、図12のステップS43の処理に対応する処理である重心位置検出処理について説明する。   Next, the center-of-gravity position detection process that is a process corresponding to the process of step S43 of FIG. 12 will be described with reference to the flowchart of FIG.

幾何変換処理部222から位置指示光検出部223に位置指示光画像が供給されると、ステップS71において、位置指示光検出部223は、位置指示光画像の各画素のうち、画素値が予め定められた閾値th1以上である画素を検出する。   When the position indicating light image is supplied from the geometric transformation processing unit 222 to the position indicating light detecting unit 223, in step S71, the position indicating light detecting unit 223 determines a pixel value in advance among each pixel of the position indicating light image. Pixels that are equal to or greater than the threshold value th1 are detected.

ステップS72において、位置指示光検出部223は、検出した位置指示光画像の画素についてクラスタリングを行う。すなわち、位置指示光検出部223は、互いに隣接し、閾値th1以上の画素値を有する複数の画素からなる位置指示光画像上の領域、つまりそれらの画素の集合を1つのクラスタとする。   In step S <b> 72, the position indicating light detection unit 223 performs clustering for the pixels of the detected position indicating light image. That is, the position indicating light detection unit 223 sets a region on the position indicating light image, which is composed of a plurality of pixels adjacent to each other and having a pixel value equal to or greater than the threshold th1, that is, a set of these pixels as one cluster.

これにより、例えば位置指示光画像から、図15Bに示した位置指示光の像281の領域、および補助光の像282の領域がクラスタとして検出される。つまり、位置指示光画像からクラスタとして検出される領域は、スクリーン21上の位置指示光および補助光と同じ波長の赤外光が照射されている領域であり、プロジェクタ25から投光される光は、そのほとんどが可視光であるので、位置指示光画像からは、通常、2つのクラスタが検出されると予測される。   Thereby, for example, the region of the position indicating light image 281 and the region of the auxiliary light image 282 shown in FIG. 15B are detected as clusters from the position indicating light image. That is, the area detected as a cluster from the position indicating light image is an area irradiated with infrared light having the same wavelength as the position indicating light and auxiliary light on the screen 21, and the light projected from the projector 25 is Since most of them are visible light, it is normally predicted that two clusters are detected from the position indicating light image.

また、何らかの影響によりノイズとしての赤外光がスクリーン21に照射される場合には、位置指示光画像から3以上のクラスタが検出されることも考えられるが、ノイズとして、位置指示光や補助光よりもビーム径の大きい赤外光がスクリーン21に照射されることは稀である。したがって、検出された複数のクラスタのうちの最も大きいクラスタが、レーザポインタ22からスクリーン21に照射された位置指示光の像であり、2番目に大きいクラスタが補助光の像であると予測される。   Further, when the screen 21 is irradiated with infrared light as noise due to some influence, three or more clusters may be detected from the position indication light image. However, as the noise, position indication light or auxiliary light may be detected. It is rare that the screen 21 is irradiated with infrared light having a larger beam diameter. Therefore, the largest cluster among the detected plurality of clusters is predicted to be an image of the position indicating light irradiated on the screen 21 from the laser pointer 22, and the second largest cluster is predicted to be the image of auxiliary light. .

ステップS73において、位置指示光検出部223は、クラスタリングを行うことにより得られたクラスタのうち、2番目に大きいクラスタ、つまり2番目に多い画素からなるクラスタの重心の位置を求める。   In step S73, the position indicating light detection unit 223 obtains the position of the center of gravity of the second largest cluster, that is, the cluster composed of the second largest pixel among the clusters obtained by performing the clustering.

例えば、位置指示光検出部223は、表示画像に対して想定された仮想3次元空間の基準点Oに対応する位置指示光画像上の位置を基準点とするxy座標系における、2番目に大きいクラスタの重心の位置の座標(xj,yj)を求める。   For example, the position indicating light detection unit 223 is the second largest in the xy coordinate system having the position on the position indicating light image corresponding to the reference point O in the virtual three-dimensional space assumed for the display image as the reference point. The coordinates (xj, yj) of the position of the center of gravity of the cluster are obtained.

ここで、表示画像に対して想定された仮想3次元空間の基準点Oは、例えば図5の表示画像141の図中、左下の頂点であるので、図15Bに示した位置指示光画像の図中、左下の頂点がxy座標系の基準点とされる。また、位置指示光画像に対するxy座標系のx軸方向、およびy軸方向は、表示画像に対して想定された仮想3次元空間のx軸方向およびy軸方向と同じ方向とされる。したがって、図15Bにおいて、右方向がx軸方向とされ、上方向がy軸方向とされる。   Here, since the reference point O of the virtual three-dimensional space assumed for the display image is, for example, the lower left vertex in the display image 141 of FIG. 5, the position indicating light image shown in FIG. 15B is shown. The middle and lower left vertex is set as a reference point of the xy coordinate system. Further, the x-axis direction and the y-axis direction of the xy coordinate system with respect to the position indicating light image are the same as the x-axis direction and the y-axis direction of the virtual three-dimensional space assumed for the display image. Accordingly, in FIG. 15B, the right direction is the x-axis direction, and the upward direction is the y-axis direction.

ステップS74において、位置指示光検出部223は、クラスタリングを行うことにより得られたクラスタのうち、最も大きいクラスタの重心の位置、およびそのクラスタを構成する画素数を求める。   In step S74, the position indicating light detection unit 223 obtains the position of the center of gravity of the largest cluster among the clusters obtained by performing clustering, and the number of pixels constituting the cluster.

例えば、図17に示すように、位置指示光画像に対するクラスタリングの結果、位置指示光画像から、クラスタC1およびクラスタC2が検出されたとする。ここで、補助光よりも位置指示光のビーム径がより大きいので、補助光の象よりも位置指示光の像の方が大きいと予測される。そこで、位置指示光検出部223は、位置指示光画像から検出された2つのクラスタのうち、その大きさの大きい方のクラスタC1が位置指示光の像であるとし、小さい方のクラスタC2が補助光の像であるとする。   For example, as shown in FIG. 17, it is assumed that the cluster C1 and the cluster C2 are detected from the position indicating light image as a result of clustering on the position indicating light image. Here, since the beam diameter of the position indicating light is larger than that of the auxiliary light, it is predicted that the image of the position indicating light is larger than the image of the auxiliary light. Therefore, the position indicating light detection unit 223 assumes that the larger cluster C1 of the two clusters detected from the position indicating light image is an image of the position indicating light, and the smaller cluster C2 is an auxiliary. Let it be an image of light.

そして、位置指示光検出部223は、まず小さい方のクラスタC2の重心の位置の座標を、位置指示光画像における補助光の像の重心座標として求める。例えば、位置指示光検出部223は、クラスタC2を構成する各画素の重心の位置の座標をクラスタC2の重心の位置の座標として求める。その結果、点331の座標(xj,yj)がクラスタC2の重心の座標として求まる。   Then, the position indicating light detection unit 223 first obtains the coordinates of the position of the center of gravity of the smaller cluster C2 as the center of gravity coordinates of the auxiliary light image in the position indicating light image. For example, the position indicating light detection unit 223 obtains the coordinates of the center of gravity of each pixel constituting the cluster C2 as the coordinates of the center of gravity of the cluster C2. As a result, the coordinates (xj, yj) of the point 331 are obtained as the coordinates of the center of gravity of the cluster C2.

また、位置指示光検出部223は、大きい方のクラスタC1の重心の位置の座標を、位置指示光画像における位置指示光の像の重心座標として求める。その結果、点332の座標(xi,yi)がクラスタC1の重心の座標として求まる。この点332の座標(xi,yi)は、表示画像に照射された位置指示光の表示画像上における像の重心の位置を示している。さらに、位置指示光検出部223は、クラスタC1を構成する画素数、つまりクラスタC1の領域内の画素の数を、位置指示光の像の画素数Kとして求める。   Further, the position indicating light detection unit 223 obtains the coordinates of the position of the center of gravity of the larger cluster C1 as the center of gravity coordinates of the image of the position indicating light in the position indicating light image. As a result, the coordinates (xi, yi) of the point 332 are obtained as the coordinates of the center of gravity of the cluster C1. The coordinates (xi, yi) of the point 332 indicate the position of the center of gravity of the image on the display image of the position indicating light emitted to the display image. Further, the position indicating light detection unit 223 obtains the number of pixels constituting the cluster C1, that is, the number of pixels in the area of the cluster C1, as the number K of pixels of the position indicating light image.

図16のフローチャートの説明に戻り、位置指示光検出部223は、位置指示光の像の重心座標(xi,yi)と位置指示光の像の画素数Kとを、前進指示光検出部224および後進指示光検出部225に供給する。   Returning to the description of the flowchart of FIG. 16, the position indicating light detection unit 223 determines the barycentric coordinates (xi, yi) of the position indicating light image and the number K of pixels of the position indicating light image as the forward indicating light detecting unit 224 and The reverse instruction light detection unit 225 is supplied.

ステップS75において、位置指示光検出部223は、位置指示光画像から検出されたクラスタのうち、最も大きいクラスタについてエッジ検出処理を行う。   In step S75, the position indicating light detection unit 223 performs edge detection processing on the largest cluster among the clusters detected from the position indicating light image.

例えば、位置指示光検出部223は、図17のクラスタC1についてエッジ検出処理を行い、クラスタC1の輪郭を検出する。これにより、例えば、図18に示す楕円341がクラスタC1の輪郭として検出される。この楕円341は、スクリーン21に照射された位置指示光の像の輪郭とされる。したがって、エッジ検出処理により、表示画像に照射された位置指示光の像の表示画像上における形状が検出される。なお、以下、楕円341をクラスタC1の輪郭341とも称する。   For example, the position indicating light detection unit 223 performs edge detection processing on the cluster C1 in FIG. 17 and detects the contour of the cluster C1. Thereby, for example, an ellipse 341 shown in FIG. 18 is detected as the contour of the cluster C1. This ellipse 341 is the contour of the image of the position indicating light irradiated on the screen 21. Therefore, the shape of the image of the position indicating light irradiated on the display image on the display image is detected by the edge detection process. Hereinafter, the ellipse 341 is also referred to as a contour 341 of the cluster C1.

最も大きいクラスタの輪郭が検出されると、ステップS76において、位置指示光検出部223は、エッジ検出処理により検出されたクラスタの輪郭について、長軸交点座標(xf,yf)を求める。例えば、位置指示光検出部223は、図18のクラスタC1の輪郭341上の点であって、クラスタC1の重心の点332から最も遠い点、つまり点332からの距離が最大である点を検出する。図18の例においては、輪郭341は楕円形であるので、点332からの距離が最大である点として、2つの点が検出される。   When the contour of the largest cluster is detected, in step S76, the position indicating light detection unit 223 obtains the long axis intersection coordinates (xf, yf) for the contour of the cluster detected by the edge detection process. For example, the position indicating light detection unit 223 detects a point on the contour 341 of the cluster C1 in FIG. 18 that is the farthest from the point 332 of the center of gravity of the cluster C1, that is, the point having the maximum distance from the point 332. To do. In the example of FIG. 18, the contour 341 is elliptical, and therefore, two points are detected as the points having the maximum distance from the point 332.

そして、位置指示光検出部223は、点332から最も遠い2つの点のうち、クラスタC2の重心である点331側の点、つまり点331と点332との間に位置する点342の座標を長軸交点座標(xf,yf)として求める。   Then, the position indicating light detection unit 223 calculates the coordinates of the point 342 located between the point 331 and the point 332 among the two points farthest from the point 332, that is, the point 331 side that is the center of gravity of the cluster C2. The long axis intersection point coordinates (xf, yf) are obtained.

なお、輪郭341が真円である場合には、点332から輪郭341上の任意の点までの距離が等しくなるが、長軸交点座標の点は、重心座標の点332から最も遠い輪郭341上の点であって、点331側の点であるから、点331および点332を結ぶ直線と、輪郭341との交点の座標が、長軸交点座標とされる。   When the contour 341 is a perfect circle, the distance from the point 332 to an arbitrary point on the contour 341 is equal, but the long-axis intersection coordinate point is on the contour 341 farthest from the center-of-gravity coordinate point 332. Since this is a point on the point 331 side, the coordinate of the intersection of the straight line connecting the point 331 and the point 332 and the contour 341 is the long-axis intersection coordinate.

ステップS77において、位置指示光検出部223は、最も大きいクラスタの重心の点を通り、その点および長軸交点座標の点を結ぶ直線に直交する直線を求め、求められた直線と、最も大きいクラスタの輪郭との交点のうち、クラスタの重心の点に対して予め定められた方向に位置する点の位置の座標を、短軸交点座標として求める。そして、位置指示光検出部223は、求めた重心座標(xi,yi)、長軸交点座標(xf,yf)、および短軸交点座標(xn,yn)を座標情報として座標計算部226に供給して処理は図12のステップS44に進み、重心位置検出処理は終了する。   In step S77, the position indicating light detection unit 223 obtains a straight line that passes through the point of the center of gravity of the largest cluster and is orthogonal to the straight line connecting the point and the point of the long-axis intersection coordinates. The coordinates of the position of a point located in a predetermined direction with respect to the point of the center of gravity of the cluster is obtained as the short-axis intersection coordinate. Then, the position indicating light detection unit 223 supplies the obtained barycentric coordinates (xi, yi), long axis intersection coordinates (xf, yf), and short axis intersection coordinates (xn, yn) to the coordinate calculation unit 226 as coordinate information. Then, the process proceeds to step S44 in FIG. 12, and the gravity center position detection process ends.

例えば、図19に示すように、位置指示光検出部223は、クラスタC1の重心の点332と、長軸交点座標の位置の点342とを結ぶ(通る)直線M1を求める。そして、位置指示光検出部223は、クラスタC1の重心の点332を通り、直線M1に直交する直線N1を求め、さらに直線N1と、クラスタC1の輪郭341との交点のうちの図中、右側の点351の位置の座標を、短軸交点座標(xn,yn)として求める。すなわち、楕円である輪郭341の短軸は長軸と直交するので、点332を通り、長軸を延長した直線である直線M1に直交する直線N1は、短軸を延長した直線であるといえる。そこで、位置指示光検出部223は、直線N1と輪郭341の交点の座標を短軸交点座標とする。   For example, as shown in FIG. 19, the position indicating light detection unit 223 obtains a straight line M1 connecting (passing) the point 332 of the center of gravity of the cluster C1 and the point 342 of the long-axis intersection coordinate. The position indicating light detection unit 223 obtains a straight line N1 that passes through the center of gravity 332 of the cluster C1 and is orthogonal to the straight line M1. The coordinates of the position of the point 351 are obtained as the short axis intersection point coordinates (xn, yn). That is, since the minor axis of the contour 341 that is an ellipse is orthogonal to the major axis, the straight line N1 that passes through the point 332 and is orthogonal to the straight line M1 that is a straight line that extends the major axis can be said to be a straight line that extends the minor axis. . Therefore, the position indicating light detection unit 223 sets the coordinates of the intersection of the straight line N1 and the contour 341 as the short axis intersection coordinates.

以上のようにして求められた重心座標、長軸交点座標、および短軸交点座標からは、位置指示光の像の位置および形状を知ることができるので、位置指示光検出部223は、位置指示光画像から、位置指示光の像の位置および形状を検出するということができる。   Since the position and shape of the image of the position indication light can be known from the barycentric coordinates, the long axis intersection coordinates, and the short axis intersection coordinates obtained as described above, the position indication light detection unit 223 can detect the position indication light. It can be said that the position and shape of the image of the position indicating light are detected from the optical image.

このようにして、位置指示光検出部223は、位置指示光画像から、表示画像上における位置指示光の像の位置および形状を検出する。このように、位置指示光の像の位置および形状を検出することにより、表示画像上において3次元ポインタ31を表示させるべき位置を特定することができる。特に、位置指示光は、表示画像を表示させるための光、つまり可視光や、前進指示光および後進指示光などの他の光とは異なる波長であるので、それらの光の像は位置指示光画像からは検出されず、位置指示光の像だけが検出されるようになされている。これにより、位置指示光画像から位置指示光の像を容易に検出することができる。   In this way, the position indicating light detection unit 223 detects the position and shape of the image of the position indicating light on the display image from the position indicating light image. Thus, by detecting the position and shape of the image of the position indicating light, the position where the three-dimensional pointer 31 should be displayed on the display image can be specified. In particular, since the position indicating light has a wavelength different from that of other light such as light for displaying a display image, that is, visible light, forward indicating light, and reverse indicating light, the image of the light is the position indicating light. Only the image of the position indicating light is detected without being detected from the image. Thereby, the image of the position indicating light can be easily detected from the position indicating light image.

次に、図20のフローチャートを参照して、図12のステップS44の処理に対応する処理である、前進指示光の検出処理について説明する。   Next, with reference to the flowchart of FIG. 20, the forward instruction light detection process, which is a process corresponding to the process of step S44 of FIG. 12, will be described.

ステップS101において、前進指示光検出部224は、幾何変換処理部222から供給された前進指示光画像において、位置指示光検出部223から供給された重心座標(xi,yi)の点を中心とする予め定められた半径rの円の領域内の画素のうち、画素値が予め定められた閾値th2以上である画素を検出する。   In step S <b> 101, the forward instruction light detection unit 224 is centered on the point of the barycentric coordinates (xi, yi) supplied from the position instruction light detection unit 223 in the forward instruction light image supplied from the geometric transformation processing unit 222. Among the pixels in a circle area having a predetermined radius r, a pixel having a pixel value equal to or greater than a predetermined threshold th2 is detected.

ここで、前進指示光画像における座標系は、表示画像に対して想定された仮想3次元空間の基準点Oと対応する位置を基準点とし、前進指示光画像における座標系におけるx軸方向およびy軸方向は、表示画像の仮想3次元空間のx軸方向およびy軸方向と同じ方向とされる。   Here, the coordinate system in the forward instruction light image has a position corresponding to the reference point O in the virtual three-dimensional space assumed for the display image as a reference point, and the x-axis direction and y in the coordinate system in the forward instruction light image. The axial direction is the same as the x-axis direction and the y-axis direction of the virtual three-dimensional space of the display image.

ステップS102において、前進指示光検出部224は、検出した前進指示光画像の画素についてクラスタリングを行う。すなわち、前進指示光検出部224は、互いに隣接し、閾値th2以上の画素値を有する複数の画素からなる前進指示光画像上の領域を1つのクラスタとする。   In step S102, the forward instruction light detection unit 224 performs clustering on the detected pixels of the forward instruction light image. That is, the forward instruction light detection unit 224 sets a region on the forward instruction light image that is adjacent to each other and includes a plurality of pixels having a pixel value equal to or greater than the threshold th2 as one cluster.

レーザポインタ22において、前進指示光を射出する不可視光レーザ84は、位置指示光を射出する不可視光レーザ81に近接して設けられている。したがって、表示画像上において、前進指示光の像は、位置指示光の像に近接した位置にあると予測される。そこで、位置指示光の像の周囲から前進指示光の像を確実に検出することのできる適切な半径rの値を定め、図21に示すように、位置指示光の像の重心の点332を中心とし、半径がrである円381内の領域を、画素値が閾値th2以上である画素、つまり前進指示光の像の検出の対象とすることで、より効率よく、かつ確実に前進指示光の像を検出することができる。   In the laser pointer 22, the invisible light laser 84 that emits forward instruction light is provided in the vicinity of the invisible light laser 81 that emits position instruction light. Therefore, on the display image, the image of the forward instruction light is predicted to be in a position close to the image of the position instruction light. Therefore, an appropriate value of the radius r that can reliably detect the forward direction light image from the periphery of the position direction light image is determined, and as shown in FIG. 21, a point 332 of the center of gravity of the position direction light image is obtained. By making the area within the circle 381 having the center and radius r equal to the pixel whose pixel value is equal to or greater than the threshold th2, that is, the object of detection of the image of the forward instruction light, the forward instruction light is more efficiently and reliably detected. Can be detected.

なお、図21において、図19における場合と対応する部分には同一の符号を付してあり、その説明は省略する。また、位置指示光の像の輪郭341は、実際には前進指示光画像には表示されない。   In FIG. 21, the same reference numerals are given to the portions corresponding to those in FIG. 19, and the description thereof is omitted. Further, the contour 341 of the image of the position instruction light is not actually displayed in the forward instruction light image.

図21では、画素値が閾値th2以上である画素についてのクラスタリングの結果、点332の図中、右上の位置に楕円形のクラスタC21が検出されている。クラスタC21は、輪郭341、すなわち位置指示光の像とほぼ同じ大きさであり、円381内には、他にクラスタは検出されていないので、クラスタC21が前進指示光の像であると予測される。   In FIG. 21, as a result of clustering for pixels having a pixel value equal to or greater than the threshold th2, an elliptical cluster C21 is detected at the upper right position in the diagram of the point 332. The cluster C21 is almost the same size as the contour 341, that is, the image of the position indicating light, and no other cluster is detected in the circle 381, so the cluster C21 is predicted to be the image of the forward indicating light. The

図20のフローチャートの説明に戻り、ステップS103において、前進指示光検出部224は、クラスタリングの結果として検出されたクラスタのうち、最も大きいクラスタの画素数R1を求める。つまり、最も大きいクラスタを構成する画素の数が画素数R1とされる。   Returning to the description of the flowchart of FIG. 20, in step S103, the forward instruction light detection unit 224 obtains the number of pixels R1 of the largest cluster among the clusters detected as a result of clustering. That is, the number of pixels constituting the largest cluster is set as the pixel number R1.

ステップS104において、前進指示光検出部224は、求めた画素数R1と、位置指示光検出部223から供給された画素数Kとの差の絶対値が、予め定められた閾値th3よりも小さいか否かを判定する。   In step S104, the forward instruction light detection unit 224 determines whether the absolute value of the difference between the obtained pixel number R1 and the pixel number K supplied from the position instruction light detection unit 223 is smaller than a predetermined threshold th3. Determine whether or not.

すなわち、前進指示光検出部224は、|R1−K|<th3であるか否かを判定する。ここで、|R1−K|は、画素数R1と画素数Kとの差の絶対値を表している。   That is, the forward instruction light detection unit 224 determines whether or not | R1-K | <th3. Here, | R1-K | represents the absolute value of the difference between the number of pixels R1 and the number of pixels K.

ステップS104において、|R1−K|<th3であると判定された場合、前進指示光画像から検出されたクラスタと、位置指示光の像の大きさはほぼ同じであるので、検出されたクラスタは、前進指示光の像であるとされ、処理はステップS105に進む。そして、ステップS105において、前進指示光検出部224は、前進フラグを“true”に設定し、処理はステップS107に進む。ここで、“true”である前進フラグは、前進指示光画像から前進指示光の像が検出され、3次元ポインタ31の奥行き方向への移動が指示されたことを示している。   If it is determined in step S104 that | R1−K | <th3, the size of the cluster detected from the forward instruction light image and the size of the image of the position instruction light is substantially the same, so the detected cluster is , It is assumed that the image is a forward instruction light, and the process proceeds to step S105. In step S105, the forward instruction light detection unit 224 sets the forward flag to “true”, and the process proceeds to step S107. Here, the forward flag of “true” indicates that an image of the forward instruction light is detected from the forward instruction light image and the movement of the three-dimensional pointer 31 in the depth direction is instructed.

これに対して、ステップS104において、|R1−K|<th3でないと判定された場合、前進指示光画像から検出されたクラスタは、位置指示光とは大きく異なる大きさであるか、または前進指示光画像からクラスタが検出されなかったので、前進指示光画像から前進指示光の像は検出されなかったとされ、処理はステップS106に進む。   On the other hand, if it is determined in step S104 that | R1-K | <th3 is not satisfied, the cluster detected from the forward instruction light image has a size significantly different from that of the position instruction light, or the forward instruction. Since no cluster is detected from the light image, it is determined that the image of the forward instruction light is not detected from the forward instruction light image, and the process proceeds to step S106.

ステップS106において、前進指示光検出部224は、前進フラグを“false”に設定し、処理はステップS107に進む。ここで、“false”である前進フラグは、前進指示光画像から前進指示光の像が検出されず、3次元ポインタ31の奥行き方向への移動が指示されなかったことを示している。   In step S106, the forward instruction light detection unit 224 sets the forward flag to “false”, and the process proceeds to step S107. Here, the forward flag being “false” indicates that the forward instruction light image is not detected from the forward instruction light image, and the movement of the three-dimensional pointer 31 in the depth direction is not instructed.

ステップS107において、前進指示光検出部224は、“true”または“false”の何れかに設定された前進フラグを出力して処理は図12のステップS45に進み、前進指示光の検出処理は終了する。これにより、前進指示光検出部224から座標計算部226に、前進フラグが供給される。   In step S107, the forward instruction light detection unit 224 outputs the forward flag set to either “true” or “false”, the process proceeds to step S45 in FIG. 12, and the forward instruction light detection process ends. To do. As a result, the forward flag is supplied from the forward instruction light detection unit 224 to the coordinate calculation unit 226.

このようにして、前進指示光検出部224は、前進指示光画像から前進指示光の像を検出し、その検出の結果に応じて、3次元ポインタ31の奥行き方向への移動が指示されたか否かを示す前進フラグを出力する。   In this way, the forward instruction light detection unit 224 detects the image of the forward instruction light from the forward instruction light image, and whether or not the movement of the three-dimensional pointer 31 in the depth direction is instructed according to the detection result. A forward flag indicating that is output.

このように、前進指示光の像を検出することにより、3次元ポインタ31の奥行き方向への移動が指示されたか否かを簡単に知ることができる。特に、前進指示光は、表示画像を表示させるための可視光、位置指示光、後進指示光などの他の光とは異なる波長であるので、それらの光の像は前進指示光画像からは検出されず、前進指示光の像だけが検出されるようになされている。これにより、前進指示光画像から前進指示光の像を容易に検出することができる。   Thus, by detecting the image of the forward instruction light, it is possible to easily know whether or not the movement of the three-dimensional pointer 31 in the depth direction is instructed. In particular, since the forward instruction light has a wavelength different from that of other lights such as visible light, position instruction light, and reverse instruction light for displaying a display image, those light images are detected from the forward instruction light image. Instead, only the image of the forward instruction light is detected. Thereby, the image of the forward instruction light can be easily detected from the forward instruction light image.

前進指示光検出部224から前進フラグが出力されると、図12のステップS45の処理に対応する処理である後進指示光の検出処理が行われる。以下、図22のフローチャートを参照して、後進指示光の検出処理について説明する。なお、ステップS131乃至ステップS133の処理のそれぞれは、図20のステップS101乃至ステップS103の処理と同様であるので、その説明は適宜、省略する。   When the forward flag is output from the forward instruction light detection unit 224, a reverse instruction light detection process that is a process corresponding to the process of step S45 of FIG. 12 is performed. Hereinafter, the reverse instruction light detection process will be described with reference to the flowchart of FIG. Note that each of the processes in steps S131 to S133 is the same as the processes in steps S101 to S103 in FIG. 20, and a description thereof will be omitted as appropriate.

すなわち、ステップS131乃至ステップS133の処理において、例えば、図23に示すように、後進指示光検出部225は、位置指示光の重心の点332を中心とする半径rの円401内の領域を対象として、画素値が閾値th2以上である画素を検出し、クラスタリングを行う。なお、図23において、図19における場合と対応する部分には同一の符号を付してあり、その説明は省略する。また、位置指示光の像の輪郭341は、実際には後進指示光画像には表示されない。   That is, in the processing from step S131 to step S133, for example, as shown in FIG. 23, the backward instruction light detection unit 225 targets the area in the circle 401 with the radius r centered on the point 332 of the center of gravity of the position instruction light. As a result, a pixel having a pixel value equal to or greater than the threshold th2 is detected and clustering is performed. In FIG. 23, parts corresponding to those in FIG. 19 are denoted by the same reference numerals, and description thereof is omitted. Further, the contour 341 of the image of the position indicating light is not actually displayed in the reverse indicating light image.

図23では、画素値が閾値th2以上である画素についてのクラスタリングの結果、点332の図中、左下の位置に楕円形のクラスタC31が検出されている。クラスタC31は、輪郭341、すなわち位置指示光の像とほぼ同じ大きさであり、円401内には、他にクラスタは検出されていないので、クラスタC31が後進指示光の像であると予測される。また、後進指示光検出部225は、検出されたクラスタのうち、最も大きいクラスタの画素数R2を求める。   In FIG. 23, as a result of clustering for pixels having a pixel value equal to or greater than the threshold th2, an elliptical cluster C31 is detected at the lower left position in the drawing of the point 332. The cluster C31 is almost the same size as the contour 341, that is, the image of the position indicating light, and no other cluster is detected in the circle 401, so the cluster C31 is predicted to be the image of the backward indicating light. The Further, the backward instruction light detection unit 225 obtains the pixel number R2 of the largest cluster among the detected clusters.

図22のフローチャートの説明に戻り、ステップS134において、後進指示光検出部225は、求めた画素数R2と、位置指示光検出部223から供給された画素数Kとの差の絶対値が、予め定められた閾値th3よりも小さいか否か、つまり|R2−K|<th3であるか否かを判定する。   Returning to the description of the flowchart of FIG. 22, in step S134, the backward indicator light detection unit 225 determines that the absolute value of the difference between the obtained pixel number R2 and the pixel number K supplied from the position indicator light detection unit 223 is in advance. It is determined whether or not it is smaller than a predetermined threshold th3, that is, whether or not | R2-K | <th3.

ステップS134において、|R2−K|<th3であると判定された場合、検出されたクラスタは、後進指示光の像であるとされ、処理はステップS135に進む。そしてステップS135において、後進指示光検出部225は、後進フラグを“true”に設定し、処理はステップS137に進む。ここで、“true”である後進フラグは、後進指示光画像から後進指示光の像が検出され、3次元ポインタ31の手前方向への移動が指示されたことを示している。   If it is determined in step S134 that | R2-K | <th3, the detected cluster is assumed to be an image of the backward instruction light, and the process proceeds to step S135. In step S135, the reverse indicator light detection unit 225 sets the reverse flag to “true”, and the process proceeds to step S137. Here, the reverse flag being “true” indicates that the image of the reverse instruction light is detected from the reverse instruction light image and the movement of the three-dimensional pointer 31 in the front direction is instructed.

これに対して、ステップS134において、|R2−K|<th3でないと判定された場合、後進指示光画像から後進指示光の像は検出されなかったとされ、処理はステップS136に進む。ステップS136において、後進指示光検出部225は、後進フラグを“false”に設定し、処理はステップS137に進む。ここで、“false”である後進フラグは、3次元ポインタ31の手前方向への移動が指示されなかったことを示している。   On the other hand, if it is determined in step S134 that | R2-K | <th3 is not satisfied, it is determined that no reverse instruction light image has been detected from the reverse instruction light image, and the process proceeds to step S136. In step S136, the reverse indicator light detection unit 225 sets the reverse flag to “false”, and the process proceeds to step S137. Here, the backward flag of “false” indicates that the movement of the three-dimensional pointer 31 in the forward direction has not been instructed.

ステップS137において、後進指示光検出部225は、後進フラグを出力して処理は図12のステップS46に進み、後進指示光の検出処理は終了する。これにより、後進指示光検出部225から座標計算部226に、後進フラグが供給される。   In step S137, the reverse indicator light detection unit 225 outputs a reverse flag, the process proceeds to step S46 in FIG. 12, and the reverse indicator light detection process ends. As a result, the reverse flag is supplied from the reverse instruction light detection unit 225 to the coordinate calculation unit 226.

このようにして、後進指示光検出部225は、後進指示光画像から後進指示光の像を検出し、その検出の結果に応じて、3次元ポインタ31の手前方向への移動が指示されたか否かを示す後進フラグを出力する。   In this manner, the reverse instruction light detection unit 225 detects the image of the reverse instruction light from the reverse instruction light image, and whether or not the movement of the three-dimensional pointer 31 in the front direction is instructed according to the detection result. A reverse flag indicating that is output.

このように、後進指示光の像を検出することにより、3次元ポインタ31の手前方向への移動が指示されたか否かを簡単に知ることができる。特に、後進指示光は、表示画像を表示させるための可視光、位置指示光、前進指示光などの他の光とは異なる波長であるので、それらの光の像は後進指示光画像からは検出されず、後進指示光の像を容易に検出することができる。   In this way, it is possible to easily know whether or not the movement of the three-dimensional pointer 31 is instructed by detecting the image of the reverse instruction light. In particular, the reverse indicator light has a wavelength different from that of other lights such as visible light, position indicator light, and forward indicator light for displaying the display image, and therefore the images of these lights are detected from the reverse indicator light image. However, it is possible to easily detect the image of the reverse instruction light.

後進指示光検出部225から後進フラグが出力されると、図12のステップS46の処理に対応する3次元ポインタ位置算出処理が行われる。以下、図24乃至図28を参照して、この3次元ポインタ位置算出処理について説明する。   When the reverse flag is output from the reverse instruction light detection unit 225, a three-dimensional pointer position calculation process corresponding to the process of step S46 in FIG. 12 is performed. Hereinafter, this three-dimensional pointer position calculation processing will be described with reference to FIGS.

3次元ポインタ位置算出処理において、座標計算部226は、位置指示光検出部223、前進指示光検出部224、および後進指示光検出部225から供給された座標情報、前進フラグ、および後進フラグから、仮想3次元空間上における、3次元ポインタ31を表示させるべき表示位置の座標を求める。   In the three-dimensional pointer position calculation process, the coordinate calculation unit 226 uses the coordinate information, the forward flag, and the reverse flag supplied from the position instruction light detection unit 223, the forward instruction light detection unit 224, and the reverse instruction light detection unit 225. In the virtual three-dimensional space, the coordinates of the display position where the three-dimensional pointer 31 is to be displayed are obtained.

まず、座標計算部226は、仮想3次元空間における位置指示光の仰角α、および回転角βを求める。ここで、回転角βは、図24に示すように、位置指示光のxy平面に対する回転角をいう。例えば、位置指示光画像からは、図25に示すように、位置指示光の像の重心の点332と、補助光の像の重心の点331とが検出される。なお、図25において、図19における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。   First, the coordinate calculation unit 226 calculates the elevation angle α and the rotation angle β of the position indicating light in the virtual three-dimensional space. Here, the rotation angle β refers to the rotation angle of the position indicating light with respect to the xy plane, as shown in FIG. For example, as shown in FIG. 25, a center of gravity point 332 of the position indicating light image and a center of gravity point 331 of the auxiliary light image are detected from the position indicating light image. Note that, in FIG. 25, the same reference numerals are given to the portions corresponding to those in FIG. 19, and description thereof will be omitted as appropriate.

位置指示光が空間方向に広がりを持たないものとすると、すなわち位置指示光のビーム径が限りなく0に近いものとすると、位置指示光は、点331および点332を含み、xy平面に垂直な平面上を進むことになる。そこで、その平面とyz平面とがなす角を、位置指示光の回転角βとする。   If the position indicating light does not have a spread in the spatial direction, that is, if the beam diameter of the position indicating light is as close to 0 as possible, the position indicating light includes the points 331 and 332 and is perpendicular to the xy plane. It will go on the plane. Therefore, an angle formed by the plane and the yz plane is defined as a rotation angle β of the position indicating light.

したがって、図中、縦方向の直線431が、仮想3次元空間のy軸と平行な直線であり、横方向の直線432が、仮想3次元空間のx軸と平行な直線であるとすると、位置指示光の回転角βは、楕円である位置指示光の像の輪郭341の長軸と、直線431とのなす角度とされる。   Therefore, in the figure, assuming that the vertical straight line 431 is a straight line parallel to the y-axis of the virtual three-dimensional space and the horizontal straight line 432 is a straight line parallel to the x-axis of the virtual three-dimensional space, The rotation angle β of the indication light is an angle formed by the long axis of the contour 341 of the position indication light image that is an ellipse and the straight line 431.

座標計算部226は、座標情報として供給された点332の座標(xi,yi)、点342の座標(xf,yf)、および点351の座標(xn,yn)から、輪郭341としての楕円の長軸の長さLと短軸の長さDとを求める。そして、座標計算部226は、輪郭341の長軸およびy軸の関係から回転角βを求める。ここで、長軸の長さLは、点332から点342までの長さ(距離)の2倍の長さとされ、短軸の長さDは、点332から点351までの長さ(距離)の2倍の長さとされる。   The coordinate calculation unit 226 calculates an ellipse as the contour 341 from the coordinates (xi, yi) of the point 332, the coordinates (xf, yf) of the point 342, and the coordinates (xn, yn) of the point 351 supplied as coordinate information. The major axis length L and the minor axis length D are obtained. Then, the coordinate calculation unit 226 obtains the rotation angle β from the relationship between the major axis and the y axis of the contour 341. Here, the length L of the major axis is twice the length (distance) from the point 332 to the point 342, and the length D of the minor axis is the length (distance) from the point 332 to the point 351. ) Twice as long.

具体的には、座標計算部226は、点332の座標(xi,yi)および点342の座標(xf,yf)から、次式(1)を計算することにより、cosβを求める。   Specifically, the coordinate calculation unit 226 calculates cosβ by calculating the following equation (1) from the coordinates (xi, yi) of the point 332 and the coordinates (xf, yf) of the point 342.

Figure 0004807322
Figure 0004807322

ここで、式(1)において、|yf−yi|は、yfとyiの差の絶対値を表している。このようにしてcosβが求められると、座標計算部226は、さらに式(1)を次式(2)に示すように変形し、回転角βを求める。   Here, in equation (1), | yf−yi | represents the absolute value of the difference between yf and yi. When cos β is obtained in this way, the coordinate calculation unit 226 further transforms equation (1) as shown in the following equation (2) to obtain the rotation angle β.

Figure 0004807322
Figure 0004807322

このようにして、座標計算部226は、点332の座標(xi,yi)および点342の座標(xf,yf)から、回転角βを求める。換言すれば、座標計算部226は、位置指示光の像と、補助光の像の位置関係から回転角βを求める。   In this way, the coordinate calculation unit 226 calculates the rotation angle β from the coordinates (xi, yi) of the point 332 and the coordinates (xf, yf) of the point 342. In other words, the coordinate calculation unit 226 determines the rotation angle β from the positional relationship between the image of the position indicating light and the image of the auxiliary light.

また、仮想3次元空間における位置指示光の仰角αは、点332および点342を含み、xy平面に直交する平面内における、位置指示光の光路と平行な直線と、z軸とがなす角度とされる。つまり、仰角αは、位置指示光のz軸に対する仰角とされる。   Further, the elevation angle α of the position indicating light in the virtual three-dimensional space includes the point 332 and the point 342, and an angle formed by a straight line parallel to the optical path of the position indicating light and the z axis in a plane orthogonal to the xy plane. Is done. That is, the elevation angle α is an elevation angle with respect to the z-axis of the position indicating light.

例えば、図26に示すように、表示画像の表示面であるスクリーン21に対して、回転角βが0となるように位置指示光が入射したとする。図26では、縦方向が仮想3次元空間のy軸方向、横方向が仮想3次元空間のz軸方向とされ、スクリーン21の表示面をx軸方向に見た図を表している。   For example, as shown in FIG. 26, it is assumed that the position indicating light is incident on the screen 21 that is the display surface of the display image so that the rotation angle β is zero. In FIG. 26, the vertical direction is the y-axis direction of the virtual three-dimensional space, the horizontal direction is the z-axis direction of the virtual three-dimensional space, and the display surface of the screen 21 is viewed in the x-axis direction.

図26では、スクリーン21の表示面に対して、矢印61に示す方向に、つまり図中、右下から左上方向に位置指示光が入射している。ここで、縦方向の直線461は、スクリーン21の表示面を表しており、直線462および直線463は位置指示光を表している。   In FIG. 26, the position indicating light is incident on the display surface of the screen 21 in the direction indicated by the arrow 61, that is, from the lower right to the upper left in the drawing. Here, the straight line 461 in the vertical direction represents the display surface of the screen 21, and the straight line 462 and the straight line 463 represent position indication light.

つまり、仮に位置指示光が表示面を透過するものとすると、実際には位置指示光のビーム径は0ではないので、位置指示光は、直線462と直線463との間の領域を通過する。したがって、直線462と直線463との距離が位置指示光のビーム径とされる。   In other words, if the position indicating light is transmitted through the display surface, the beam diameter of the position indicating light is not actually 0, so that the position indicating light passes through a region between the straight line 462 and the straight line 463. Therefore, the distance between the straight line 462 and the straight line 463 is the beam diameter of the position indicating light.

また、直線464が、仮想3次元空間のz軸に平行な直線であるとすると、位置指示光の仰角αは、位置指示光とz軸とがなす角であるので、直線464と直線462(または直線463)とがなす角が仰角αとされる。   Further, if the straight line 464 is a straight line parallel to the z-axis of the virtual three-dimensional space, the elevation angle α of the position indicating light is an angle formed by the position indicating light and the z-axis, so the straight line 464 and the straight line 462 ( Alternatively, the angle formed by the straight line 463) is the elevation angle α.

ここで、表示面上の位置指示光の像である楕円の短軸の長さ、つまり位置指示光画像上の位置指示光の像の輪郭である楕円の短軸の長さDは、常に位置指示光の直径の大きさと等しい。また、表示面上の位置指示光の像である楕円の長軸の長さ、つまり位置指示光画像上の位置指示光の像の輪郭である楕円の長軸の長さLは、直線462と直線461との交点から、直線463と直線461との交点までの長さ(距離)とされる。   Here, the length of the short axis of the ellipse that is the image of the position indicating light on the display surface, that is, the length D of the short axis of the ellipse that is the contour of the image of the position indicating light on the position indicating light image is always the position. Equal to the diameter of the indicator light. Further, the length of the long axis of the ellipse that is the image of the position indicating light on the display surface, that is, the length L of the long axis of the ellipse that is the contour of the image of the position indicating light on the position indicating light image is represented by a straight line 462. It is the length (distance) from the intersection point with the straight line 461 to the intersection point between the straight line 463 and the straight line 461.

さらに、直線462に直交する直線と、直線461とのなす角はαであるので、円形である位置指示光の像の長軸の長さLと、位置指示光の直径の長さ、つまり短軸の長さDとは、cosα=D/Lという関係を満たす。したがって、座標計算部226は、位置指示光画像上の位置指示光の像の輪郭である楕円の長軸の長さL、および短軸の長さDの関係から、位置指示光の仰角αを求めることができる。換言すれば、座標計算部226は、位置指示光の像の形状、つまり位置指示光の像の歪みの度合いから仰角αを求める。   Furthermore, since the angle formed by the straight line 461 and the straight line 461 is α, the long axis length L of the circular position indicating light image and the diameter of the position indicating light, that is, the short length of the position indicating light are short. The shaft length D satisfies the relationship cos α = D / L. Therefore, the coordinate calculation unit 226 determines the elevation angle α of the position indicating light from the relationship between the major axis length L and the minor axis length D of the ellipse, which is the contour of the position indicating light image on the position indicating light image. Can be sought. In other words, the coordinate calculation unit 226 determines the elevation angle α from the shape of the position indication light image, that is, the degree of distortion of the position indication light image.

より具体的には、座標計算部226は、座標情報としての位置指示光の重心座標(xi,yi)、長軸交点座標(xf,yf)、および短軸交点座標(xn,yn)から、長軸の長さLおよび短軸の長さDを求め、さらに求めた長軸の長さLおよび短軸の長さDから、式(3)を計算することによりcosαを求める。   More specifically, the coordinate calculation unit 226 calculates from the barycentric coordinates (xi, yi), the long axis intersection coordinates (xf, yf), and the short axis intersection coordinates (xn, yn) of the position indicating light as coordinate information. The length L of the major axis and the length D of the minor axis are obtained, and cos α is obtained by calculating Equation (3) from the obtained length L of the major axis and the length D of the minor axis.

Figure 0004807322
Figure 0004807322

そして、さらに座標計算部226は、式(3)を次式(4)に示すように変形することで、仰角αを求める。   Further, the coordinate calculation unit 226 obtains the elevation angle α by transforming Equation (3) as shown in the following Equation (4).

Figure 0004807322
Figure 0004807322

このようにして、座標計算部226は、座標情報としての重心座標(xi,yi)、長軸交点座標(xf,yf)、および短軸交点座標(xn,yn)から仰角αを求める。   In this way, the coordinate calculation unit 226 obtains the elevation angle α from the barycentric coordinates (xi, yi), the long axis intersection coordinates (xf, yf), and the short axis intersection coordinates (xn, yn) as coordinate information.

以上のようにして、位置指示光の回転角βおよび仰角αが求められると、座標計算部226は、重心座標(xi,yi)、回転角β、仰角α、および記憶している奥行き長さEから、3次元ポインタ31の表示位置の座標を求める。   As described above, when the rotation angle β and the elevation angle α of the position indicating light are obtained, the coordinate calculation unit 226 calculates the barycentric coordinates (xi, yi), the rotation angle β, the elevation angle α, and the stored depth length. From E, the coordinates of the display position of the three-dimensional pointer 31 are obtained.

例えば、位置指示光の像の重心の位置、つまり重心座標(xi,yi)により特定される位置が、表示画像に対して想定された仮想3次元空間の座標系の基準点Oの位置であるとすると、図27に示すように、3次元ポインタ31の表示位置の点Gは、奥行き長さE、回転角β、および仰角αから求まる。なお、図27において、右方向がx軸方向、上方向がy軸方向、奥行き方向がz軸方向とされている。   For example, the position of the center of gravity of the image of the position indicating light, that is, the position specified by the center of gravity coordinates (xi, yi) is the position of the reference point O in the coordinate system of the virtual three-dimensional space assumed for the display image. Then, as shown in FIG. 27, the point G of the display position of the three-dimensional pointer 31 is obtained from the depth length E, the rotation angle β, and the elevation angle α. In FIG. 27, the right direction is the x-axis direction, the upward direction is the y-axis direction, and the depth direction is the z-axis direction.

また、図27において、点Hは、点Gからxz平面に下ろした垂線の足であり、点Iは、点Gからz軸に下ろした垂線の足であり、点Jは、点Gからyz平面に下ろした垂線の足である。ここで、基準点Oおよび点Gを結ぶ直線OGは、位置指示光の光路を延長した直線となるので、直線OGとz軸とがなす角が、位置指示光の仰角αとされる。すなわち、∠GOIが仰角αとされる。   In FIG. 27, point H is a perpendicular foot drawn from point G to the xz plane, point I is a perpendicular foot drawn from point G to the z-axis, and point J is point yz from point G. It is a leg of a perpendicular line drawn down on a plane. Here, since the straight line OG connecting the reference point O and the point G is a straight line obtained by extending the optical path of the position indicating light, the angle formed by the straight line OG and the z axis is the elevation angle α of the position indicating light. That is, ∠GOI is set to an elevation angle α.

さらに、位置指示光の像の重心の位置、つまり基準点Oと、補助光の像の重心の位置とを通り、xy平面に直交する平面は、基準点O、点G、および点Iを含む平面であるので、その平面と、yz平面とがなす角が回転角βとされる。すなわち、点Gおよび点Iを結ぶ直線GIと、点Jおよび点Iを結ぶ直線JIとがなす角度である、∠GIJが回転角βとされる。なお、基準点O、点G、および点Iを含む平面は、z軸を回転軸として、yz平面を角度βだけ回転させた平面である。   Further, a plane that passes through the position of the center of gravity of the image of the position indicating light, that is, the reference point O and the position of the center of gravity of the image of the auxiliary light and is orthogonal to the xy plane includes the reference point O, the point G, and the point I. Since it is a plane, the angle formed by the plane and the yz plane is the rotation angle β. That is, ∠GIJ, which is an angle formed by the straight line GI connecting the point G and the point I, and the straight line JI connecting the point J and the point I, is the rotation angle β. The plane including the reference point O, the point G, and the point I is a plane obtained by rotating the yz plane by an angle β with the z axis as the rotation axis.

ここで、点Gのx座標、y座標、およびz座標のそれぞれは、点Hのx座標、点Jのy座標、および点Iのz座標のそれぞれと等しい。また、点Hのx座標、点Jのy座標、および点Iのz座標のそれぞれは、点Hから点Iまでの距離、点Jから点Iまでの距離、および点Iから基準点Oまでの距離のそれぞれに等しいので、これらの距離(長さ)を求めることにより、点Gの座標を求めることができる。   Here, the x coordinate, the y coordinate, and the z coordinate of the point G are equal to the x coordinate of the point H, the y coordinate of the point J, and the z coordinate of the point I, respectively. The x coordinate of point H, the y coordinate of point J, and the z coordinate of point I are respectively the distance from point H to point I, the distance from point J to point I, and from point I to reference point O. Therefore, the coordinates of the point G can be obtained by obtaining these distances (lengths).

そこで、直線OG(ベクトルOG)を、点G、基準点O、および点Iを含む平面GOIに沿って分解することを考えると、ベクトルOGは、ベクトルOIとベクトルIGの和として表すことができる。直線OGの長さは奥行き長さEであり、∠GOIは仰角αであるので、点Iから基準点Oまでの距離(長さ)はEcosαとなり、点Gから点Iまでの距離(長さ)は、Esinαとなる。したがって、点Iのz座標、すなわち点Gのz座標はEcosαとなる。   Therefore, considering that the straight line OG (vector OG) is decomposed along the plane GOI including the point G, the reference point O, and the point I, the vector OG can be expressed as the sum of the vector OI and the vector IG. . Since the length of the straight line OG is the depth length E and ∠GOI is the elevation angle α, the distance (length) from the point I to the reference point O is Ecosα, and the distance from the point G to the point I (length) ) Becomes Esinα. Therefore, the z coordinate of the point I, that is, the z coordinate of the point G is Ecosα.

さらに、点Gから点Iまでの長さ、つまり直線GIの長さEsinαと、位置指示光の回転角βとから点Hのx座標および点Jのy座標を求めることができる。すなわち、図28に示すように、点G、点H、点I、および点Jは、xy平面に平行な1つの平面上に位置している。なお、図28において、図27における場合と対応する部分には、同一の符号を付してあり、その説明は省略する。   Further, the x coordinate of the point H and the y coordinate of the point J can be obtained from the length from the point G to the point I, that is, the length Esin α of the straight line GI and the rotation angle β of the position indicating light. That is, as shown in FIG. 28, the point G, the point H, the point I, and the point J are located on one plane parallel to the xy plane. In FIG. 28, portions corresponding to those in FIG. 27 are denoted by the same reference numerals, and description thereof is omitted.

図28において、直線GIの長さはEsinαであり、∠GIJは回転角βであるので、点Jから点Iまでの長さ、つまり直線JIの長さは、Esinαcosβとなる。また、∠GIJがβであり、∠HIJは90度であるので、∠HGIはβとなる。したがって、点Hから点Iまでの長さ、つまり直線HIの長さは、Esinαsinβとなる。   In FIG. 28, the length of the straight line GI is Esin α, and ∠GIJ is the rotation angle β, so the length from the point J to the point I, that is, the length of the straight line JI is Esin α cos β. Also, since ∠GIJ is β and ∠HIJ is 90 degrees, ∠HGI is β. Therefore, the length from the point H to the point I, that is, the length of the straight line HI is Esinαsinβ.

図27の説明に戻り、直線HIの長さはEsinαsinβであり、直線HIはx軸に平行であるので、点Gのx座標は、直線HIの長さに等しく、Esinαsinβとされる。また、直線JIの長さはEsinαcosβであり、直線JIはy軸に平行であるので、点Gのy座標は、直線JIの長さに等しく、Esinαcosβとされる。このようにして、点Gのx座標、y座標、およびz座標が求められたので、点Gの座標は、座標(Esinαsinβ,Esinαcosβ,Ecosα)となる。   Returning to the description of FIG. 27, since the length of the straight line HI is Esin α sin β and the straight line HI is parallel to the x axis, the x coordinate of the point G is equal to the length of the straight line HI and is set to Esin α sin β. Also, since the length of the straight line JI is Esin α cos β and the straight line JI is parallel to the y axis, the y coordinate of the point G is equal to the length of the straight line JI and is set to Esin α cos β. In this way, since the x coordinate, y coordinate, and z coordinate of the point G are obtained, the coordinates of the point G become coordinates (Esinαsinβ, Esinαcosβ, Ecosα).

なお、図27の例においては、位置指示光の像の重心の位置が、基準点Oと同じ位置である場合について考えたが、実際には、位置指示光の像の重心の位置は、基準点Oと同じ位置となるとは限らない。そこで、位置指示光の像の重心の座標を(xi,yi,0)として、点Gを位置指示光の重心の位置の分だけ移動させると、3次元ポインタ31を表示させるべき位置を示す点Gの座標は、(xi+Esinαsinβ,yi+Esinαcosβ,Ecosα)となる。   In the example of FIG. 27, the case where the position of the center of gravity of the image of the position indicating light is the same position as the reference point O has been considered. It is not always the same position as point O. Therefore, if the coordinates of the center of gravity of the image of the position indicating light are (xi, yi, 0) and the point G is moved by the position of the center of gravity of the position indicating light, the point indicating the position where the three-dimensional pointer 31 is to be displayed. The coordinates of G are (xi + Esinαsinβ, yi + Esinαcosβ, Ecosα).

このように、3次元ポインタ31の表示位置は、位置指示光の重心座標(xi,yi,0)、位置指示光の回転角β、位置指示光の仰角α、および奥行き長さEを用いて表すことができる。また、点Gの座標のEを変化させることで、3次元ポインタ31の表示位置を奥行き方向、および手前方向に簡単に移動させることができる。   As described above, the display position of the three-dimensional pointer 31 uses the barycentric coordinates (xi, yi, 0) of the position indicating light, the rotation angle β of the position indicating light, the elevation angle α of the position indicating light, and the depth length E. Can be represented. Further, by changing E of the coordinates of the point G, the display position of the three-dimensional pointer 31 can be easily moved in the depth direction and the front direction.

次に、図29のフローチャートを参照して、以上において説明した3次元ポインタ位置算出処理の流れを説明する。この3次元ポインタ位置算出処理は図12のステップS46の処理に対応する処理であり、図12のステップS45において後進指示光の検出が行われると開始される。   Next, the flow of the three-dimensional pointer position calculation process described above will be described with reference to the flowchart of FIG. This three-dimensional pointer position calculation process is a process corresponding to the process in step S46 in FIG. 12, and is started when the backward instruction light is detected in step S45 in FIG.

ステップS161において、座標計算部226は、位置指示光検出部223から供給された座標情報としての重心座標(xi,yi)、長軸交点座標(xf,yf)、および短軸交点座標(xn,yn)を用いて、仰角αおよび回転角βを求める。すなわち、座標計算部226は、上述した式(4)を計算することにより仰角αを求め、式(2)を計算することにより回転角βを求める。   In step S161, the coordinate calculation unit 226 calculates the center-of-gravity coordinates (xi, yi), the long-axis intersection coordinates (xf, yf), and the short-axis intersection coordinates (xn, yf) as coordinate information supplied from the position indicating light detection unit 223. yn) is used to determine the elevation angle α and the rotation angle β. That is, the coordinate calculation unit 226 calculates the elevation angle α by calculating the above-described equation (4), and calculates the rotation angle β by calculating the equation (2).

ステップS162において、座標計算部226は、求めた仰角αを用いて、sinαおよびcosαを求める。そして、ステップS163において、座標計算部226は、求めた回転角βを用いて、sinβおよびcosβを求める。   In step S162, the coordinate calculation unit 226 calculates sin α and cos α using the calculated elevation angle α. In step S163, the coordinate calculation unit 226 calculates sin β and cos β using the calculated rotation angle β.

ステップS164において、座標計算部226は、3次元ポインタ31を手前方向に移動させるか否かを判定する。例えば、座標計算部226は、前進指示光検出部224から供給された前進フラグが“false”に設定されており、後進指示光検出部225から供給された後進フラグが“true”に設定されており、かつ記憶している奥行き長さEが1以上である場合、3次元ポインタ31を手前方向に移動させると判定する。   In step S164, the coordinate calculation unit 226 determines whether or not to move the three-dimensional pointer 31 forward. For example, the coordinate calculation unit 226 has the forward flag supplied from the forward instruction light detection unit 224 set to “false” and the reverse flag supplied from the reverse instruction light detection unit 225 is set to “true”. If the stored depth length E is 1 or more, it is determined that the three-dimensional pointer 31 is moved forward.

すなわち、後進フラグが“true”に設定されている場合、ユーザにより3次元ポインタ31の手前方向への移動が指示されたことを示している。また、奥行き長さEが0である場合には、これ以上3次元ポインタ31を手前方向に移動させることはできない。そこで、前進フラグが“false”に設定され、後進フラグが“true”に設定され、かつ奥行き長さEが1以上である場合に、3次元ポインタ31が手前方向に移動される。   That is, when the backward flag is set to “true”, it indicates that the user has instructed to move the three-dimensional pointer 31 forward. If the depth length E is 0, the three-dimensional pointer 31 cannot be moved further forward. Therefore, when the forward flag is set to “false”, the backward flag is set to “true”, and the depth length E is 1 or more, the three-dimensional pointer 31 is moved forward.

ステップS164において、手前方向に移動させると判定された場合、3次元ポインタ31を手前方向に移動させるので、処理はステップS165に進む。そして、ステップS165において、座標計算部226は、記憶している奥行き長さEの値を1だけ小さくし、処理はステップS168に進む。   If it is determined in step S164 that the three-dimensional pointer 31 is moved in the forward direction, the process proceeds to step S165. In step S165, the coordinate calculation unit 226 decreases the stored depth length E value by 1, and the process proceeds to step S168.

一方、ステップS164において、手前方向に移動させないと判定された場合、ステップS166において、座標計算部226は、3次元ポインタ31を奥行き方向に移動させるか否かを判定する。   On the other hand, when it is determined in step S164 not to move in the forward direction, in step S166, the coordinate calculation unit 226 determines whether or not to move the three-dimensional pointer 31 in the depth direction.

例えば、座標計算部226は、前進指示光検出部224から供給された前進フラグが“true”に設定されており、後進指示光検出部225から供給された後進フラグが“false”に設定されている場合、3次元ポインタ31を奥行き方向に移動させると判定する。   For example, the coordinate calculation unit 226 has the forward flag supplied from the forward instruction light detection unit 224 set to “true” and the reverse flag supplied from the reverse instruction light detection unit 225 is set to “false”. If it is, it is determined that the three-dimensional pointer 31 is moved in the depth direction.

すなわち、前進フラグが“true”に設定されている場合、ユーザにより3次元ポインタ31の奥行き方向への移動が指示されたことを示している。そこで、前進フラグが“true”に設定され、後進フラグが“false”に設定されている場合に、3次元ポインタ31が奥行き方向に移動される。   That is, when the forward flag is set to “true”, it indicates that the user has instructed the movement of the three-dimensional pointer 31 in the depth direction. Therefore, when the forward flag is set to “true” and the backward flag is set to “false”, the three-dimensional pointer 31 is moved in the depth direction.

ステップS166において、奥行き方向に移動させると判定された場合、3次元ポインタ31を奥行き方向に移動させるので、処理はステップS167に進む。そして、ステップS167において、座標計算部226は、記憶している奥行き長さEの値を1だけ大きくし、処理はステップS168に進む。   If it is determined in step S166 that the three-dimensional pointer 31 is moved in the depth direction, the process proceeds to step S167. In step S167, the coordinate calculation unit 226 increases the value of the stored depth length E by 1, and the process proceeds to step S168.

これに対して、ステップS166において、奥行き方向に移動させないと判定された場合、ユーザにより3次元ポインタ31の移動が指示されていないか、またはこれ以上3次元ポインタ31を手前方向に移動させることはできないので、奥行き長さEの値は変更されず、処理はステップS168に進む。   On the other hand, if it is determined in step S166 not to move in the depth direction, the user is not instructed to move the three-dimensional pointer 31, or the three-dimensional pointer 31 is moved further forward. Since it cannot be performed, the value of the depth length E is not changed, and the process proceeds to step S168.

ステップS165若しくはステップS167において奥行き長さEが変更されたか、またはステップS166において奥行き方向に移動させないと判定されると、ステップS168において、座標計算部226は、重心座標(xi,yi,0)、記憶している奥行き長さE、並びに求めたsinα、cosα、sinβ、およびcosβから、3次元ポインタ31を表示させるべき表示位置の座標を求める。そして、座標計算部226は、求めた座標を表示画像処理部228に供給して処理は図12のステップS47に進み、3次元ポインタ位置算出処理は終了する。   If the depth length E has been changed in step S165 or step S167, or if it is determined not to move in the depth direction in step S166, in step S168, the coordinate calculation unit 226 calculates the barycentric coordinates (xi, yi, 0), From the stored depth length E and the obtained sin α, cos α, sin β, and cos β, the coordinates of the display position where the three-dimensional pointer 31 is to be displayed are obtained. Then, the coordinate calculation unit 226 supplies the obtained coordinates to the display image processing unit 228, the process proceeds to step S47 in FIG. 12, and the three-dimensional pointer position calculation process ends.

すなわち、座標計算部226は、3次元ポインタ31の表示位置の座標(xi+Esinαsinβ,yi+Esinαcosβ,Ecosα)に、重心座標のxiおよびyi、奥行き長さEの値、並びに求めたsinα、cosα、sinβ、およびcosβの値を代入することにより、3次元ポインタ31の表示位置の座標を求める。   That is, the coordinate calculation unit 226 adds the coordinates (xi + Esinαsinβ, yi + Esinαcosβ, Ecosα) of the display position of the three-dimensional pointer 31 to the centroid coordinates xi and yi, the value of the depth length E, and the calculated sinα, cosα, sinβ, and By substituting the value of cos β, the coordinates of the display position of the three-dimensional pointer 31 are obtained.

このようにして求められた座標は、表示画像処理部228に供給され、図12のステップS47において、表示画像処理部228により、求められた表示位置に対応する3次元画像上の位置に、3次元ポインタ31が表示された画像である表示画像が生成される。   The coordinates obtained in this way are supplied to the display image processing unit 228, and in step S47 in FIG. 12, the display image processing unit 228 puts the coordinates at the position on the three-dimensional image corresponding to the obtained display position. A display image that is an image on which the dimension pointer 31 is displayed is generated.

このようにして、座標計算部226は、位置指示光の仰角αおよび回転角βを求め、それらの角度、位置指示光の重心の位置、および記憶している奥行き長さEから3次元ポインタ31の表示位置の座標を求める。   In this way, the coordinate calculation unit 226 calculates the elevation angle α and the rotation angle β of the position indicating light, and calculates the three-dimensional pointer 31 from these angles, the position of the center of gravity of the position indicating light, and the stored depth length E. Obtain the coordinates of the display position of.

このように、仰角αおよび回転角βを求め、それらの角度、位置指示光の重心の位置、および記憶している奥行き長さEから3次元ポインタ31の表示位置の座標を求めることにより、3次元ポインタ31の移動先の位置を簡単に求めることができる。したがって、ユーザ32は、レーザポインタ22を操作して、前進指示光または後進指示光を射出させるという簡単な操作だけで、3次元ポインタ31を奥行き方向または手前方向に移動させることができる。   Thus, the elevation angle α and the rotation angle β are obtained, and the coordinates of the display position of the three-dimensional pointer 31 are obtained from these angles, the position of the center of gravity of the position indicating light, and the stored depth length E. The position of the movement destination of the dimension pointer 31 can be easily obtained. Accordingly, the user 32 can move the three-dimensional pointer 31 in the depth direction or the front direction only by a simple operation of operating the laser pointer 22 to emit the forward instruction light or the reverse instruction light.

特に、位置指示光、前進指示光、および後進指示光は、それぞれ不可視光であるため、スクリーン21に照射されても、表示されている表示画像に影響を与えることもない。つまり、表示画像を観察する観察者には、表示画像に照射される位置指示光や前進指示光の像が見えないので、不快に感じることもない。また、カメラ23で位置指示光や前進指示光の像を撮像するだけで、3次元ポインタ31を表示させるべき位置を特定できるため、例えば会議場のスクリーンのような大きい表示面に表示画像を表示させる場合においても、簡単かつ高精度に3次元ポインタ31の表示位置を特定することができる。   In particular, since the position indicating light, the forward indicating light, and the reverse indicating light are invisible lights, they do not affect the displayed display image even if they are irradiated on the screen 21. In other words, an observer who observes the display image does not feel uncomfortable because the image of the position instruction light and the forward instruction light irradiated on the display image is not visible. In addition, since the position where the three-dimensional pointer 31 should be displayed can be specified simply by capturing an image of position instruction light or forward instruction light with the camera 23, a display image is displayed on a large display surface such as a conference room screen. Even in this case, the display position of the three-dimensional pointer 31 can be specified easily and with high accuracy.

なお、以上においては、カメラ23のCCDイメージセンサ183の受光面には、図9に示したオンチップカラーフィルタが配置されると説明したが、図30に示すオンチップカラーフィルタが配置されるようにしてもよい。   In the above description, the on-chip color filter shown in FIG. 9 is arranged on the light receiving surface of the CCD image sensor 183 of the camera 23. However, the on-chip color filter shown in FIG. 30 is arranged. It may be.

なお、図30において、1つの正方形は1つの画素を表しており、それらの正方形内の文字W、およびL1乃至L3のそれぞれは、可視光、位置指示光、前進指示光、および後進指示光のそれぞれだけを透過させる可視光のフィルタ、位置指示光の波長のフィルタ、前進指示光の波長のフィルタ、および後進指示光の波長のフィルタのそれぞれを表している。   In FIG. 30, one square represents one pixel, and each of the letters W and L1 to L3 in these squares is visible light, position indicating light, forward indicating light, and backward indicating light. Each of them represents a visible light filter, a position indicating light wavelength filter, a forward indicating light wavelength filter, and a backward indicating light wavelength filter that transmit only each of them.

図30では、それぞれのフィルタがモザイク状に配置されている。すなわち、可視光のフィルタ、位置指示光の波長のフィルタ、前進指示光の波長のフィルタ、および後進指示光の波長のフィルタのそれぞれが、1画素おきに図中、上下方向および左右方向に並べられている。   In FIG. 30, the respective filters are arranged in a mosaic pattern. That is, a visible light filter, a position indicating light wavelength filter, a forward indicating light wavelength filter, and a backward indicating light wavelength filter are arranged in the vertical and horizontal directions in the figure every other pixel. ing.

このように、図30に示したオンチップカラーフィルタがCCDイメージセンサ183の受光面に配置される場合には、各波長のフィルタ同士の間隔、すなわち各色の光のサンプリング間隔が短くなるので、より精度よく位置指示光の像、前進指示光の像、および後進指示光の像を検出することができる。   As described above, when the on-chip color filter shown in FIG. 30 is arranged on the light receiving surface of the CCD image sensor 183, the interval between the filters of each wavelength, that is, the sampling interval of the light of each color is shortened. The image of the position indicating light, the image of the forward indicating light, and the image of the reverse indicating light can be detected with high accuracy.

また、CCDイメージセンサ183が、2つの撮像素子から構成されるようにしてもよい。そのような場合、例えば、レンズ181により集光された光は、それぞれの撮像素子において同じ像が撮像されるように、プリズムなどにより2つの光に分離されてCCDイメージセンサ183を構成する撮像素子のそれぞれに入射するようになされる。   Further, the CCD image sensor 183 may be constituted by two image sensors. In such a case, for example, the light collected by the lens 181 is separated into two lights by a prism or the like so that the same image is picked up by each of the image pickup elements, and forms the CCD image sensor 183. It is made to enter each of these.

また、CCDイメージセンサ183が、2つの撮像素子から構成される場合、それらの撮像素子の受光面には、例えば図31に示すオンチップカラーフィルタが配置される。   Further, when the CCD image sensor 183 includes two image sensors, an on-chip color filter shown in FIG. 31, for example, is arranged on the light receiving surface of these image sensors.

ここで、図31AはCCDイメージセンサ183を構成する一方の撮像素子の受光面に配置されるオンチップカラーフィルタを示しており、図31Bは、他方の撮像素子の受光面に配置されるオンチップカラーフィルタを示している。さらに、図31Cは、他方の撮像素子の受光面に配置されるオンチップカラーフィルタの他の例を示している。なお、図31A乃至図31Cにおいて、1つの正方形は1つの画素を表している。   Here, FIG. 31A shows an on-chip color filter arranged on the light receiving surface of one image sensor that constitutes the CCD image sensor 183, and FIG. 31B shows an on-chip color filter arranged on the light receiving surface of the other image sensor. A color filter is shown. Furthermore, FIG. 31C shows another example of the on-chip color filter arranged on the light receiving surface of the other image sensor. In FIGS. 31A to 31C, one square represents one pixel.

図31Aにおいて、1つの画素を表す正方形内の文字L1乃至L3のそれぞれは、位置指示光、前進指示光、および後進指示光のそれぞれだけを透過させる位置指示光の波長のフィルタ、前進指示光の波長のフィルタ、および後進指示光の波長のフィルタのそれぞれを表している。   In FIG. 31A, each of the characters L1 to L3 in the square representing one pixel is a filter of the wavelength of the position indicating light that transmits only the position indicating light, the forward indicating light, and the backward indicating light, and the forward indicating light Each of the wavelength filter and the reverse direction light wavelength filter is shown.

図31Aでは、位置指示光の波長のフィルタ、前進指示光の波長のフィルタ、および後進指示光の波長のフィルタのそれぞれが、1画素おきに図中、上下方向および左右方向に並べられている。したがって、図31Aに示すオンチップカラーフィルタが配置された撮像素子により撮像された撮像画像からは、位置指示光画像、前進指示光画像、および後進指示光画像が分離される。   In FIG. 31A, the filter for the wavelength of the position indicating light, the filter for the wavelength of the forward indicating light, and the filter for the wavelength of the backward indicating light are arranged in the vertical and horizontal directions in the drawing every other pixel. Therefore, the position indicating light image, the forward indicating light image, and the reverse indicating light image are separated from the captured image captured by the image sensor on which the on-chip color filter shown in FIG. 31A is arranged.

また、他方の撮像素子の受光面に配置されるオンチップカラーフィルタは、図31Bに示すように、Rのフィルタ、Gのフィルタ、およびBのフィルタがベイヤー配列と呼ばれる配列で配置されたフィルタとされる。   Further, as shown in FIG. 31B, the on-chip color filter disposed on the light receiving surface of the other image sensor includes an R filter, a G filter, and a filter in which the B filter is disposed in an array called a Bayer array. Is done.

図31Bにおいて、1つの画素を表す正方形内の文字R、G、およびBのそれぞれは、R(赤)、G(緑)、およびB(青)の色の光のそれぞれだけを透過させるRのフィルタ、Gのフィルタ、およびBのフィルタのそれぞれを表している。したがって、このオンチップカラーフィルタが受光面に配置されている撮像素子により撮像された撮像画像からは、可視光の画像を得ることができる。   In FIG. 31B, each of the letters R, G, and B in the square representing one pixel transmits only light of R (red), G (green), and B (blue) colors. Each of the filter, the G filter, and the B filter is shown. Therefore, a visible light image can be obtained from a captured image captured by an image sensor in which the on-chip color filter is disposed on the light receiving surface.

さらに、他方の撮像素子の受光面に配置されるオンチップカラーフィルタは、図31Cに示すフィルタとされてもよい。図31Cにおいて、1つの画素を表す正方形内の文字Wは、可視光だけを透過させる可視光のフィルタを表している。このオンチップカラーフィルタが受光面に配置されている撮像素子により撮像された撮像画像からも、可視光の画像を得ることができる。   Furthermore, the on-chip color filter arranged on the light receiving surface of the other image sensor may be the filter shown in FIG. 31C. In FIG. 31C, a letter W in a square representing one pixel represents a visible light filter that transmits only visible light. A visible light image can also be obtained from a captured image captured by an image sensor in which the on-chip color filter is disposed on the light receiving surface.

このように、CCDイメージセンサ183が、2つの撮像素子から構成されるようにした場合、各色の光のサンプリング間隔が短くなるので、より精度よく位置指示光の像、前進指示光の像、および後進指示光の像を検出することができる。また、図31に示したオンチップカラーフィルタを用いる場合、既存のCCDイメージセンサを用いることができるため、コストを削減することができる。   As described above, when the CCD image sensor 183 is configured by two image sensors, the sampling interval of light of each color is shortened, so that the image of the position indicating light, the image of the forward indicating light, and An image of the reverse instruction light can be detected. Further, when the on-chip color filter shown in FIG. 31 is used, the cost can be reduced because an existing CCD image sensor can be used.

また、以上においては、スクリーン21を用いて表示画像を表示させると説明したが、画像処理装置24にLCDやCRTディスプレイなどの表示装置を接続し、その表示装置に表示画像を表示させるようにしてもよい。そのような場合、ユーザ32は、表示画像を表示する表示装置の表示画面に対して、レーザポインタ22からの位置指示光や前進指示光を照射させ、カメラ23は、表示装置の表示画面とその周囲の領域を撮像する。   In the above description, the display image is displayed using the screen 21. However, a display device such as an LCD or a CRT display is connected to the image processing device 24, and the display image is displayed on the display device. Also good. In such a case, the user 32 irradiates the display screen of the display device that displays the display image with position instruction light or forward instruction light from the laser pointer 22, and the camera 23 displays the display screen of the display device and its display screen. The surrounding area is imaged.

さらに、画像処理装置24にカメラ23が接続されると説明したが、画像処理装置24にカメラ23が設けられるようにしてもよい。   Furthermore, although it has been described that the camera 23 is connected to the image processing device 24, the camera 23 may be provided in the image processing device 24.

上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

図32は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。   FIG. 32 is a block diagram illustrating an example of a hardware configuration of a computer that executes the series of processes described above according to a program.

コンピュータにおいて、CPU501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。   In the computer, a CPU 501, a ROM (Read Only Memory) 502, and a RAM (Random Access Memory) 503 are connected to each other via a bus 504.

バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、キーボード、マウス、マイクロホンなどよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507、ハードディスクや不揮発性のメモリなどよりなる記録部508、ネットワークインターフェースなどよりなる通信部509、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア511を駆動するドライブ510が接続されている。   An input / output interface 505 is further connected to the bus 504. The input / output interface 505 includes an input unit 506 including a keyboard, a mouse, and a microphone, an output unit 507 including a display and a speaker, a recording unit 508 including a hard disk and a non-volatile memory, and a communication unit 509 including a network interface. A drive 510 for driving a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is connected.

以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。   In the computer configured as described above, the CPU 501 loads the program recorded in the recording unit 508 to the RAM 503 via the input / output interface 505 and the bus 504 and executes the program, for example. Is performed.

コンピュータ(CPU501)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア511に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。   The program executed by the computer (CPU 501) is, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disk, or a semiconductor. The program is recorded on a removable medium 511 that is a package medium including a memory or the like, or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.

そして、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。   The program can be installed in the recording unit 508 via the input / output interface 505 by mounting the removable medium 511 on the drive 510. Further, the program can be received by the communication unit 509 via a wired or wireless transmission medium and installed in the recording unit 508. In addition, the program can be installed in the ROM 502 or the recording unit 508 in advance.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。   The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

本発明を適用したプレゼンテーションシステムの一実施の形態の構成例を示す図である。It is a figure which shows the structural example of one Embodiment of the presentation system to which this invention is applied. レーザポインタの外観を示す図である。It is a figure which shows the external appearance of a laser pointer. レーザポインタの断面を示す図である。It is a figure which shows the cross section of a laser pointer. 位置指示光が照射された方向について説明する図である。It is a figure explaining the direction in which position indication light was irradiated. 仮想3次元空間について説明する図である。It is a figure explaining virtual three-dimensional space. 3次元ポインタの奥行き方向および手前方向への移動を説明する図である。It is a figure explaining the movement to the depth direction and near side of a three-dimensional pointer. レーザポインタのユーザの操作に対応した動作を説明する図である。It is a figure explaining the operation | movement corresponding to operation of the user of a laser pointer. カメラの構成例を示すブロック図である。It is a block diagram which shows the structural example of a camera. オンチップカラーフィルタの配列の例を示す図である。It is a figure which shows the example of the arrangement | sequence of an on-chip color filter. 画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of an image processing apparatus. 表示処理を説明するフローチャートである。It is a flowchart explaining a display process. 生成処理を説明するフローチャートである。It is a flowchart explaining a production | generation process. スクリーンに対するカメラの配置位置を示す図である。It is a figure which shows the arrangement position of the camera with respect to a screen. 撮像画像の例を示す図である。It is a figure which shows the example of a captured image. 撮像画像から分離される各種の画像を示す図である。It is a figure which shows the various images isolate | separated from a captured image. 重心位置検出処理を説明するフローチャートである。It is a flowchart explaining a gravity center position detection process. 位置指示光画像におけるクラスタリングについて説明する図である。It is a figure explaining the clustering in a position instruction | indication light image. クラスタのエッジ検出について説明する図である。It is a figure explaining the edge detection of a cluster. 長軸交点座標および短軸交点座標について説明する図である。It is a figure explaining a major axis intersection coordinate and a minor axis intersection coordinate. 前進指示光の検出処理を説明するフローチャートである。It is a flowchart explaining the detection process of a forward instruction | indication light. 前進指示光の検出の範囲について説明する図である。It is a figure explaining the range of detection of advance direction light. 後進指示光の検出処理を説明するフローチャートである。It is a flowchart explaining the detection process of reverse instruction | indication light. 後進指示光の検出の範囲について説明する図である。It is a figure explaining the range of detection of reverse instruction light. 回転角βについて説明する図である。It is a figure explaining rotation angle (beta). 回転角βについて説明する図である。It is a figure explaining rotation angle (beta). 仰角αについて説明する図である。It is a figure explaining elevation angle (alpha). 3次元ポインタの表示位置について説明する図である。It is a figure explaining the display position of a three-dimensional pointer. 3次元ポインタの表示位置について説明する図である。It is a figure explaining the display position of a three-dimensional pointer. 3次元ポインタ位置算出処理を説明するフローチャートである。It is a flowchart explaining a three-dimensional pointer position calculation process. オンチップカラーフィルタの配列の他の例を示す図である。It is a figure which shows the other example of the arrangement | sequence of an on-chip color filter. オンチップカラーフィルタの配列の他の例を示す図である。It is a figure which shows the other example of the arrangement | sequence of an on-chip color filter. コンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of a computer.

符号の説明Explanation of symbols

11 プレゼンテーションシステム, 21 スクリーン, 22 レーザポインタ, 23 カメラ, 24 画像処理装置, 25 プロジェクタ, 81 不可視光レーザ, 83 不可視光レーザ, 84 不可視光レーザ, 183 CCDイメージセンサ, 186 DSP, 221 色同時化処理部, 222 幾何変換処理部, 223 位置指示光検出部, 224 前進指示光検出部, 225 後進指示光検出部, 226 座標計算部, 228 表示画像処理部   11 presentation system, 21 screen, 22 laser pointer, 23 camera, 24 image processing device, 25 projector, 81 invisible light laser, 83 invisible light laser, 84 invisible light laser, 183 CCD image sensor, 186 DSP, 221 color synchronization processing , 222 geometric transformation processing unit, 223 position indication light detection unit, 224 forward indication light detection unit, 225 reverse indication light detection unit, 226 coordinate calculation unit, 228 display image processing unit

Claims (11)

表示画像を表示する表示装置と、前記表示画像に光を照射して、前記表示画像上に表示されるポインタの位置を指示する指示装置と、前記表示画像が表示されている領域を撮像する撮像装置と、前記撮像装置による撮像により得られた撮像画像に基づいて、新たに表示画像を生成する画像処理装置とから構成される画像処理システムであって、
前記指示装置は、
前記表示装置により表示されている前記表示画像に対して想定された仮想3次元空間上の表示位置であって、前記ポインタを表示させる表示位置を指示するための光である位置指示光を射出する位置指示光射出手段と、
前記位置指示光とは異なる波長の光であり、前記位置指示光の光路と平行な方向への前記ポインタの移動を指示する方向指示光を射出する方向指示光射出手段と
を備え、
前記撮像装置は、前記表示画像に照射された前記位置指示光の像、および前記方向指示光の像を前記撮像画像として撮像し、
前記画像処理装置は、
前記撮像画像から、前記位置指示光と同じ波長の光の画像である位置指示光画像と、前記方向指示光と同じ波長の光の画像である方向指示光画像とを分離する分離手段と、
前記位置指示光画像から、前記表示画像上における前記位置指示光の像の位置および形状を検出する位置指示光検出手段と、
前記方向指示光画像から前記方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記方向への移動が指示されたか否かを示す方向情報を出力する方向指示光検出手段と、
前記位置指示光の像の位置および形状と、出力された前記方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定手段と、
前記位置特定手段により特定された前記ポインタの表示位置に対応する前記表示画像上の位置に、前記ポインタが表示された新たな表示画像を生成する表示画像生成手段と
を備え、
前記表示装置は、これまで表示していた前記表示画像の表示を、生成された前記新たな表示画像に切り替える
画像処理システム。
A display device that displays a display image, an instruction device that irradiates light to the display image to indicate the position of a pointer displayed on the display image, and an image pickup that captures an area where the display image is displayed An image processing system including an apparatus and an image processing apparatus that newly generates a display image based on a captured image obtained by imaging by the imaging apparatus,
The pointing device is
Position indication light, which is a display position in the virtual three-dimensional space assumed for the display image displayed by the display device and is used to indicate the display position for displaying the pointer, is emitted. Position indicating light emitting means;
A light of a wavelength different from that of the position indicating light, and direction indicating light emitting means for emitting direction indicating light for instructing movement of the pointer in a direction parallel to the optical path of the position indicating light,
The imaging device captures the image of the position indicating light and the image of the direction indicating light irradiated on the display image as the captured image,
The image processing apparatus includes:
Separating means for separating, from the captured image, a position indicating light image that is an image of light having the same wavelength as the position indicating light and a direction indicating light image that is an image of light having the same wavelength as the direction indicating light;
Position indication light detection means for detecting the position and shape of the image of the position indication light on the display image from the position indication light image;
Direction indication light detection means for detecting an image of the direction indication light from the direction indication light image and outputting direction information indicating whether or not the pointer has been instructed to move in the direction based on the detection result; ,
Position specifying means for specifying the display position of the pointer in the virtual three-dimensional space based on the position and shape of the image of the position indicating light and the output direction information;
Display image generating means for generating a new display image in which the pointer is displayed at a position on the display image corresponding to the display position of the pointer specified by the position specifying means;
The display device is configured to switch the display of the display image that has been displayed so far to the generated new display image.
表示画像に対して想定された仮想3次元空間上の表示位置であり、ポインタを表示させる表示位置を特定する画像処理装置であって、
前記表示画像が表示されている領域を撮像して得られる位置指示光画像であって、前記仮想3次元空間上の前記ポインタを表示させる表示位置を指示するための位置指示光と同じ波長の光の画像である位置指示光画像から、前記表示画像上における、前記表示画像に照射された前記位置指示光の像の位置および形状を検出する位置指示光検出手段と、
前記表示画像が表示されている前記領域を撮像して得られる第1の方向指示光画像であって、前記位置指示光の光路と平行な第1の方向への前記ポインタの移動を指示する第1の方向指示光と同じ波長であり、前記位置指示光とは異なる波長の光の画像である第1の方向指示光画像から、前記表示画像に照射された前記第1の方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記第1の方向への移動が指示されたか否かを示す第1の方向情報を出力する第1の方向指示光検出手段と、
前記位置指示光の像の位置および形状と、出力された前記第1の方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定手段と
を備える画像処理装置。
An image processing apparatus that specifies a display position on a virtual three-dimensional space assumed for a display image and that displays a pointer.
A position indicating light image obtained by imaging an area where the display image is displayed, and light having the same wavelength as the position indicating light for indicating the display position for displaying the pointer in the virtual three-dimensional space Position indication light detection means for detecting the position and shape of the image of the position indication light irradiated on the display image on the display image from the position indication light image which is an image of
A first direction indicating light image obtained by imaging the area where the display image is displayed, wherein the pointer indicates movement of the pointer in a first direction parallel to the optical path of the position indicating light. An image of the first direction indicating light irradiated on the display image from a first direction indicating light image having the same wavelength as that of the first direction indicating light and a wavelength different from that of the position indicating light. First direction indicating light detecting means for outputting first direction information indicating whether or not movement of the pointer in the first direction is instructed based on the detection result;
An image processing apparatus comprising: position specifying means for specifying a display position of the pointer in the virtual three-dimensional space based on the position and shape of the image of the position indicating light and the output first direction information. .
前記位置特定手段により特定された前記ポインタの表示位置に対応する前記表示画像上の位置に、前記ポインタが表示された新たな表示画像を生成する表示画像生成手段をさらに備える
請求項2に記載の画像処理装置。
The display image generating means for generating a new display image in which the pointer is displayed at a position on the display image corresponding to the display position of the pointer specified by the position specifying means. Image processing device.
前記位置指示光は、その断面が真円形状である
請求項3に記載の画像処理装置。
The image processing apparatus according to claim 3, wherein the position indicating light has a perfect circular cross section.
前記ポインタの表示位置は、前記位置指示光の像の位置に対応する前記仮想3次元空間上の位置を通り、前記位置指示光の像の形状から特定される前記第1の方向と平行な直線上の位置とされる
請求項4に記載の画像処理装置。
The display position of the pointer passes through the position in the virtual three-dimensional space corresponding to the position of the image of the position indicating light, and is a straight line parallel to the first direction specified from the shape of the image of the position indicating light The image processing apparatus according to claim 4, wherein the image processing apparatus is in an upper position.
前記位置特定手段は、前記位置指示光の像の位置に対応する前記仮想3次元空間上の位置から、前記ポインタの表示位置までの長さを定める奥行き長さを記憶しており、前記第1の方向情報に基づいて前記奥行き長さを変更し、さらに変更後の前記奥行き長さと、前記位置指示光の像の位置および形状とに基づいて、前記ポインタの表示位置を特定する
請求項5に記載の画像処理装置。
The position specifying means stores a depth length that determines a length from the position in the virtual three-dimensional space corresponding to the position of the image of the position indicating light to the display position of the pointer. 6. The display position of the pointer is specified based on the depth length after the change and the position and shape of the image of the position indicating light. The image processing apparatus described.
前記表示画像が表示されている前記領域を撮像して得られる第2の方向指示光画像であって、前記第1の方向とは反対の第2の方向への前記ポインタの移動を指示する第2の方向指示光と同じ波長であり、前記位置指示光および前記第1の方向指示光とは異なる波長の光の画像である第2の方向指示光画像から、前記表示画像に照射された前記第2の方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記第2の方向への移動が指示されたか否かを示す第2の方向情報を出力する第2の方向指示光検出手段をさらに備え、
前記位置特定手段は、前記第1の方向情報および前記第2の方向情報に基づいて、前記奥行き長さを変更する
請求項6に記載の画像処理装置。
A second direction indicating light image obtained by imaging the area where the display image is displayed, wherein the pointer indicates movement of the pointer in a second direction opposite to the first direction. The display image is irradiated from a second direction indicating light image having the same wavelength as the direction indicating light of 2 and a light having a wavelength different from that of the position indicating light and the first direction indicating light. A second direction that detects an image of the second direction indicating light and outputs second direction information indicating whether or not the movement of the pointer in the second direction is instructed based on the detection result. Further comprising indicator light detection means,
The image processing apparatus according to claim 6, wherein the position specifying unit changes the depth length based on the first direction information and the second direction information.
前記表示画像、前記表示画像に照射された前記位置指示光の像、および前記表示画像に照射された前記第1の方向指示光の像を前記撮像画像として撮像する撮像手段と、
前記撮像画像から、前記位置指示光画像と、前記第1の方向指示光画像とを分離する分離手段と
をさらに備える請求項3に記載の画像処理装置。
Imaging means for imaging the display image, the image of the position indicating light irradiated to the display image, and the image of the first direction indicating light irradiated to the display image as the captured image;
The image processing apparatus according to claim 3, further comprising: a separating unit that separates the position indication light image and the first direction indication light image from the captured image.
前記位置指示光および前記第1の方向指示光は、不可視光である
請求項3に記載の画像処理装置。
The image processing apparatus according to claim 3, wherein the position indicating light and the first direction indicating light are invisible light.
表示画像に対して想定された仮想3次元空間上の表示位置であり、ポインタを表示させる表示位置を特定する画像処理装置の画像処理方法であって、
前記表示画像が表示されている領域を撮像して得られる位置指示光画像であって、前記仮想3次元空間上の前記ポインタを表示させる表示位置を指示するための位置指示光と同じ波長の光の画像である位置指示光画像から、前記表示画像上における、前記表示画像に照射された前記位置指示光の像の位置および形状を検出する位置指示光検出ステップと、
前記表示画像が表示されている前記領域を撮像して得られる方向指示光画像であって、前記位置指示光の光路と平行な方向への前記ポインタの移動を指示する方向指示光と同じ波長であり、前記位置指示光とは異なる波長の光の画像である方向指示光画像から、前記表示画像に照射された前記方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記方向への移動が指示されたか否かを示す方向情報を出力する方向指示光検出ステップと、
前記位置指示光の像の位置および形状と、出力された前記方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定ステップと
を含む画像処理方法。
An image processing method of an image processing apparatus for specifying a display position for displaying a pointer, which is a display position in a virtual three-dimensional space assumed for a display image,
A position indicating light image obtained by imaging an area where the display image is displayed, and light having the same wavelength as the position indicating light for indicating the display position for displaying the pointer in the virtual three-dimensional space A position indicating light detection step for detecting the position and shape of the image of the position indicating light irradiated on the display image on the display image from the position indicating light image which is an image of
A direction indicating light image obtained by imaging the area where the display image is displayed, and having the same wavelength as the direction indicating light for instructing movement of the pointer in a direction parallel to the optical path of the position indicating light And detecting the image of the direction indicating light irradiated on the display image from the direction indicating light image which is an image of light having a wavelength different from that of the position indicating light, and based on the detection result, the pointer of the pointer A direction indicating light detection step for outputting direction information indicating whether or not movement in the direction has been instructed;
An image processing method comprising: a position specifying step of specifying a display position of the pointer in the virtual three-dimensional space based on the position and shape of the image of the position indicating light and the output direction information.
表示画像に対して想定された仮想3次元空間上の表示位置であり、ポインタを表示させる表示位置を特定する画像処理用のプログラムであって、
前記表示画像が表示されている領域を撮像して得られる位置指示光画像であって、前記仮想3次元空間上の前記ポインタを表示させる表示位置を指示するための位置指示光と同じ波長の光の画像である位置指示光画像から、前記表示画像上における、前記表示画像に照射された前記位置指示光の像の位置および形状を検出する位置指示光検出ステップと、
前記表示画像が表示されている前記領域を撮像して得られる方向指示光画像であって、前記位置指示光の光路と平行な方向への前記ポインタの移動を指示する方向指示光と同じ波長であり、前記位置指示光とは異なる波長の光の画像である方向指示光画像から、前記表示画像に照射された前記方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記方向への移動が指示されたか否かを示す方向情報を出力する方向指示光検出ステップと、
前記位置指示光の像の位置および形状と、出力された前記方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定ステップと
を含む処理をコンピュータに実行させるプログラム。
It is a display position in a virtual three-dimensional space assumed for a display image, and is a program for image processing that specifies a display position for displaying a pointer,
A position indicating light image obtained by imaging an area where the display image is displayed, and light having the same wavelength as the position indicating light for indicating the display position for displaying the pointer in the virtual three-dimensional space A position indicating light detection step for detecting the position and shape of the image of the position indicating light irradiated on the display image on the display image from the position indicating light image which is an image of
A direction indicating light image obtained by imaging the area where the display image is displayed, and having the same wavelength as the direction indicating light for instructing movement of the pointer in a direction parallel to the optical path of the position indicating light And detecting the image of the direction indicating light irradiated on the display image from the direction indicating light image which is an image of light having a wavelength different from that of the position indicating light, and based on the detection result, the pointer of the pointer A direction indicating light detection step for outputting direction information indicating whether or not movement in the direction has been instructed;
Causing the computer to execute processing including a position specifying step of specifying the display position of the pointer in the virtual three-dimensional space based on the position and shape of the image of the position indicating light and the output direction information. program.
JP2007133758A 2007-05-21 2007-05-21 Image processing system, image processing apparatus and method, and program Expired - Fee Related JP4807322B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007133758A JP4807322B2 (en) 2007-05-21 2007-05-21 Image processing system, image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007133758A JP4807322B2 (en) 2007-05-21 2007-05-21 Image processing system, image processing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2008287625A JP2008287625A (en) 2008-11-27
JP4807322B2 true JP4807322B2 (en) 2011-11-02

Family

ID=40147269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007133758A Expired - Fee Related JP4807322B2 (en) 2007-05-21 2007-05-21 Image processing system, image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP4807322B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5118663B2 (en) * 2009-03-31 2013-01-16 Kddi株式会社 Information terminal equipment
JP6251962B2 (en) * 2012-03-01 2017-12-27 日産自動車株式会社 Camera apparatus and image processing method
JP6251963B2 (en) 2012-03-01 2017-12-27 日産自動車株式会社 Camera apparatus and image processing method
JP6112618B2 (en) * 2014-07-17 2017-04-12 Necプラットフォームズ株式会社 Information processing system
ES2574617B1 (en) * 2014-11-18 2017-04-05 Ignacio FERRERO PERIS METHOD, SYSTEM AND COMPUTER PRODUCT TO INTERACT WITH A LASER POINTER
CN108037870B (en) * 2017-11-03 2020-03-17 福建天晴数码有限公司 Touch screen-based three-dimensional scene object picking method and terminal
JP7251094B2 (en) * 2018-10-22 2023-04-04 セイコーエプソン株式会社 POSITION DETECTION DEVICE, DISPLAY SYSTEM AND POSITION DETECTION METHOD
JP7251095B2 (en) * 2018-10-22 2023-04-04 セイコーエプソン株式会社 POSITION DETECTION DEVICE, DISPLAY DEVICE, DISPLAY SYSTEM AND POSITION DETECTION METHOD
JP6950669B2 (en) * 2018-12-06 2021-10-13 セイコーエプソン株式会社 Display control method, display device, and display system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2790965B2 (en) * 1992-08-19 1998-08-27 富士通株式会社 Optical pointing system
JP2000276297A (en) * 1999-03-25 2000-10-06 Seiko Epson Corp Device and method for detecting pointing position, presentation system, and information storage medium
JP2001290600A (en) * 2000-04-06 2001-10-19 Casio Comput Co Ltd Coordinate input system
JP2003036142A (en) * 2001-07-24 2003-02-07 Hitachi Ltd System and method for presentation
JP2004178469A (en) * 2002-11-29 2004-06-24 Hitachi Ltd Remote control system
JP4644800B2 (en) * 2005-01-07 2011-03-02 国立大学法人電気通信大学 3D position input device
JP4577612B2 (en) * 2005-03-30 2010-11-10 カシオ計算機株式会社 Information display system and information display method
JP2007086962A (en) * 2005-09-21 2007-04-05 Fuji Xerox Co Ltd Screen position indicating system and screen position indicating method

Also Published As

Publication number Publication date
JP2008287625A (en) 2008-11-27

Similar Documents

Publication Publication Date Title
JP4807322B2 (en) Image processing system, image processing apparatus and method, and program
US9542755B2 (en) Image processor and image processing method
US10210629B2 (en) Information processor and information processing method
US9460337B2 (en) Information processor and information processing method
WO2013035554A1 (en) Method for detecting motion of input body and input device using same
US20160049011A1 (en) Display control device, display control method, and program
JP2009205556A (en) User interface device
WO2007055335A1 (en) Image processing device, image processing method, program thereof, and recording medium containing the program
JP2010165248A (en) Image processor, image collation method, and program
JP2008269616A (en) Cursor control device and method for image display, and image system
JP2019033917A (en) Endoscope system
CN108781268B (en) Image processing apparatus and method
JP6804056B2 (en) Projection type display device, control method of projection type display device, and program
JP2019215811A (en) Projection system, image processing apparatus, and projection method
JP2017050684A (en) Controller, control method and program
JP2008287624A (en) System and method for processing image, image processor, and program
US8908012B2 (en) Electronic device and method for creating three-dimensional image
JP2011198270A (en) Object recognition device and controller using the same, and object recognition method
JP2010217984A (en) Image detector and image detection method
WO2017163527A1 (en) Image processing system, image processing method, and program
WO2017029886A1 (en) Information processing device, information processing method, and program
JP2009055332A (en) Video composition and display device
JP2007322704A (en) Image display system and its control method
JP5001400B2 (en) Shield removal display device
KR101056388B1 (en) Pointing / Interface System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110719

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110801

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140826

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees