JP4807322B2 - Image processing system, image processing apparatus and method, and program - Google Patents
Image processing system, image processing apparatus and method, and program Download PDFInfo
- Publication number
- JP4807322B2 JP4807322B2 JP2007133758A JP2007133758A JP4807322B2 JP 4807322 B2 JP4807322 B2 JP 4807322B2 JP 2007133758 A JP2007133758 A JP 2007133758A JP 2007133758 A JP2007133758 A JP 2007133758A JP 4807322 B2 JP4807322 B2 JP 4807322B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- light
- indicating light
- display
- pointer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Projection Apparatus (AREA)
- Position Input By Displaying (AREA)
- Transforming Electric Information Into Light Information (AREA)
Description
本発明は画像処理システム、画像処理装置および方法、並びにプログラムに関し、特に、仮想3次元空間上の位置を簡単に指定することができるようにした画像処理システム、画像処理装置および方法、並びにプログラムに関する。 The present invention relates to an image processing system, an image processing apparatus and method, and a program, and more particularly, to an image processing system, an image processing apparatus and method, and a program that can easily specify a position in a virtual three-dimensional space. .
従来、2次元の画面に対して仮想3次元空間を想定し、その仮想3次元空間における位置を指定できるプレゼンテーションシステムが提案されている。 Conventionally, a presentation system has been proposed that assumes a virtual three-dimensional space for a two-dimensional screen and can specify a position in the virtual three-dimensional space.
例えば、そのようなプレゼンテーションシステムとして、画像が表示されるスクリーンの四隅に音波センサを配置し、入力ペンからの音波信号をそれらの音波センサにより受信することで、スクリーンに表示された2次元の画像に対して設定された、仮想3次元空間における位置を指定するものもある(例えば、特許文献1参照)。このプレゼンテーションシステムにおいては、音波信号の検出を容易に行うことができるように、音波信号からエンベロープ信号を検出し、検出されたエンベロープ信号を音波信号の音波センサへの到達時間の検出に利用している。これにより、従来問題となっていた音波信号のレベル変動や反射波の影響を低減させ、安定して仮想3次元空間における位置を検出することができる。 For example, as such a presentation system, sound wave sensors are arranged at four corners of a screen on which an image is displayed, and a sound wave signal from an input pen is received by the sound wave sensor, whereby a two-dimensional image displayed on the screen. There is also one that designates a position in a virtual three-dimensional space set for (for example, see Patent Document 1). In this presentation system, the envelope signal is detected from the sound wave signal so that the sound wave signal can be easily detected, and the detected envelope signal is used to detect the arrival time of the sound wave signal to the sound wave sensor. Yes. As a result, it is possible to reduce the level fluctuation of the sound wave signal and the influence of the reflected wave, which have been problems in the past, and to stably detect the position in the virtual three-dimensional space.
また、プレゼンテーションシステムには、ディスプレイに固定された磁界発生源と、その磁界発生源からの磁気を検出する棒状の位置センサとを利用して、ディスプレイ上の仮想3次元空間におけるオブジェクトに対して、直感的に操作を行うことができるようにするものもある(例えば、特許文献2参照)。 In addition, the presentation system uses a magnetic field generation source fixed to the display and a bar-shaped position sensor that detects magnetism from the magnetic field generation source, for an object in a virtual three-dimensional space on the display, Some devices allow intuitive operation (see, for example, Patent Document 2).
さらに、プレゼンテーションシステムには、複数のカメラを用いたステレオ法により距離画像を生成し、生成した距離画像を用いて、ユーザの指先や腕などの予め定められた部位を検出することにより、仮想3次元空間内の物体を指定するものもある(例えば、特許文献3参照)。このプレゼンテーションシステムにおいては、検出されたユーザの部位により指し示される方向に位置する物体が指定されるため、ユーザは、例えばマウスなどのインターフェースを装着する必要がなく、利便性の向上が期待される。また、スクリーン上ではなく、実空間上の位置を指定することも可能であり、応用性も高いと考えられている。 Furthermore, the presentation system generates a distance image by a stereo method using a plurality of cameras, and uses the generated distance image to detect a predetermined part such as a user's fingertip or arm, thereby generating a virtual 3 Some specify an object in a dimensional space (see, for example, Patent Document 3). In this presentation system, since an object positioned in the direction indicated by the detected user's part is specified, the user does not need to wear an interface such as a mouse, and convenience is expected to be improved. . Further, it is possible to designate a position in the real space instead of on the screen, and it is considered that the applicability is high.
しかしながら、上述した技術では、その特性上、検出の対象となる入力ペンやユーザの部位の位置の計測を広い範囲で行うことができないため、CRT(Cathode Ray Tube)ディスプレイ、PDP(Plasma Display Panel)、小型スクリーンなどの比較的小さい表示装置に画像を表示させ、その画像に対して想定された仮想3次元空間上の位置を指定することしかできなかった。また、上述したプレゼンテーションシステムは、周囲の環境による影響を受けやすく、確実に仮想3次元空間上の位置を指定することができない場合があった。 However, the above-mentioned technology, due to its characteristics, cannot measure the position of the input pen or the user's part to be detected in a wide range, so a CRT (Cathode Ray Tube) display, PDP (Plasma Display Panel) However, it is only possible to display an image on a relatively small display device such as a small screen and to specify a position in the virtual three-dimensional space assumed for the image. Further, the above-described presentation system is easily influenced by the surrounding environment, and there are cases where the position in the virtual three-dimensional space cannot be specified reliably.
例えば、音波信号を利用する方法では、反射波などの影響をある程度回避可能であるものの、音波信号を利用しているため、仮想3次元空間上の位置の指定に対する反応速度には音速による制限があった。そのため、スクリーンが大きくなるほど処理に時間がかかり、無視できない遅延が生じる恐れがある。また、入力ペンおよび音波センサとしての音波信号の発信機および受信機は、それほど一般的なものではないためコストが高くなってしまう。 For example, in the method using the sound wave signal, the influence of the reflected wave or the like can be avoided to some extent, but since the sound wave signal is used, the reaction speed for the designation of the position in the virtual three-dimensional space is limited by the sound speed. there were. For this reason, the larger the screen, the longer the processing takes, and a delay that cannot be ignored may occur. Moreover, since the transmitter and receiver of the sound wave signal as the input pen and the sound wave sensor are not so common, the cost becomes high.
さらに、磁界発生源および棒状の位置センサを用いる方法では、磁気を利用するため、プレゼンテーションシステムの周囲に磁気を帯びた物体等がある場合には、位置センサによる位置の計測に誤差が生じる場合がある。また、磁界発生源を用いるため、広範囲で位置センサによる位置の計測ができるようにするためには、その範囲に見合った強い磁界が必要であり、位置センサの位置の計測精度が低下したり、コストが高くなったりする恐れがある。 Furthermore, since the method using the magnetic field generation source and the rod-shaped position sensor uses magnetism, an error may occur in the position measurement by the position sensor when there is a magnetic object around the presentation system. is there. In addition, since a magnetic field generation source is used, in order to be able to measure a position by a position sensor in a wide range, a strong magnetic field corresponding to the range is required, and the position sensor position measurement accuracy is reduced, The cost may increase.
さらに、また、ユーザの所定の部位を検出する方法では、仮想3次元空間上の指定することのできる位置の範囲は、ユーザが体で示すことのできる範囲に限られる。さらに、複数のカメラを設置する必要があるため、コストが高くなってしまうだけでなく、複数のカメラにより得られた画像から指定された位置を求めるための処理時間も、より長くなってしまう。 Furthermore, in the method of detecting a predetermined part of the user, the range of positions that can be specified in the virtual three-dimensional space is limited to the range that the user can show with the body. Furthermore, since it is necessary to install a plurality of cameras, not only the cost is increased, but also the processing time for obtaining the designated position from the images obtained by the plurality of cameras becomes longer.
本発明は、このような状況に鑑みてなされたものであり、表示させる画像の大きさや周囲の環境によらず、低コストで、より確実に仮想3次元空間上の位置を指定することができるようにするものである。 The present invention has been made in view of such a situation, and the position in the virtual three-dimensional space can be more reliably specified at low cost regardless of the size of the image to be displayed and the surrounding environment. It is what you want to do.
本発明の第1の側面の画像処理システムは、表示画像を表示する表示装置と、前記表示画像に光を照射して、前記表示画像上に表示されるポインタの位置を指示する指示装置と、前記表示画像が表示されている領域を撮像する撮像装置と、前記撮像装置による撮像により得られた撮像画像に基づいて、新たに表示画像を生成する画像処理装置とから構成される画像処理システムであって、前記指示装置は、前記表示装置により表示されている前記表示画像に対して想定された仮想3次元空間上の表示位置であって、前記ポインタを表示させる表示位置を指示するための光である位置指示光を射出する位置指示光射出手段と、前記位置指示光とは異なる波長の光であり、前記位置指示光の光路と平行な方向への前記ポインタの移動を指示する方向指示光を射出する方向指示光射出手段とを備え、前記撮像装置は、前記表示画像に照射された前記位置指示光の像、および前記方向指示光の像を前記撮像画像として撮像し、前記画像処理装置は、前記撮像画像から、前記位置指示光と同じ波長の光の画像である位置指示光画像と、前記方向指示光と同じ波長の光の画像である方向指示光画像とを分離する分離手段と、前記位置指示光画像から、前記表示画像上における前記位置指示光の像の位置および形状を検出する位置指示光検出手段と、前記方向指示光画像から前記方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記方向への移動が指示されたか否かを示す方向情報を出力する方向指示光検出手段と、前記位置指示光の像の位置および形状と、出力された前記方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定手段と、前記位置特定手段により特定された前記ポインタの表示位置に対応する前記表示画像上の位置に、前記ポインタが表示された新たな表示画像を生成する表示画像生成手段とを備え、前記表示装置は、これまで表示していた前記表示画像の表示を、生成された前記新たな表示画像に切り替える。 An image processing system according to a first aspect of the present invention includes a display device that displays a display image, an instruction device that irradiates light to the display image and indicates the position of a pointer displayed on the display image, An image processing system including an imaging device that captures an area in which the display image is displayed, and an image processing device that newly generates a display image based on a captured image obtained by imaging by the imaging device. The pointing device is a light for instructing a display position on the virtual three-dimensional space assumed for the display image displayed by the display device and displaying the pointer. A position indicating light emitting means for emitting a position indicating light, and a light having a wavelength different from that of the position indicating light and instructing movement of the pointer in a direction parallel to the optical path of the position indicating light Direction indication light emitting means for emitting indication light, and the imaging device picks up the image of the position indication light and the image of the direction indication light irradiated on the display image as the captured image, and the image The processing device separates, from the captured image, a position indication light image that is an image of light having the same wavelength as the position indication light and a direction indication light image that is an image of light having the same wavelength as the direction indication light. Means for detecting the position and shape of the image of the position indicating light on the display image from the position indicating light image, and detecting the image of the direction indicating light from the direction indicating light image. Based on the detection result, direction indicating light detecting means for outputting direction information indicating whether or not movement of the pointer in the direction is instructed, and the position and shape of the image of the position indicating light are output. Said person Based on the information, the position specifying means for specifying the display position of the pointer in the virtual three-dimensional space, and the position on the display image corresponding to the display position of the pointer specified by the position specifying means, Display image generating means for generating a new display image on which the pointer is displayed, and the display device switches the display of the display image displayed so far to the generated new display image.
本発明の第1の側面においては、表示画像を表示する表示装置と、前記表示画像に光を照射して、前記表示画像上に表示されるポインタの位置を指示する指示装置と、前記表示画像が表示されている領域を撮像する撮像装置と、前記撮像装置による撮像により得られた撮像画像に基づいて、新たに表示画像を生成する画像処理装置とから構成される画像処理システムにおいて、前記指示装置により、前記表示装置により表示されている前記表示画像に対して想定された仮想3次元空間上の表示位置であって、前記ポインタを表示させる表示位置を指示するための光である位置指示光が射出され、前記位置指示光とは異なる波長の光であり、前記位置指示光の光路と平行な方向への前記ポインタの移動を指示する方向指示光が射出され、前記撮像装置により、前記表示画像に照射された前記位置指示光の像、および前記方向指示光の像が前記撮像画像として撮像され、前記画像処理装置により、前記撮像画像から、前記位置指示光と同じ波長の光の画像である位置指示光画像と、前記方向指示光と同じ波長の光の画像である方向指示光画像とが分離され、前記位置指示光画像から、前記表示画像上における前記位置指示光の像の位置および形状が検出され、前記方向指示光画像から前記方向指示光の像が検出され、その検出結果に基づいて、前記ポインタの前記方向への移動が指示されたか否かを示す方向情報が出力され、前記位置指示光の像の位置および形状と、出力された前記方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置が特定され、前記位置特定手段により特定された前記ポインタの表示位置に対応する前記表示画像上の位置に、前記ポインタが表示された新たな表示画像が生成され、前記表示装置により、これまで表示していた前記表示画像の表示が、生成された前記新たな表示画像に切り替えられる。 In the first aspect of the present invention, a display device that displays a display image, an indication device that irradiates light to the display image and indicates the position of a pointer displayed on the display image, and the display image In the image processing system including an imaging device that captures an area in which the image is displayed and an image processing device that newly generates a display image based on a captured image obtained by imaging by the imaging device, the instruction Position indication light which is a light for instructing a display position on the virtual three-dimensional space assumed for the display image displayed on the display device by the device and displaying the pointer. Is emitted, which is light having a wavelength different from that of the position indication light, and direction indication light for instructing movement of the pointer in a direction parallel to the optical path of the position indication light is emitted. An image of the position indicating light and an image of the direction indicating light irradiated on the display image are picked up as the picked-up image by the device, and the same wavelength as that of the position indicating light from the picked-up image by the image processing device. A position indicating light image that is an image of the light of the direction and a direction indicating light image that is an image of the light having the same wavelength as the direction indicating light are separated, and the position indicating light on the display image is separated from the position indicating light image A direction indicating whether or not movement of the pointer in the direction is instructed based on the detection result of detecting the position and shape of the image of the image, detecting the image of the direction indicating light from the direction indicating light image. Information is output, and the display position of the pointer in the virtual three-dimensional space is specified based on the position and shape of the image of the position indicating light and the output direction information, and the position A new display image in which the pointer is displayed is generated at a position on the display image corresponding to the display position of the pointer specified by the determination means, and the display image displayed so far by the display device Is switched to the generated new display image.
本発明の第2の側面の画像処理装置は、表示画像に対して想定された仮想3次元空間上の表示位置であり、ポインタを表示させる表示位置を特定する画像処理装置であって、前記表示画像が表示されている領域を撮像して得られる位置指示光画像であって、前記仮想3次元空間上の前記ポインタを表示させる表示位置を指示するための位置指示光と同じ波長の光の画像である位置指示光画像から、前記表示画像上における、前記表示画像に照射された前記位置指示光の像の位置および形状を検出する位置指示光検出手段と、前記表示画像が表示されている前記領域を撮像して得られる第1の方向指示光画像であって、前記位置指示光の光路と平行な第1の方向への前記ポインタの移動を指示する第1の方向指示光と同じ波長であり、前記位置指示光とは異なる波長の光の画像である第1の方向指示光画像から、前記表示画像に照射された前記第1の方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記第1の方向への移動が指示されたか否かを示す第1の方向情報を出力する第1の方向指示光検出手段と、前記位置指示光の像の位置および形状と、出力された前記第1の方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定手段とを備える。 An image processing apparatus according to a second aspect of the present invention is an image processing apparatus that is a display position in a virtual three-dimensional space assumed for a display image, and that specifies a display position for displaying a pointer. A position indicating light image obtained by imaging a region where an image is displayed, and an image of light having the same wavelength as the position indicating light for indicating the display position for displaying the pointer in the virtual three-dimensional space A position indicating light detecting means for detecting a position and a shape of an image of the position indicating light irradiated on the display image on the display image, and the display image being displayed. It is the 1st direction indication light image obtained by imaging a field, and is the same wavelength as the 1st direction indication light which instruct | indicates the movement of the said pointer to the 1st direction parallel to the optical path of the said position indication light Yes, said position An image of the first direction indicating light irradiated on the display image is detected from a first direction indicating light image which is an image of light having a wavelength different from the indication light, and the pointer is based on the detection result. First direction indicating light detecting means for outputting first direction information indicating whether or not movement in the first direction has been instructed, and the position and shape of the image of the position indicating light, and output Position specifying means for specifying the display position of the pointer in the virtual three-dimensional space based on the first direction information.
画像処理装置には、前記位置特定手段により特定された前記ポインタの表示位置に対応する前記表示画像上の位置に、前記ポインタが表示された新たな表示画像を生成する表示画像生成手段をさらに設けることができる。 The image processing apparatus further includes display image generation means for generating a new display image on which the pointer is displayed at a position on the display image corresponding to the display position of the pointer specified by the position specifying means. be able to.
前記位置指示光は、その断面を真円形状とすることができる。 The position indicating light may have a perfect circular cross section.
前記ポインタの表示位置は、前記位置指示光の像の位置に対応する前記仮想3次元空間上の位置を通り、前記位置指示光の像の形状から特定される前記第1の方向と平行な直線上の位置とすることができる。 The display position of the pointer passes through the position in the virtual three-dimensional space corresponding to the position of the image of the position indicating light, and is a straight line parallel to the first direction specified from the shape of the image of the position indicating light It can be in the upper position.
前記位置特定手段には、前記位置指示光の像の位置に対応する前記仮想3次元空間上の位置から、前記ポインタの表示位置までの長さを定める奥行き長さを記憶させ、前記第1の方向情報に基づいて前記奥行き長さを変更させ、さらに変更後の前記奥行き長さと、前記位置指示光の像の位置および形状とに基づいて、前記ポインタの表示位置を特定させることができる。 The position specifying means stores a depth length that determines a length from a position in the virtual three-dimensional space corresponding to a position of the image of the position indicating light to a display position of the pointer, and The depth length can be changed based on the direction information, and the display position of the pointer can be specified based on the changed depth length and the position and shape of the image of the position indicating light.
前記表示画像が表示されている前記領域を撮像して得られる第2の方向指示光画像であって、前記第1の方向とは反対の第2の方向への前記ポインタの移動を指示する第2の方向指示光と同じ波長であり、前記位置指示光および前記第1の方向指示光とは異なる波長の光の画像である第2の方向指示光画像から、前記表示画像に照射された前記第2の方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記第2の方向への移動が指示されたか否かを示す第2の方向情報を出力する第2の方向指示光検出手段をさらに設け、前記位置特定手段には、前記第1の方向情報および前記第2の方向情報に基づいて、前記奥行き長さを変更させることができる。 A second direction indicating light image obtained by imaging the area where the display image is displayed, wherein the pointer indicates movement of the pointer in a second direction opposite to the first direction. The display image is irradiated from a second direction indicating light image having the same wavelength as the direction indicating light of 2 and a light having a wavelength different from that of the position indicating light and the first direction indicating light. A second direction that detects an image of the second direction indicating light and outputs second direction information indicating whether or not the movement of the pointer in the second direction is instructed based on the detection result. An instruction light detection unit is further provided, and the position specifying unit can change the depth length based on the first direction information and the second direction information.
画像処理装置には、前記表示画像、前記表示画像に照射された前記位置指示光の像、および前記表示画像に照射された前記第1の方向指示光の像を前記撮像画像として撮像する撮像手段と、前記撮像画像から、前記位置指示光画像と、前記第1の方向指示光画像とを分離する分離手段とをさらに設けることができる。 In the image processing apparatus, an imaging unit that captures the display image, the image of the position indicating light irradiated on the display image, and the image of the first direction indicating light irradiated on the display image as the captured image. And a separating means for separating the position indicating light image and the first direction indicating light image from the captured image.
前記位置指示光および前記第1の方向指示光は、不可視光とすることができる。 The position indicating light and the first direction indicating light may be invisible light.
本発明の第2の側面の画像処理方法またはプログラムは、表示画像に対して想定された仮想3次元空間上の表示位置であり、ポインタを表示させる表示位置を特定する画像処理装置の画像処理方法またはプログラムであって、前記表示画像が表示されている領域を撮像して得られる位置指示光画像であって、前記仮想3次元空間上の前記ポインタを表示させる表示位置を指示するための位置指示光と同じ波長の光の画像である位置指示光画像から、前記表示画像上における、前記表示画像に照射された前記位置指示光の像の位置および形状を検出する位置指示光検出ステップと、前記表示画像が表示されている前記領域を撮像して得られる方向指示光画像であって、前記位置指示光の光路と平行な方向への前記ポインタの移動を指示する方向指示光と同じ波長であり、前記位置指示光とは異なる波長の光の画像である方向指示光画像から、前記表示画像に照射された前記方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記方向への移動が指示されたか否かを示す方向情報を出力する方向指示光検出ステップと、前記位置指示光の像の位置および形状と、出力された前記方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定ステップとを含む。 An image processing method or program according to a second aspect of the present invention is an image processing method for an image processing apparatus that specifies a display position on a virtual three-dimensional space assumed for a display image and displays a pointer. Or a position indication light image obtained by imaging a region where the display image is displayed, the program being a position indication for indicating a display position for displaying the pointer in the virtual three-dimensional space A position indicating light detecting step for detecting a position and shape of an image of the position indicating light irradiated on the display image on the display image from a position indicating light image which is an image of light having the same wavelength as the light; A direction indicating light image obtained by imaging the area where a display image is displayed, the direction indicating the movement of the pointer in a direction parallel to the optical path of the position indicating light Based on the detection result, an image of the direction indicating light irradiated on the display image is detected from a direction indicating light image that is an image of light having the same wavelength as the indicating light and a wavelength different from that of the position indicating light. A direction indicating light detecting step for outputting direction information indicating whether or not movement of the pointer in the direction is instructed, a position and shape of an image of the position indicating light, and the output direction information. And a position specifying step for specifying the display position of the pointer in the virtual three-dimensional space.
本発明の第2の側面においては、表示画像が表示されている領域を撮像して得られる位置指示光画像であって、仮想3次元空間上のポインタを表示させる表示位置を指示するための位置指示光と同じ波長の光の画像である位置指示光画像から、前記表示画像上における、前記表示画像に照射された前記位置指示光の像の位置および形状が検出され、前記表示画像が表示されている前記領域を撮像して得られる方向指示光画像であって、前記位置指示光の光路と平行な方向への前記ポインタの移動を指示する方向指示光と同じ波長であり、前記位置指示光とは異なる波長の光の画像である方向指示光画像から、前記表示画像に照射された前記方向指示光の像が検出され、その検出結果に基づいて、前記ポインタの前記方向への移動が指示されたか否かを示す方向情報が出力され、前記位置指示光の像の位置および形状と、出力された前記方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置が特定される。 In the second aspect of the present invention, a position indicating light image obtained by imaging a region where a display image is displayed, the position for indicating a display position for displaying a pointer in a virtual three-dimensional space From the position indication light image that is an image of light having the same wavelength as the indication light, the position and shape of the image of the position indication light irradiated on the display image on the display image are detected, and the display image is displayed. A direction-indicating light image obtained by imaging the region, and having the same wavelength as the direction-indicating light instructing movement of the pointer in a direction parallel to the optical path of the position-indicating light, An image of the direction indicating light irradiated on the display image is detected from a direction indicating light image that is an image of light having a wavelength different from that of the pointer, and based on the detection result, the movement of the pointer in the direction is instructed. Was Direction information indicating whether the output, the position and shape of the image of the position indicator light, on the basis of said direction information output, display position of the pointer in the virtual three-dimensional space is specified.
本発明の第1の側面によれば、仮想3次元空間上の位置を指定することができる。特に、本発明の第1の側面によれば、表示させる画像の大きさや周囲の環境によらず、低コストで、より確実に仮想3次元空間上の位置を指定することができる。 According to the first aspect of the present invention, a position in a virtual three-dimensional space can be designated. In particular, according to the first aspect of the present invention, the position in the virtual three-dimensional space can be more reliably specified at low cost regardless of the size of the image to be displayed and the surrounding environment.
本発明の第2の側面によれば、仮想3次元空間上の位置を指定することができる。特に、本発明の第2の側面によれば、表示させる画像の大きさや周囲の環境によらず、低コストで、より確実に仮想3次元空間上の位置を指定することができる。 According to the second aspect of the present invention, a position in a virtual three-dimensional space can be designated. In particular, according to the second aspect of the present invention, the position in the virtual three-dimensional space can be more reliably specified at low cost regardless of the size of the image to be displayed and the surrounding environment.
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. Not something to do.
本発明の第1の側面の画像処理システム(例えば、図1のプレゼンテーションシステム11)は、表示画像を表示する表示装置(例えば、図1のプロジェクタ25)と、前記表示画像に光を照射して、前記表示画像上に表示されるポインタ(例えば、図1の3次元ポインタ31)の位置を指示する指示装置(例えば、図1のレーザポインタ22)と、前記表示画像が表示されている領域を撮像する撮像装置(例えば、図1のカメラ23)と、前記撮像装置による撮像により得られた撮像画像に基づいて、新たに表示画像を生成する画像処理装置(例えば、図1の画像処理装置24)とから構成される画像処理システムであって、前記指示装置は、前記表示装置により表示されている前記表示画像に対して想定された仮想3次元空間上の表示位置であって、前記ポインタを表示させる表示位置を指示するための光である位置指示光を射出する位置指示光射出手段(例えば、図3の不可視光レーザ81)と、前記位置指示光とは異なる波長の光であり、前記位置指示光の光路と平行な方向への前記ポインタの移動を指示する方向指示光を射出する方向指示光射出手段(例えば、図3の不可視光レーザ83または不可視光レーザ84)とを備え、前記撮像装置は、前記表示画像に照射された前記位置指示光の像、および前記方向指示光の像を前記撮像画像として撮像し、前記画像処理装置は、前記撮像画像から、前記位置指示光と同じ波長の光の画像である位置指示光画像と、前記方向指示光と同じ波長の光の画像である方向指示光画像とを分離する分離手段(例えば、図10の幾何変換処理部222)と、前記位置指示光画像から、前記表示画像上における前記位置指示光の像の位置および形状を検出する位置指示光検出手段(例えば、図10の位置指示光検出部223)と、前記方向指示光画像から前記方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記方向への移動が指示されたか否かを示す方向情報を出力する方向指示光検出手段(例えば、図10の前進指示光検出部224または後進指示光検出部225)と、前記位置指示光の像の位置および形状と、出力された前記方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定手段(例えば、図10の座標計算部226)と、前記位置特定手段により特定された前記ポインタの表示位置に対応する前記表示画像上の位置に前記ポインタが表示された新たな表示画像を生成する表示画像生成手段(例えば、図10の表示画像処理部228)とを備え、前記表示装置は、これまで表示していた前記表示画像の表示を、生成された前記新たな表示画像に切り替える。
An image processing system according to the first aspect of the present invention (for example, the presentation system 11 in FIG. 1) includes a display device (for example, the
本発明の第2の側面の画像処理装置(例えば、図10の画像処理装置24)は、表示画像に対して想定された仮想3次元空間上の表示位置であり、ポインタ(例えば、図1の3次元ポインタ31)を表示させる表示位置を特定する画像処理装置であって、前記表示画像が表示されている領域を撮像して得られる位置指示光画像であって、前記仮想3次元空間上の前記ポインタを表示させる表示位置を指示するための位置指示光と同じ波長の光の画像である位置指示光画像から、前記表示画像上における、前記表示画像に照射された前記位置指示光の像の位置および形状を検出する位置指示光検出手段(例えば、図10の位置指示光検出部223)と、前記表示画像が表示されている前記領域を撮像して得られる第1の方向指示光画像であって、前記位置指示光の光路と平行な第1の方向への前記ポインタの移動を指示する第1の方向指示光と同じ波長であり、前記位置指示光とは異なる波長の光の画像である第1の方向指示光画像から、前記表示画像に照射された前記第1の方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記第1の方向への移動が指示されたか否かを示す第1の方向情報を出力する第1の方向指示光検出手段(例えば、図10の前進指示光検出部224)と、前記位置指示光の像の位置および形状と、出力された前記第1の方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定手段(例えば、図10の座標計算部226)とを備える。
The image processing apparatus according to the second aspect of the present invention (for example, the image processing apparatus 24 in FIG. 10) is a display position in a virtual three-dimensional space assumed for a display image, and a pointer (for example, in FIG. 1). An image processing apparatus for specifying a display position for displaying a three-dimensional pointer 31), which is a position indicating light image obtained by capturing an image of a region where the display image is displayed, in the virtual three-dimensional space From the position indicating light image, which is an image of light having the same wavelength as the position indicating light for indicating the display position for displaying the pointer, the image of the position indicating light irradiated on the display image on the display image Position indication light detection means (for example, position indication light detection unit 223 in FIG. 10) for detecting the position and shape, and a first direction indication light image obtained by imaging the area where the display image is displayed There A first image that has the same wavelength as the first direction indicating light instructing movement of the pointer in a first direction parallel to the optical path of the position indicating light, and is a light having a wavelength different from that of the position indicating light. Whether or not the first direction indicating light image irradiated on the display image is detected from the direction indicating light image and whether or not the pointer is instructed to move in the first direction based on the detection result. First direction indicating light detecting means (for example, a forward indicating light detecting
画像処理装置には、前記位置特定手段により特定された前記ポインタの表示位置に対応する前記表示画像上の位置に前記ポインタが表示された新たな表示画像を生成する表示画像生成手段(例えば、図10の表示画像処理部228)をさらに設けることができる。 In the image processing apparatus, a display image generating unit (for example, a diagram) that generates a new display image in which the pointer is displayed at a position on the display image corresponding to the display position of the pointer specified by the position specifying unit. Ten display image processing units 228) may be further provided.
前記位置特定手段には、前記位置指示光の像の位置に対応する前記仮想3次元空間上の位置から、前記ポインタの表示位置までの長さを定める奥行き長さを記憶させ、前記第1の方向情報に基づいて前記奥行き長さを変更させ、さらに変更後の前記奥行き長さと、前記位置指示光の像の位置および形状とに基づいて、前記ポインタの表示位置を特定させる(例えば、図29のステップS164乃至ステップS168の処理)ことができる。 The position specifying means stores a depth length that determines a length from a position in the virtual three-dimensional space corresponding to a position of the image of the position indicating light to a display position of the pointer, and The depth length is changed based on the direction information, and the display position of the pointer is specified based on the changed depth length and the position and shape of the image of the position indicating light (for example, FIG. 29). Step S164 to step S168).
画像処理装置には、前記表示画像が表示されている前記領域を撮像して得られる第2の方向指示光画像であって、前記第1の方向とは反対の第2の方向への前記ポインタの移動を指示する第2の方向指示光と同じ波長であり、前記位置指示光および前記第1の方向指示光とは異なる波長の光の画像である第2の方向指示光画像から、前記表示画像に照射された前記第2の方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記第2の方向への移動が指示されたか否かを示す第2の方向情報を出力する第2の方向指示光検出手段(例えば、図10の後進指示光検出部225)をさらに設け、前記位置特定手段には、前記第1の方向情報および前記第2の方向情報に基づいて、前記奥行き長さを変更させる(例えば、図29のステップS165またはステップS167の処理)ことができる。
The image processing apparatus includes a second direction indicating light image obtained by imaging the area where the display image is displayed, the pointer pointing in a second direction opposite to the first direction. From the second direction indicating light image which is the same wavelength as the second direction indicating light instructing the movement of the first direction indicating light and is an image of light having a wavelength different from that of the position indicating light and the first direction indicating light. The second direction information indicating whether or not the movement of the pointer in the second direction is instructed based on the detection result is detected on the image of the second direction indicating light irradiated on the image. Second direction indication light detection means (for example, reverse indication
画像処理装置には、前記表示画像、前記表示画像に照射された前記位置指示光の像、および前記表示画像に照射された前記第1の方向指示光の像を前記撮像画像として撮像する撮像手段(例えば、図1のカメラ23)と、前記撮像画像から、前記位置指示光画像と、前記第1の方向指示光画像とを分離する分離手段(例えば、図10の幾何変換処理部222)とをさらに設けることができる。
In the image processing apparatus, an imaging unit that captures the display image, the image of the position indicating light irradiated on the display image, and the image of the first direction indicating light irradiated on the display image as the captured image. (For example, the
本発明の第2の側面の画像処理方法またはプログラムは、表示画像に対して想定された仮想3次元空間上の表示位置であり、ポインタを表示させる表示位置を特定する画像処理装置の画像処理方法またはプログラムであって、前記表示画像が表示されている領域を撮像して得られる位置指示光画像であって、前記仮想3次元空間上の前記ポインタを表示させる表示位置を指示するための位置指示光と同じ波長の光の画像である位置指示光画像から、前記表示画像上における、前記表示画像に照射された前記位置指示光の像の位置および形状を検出する位置指示光検出ステップ(例えば、図12のステップS43)と、前記表示画像が表示されている前記領域を撮像して得られる方向指示光画像であって、前記位置指示光の光路と平行な方向への前記ポインタの移動を指示する方向指示光と同じ波長であり、前記位置指示光とは異なる波長の光の画像である方向指示光画像から、前記表示画像に照射された前記方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記方向への移動が指示されたか否かを示す第1の方向情報を出力する方向指示光検出ステップ(例えば、図12のステップS44またはステップS45)と、前記位置指示光の像の位置および形状と、出力された前記方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定ステップ(例えば、図12のステップS46)とを含む。 An image processing method or program according to a second aspect of the present invention is an image processing method for an image processing apparatus that specifies a display position on a virtual three-dimensional space assumed for a display image and displays a pointer. Or a position indication light image obtained by imaging a region where the display image is displayed, the program being a position indication for indicating a display position for displaying the pointer in the virtual three-dimensional space A position indicating light detection step for detecting the position and shape of the image of the position indicating light irradiated on the display image on the display image from the position indicating light image that is an image of light having the same wavelength as the light (for example, Step S43 in FIG. 12 and a direction indicating light image obtained by imaging the area where the display image is displayed, in a direction parallel to the optical path of the position indicating light An image of the direction indication light irradiated on the display image from a direction indication light image that is the same wavelength as the direction indication light instructing movement of the pointer and having a wavelength different from that of the position indication light. A direction indicating light detecting step (eg, step S44 or step S45 in FIG. 12) that detects and outputs first direction information indicating whether or not movement of the pointer in the direction is instructed based on the detection result. ), The position and shape of the image of the position indicating light, and the output direction information, a position specifying step for specifying the display position of the pointer in the virtual three-dimensional space (for example, FIG. Step S46).
以下、図面を参照して、本発明を適用した実施の形態について説明する。 Embodiments to which the present invention is applied will be described below with reference to the drawings.
図1は、本発明を適用したプレゼンテーションシステムの一実施の形態の構成例を示す図である。 FIG. 1 is a diagram showing a configuration example of an embodiment of a presentation system to which the present invention is applied.
プレゼンテーションシステム11は、スクリーン21、レーザポインタ22、カメラ23、画像処理装置24、およびプロジェクタ25から構成され、スクリーン21には、プロジェクタ25から投影された表示画像が表示される。
The presentation system 11 includes a
この表示画像は、表示されるオブジェクト等の仮想3次元空間上の情報に基づいて、それらのオブジェクト等を2次元の平面上に射影することにより生成された、3次元コンピュータグラフィクスとされる。表示画像上には仮想3次元空間が想定され、表示画像には、その仮想3次元空間上の所定の位置を示す3次元ポインタ31が表示されている。
This display image is three-dimensional computer graphics generated by projecting these objects on a two-dimensional plane based on information in a virtual three-dimensional space such as displayed objects. A virtual three-dimensional space is assumed on the display image, and a three-
プレゼンテーションを行うユーザ32は、スクリーン21から適度に離れた位置でレーザポインタ22を操作して、表示画像上に表示された3次元ポインタ31を移動させてプレゼンテーションを行う。レーザポインタ22は、ユーザ32の操作に応じて赤外光などの不可視光(非可視光)を射出することにより、3次元ポインタ31の位置を指定する。
A
カメラ23は、マルチスペクトルカメラからなり、カメラ23とスクリーン21との間にユーザ32が位置しないようにカメラ23の配置位置が定められる。つまり、カメラ23は、スクリーン21上に表示されている表示画像の全体を撮像することができるような位置に配置される。
The
カメラ23は、スクリーン21と、その周囲の領域の画像を撮像し、これにより得られた撮像画像を画像処理装置24に供給する。したがって、カメラ23により撮像された撮像画像には、スクリーン21に投影された表示画像の他、スクリーン21上に映るレーザポインタ22から射出された不可視光の像も含まれることになる。
The
このようにカメラ23が、表示画像の全体を含む画像を撮像画像として撮像するので、カメラ23がスクリーン21に対向する位置に配置されなくても、表示画像に照射された不可視光の像の表示画像上の位置を把握することができる。これにより、ユーザ32により指示された3次元ポインタ31の表示位置を確実に特定することができる。
Thus, since the
画像処理装置24は、カメラ23から供給された撮像画像に基づいて、ユーザ32がレーザポインタ22を操作することにより指定された、仮想3次元空間上の位置を求める。また、画像処理装置24は、説明資料としての3次元コンピュータグラフィクスである3次元画像を予め記録しており、記録している3次元画像に対して想定された仮想3次元空間上の求められた位置に、3次元ポインタ31が表示された画像を新たな表示画像として生成する。
The image processing device 24 obtains the position in the virtual three-dimensional space designated by the
すなわち、3次元画像に対して想定された仮想3次元空間は、表示画像に対して想定された仮想3次元空間に対応しており、表示画像は、3次元画像の所定の位置に3次元ポインタ31が表示されている画像とされる。画像処理装置24は、生成した表示画像をプロジェクタ25に供給して、表示画像の表示を制御する。
That is, the virtual three-dimensional space assumed for the three-dimensional image corresponds to the virtual three-dimensional space assumed for the display image, and the display image has a three-dimensional pointer at a predetermined position of the three-dimensional image. 31 is the displayed image. The image processing device 24 supplies the generated display image to the
プロジェクタ25は、画像処理装置24から供給された表示画像に基づいて、表示画像を表示させるための光をスクリーン21に投光し、スクリーン21に表示画像を表示させる。したがって、画像処理装置24により新たな表示画像が生成されるたびに、スクリーン21に表示される表示画像が更新される。
Based on the display image supplied from the image processing device 24, the
また、ユーザ32により操作されるレーザポインタ22は、例えば図2に示すように、ペン型のレーザポインタとされる。レーザポインタ22の図中、左側には、3つのボタンから構成されるボタン部51が設けられており、ユーザ32は、ボタン部51を操作することにより、レーザポインタ22の左端に設けられた射出口52から、操作に応じた不可視光を射出させる。
Further, the
すなわち、レーザポインタ22には、3次元ポインタ31の表示位置を指示するための不可視光として、赤外光を射出する複数の不可視光レーザが内蔵されており、矢印A11の方向から見たレーザポインタ22の断面には、図3に示すように、複数の不可視光レーザが配置されている。
That is, the
図3では、レーザポインタ22の断面は円形状とされており、レーザポインタ22のほぼ中央に断面が真円形状となるレーザ光(赤外光)を射出する不可視光レーザ81が配置されている。不可視光レーザ81からは、仮想3次元空間上における3次元ポインタ31の位置、すなわち表示画像上における3次元ポインタ31の表示位置を指定するためのレーザ光である位置指示光が射出される。
In FIG. 3, the
不可視光レーザ81の図中、上側には、位置指示光と同じ波長のレーザ光である補助光を射出する不可視光レーザ82が設けられている。この補助光は、位置指示光が表示画像に照射されたときに、どの方向から位置指示光が照射されているかを識別することができるようにするためのレーザ光であり、その断面は真円形状とされる。
In the drawing of the
また、補助光は、そのビーム径が位置指示光のビーム径よりも小さい光とされる。このように位置指示光と補助光のビーム径を異なるものとすることにより、スクリーン21上の位置指示光の像の大きさと、補助光の像の大きさとは異なるものとなり、それらの像が位置指示光の像であるのか、または補助光の像であるのかを区別することができる。
The auxiliary light is light whose beam diameter is smaller than that of the position indicating light. Thus, by making the beam diameters of the position indicating light and the auxiliary light different from each other, the size of the image of the position indicating light on the
例えば図4に示すように、スクリーン21上に位置指示光および補助光が照射され、スクリーン21に位置指示光の像111および補助光の像112が観察されたとする。この場合、画像処理装置24は、撮像画像上の位置指示光の像111だけでは、位置指示光が矢印A31により示される方向からスクリーン21に照射されたのか、または矢印A32により示される方向からスクリーン21に照射されたのかを知ることはできない。
For example, as shown in FIG. 4, it is assumed that the position indicating light and the auxiliary light are irradiated on the
そこで、補助光よりも位置指示光が常に鉛直方向側に位置するように、ユーザ32がレーザポインタ22を操作することによって、つまりボタン部51が常に、鉛直方向と反対の方向を向くように、ユーザ32がレーザポインタ22を操作することにより、どの方向から位置指示光が照射されているかを知ることができるようになる。
Therefore, when the
図4において図中、下方向を鉛直方向とすると、ユーザ32は、ボタン部51を常に上側に向けながらレーザポインタ22の操作を行うので、補助光の像112は、常に位置指示光の像111の上側に位置することになり、これらの像111および像112の位置関係から、矢印A31の方向から位置指示光が照射されていることが分かる。
In FIG. 4, when the downward direction is the vertical direction in FIG. 4, the
図3の説明に戻り、不可視光レーザ81の図中、左側には、3次元ポインタ31を表示させる仮想3次元空間上の位置を、ユーザ32に対して手前側に移動させるためのレーザ光である後進指示光を射出する不可視光レーザ83が設けられている。後進指示光は、位置指示光とは異なる波長の不可視光であり、3次元ポインタ31の位置をユーザ32側に位置指示光の光路と平行に移動させるように指示するための光とされる。
Returning to the description of FIG. 3, the left side of the
また、不可視光レーザ81の図中、右側には、3次元ポインタ31を表示させる仮想3次元空間上の位置を、ユーザ32に対して奥側に移動させるためのレーザ光である前進指示光を射出する不可視光レーザ84が設けられている。前進指示光は、位置指示光および後進指示光とは異なる波長の不可視光であり、3次元ポインタ31の位置をユーザ32側とは反対側に位置指示光の光路と平行に移動させるように指示するための光とされる。
Further, on the right side of the
すなわち、図5に示すように、スクリーン21の所定の領域に表示画像141が表示されることとすると、表示画像141に対して想定される仮想3次元空間は、表示画像141の図中、左下の頂点を基準点O(原点)とする3次元空間座標系の空間とされる。図5においては、基準点Oから図中、右方向がx軸方向、上方向がy軸方向、表示画像141に直交し、奥側に向かう方向がz軸方向とされている。したがって、この仮想3次元空間をz軸方向に見た画像が表示画像141として表示されることになる。
That is, as shown in FIG. 5, when the
また、直線142は、レーザポインタ22から射出された位置指示光の軌跡、つまり位置指示光の光路を示しており、表示画像141上の領域143および領域144は、位置指示光および補助光の像を表している。なお、以下、領域143および領域144を、位置指示光の像143および補助光の像144と称する。
A
図5では、位置指示光の像143および補助光の像144は、表示画像141上に位置し、表示画像141はxy平面上に位置している。また、3次元ポインタ31は、直線142の延長線上にある仮想3次元空間上の物体145の所定の位置を示している。この物体145は、実際には表示画像141上に表示されているが、仮想3次元空間内では、xy平面よりもz軸方向側に位置している。
In FIG. 5, the position indicating
ここで、画像処理装置24は、位置指示光の像143から、3次元ポインタ31により示される位置までの距離を示すパラメータである奥行き長さEを記憶しており、ユーザ32の操作に応じて奥行き長さEの値を変化させることで、3次元ポインタ31が直線142と平行な方向に移動された表示画像を新たに生成する。
Here, the image processing device 24 stores a depth length E that is a parameter indicating a distance from the
例えば、ユーザ32が、レーザポインタ22を動かさずに、つまりレーザポインタ22の位置および方向を変えずに、位置指示光とともに後進指示光が射出されるようにレーザポインタ22を操作した場合、奥行き長さEの値が所定の大きさだけ小さくなるように変更され、3次元ポインタ31(により示される位置)は、図中、手前側に、かつ直線142と平行な方向に移動する。つまり、移動後の3次元ポインタ31の位置は、直線142の延長線上の点であって、その点から位置指示光の像143までの長さが、変更後の奥行き長さEにより示される長さとなるような点の位置とされる。
For example, when the
また、ユーザ32がレーザポインタ22を動かさずに、位置指示光とともに前進指示光が射出されるようにレーザポインタ22を操作した場合、奥行き長さEの値が所定の大きさだけ大きくなるように変更され、3次元ポインタ31(により示される位置)は、図中、奥側に、かつ直線142と平行な方向に移動する。
Further, when the
したがって、例えば、図6に示すように、位置指示光が表示画像上の基準点Oの位置に照射され、3次元ポインタ31により示される位置が仮想3次元空間上の点P11の位置である場合、ユーザ32は、レーザポインタ22を、その位置および方向を動かさずに操作することで、3次元ポインタ31の位置を、基準点Oおよび点P11を通る直線上の任意の位置に移動させることができる。例えば、ユーザ32は、後進指示光を射出させて3次元ポインタ31の位置を点P11から、基準点Oおよび点P11を通る直線上の点P12の位置に移動させたり、前進指示光を射出させて点P13の位置に移動させたりすることができる。
Therefore, for example, as shown in FIG. 6, when the position indicating light is irradiated to the position of the reference point O on the display image, the position indicated by the three-
なお、図6において、図中、右方向はx軸方向、上方向はy軸方向、x軸方向およびy軸方向に直交し、奥側に向かう方向はz軸方向とされている。また、以下の説明において、3次元ポインタ31を奥行き長さEが小さくなる方向に移動させることを、手前方向に移動させるともいい、逆に3次元ポインタ31を奥行き長さEが大きくなる方向に移動させることを、奥行き方向に移動させるともいう。さらに、奥行き長さEの値は、0以上の整数値とされる。すなわち、3次元ポインタ31は、仮想3次元空間において、z座標が負の値となるような位置には表示されない。
In FIG. 6, the right direction is the x-axis direction, the upper direction is the y-axis direction, the x-axis direction and the y-axis direction are orthogonal, and the direction toward the back is the z-axis direction. Further, in the following description, moving the three-
このように、ユーザ32はレーザポインタ22に設けられたボタン部51を操作することにより、レーザポインタ22から不可視光を射出させて3次元ポインタ31の表示位置を指示する。
In this way, the
例えば、奥行き長さEの値が変化せず、3次元ポインタ31が移動されるように、ユーザ32がレーザポインタ22を操作した場合、図7Aに示すように、不可視光レーザ81および不可視光レーザ82から位置指示光および補助光が射出され、不可視光レーザ83および不可視光レーザ84からは、後進指示光および前進指示光は射出されない。換言すれば、不可視光レーザ81および不可視光レーザ82だけが点灯し、不可視光レーザ83および不可視光レーザ84は点灯しない。
For example, when the
なお、図7Aにおいて、不可視光レーザ81乃至不可視光レーザ84のうち、斜線が施されているものは、点灯していることを表しており、斜線の施されていないものは、点灯していないことを表している。また、後述する図7Bおよび図7Cにおいても同様に、点灯している不可視光レーザには斜線が施されている。
In FIG. 7A, among the
また、3次元ポインタ31が奥行き方向に移動するように、ユーザ32がレーザポインタ22を操作した場合、図7Bに示すように、不可視光レーザ81、不可視光レーザ82、および不可視光レーザ84が点灯し、不可視光レーザ83は点灯しない。すなわち、レーザポインタ22からは、位置指示光、補助光、および前進指示光が射出される。
When the
さらに、3次元ポインタ31が手前方向に移動するように、ユーザ32がレーザポインタ22を操作した場合、図7Cに示すように、不可視光レーザ81、不可視光レーザ82、および不可視光レーザ83が点灯し、不可視光レーザ84は点灯しない。すなわち、レーザポインタ22からは、位置指示光、補助光、および後進指示光が射出される。
Further, when the
このように、レーザポインタ22からは、ユーザ32による操作に応じて、3次元ポインタ31の表示位置を指示するための赤外光が射出される。プレゼンテーションシステム11においては、レーザポインタ22から射出される位置指示光、補助光、前進指示光、および後進指示光を赤外光とすることで、レーザポインタとして可視光レーザを用いる場合と比べて安全性の向上を図ることができる。
As described above, infrared light for instructing the display position of the three-
つまり、可視のレーザ光が人の目に入射した場合、その人に不快感を与えるだけでなく、人の目に障害を及ぼす恐れもある。これに対して、レーザポインタ22では、可視光よりも波長の長い赤外光を利用することで、人の目に対する安全性を向上させることができ、また、赤外光は不可視光なので人の目に入射しても不快感を与えることもない。さらに、表示画像に照射された位置指示光や前進指示光などは人の目には見えないので、余計な可視光が表示画像に照射されて、表示画像が見にくくなるようなこともない。
That is, when visible laser light is incident on a human eye, it not only causes discomfort to the person but also may cause damage to the human eye. On the other hand, the
次に、図8は、図1のカメラ23の構成例を示すブロック図である。
Next, FIG. 8 is a block diagram illustrating a configuration example of the
カメラ23は、レンズ181、絞り182、CCD(Charge Coupled Devices)イメージセンサ183、相関2重サンプリング回路184、A/D(Analog/Digital)コンバータ185、DSP(Digital Signal Processor)186、タイミングジェネレータ187、D/A(Digital/Analog)コンバータ188、ビデオエンコーダ189、ディスプレイ190、CODEC(Compression/Decompression)191、メモリ192、バス193、CPU(Central Processing Unit)194、およびインプットデバイス195から構成される。
The
レンズ181は、被写体であるスクリーン21とその周囲の領域からの光を集光し、集光した光を絞り182を介してCCDイメージセンサ183に入射させる。絞り182は、レンズ181からCCDイメージセンサ183に入射させる光の光量を調節する。
The lens 181 collects light from the
CCDイメージセンサ183は、レンズ181から入射した光を光電変換することにより、入射した光を電気信号に変換し、スクリーン21とその周囲の領域の画像である撮像画像を生成する。ここで、撮像画像の各画素は、例えば光の3原色であるR(赤)、G(緑)、若しくはB(青)、位置指示光の波長の色、前進指示光の波長の色、または後進指示光の波長の色のいずれかの色のデータ(画素値)だけを有している。CCDイメージセンサ183は、生成した撮像画像を相関2重サンプリング回路184に供給する。
The
相関2重サンプリング回路184は、CCDイメージセンサ183からの撮像画像をサンプリングすることによって撮像画像からノイズを除去し、ノイズが除去された撮像画像をA/Dコンバータ185に供給する。A/Dコンバータ185は、相関2重サンプリング回路184からの撮像画像、より詳細には撮像画像の画像信号をアナログ信号からデジタル信号に変換してDSP186に供給する。
The correlated
DSP186は、例えば信号処理用プロセッサおよび画像用RAM(Random Access Memory)から構成される。DSP186は、A/Dコンバータ185から供給され、画像用RAMに格納した撮像画像に対して、必要に応じて階調圧縮処理などの予めプログラムされた画像処理を施す。
The
また、DSP186は、必要に応じて、撮像画像の各画素が、R(赤)、G(緑)、B(青)、位置指示光の波長の色、前進指示光の波長の色、および後進指示光の波長の色のそれぞれの色のデータを有するように、A/Dコンバータ185からの撮像画像に対して色同時化処理を施す。画像処理の施された撮像画像は、バス193を介して図1の画像処理装置24に供給されたり、D/Aコンバータ188またはCODEC191に供給されたりする。
Further, the
また、バス193には、DSP186、タイミングジェネレータ187、CODEC191、メモリ192、CPU194、およびインプットデバイス195が接続されている。
Further, a
タイミングジェネレータ187は、CCDイメージセンサ183乃至DSP186のそれぞれの動作のタイミングを制御する。D/Aコンバータ188は、DSP186から供給された撮像画像をデジタル信号からアナログ信号に変換し、ビデオエンコーダ189に供給する。ビデオエンコーダ189は、D/Aコンバータ188からの撮像画像を、R、G、B等の通常のビデオ信号に変換してディスプレイ190に供給する。ディスプレイ190は、例えばファインダやビデオモニタとして機能するLCD(Liquid Crystal Display)などからなり、ビデオエンコーダ189から供給された撮像画像を表示する。
The
CODEC191は、DSP186からの撮像画像をエンコードしてメモリ192に記録させたり、メモリ192に記録されている撮像画像を読み出してデコードし、DSP186に供給したりする。メモリ192は、例えば磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどからなり、CODEC191から供給された撮像画像を記録したり、記録している撮像画像をCODEC191に供給したりする。
The
CPU194は、インプットデバイス195からの操作信号などに応じて、カメラ23全体の動作を制御する。インプットデバイス195は、例えばボタンやスイッチなどからなり、ユーザ32の操作に応じた操作信号をCPU194に供給する。
The
また、CCDイメージセンサ183は、画素ごとに異なる分光感度を有している。すなわち、CCDイメージセンサ183の受光面には、画素ごとにR(赤)、G(緑)、B(青)、位置指示光の波長の色、前進指示光の波長の色、または後進指示光の波長の色のうちのいずれかの色の光だけを透過させるオンチップカラーフィルタが配置されており、CCDイメージセンサ183に入射した光はオンチップカラーフィルタを透過して、光電変換を行う撮像素子に入射する。
The
例えば、CCDイメージセンサ183の受光面には、図9に示すオンチップカラーフィルタが配置されている。なお、図9において、1つの正方形は1つの画素を表しており、それらの正方形内の文字R、G、B、L1、L2、およびL3のそれぞれは、R(赤)、G(緑)、B(青)、位置指示光の波長の色、前進指示光の波長の色、および後進指示光の波長の色の光のそれぞれだけを透過させるRのフィルタ、Gのフィルタ、Bのフィルタ、位置指示光の波長のフィルタ、前進指示光の波長のフィルタ、および後進指示光の波長のフィルタのそれぞれを表している。
For example, an on-chip color filter shown in FIG. 9 is arranged on the light receiving surface of the
図9では、各フィルタのそれぞれがモザイク状に配置されている。すなわち、Gのフィルタおよび位置指示光の波長のフィルタが、1画素おきに図中、上下方向および左右方向に並べられており、Rのフィルタ、Bのフィルタ、前進指示光の波長のフィルタ、および後進指示光の波長のフィルタのそれぞれが、3画素おきに上下方向および左右方向に並べられている。 In FIG. 9, each of the filters is arranged in a mosaic pattern. That is, the G filter and the wavelength indicating light wavelength filter are arranged in the vertical and horizontal directions in the figure every other pixel, and the R filter, the B filter, the forward indicating light wavelength filter, and Each of the filters of the wavelength of the reverse instruction light is arranged in the vertical direction and the horizontal direction every three pixels.
図10は、図1の画像処理装置24の構成を示すブロック図である。 FIG. 10 is a block diagram showing a configuration of the image processing device 24 of FIG.
画像処理装置24は、色同時化処理部221、幾何変換処理部222、位置指示光検出部223、前進指示光検出部224、後進指示光検出部225、座標計算部226、3次元画像記録部227、および表示画像処理部228から構成される。
The image processing device 24 includes a color synchronization processing unit 221, a geometric
色同時化処理部221には、カメラ23のDSP186からバス193を介して撮像画像、より詳細には撮像画像の画像信号が供給される。ここで、色同時化処理部221に供給される撮像画像は、各画素がR(赤)、G(緑)、B(青)、位置指示光の波長の色、前進指示光の波長の色、または後進指示光の波長の色のいずれかの色の画素値だけを有する画像とされる。
The color synchronization processing unit 221 is supplied with a captured image, more specifically, an image signal of the captured image, from the
色同時化処理部221は、カメラ23から供給された撮像画像に対して、各色の画素値を補間する色同時化処理を施して、色同時化処理が施された撮像画像を幾何変換処理部222に供給する。これにより、色同時化処理の施された撮像画像は、各画素がR(赤)、G(緑)、B(青)、位置指示光の波長の色、前進指示光の波長の色、および後進指示光の波長の色のそれぞれの色の画素値を有する画像となる。
The color synchronization processing unit 221 performs a color synchronization process for interpolating the pixel values of each color on the captured image supplied from the
幾何変換処理部222は、色同時化処理部221から供給された撮像画像に幾何変換処理を施し、幾何変換処理が施された撮像画像から、撮像画像上の表示画像の領域の画像である抽出画像を抽出する。ここで、本来、スクリーン21に表示される表示画像は長方形であるが、カメラ23は必ずしもスクリーン21に対向する位置に配置される訳ではないので、撮像画像上の表示画像の領域は長方形とはならない場合がある。そこで、幾何変換処理部222は、撮像画像に幾何変換処理を施すことにより、撮像画像上の表示画像の領域を長方形の領域に変換する。
The geometric
また、幾何変換処理部222は、抽出画像を位置指示光画像、前進指示光画像、および後進指示光画像のそれぞれに分離し、分離された位置指示光画像、前進指示光画像、および後進指示光画像のそれぞれを、位置指示光検出部223、前進指示光検出部224、および後進指示光検出部225のそれぞれに供給する。
Further, the geometric
ここで、位置指示光画像とは、位置指示光と同じ波長の光の画像、つまり各画素が位置指示光の波長の色の画素値をだけ有する画像をいい、前進指示光画像とは、前進指示光と同じ波長の光の画像、つまり各画素が前進指示光の波長の色の画素値だけを有する画像をいう。また、後進指示光画像とは、後進指示光と同じ波長の光の画像、つまり各画素が後進指示光の波長の色の画素値だけを有する画像をいう。 Here, the position indicating light image refers to an image of light having the same wavelength as that of the position indicating light, that is, an image in which each pixel has only a pixel value of the color of the wavelength of the position indicating light. An image of light having the same wavelength as that of the indicator light, that is, an image in which each pixel has only a pixel value of the color of the wavelength of the forward indicator light. The reverse instruction light image is an image of light having the same wavelength as the reverse instruction light, that is, an image in which each pixel has only a pixel value of a color of the reverse instruction light.
位置指示光検出部223は、幾何変換処理部222から供給された位置指示光画像から、位置指示光の像を検出し、その像を構成する画素数K、位置指示光の像の重心の座標(xi,yi)、位置指示光の像の輪郭とその輪郭の長軸との交点の座標(xf,yf)、および位置指示光の像の輪郭とその輪郭の短軸との交点の座標(xn,yn)を求める。
The position indicating light detecting unit 223 detects an image of the position indicating light from the position indicating light image supplied from the geometric
すなわち、位置指示光の断面は真円形であるので、スクリーン21上の位置指示光の像の輪郭の形状は真円または楕円となる。したがって座標(xf,yf)は、輪郭としての円の長軸と、その円との交点の座標とされ、座標(xn,yn)は、長軸に直交する直線と、その円との交点の座標とされる。以下、座標(xi,yi)、座標(xf,yf)、および座標(xn,yn)のそれぞれを、重心座標、長軸交点座標、および短軸交点座標とも称する。
That is, since the cross section of the position indicating light is a perfect circle, the shape of the contour of the image of the position indicating light on the
位置指示光検出部223は、このようにして求められた画素数Kおよび重心座標(xi,yi)を、前進指示光検出部224および後進指示光検出部225に供給する。また、位置指示光検出部223は、重心座標(xi,yi)、長軸交点座標(xf,yf)、および短軸交点座標(xn,yn)を座標情報として座標計算部226に供給する。
The position indication light detection unit 223 supplies the number K of pixels and the barycentric coordinates (xi, yi) obtained in this way to the forward indication
前進指示光検出部224は、位置指示光検出部223から供給された画素数Kおよび重心座標を用いて、幾何変換処理部222から供給された前進指示光画像から、前進指示光の像を検出する。そして、前進指示光検出部224は、その検出結果を示す情報である前進フラグを座標計算部226に供給する。ここで、前進フラグとは、ユーザ32により3次元ポインタ31の奥行き方向への移動が指示されたか否かを示す情報をいう。
The forward instruction
後進指示光検出部225は、位置指示光検出部223から供給された画素数Kおよび重心座標を用いて、幾何変換処理部222から供給された後進指示光画像から、後進指示光の像を検出する。そして、後進指示光検出部225は、その検出結果を示す情報である後進フラグを座標計算部226に供給する。ここで、後進フラグとは、ユーザ32により3次元ポインタ31の手前方向への移動が指示されたか否かを示す情報をいう。
The reverse indicator
座標計算部226は、奥行き長さEを記憶している。座標計算部226は、記憶している奥行き長さE、位置指示光検出部223からの座標情報、前進指示光検出部224からの前進フラグ、および後進指示光検出部225からの後進フラグに基づいて、3次元ポインタ31を表示させる位置を算出し、その結果得られた、3次元ポインタ31を表示させるべき位置を示す情報を表示画像処理部228に供給する。3次元画像記録部227は、3次元画像を記録しており、記録している3次元画像を必要に応じて表示画像処理部228に供給する。
The coordinate
表示画像処理部228は、座標計算部226から供給された、3次元ポインタ31を表示させるべき位置を示す情報と、3次元画像記録部227から供給された3次元画像とから表示画像を生成してプロジェクタ25に供給する。
The display
ところで、ユーザ32がプレゼンテーションを行うために、画像処理装置24を操作して表示画像のスクリーン21への表示を指示すると、表示画像処理部228は、ユーザ32に指示された3次元画像を表示画像としてプロジェクタ25に供給し、プロジェクタ25に表示画像の表示を指示する。すると、プロジェクタ25は、画像処理装置24の表示画像処理部228の制御に基づいて、表示画像処理部228から供給された表示画像を表示させるための光をスクリーン21に投光し、スクリーン21に表示画像を表示させる。
By the way, when the
スクリーン21に表示画像が表示されると、ユーザ32は、レーザポインタ22を操作して、3次元ポインタ31を移動させながらプレゼンテーションを行う。
When the display image is displayed on the
また、スクリーン21に表示画像が表示されると、プレゼンテーションシステム11により、ユーザ32によるレーザポインタ22への操作が反映された表示画像を表示する処理である表示処理が開始される。以下、図11のフローチャートを参照して、プレゼンテーションシステム11による表示処理について説明する。
When a display image is displayed on the
ステップS11において、カメラ23は、スクリーン21とその周囲の領域を撮像し、これにより得られた撮像画像を画像処理装置24の色同時化処理部221に供給する。すなわち、レンズ181は、入射した光を集光してCCDイメージセンサ183に入射させ、CCDイメージセンサ183は、レンズ181から入射した光を光電変換することにより撮像画像を生成して、生成した撮像画像を相関2重サンプリング回路184に供給する。また、相関2重サンプリング回路184は、CCDイメージセンサ183からの撮像画像をサンプリングすることによって、撮像画像からノイズを除去して、ノイズの除去された撮像画像をA/Dコンバータ185に供給する。A/Dコンバータ185は、相関2重サンプリング回路184からの撮像画像をアナログ信号からデジタル信号に変換してDSP186に供給する。
In step S <b> 11, the
そしてDSP186は、A/Dコンバータ185から供給された撮像画像に対して、必要に応じて階調圧縮処理などの画像処理を施し、画像処理の施された撮像画像を、バス193を介して画像処理装置24の色同時化処理部221に供給する。
The
ステップS12において、画像処理装置24は生成処理を行う。なお、生成処理の詳細は後述するが、この生成処理において、画像処理装置24は、カメラ23から供給された撮像画像を用いて、3次元ポインタ31を表示させるべき表示位置を特定し、その表示位置に3次元ポインタ31が表示される表示画像を生成する。表示画像が生成されると画像処理装置24は、生成した表示画像をプロジェクタ25に供給する。
In step S12, the image processing device 24 performs a generation process. Although details of the generation process will be described later, in this generation process, the image processing device 24 uses the captured image supplied from the
ステップS13において、画像処理装置24は、プロジェクタ25を制御して、スクリーン21に表示画像を表示させる。プロジェクタ25は、画像処理装置24から供給された表示画像に基づいて、表示画像を表示させるための光をスクリーン21に投光し、スクリーン21に表示画像を表示させる。これにより、スクリーン21の表示が、これまで表示されていた表示画像から、ユーザ32の操作が反映された新たな表示画像に切り替わる。
In step S <b> 13, the image processing device 24 controls the
ステップS14において、画像処理装置24は、表示画像を表示させる処理を終了するか否かを判定する。例えば、ユーザ32により画像処理装置24が操作され、表示画像の表示の終了が指示されると、画像処理装置24は処理を終了すると判定する。
In step S14, the image processing device 24 determines whether or not to end the process of displaying the display image. For example, when the
ステップS14において、処理を終了しないと判定された場合、処理はステップS11に戻り、上述した処理が繰り返される。すなわち、画像処理装置24により新たに表示させるべき表示画像が生成されて、生成された表示画像が、プロジェクタ25によりスクリーン21に表示される。
If it is determined in step S14 that the process is not terminated, the process returns to step S11, and the above-described process is repeated. That is, a display image to be newly displayed is generated by the image processing device 24, and the generated display image is displayed on the
これに対して、ステップS14において、処理を終了すると判定された場合、プレゼンテーションシステム11の各装置は行っている処理を終了し、表示処理は終了する。 On the other hand, when it is determined in step S14 that the process is to be ended, each device of the presentation system 11 ends the process being performed, and the display process is ended.
このようにして、プレゼンテーションシステム11は、スクリーン21とその周囲の領域を撮像し、その結果得られた撮像画像から、ユーザ32による操作を反映した表示画像を生成する。そして、新たに生成した表示画像をスクリーン21に表示させる。
In this way, the presentation system 11 captures the
次に、図12のフローチャートを参照して、図11のステップS12の処理に対応する処理である生成処理について説明する。 Next, generation processing that is processing corresponding to the processing in step S12 in FIG. 11 will be described with reference to the flowchart in FIG.
ステップS41において、色同時化処理部221は、カメラ23から供給された撮像画像に対して色同時化処理を施して、色同時化処理の施された撮像画像を幾何変換処理部222に供給する。
In step S <b> 41, the color synchronization processing unit 221 performs color synchronization processing on the captured image supplied from the
色同時化処理部221は色同時化処理を行うことにより、撮像画像の各画素について、それらの画素の周囲にある画素の画素値を用いて各色の画素値を補間する。これにより、各画素がR(赤)、G(緑)、B(青)、位置指示光の波長の色、前進指示光の波長の色、および後進指示光の波長の色のそれぞれの色の画素値を有する撮像画像が得られる。なお、この色同時化処理はデモザイク処理などとも呼ばれている。 The color synchronization processing unit 221 performs color synchronization processing to interpolate the pixel values of each color using the pixel values of the pixels around the pixels of the captured image. Accordingly, each pixel has R (red), G (green), B (blue), the color of the wavelength of the position indicating light, the color of the wavelength of the forward indicating light, and the color of the wavelength of the backward indicating light. A captured image having pixel values is obtained. This color synchronization processing is also called demosaic processing.
より具体的には、例えば、色同時化処理部221は、特開2003−230159号公報に記載されている技術を利用して色同時化処理を行う。すなわち、色同時化処理部221は、撮像画像のR、G、およびBの色の画素値から色差信号を生成し、撮像画像と色差信号とから全ての画素が輝度成分を有する輝度画像を生成する。そして、色同時化処理部221は、色差信号に基づいて、輝度画像を各画素がR、G、およびBの色の画素値を有する撮像画像に変換し、Gの色の画素値に基づいてRおよびBの画素値を補正する。 More specifically, for example, the color synchronization processing unit 221 performs color synchronization processing using a technique described in Japanese Patent Laid-Open No. 2003-230159. That is, the color synchronization processing unit 221 generates a color difference signal from the pixel values of R, G, and B colors of the captured image, and generates a luminance image in which all pixels have a luminance component from the captured image and the color difference signal. To do. Then, based on the color difference signal, the color synchronization processing unit 221 converts the luminance image into a captured image in which each pixel has R, G, and B pixel values, and based on the G color pixel value. R and B pixel values are corrected.
さらに、色同時化処理部221は、各画素のR、G、およびBの色の画素値と、所定の画素の位置指示光の波長の色、前進指示光の波長の色、および後進指示光の波長の色の画素値とを用いて、各画素の位置指示光の波長の色の画素値、前進指示光の波長の色の画素値、および後進指示光の波長の色の画素値を求めて、撮像画像を、各画素がR、G、B、位置指示光の波長の色、前進指示光の波長の色、および後進指示光の波長の色のそれぞれの画素値を有する画像とする。 Further, the color synchronization processing unit 221 includes the pixel values of the R, G, and B colors of each pixel, the color of the position indicating light wavelength of the predetermined pixel, the color of the wavelength of the forward indicating light, and the backward indicating light. The pixel value of the color of the position indicating light of each pixel, the pixel value of the color of the wavelength of the forward indicating light, and the pixel value of the color of the wavelength of the backward indicating light are obtained using The captured image is an image in which each pixel has pixel values of R, G, B, the color of the wavelength of the position indicating light, the color of the wavelength of the forward indicating light, and the color of the wavelength of the backward indicating light.
また、例えば、色同時化処理部221は、特表昭61−502424号公報に記載されている技術を利用して色同時化処理を行うようにしてもよい。そのような場合、色同時化処理部221は、撮像画像の画素のR、G、およびBの色の画素値から色相成分の値を求めて線形補間を行うことにより各画素の色相成分の値を得る。そして、色同時化処理部221は、各画素の色相成分の値から再びR、G、およびBの色の画素値を求める。 In addition, for example, the color synchronization processing unit 221 may perform color synchronization processing using a technique described in Japanese Patent Publication No. 61-502424. In such a case, the color synchronization processing unit 221 obtains the value of the hue component from the pixel values of the R, G, and B colors of the pixels of the captured image and performs linear interpolation to thereby determine the value of the hue component of each pixel. Get. Then, the color synchronization processing unit 221 obtains pixel values of R, G, and B colors again from the value of the hue component of each pixel.
さらに、色同時化処理部221は、各画素のR、G、およびBの色の画素値と、所定の画素の位置指示光の波長の色、前進指示光の波長の色、および後進指示光の波長の色のそれぞれの画素値とを用いて、各画素の位置指示光の波長の色の画素値、前進指示光の波長の色の画素値、および後進指示光の波長の色の画素値を求める。 Further, the color synchronization processing unit 221 includes the pixel values of the R, G, and B colors of each pixel, the color of the position indicating light wavelength of the predetermined pixel, the color of the wavelength of the forward indicating light, and the backward indicating light. And the pixel value of the color of the position indicating light wavelength, the pixel value of the color of the forward indicating light wavelength, and the pixel value of the color of the reverse indicating light wavelength Ask for.
色同時化処理が施された撮像画像が、色同時化処理部221から幾何変換処理部222に供給されると、ステップS42において、幾何変換処理部222は、色同時化処理部221から供給された撮像画像に幾何変換処理を施す。
When the captured image subjected to the color synchronization processing is supplied from the color synchronization processing unit 221 to the geometric
例えば、図13に示すように、プロジェクタ25は、スクリーン21に対して正面から表示画像を表示させるための光を投光することができるように、スクリーン21の正面、つまりスクリーン21に対向する位置に配置される。
For example, as shown in FIG. 13, the
これに対して、カメラ23は、スクリーン21のほぼ全体の画像を撮像することができる位置に配置される。図13では、カメラ23は、スクリーン21に対して図中、右下の位置に配置されている。したがって、スクリーン21に表示されている長方形状の表示画像は、例えば、図14に示すように、撮像画像上においては台形状となる。
On the other hand, the
図14に示す撮像画像251内には、スクリーン21に表示されている表示画像252が含まれている。また、表示画像252は、4つの点253−1乃至点253−4のそれぞれを頂点とする台形状の領域となっている。すなわち、カメラ23は、スクリーン21を斜め方向から撮像するので、スクリーン21上において長方形状である表示画像が、図14の撮像画像251上においては、図中、左側の辺よりも右側の辺が長い台形状となっている。
A captured
そこで、まず幾何変換処理部222は、図14の撮像画像251に対してエッジ検出をすることで、撮像画像251から表示画像252の領域を検出する。幾何変換処理部222は、検出された表示画像252の4つの頂点である点253−1乃至点253−4を特徴点とし、それらの点253−1乃至点253−4を頂点とする四角形の領域を、長方形の領域に変形するためのパラメータを算出し、算出したパラメータに基づいて撮像画像に幾何変換処理を施す。さらに、幾何変換処理部222は、幾何変換処理が施された撮像画像251から、点253−1乃至点253−4を頂点とする長方形状の領域を、抽出画像として抽出する。
Therefore, first, the geometric
そして、幾何変換処理部222は、撮像画像から抽出された抽出画像を、位置指示光画像、前進指示光画像、および後進指示光画像のそれぞれに分離し、分離された位置指示光画像、前進指示光画像、および後進指示光画像のそれぞれを、位置指示光検出部223、前進指示光検出部224、および後進指示光検出部225のそれぞれに供給する。
Then, the geometric
例えば、カメラ23が撮像画像を撮像する時点において、スクリーン21に、図15Aに示す表示画像が表示されていたとする。図15Aに示す表示画像では、3つの物体が表示されており、それらの物体のうちの図中、一番左側にある物体上に3次元ポインタ31が表示されている。また、この表示画像が表示されているときに撮像されて得られた撮像画像からは、例えば図15Bに示す位置指示光画像が得られる。
For example, assume that the display image shown in FIG. 15A is displayed on the
図15Bに示す位置指示光画像では、図中、左側に楕円形の位置指示光の像281と、楕円形の補助光の像282とが撮像されて表示されている。この位置指示光画像においては、補助光の像282が位置指示光の像281の図中、左上に位置しているので、位置指示光は、右下の方向からスクリーン21上の表示画像に照射されていることが分かる。
In the position indicating light image shown in FIG. 15B, an elliptical position indicating
さらに、スクリーン21に図15Aに示した表示画像が表示されており、ユーザ32により3次元ポインタ31の奥行き方向への移動が指示された場合、レーザポインタ22から表示画像には前進指示光が照射されるので、撮像画像からは、例えば図15Cに示す前進指示光画像が得られる。
Furthermore, when the display image shown in FIG. 15A is displayed on the
なお、図15Cにおいて、図15Bにおける場合と対応する部分には同一の符号を付してあり、その説明は省略する。また、位置指示光および補助光の波長は、前進指示光の波長とは異なるので、位置指示光の像281および補助光の像282は、実際には前進指示光画像には表示されない。
In FIG. 15C, parts corresponding to those in FIG. 15B are denoted by the same reference numerals, and description thereof is omitted. Further, since the wavelength of the position indicating light and the auxiliary light are different from the wavelength of the forward indicating light, the position indicating
図15Cでは、位置指示光の像281の図中、右側に前進指示光の像291が撮像されて表示されている。すなわち、前進指示光画像からは、前進指示光の像291が検出されることになるので、3次元ポインタ31の奥行き方向への移動が指示されたとされる。
In FIG. 15C, the forward direction
また、スクリーン21に図15Aに示した表示画像が表示されており、ユーザ32により3次元ポインタ31の手前方向への移動が指示された場合、レーザポインタ22から表示画像には後進指示光が照射されるので、撮像画像からは、例えば図15Dに示す後進指示光画像が得られる。
When the display image shown in FIG. 15A is displayed on the
なお、図15Dにおいて、図15Bにおける場合と対応する部分には同一の符号を付してあり、その説明は省略する。また、位置指示光および補助光の波長は、後進指示光の波長とは異なるので、位置指示光の像281および補助光の像282は、実際には後進指示光画像には表示されない。
In FIG. 15D, parts corresponding to those in FIG. 15B are denoted by the same reference numerals, and description thereof is omitted. Further, since the wavelength of the position indicating light and the auxiliary light is different from the wavelength of the reverse indicating light, the position indicating
図15Dでは、位置指示光の像281の図中、左側に後進指示光の像301が撮像されて表示されている。すなわち、後進指示光画像からは、後進指示光の像301が検出されることになるので、3次元ポインタ31の手前方向への移動が指示されたとされる。
In FIG. 15D, the reverse instruction
このように、幾何変換処理部222においては、抽出画像から、位置指示光画像、前進指示光画像、および後進指示光画像のそれぞれが分離される。
Thus, in the geometric
図12のフローチャートの説明に戻り、ステップS42において撮像画像から位置指示光画像、前進指示光画像、および後進指示光画像が得られると、ステップS43において、位置指示光検出部223は、重心位置検出処理を行う。なお、重心位置検出処理の詳細は後述するが、この重心位置検出処理において、位置指示光検出部223は、幾何変換処理部222から供給された位置指示光画像から、画素数K、重心座標、長軸交点座標、および短軸交点座標を求める。そして、位置指示光検出部223は、画素数Kおよび重心座標を、前進指示光検出部224および後進指示光検出部225に供給し、重心座標、長軸交点座標、および短軸交点座標を座標計算部226に供給する。
Returning to the description of the flowchart in FIG. 12, when the position instruction light image, the forward instruction light image, and the reverse instruction light image are obtained from the captured image in step S42, in step S43, the position instruction light detection unit 223 detects the center of gravity position detection. Process. Although details of the center-of-gravity position detection process will be described later, in this center-of-gravity position detection process, the position indication light detection unit 223 uses the number of pixels K, the center of gravity coordinates, The major axis intersection coordinates and the minor axis intersection coordinates are obtained. Then, the position indicating light detection unit 223 supplies the number K of pixels and the barycentric coordinates to the forward indicating light detecting
ステップS44において、前進指示光検出部224は、前進指示光の検出処理を行う。すなわち、前進指示光検出部224は、幾何変換処理部222から供給された前進指示光画像から前進指示光の像を検出し、その検出結果としての前進フラグを座標計算部226に供給する。
In step S44, the forward instruction
ステップS45において、後進指示光検出部225は、後進指示光の検出処理を行う。すなわち、後進指示光検出部225は、幾何変換処理部222から供給された後進指示光画像から後進指示光の像を検出して、その検出結果としての後進フラグを座標計算部226に供給する。なお、前進指示光の検出処理および後進指示光の検出処理の詳細は後述する。
In step S45, the reverse instruction
ステップS46において、座標計算部226は、3次元ポインタ位置算出処理を行う。なお、3次元ポインタ位置算出処理の詳細は後述するが、この3次元ポインタ位置算出処理において、座標計算部226は、3次元ポインタ31の表示位置を求めて、3次元ポインタ31の表示位置を示す情報を表示画像処理部228に供給する。ここで、3次元ポインタ31の表示位置として、例えば表示画像に対して想定された仮想3次元空間上の位置を示す座標が求められ、その仮想3次元空間の座標を示す情報が、座標計算部226から表示画像処理部228に供給される。
In step S46, the coordinate
ステップS47において、表示画像処理部228は、3次元画像記録部227に記録されている3次元画像と、座標計算部226から供給された3次元ポインタ31の表示位置を示す情報とに基づいて、表示画像を生成する。
In step S47, the display
すなわち、表示画像処理部228は、座標計算部226から供給された情報により特定される仮想3次元空間上の位置に対応する3次元画像上の位置に、3次元ポインタ31が表示される画像を表示画像として生成する。ここで、3次元ポインタ31が表示される3次元画像上の位置は、2次元の平面に表示される3次元画像上の位置であって、仮想3次元空間上の3次元ポインタ31の表示位置に対応する位置とされる。
That is, the display
表示画像処理部228は、表示画像を生成すると、生成した表示画像をプロジェクタ25に供給して、プロジェクタ25に表示画像の表示を指示する。そして、プロジェクタ25に表示画像が供給されると、処理は図11のステップS13に進み、生成処理は終了する。
When the display
このようにして、画像処理装置24は、撮像画像から位置指示光画像、前進指示光画像、および後進指示光画像を分離する。そして、画像処理装置24は、位置指示光画像、前進指示光画像、および後進指示光画像を用いて3次元ポインタ31の表示位置を特定し、その表示位置に3次元ポインタ31が表示される表示画像を生成する。
In this way, the image processing device 24 separates the position instruction light image, the forward instruction light image, and the reverse instruction light image from the captured image. Then, the image processing device 24 specifies the display position of the three-
つまり、画像処理装置24は、撮像画像から、前進指示光の像および後進指示光の像を検出することにより、3次元ポインタ31をどの方向に移動させるかを特定し、さらに、特定された方向、および位置指示光の像の位置とその形状から3次元ポインタ31を表示させるべき位置を特定する。
That is, the image processing device 24 identifies the direction in which the three-
このように、位置指示光画像、前進指示光画像、および後進指示光画像を用いて3次元ポインタ31の表示位置を求め、表示画像を生成することにより、簡単かつ確実にユーザ32により指定された3次元ポインタ31の表示位置を特定することができる。これにより、ユーザ32は、レーザポインタ22を操作して不可視光を表示画像に照射するだけで、2次元の平面に表示される画像に対して想定された仮想3次元空間上の位置を、簡単に指定することができる。
As described above, the display position of the three-
従来、表示画像に対して想定された仮想3次元空間上の位置を指定するには、磁気センサや磁気マーカ、超音波センサが用いられていたが、これらのセンサやマーカは高価であった。また、表示画像の大きさによっては、センサがセンシングを行う範囲を変更する必要があるため、表示画像を表示させる大きさに応じて、プレゼンテーションシステムに用いる磁気センサや超音波センサを選択しなければならなかった。 Conventionally, a magnetic sensor, a magnetic marker, and an ultrasonic sensor have been used to designate a position in a virtual three-dimensional space assumed for a display image. However, these sensors and markers are expensive. In addition, depending on the size of the display image, it is necessary to change the range in which the sensor performs sensing. Therefore, depending on the size of the display image to be displayed, a magnetic sensor or ultrasonic sensor used in the presentation system must be selected. did not become.
これに対して、プレゼンテーションシステム11においては、レーザポインタ22から射出された不可視光を撮像し、その結果得られた撮像画像を用いて3次元ポインタ31の表示位置を特定するようにしたので、周囲の環境に影響されることなく、また表示画像の大きさに関係なく、簡単かつ確実に仮想3次元空間上の位置を指定することができる。
In contrast, in the presentation system 11, the invisible light emitted from the
しかも、このプレゼンテーションシステム11は、スクリーン21およびプロジェクタ25として既存の装置を用いることができる。また、カメラ23としてのマルチスペクトルカメラは、一般的なカラーカメラの撮像素子の受光面に配置されるオンチップカラーフィルタを、図9に示したオンチップカラーフィルタに置き換えるだけで簡単かつ安価に作成することができるため、量産効果により通常のカラーカメラと同等のコストで得られることが期待できる。
In addition, the presentation system 11 can use existing devices as the
さらに、レーザポインタ22は不可視光を射出するレーザポインタであるが、不可視光のレーザポインタは既に製品として販売されており、その価格も可視光のレーザポインタと比較してそれほど高価ではない。
Furthermore, although the
したがって、既存の装置を利用することで、汎用性を低下させることなく、低コストでプレゼンテーションシステム11を実現することができる。 Therefore, by using an existing apparatus, the presentation system 11 can be realized at a low cost without reducing versatility.
次に、図16のフローチャートを参照して、図12のステップS43の処理に対応する処理である重心位置検出処理について説明する。 Next, the center-of-gravity position detection process that is a process corresponding to the process of step S43 of FIG. 12 will be described with reference to the flowchart of FIG.
幾何変換処理部222から位置指示光検出部223に位置指示光画像が供給されると、ステップS71において、位置指示光検出部223は、位置指示光画像の各画素のうち、画素値が予め定められた閾値th1以上である画素を検出する。
When the position indicating light image is supplied from the geometric
ステップS72において、位置指示光検出部223は、検出した位置指示光画像の画素についてクラスタリングを行う。すなわち、位置指示光検出部223は、互いに隣接し、閾値th1以上の画素値を有する複数の画素からなる位置指示光画像上の領域、つまりそれらの画素の集合を1つのクラスタとする。 In step S <b> 72, the position indicating light detection unit 223 performs clustering for the pixels of the detected position indicating light image. That is, the position indicating light detection unit 223 sets a region on the position indicating light image, which is composed of a plurality of pixels adjacent to each other and having a pixel value equal to or greater than the threshold th1, that is, a set of these pixels as one cluster.
これにより、例えば位置指示光画像から、図15Bに示した位置指示光の像281の領域、および補助光の像282の領域がクラスタとして検出される。つまり、位置指示光画像からクラスタとして検出される領域は、スクリーン21上の位置指示光および補助光と同じ波長の赤外光が照射されている領域であり、プロジェクタ25から投光される光は、そのほとんどが可視光であるので、位置指示光画像からは、通常、2つのクラスタが検出されると予測される。
Thereby, for example, the region of the position indicating
また、何らかの影響によりノイズとしての赤外光がスクリーン21に照射される場合には、位置指示光画像から3以上のクラスタが検出されることも考えられるが、ノイズとして、位置指示光や補助光よりもビーム径の大きい赤外光がスクリーン21に照射されることは稀である。したがって、検出された複数のクラスタのうちの最も大きいクラスタが、レーザポインタ22からスクリーン21に照射された位置指示光の像であり、2番目に大きいクラスタが補助光の像であると予測される。
Further, when the
ステップS73において、位置指示光検出部223は、クラスタリングを行うことにより得られたクラスタのうち、2番目に大きいクラスタ、つまり2番目に多い画素からなるクラスタの重心の位置を求める。 In step S73, the position indicating light detection unit 223 obtains the position of the center of gravity of the second largest cluster, that is, the cluster composed of the second largest pixel among the clusters obtained by performing the clustering.
例えば、位置指示光検出部223は、表示画像に対して想定された仮想3次元空間の基準点Oに対応する位置指示光画像上の位置を基準点とするxy座標系における、2番目に大きいクラスタの重心の位置の座標(xj,yj)を求める。 For example, the position indicating light detection unit 223 is the second largest in the xy coordinate system having the position on the position indicating light image corresponding to the reference point O in the virtual three-dimensional space assumed for the display image as the reference point. The coordinates (xj, yj) of the position of the center of gravity of the cluster are obtained.
ここで、表示画像に対して想定された仮想3次元空間の基準点Oは、例えば図5の表示画像141の図中、左下の頂点であるので、図15Bに示した位置指示光画像の図中、左下の頂点がxy座標系の基準点とされる。また、位置指示光画像に対するxy座標系のx軸方向、およびy軸方向は、表示画像に対して想定された仮想3次元空間のx軸方向およびy軸方向と同じ方向とされる。したがって、図15Bにおいて、右方向がx軸方向とされ、上方向がy軸方向とされる。
Here, since the reference point O of the virtual three-dimensional space assumed for the display image is, for example, the lower left vertex in the
ステップS74において、位置指示光検出部223は、クラスタリングを行うことにより得られたクラスタのうち、最も大きいクラスタの重心の位置、およびそのクラスタを構成する画素数を求める。 In step S74, the position indicating light detection unit 223 obtains the position of the center of gravity of the largest cluster among the clusters obtained by performing clustering, and the number of pixels constituting the cluster.
例えば、図17に示すように、位置指示光画像に対するクラスタリングの結果、位置指示光画像から、クラスタC1およびクラスタC2が検出されたとする。ここで、補助光よりも位置指示光のビーム径がより大きいので、補助光の象よりも位置指示光の像の方が大きいと予測される。そこで、位置指示光検出部223は、位置指示光画像から検出された2つのクラスタのうち、その大きさの大きい方のクラスタC1が位置指示光の像であるとし、小さい方のクラスタC2が補助光の像であるとする。 For example, as shown in FIG. 17, it is assumed that the cluster C1 and the cluster C2 are detected from the position indicating light image as a result of clustering on the position indicating light image. Here, since the beam diameter of the position indicating light is larger than that of the auxiliary light, it is predicted that the image of the position indicating light is larger than the image of the auxiliary light. Therefore, the position indicating light detection unit 223 assumes that the larger cluster C1 of the two clusters detected from the position indicating light image is an image of the position indicating light, and the smaller cluster C2 is an auxiliary. Let it be an image of light.
そして、位置指示光検出部223は、まず小さい方のクラスタC2の重心の位置の座標を、位置指示光画像における補助光の像の重心座標として求める。例えば、位置指示光検出部223は、クラスタC2を構成する各画素の重心の位置の座標をクラスタC2の重心の位置の座標として求める。その結果、点331の座標(xj,yj)がクラスタC2の重心の座標として求まる。
Then, the position indicating light detection unit 223 first obtains the coordinates of the position of the center of gravity of the smaller cluster C2 as the center of gravity coordinates of the auxiliary light image in the position indicating light image. For example, the position indicating light detection unit 223 obtains the coordinates of the center of gravity of each pixel constituting the cluster C2 as the coordinates of the center of gravity of the cluster C2. As a result, the coordinates (xj, yj) of the
また、位置指示光検出部223は、大きい方のクラスタC1の重心の位置の座標を、位置指示光画像における位置指示光の像の重心座標として求める。その結果、点332の座標(xi,yi)がクラスタC1の重心の座標として求まる。この点332の座標(xi,yi)は、表示画像に照射された位置指示光の表示画像上における像の重心の位置を示している。さらに、位置指示光検出部223は、クラスタC1を構成する画素数、つまりクラスタC1の領域内の画素の数を、位置指示光の像の画素数Kとして求める。
Further, the position indicating light detection unit 223 obtains the coordinates of the position of the center of gravity of the larger cluster C1 as the center of gravity coordinates of the image of the position indicating light in the position indicating light image. As a result, the coordinates (xi, yi) of the
図16のフローチャートの説明に戻り、位置指示光検出部223は、位置指示光の像の重心座標(xi,yi)と位置指示光の像の画素数Kとを、前進指示光検出部224および後進指示光検出部225に供給する。
Returning to the description of the flowchart of FIG. 16, the position indicating light detection unit 223 determines the barycentric coordinates (xi, yi) of the position indicating light image and the number K of pixels of the position indicating light image as the forward indicating light detecting
ステップS75において、位置指示光検出部223は、位置指示光画像から検出されたクラスタのうち、最も大きいクラスタについてエッジ検出処理を行う。 In step S75, the position indicating light detection unit 223 performs edge detection processing on the largest cluster among the clusters detected from the position indicating light image.
例えば、位置指示光検出部223は、図17のクラスタC1についてエッジ検出処理を行い、クラスタC1の輪郭を検出する。これにより、例えば、図18に示す楕円341がクラスタC1の輪郭として検出される。この楕円341は、スクリーン21に照射された位置指示光の像の輪郭とされる。したがって、エッジ検出処理により、表示画像に照射された位置指示光の像の表示画像上における形状が検出される。なお、以下、楕円341をクラスタC1の輪郭341とも称する。
For example, the position indicating light detection unit 223 performs edge detection processing on the cluster C1 in FIG. 17 and detects the contour of the cluster C1. Thereby, for example, an
最も大きいクラスタの輪郭が検出されると、ステップS76において、位置指示光検出部223は、エッジ検出処理により検出されたクラスタの輪郭について、長軸交点座標(xf,yf)を求める。例えば、位置指示光検出部223は、図18のクラスタC1の輪郭341上の点であって、クラスタC1の重心の点332から最も遠い点、つまり点332からの距離が最大である点を検出する。図18の例においては、輪郭341は楕円形であるので、点332からの距離が最大である点として、2つの点が検出される。
When the contour of the largest cluster is detected, in step S76, the position indicating light detection unit 223 obtains the long axis intersection coordinates (xf, yf) for the contour of the cluster detected by the edge detection process. For example, the position indicating light detection unit 223 detects a point on the
そして、位置指示光検出部223は、点332から最も遠い2つの点のうち、クラスタC2の重心である点331側の点、つまり点331と点332との間に位置する点342の座標を長軸交点座標(xf,yf)として求める。
Then, the position indicating light detection unit 223 calculates the coordinates of the
なお、輪郭341が真円である場合には、点332から輪郭341上の任意の点までの距離が等しくなるが、長軸交点座標の点は、重心座標の点332から最も遠い輪郭341上の点であって、点331側の点であるから、点331および点332を結ぶ直線と、輪郭341との交点の座標が、長軸交点座標とされる。
When the
ステップS77において、位置指示光検出部223は、最も大きいクラスタの重心の点を通り、その点および長軸交点座標の点を結ぶ直線に直交する直線を求め、求められた直線と、最も大きいクラスタの輪郭との交点のうち、クラスタの重心の点に対して予め定められた方向に位置する点の位置の座標を、短軸交点座標として求める。そして、位置指示光検出部223は、求めた重心座標(xi,yi)、長軸交点座標(xf,yf)、および短軸交点座標(xn,yn)を座標情報として座標計算部226に供給して処理は図12のステップS44に進み、重心位置検出処理は終了する。
In step S77, the position indicating light detection unit 223 obtains a straight line that passes through the point of the center of gravity of the largest cluster and is orthogonal to the straight line connecting the point and the point of the long-axis intersection coordinates. The coordinates of the position of a point located in a predetermined direction with respect to the point of the center of gravity of the cluster is obtained as the short-axis intersection coordinate. Then, the position indicating light detection unit 223 supplies the obtained barycentric coordinates (xi, yi), long axis intersection coordinates (xf, yf), and short axis intersection coordinates (xn, yn) to the coordinate
例えば、図19に示すように、位置指示光検出部223は、クラスタC1の重心の点332と、長軸交点座標の位置の点342とを結ぶ(通る)直線M1を求める。そして、位置指示光検出部223は、クラスタC1の重心の点332を通り、直線M1に直交する直線N1を求め、さらに直線N1と、クラスタC1の輪郭341との交点のうちの図中、右側の点351の位置の座標を、短軸交点座標(xn,yn)として求める。すなわち、楕円である輪郭341の短軸は長軸と直交するので、点332を通り、長軸を延長した直線である直線M1に直交する直線N1は、短軸を延長した直線であるといえる。そこで、位置指示光検出部223は、直線N1と輪郭341の交点の座標を短軸交点座標とする。
For example, as shown in FIG. 19, the position indicating light detection unit 223 obtains a straight line M1 connecting (passing) the
以上のようにして求められた重心座標、長軸交点座標、および短軸交点座標からは、位置指示光の像の位置および形状を知ることができるので、位置指示光検出部223は、位置指示光画像から、位置指示光の像の位置および形状を検出するということができる。 Since the position and shape of the image of the position indication light can be known from the barycentric coordinates, the long axis intersection coordinates, and the short axis intersection coordinates obtained as described above, the position indication light detection unit 223 can detect the position indication light. It can be said that the position and shape of the image of the position indicating light are detected from the optical image.
このようにして、位置指示光検出部223は、位置指示光画像から、表示画像上における位置指示光の像の位置および形状を検出する。このように、位置指示光の像の位置および形状を検出することにより、表示画像上において3次元ポインタ31を表示させるべき位置を特定することができる。特に、位置指示光は、表示画像を表示させるための光、つまり可視光や、前進指示光および後進指示光などの他の光とは異なる波長であるので、それらの光の像は位置指示光画像からは検出されず、位置指示光の像だけが検出されるようになされている。これにより、位置指示光画像から位置指示光の像を容易に検出することができる。
In this way, the position indicating light detection unit 223 detects the position and shape of the image of the position indicating light on the display image from the position indicating light image. Thus, by detecting the position and shape of the image of the position indicating light, the position where the three-
次に、図20のフローチャートを参照して、図12のステップS44の処理に対応する処理である、前進指示光の検出処理について説明する。 Next, with reference to the flowchart of FIG. 20, the forward instruction light detection process, which is a process corresponding to the process of step S44 of FIG. 12, will be described.
ステップS101において、前進指示光検出部224は、幾何変換処理部222から供給された前進指示光画像において、位置指示光検出部223から供給された重心座標(xi,yi)の点を中心とする予め定められた半径rの円の領域内の画素のうち、画素値が予め定められた閾値th2以上である画素を検出する。
In step S <b> 101, the forward instruction
ここで、前進指示光画像における座標系は、表示画像に対して想定された仮想3次元空間の基準点Oと対応する位置を基準点とし、前進指示光画像における座標系におけるx軸方向およびy軸方向は、表示画像の仮想3次元空間のx軸方向およびy軸方向と同じ方向とされる。 Here, the coordinate system in the forward instruction light image has a position corresponding to the reference point O in the virtual three-dimensional space assumed for the display image as a reference point, and the x-axis direction and y in the coordinate system in the forward instruction light image. The axial direction is the same as the x-axis direction and the y-axis direction of the virtual three-dimensional space of the display image.
ステップS102において、前進指示光検出部224は、検出した前進指示光画像の画素についてクラスタリングを行う。すなわち、前進指示光検出部224は、互いに隣接し、閾値th2以上の画素値を有する複数の画素からなる前進指示光画像上の領域を1つのクラスタとする。
In step S102, the forward instruction
レーザポインタ22において、前進指示光を射出する不可視光レーザ84は、位置指示光を射出する不可視光レーザ81に近接して設けられている。したがって、表示画像上において、前進指示光の像は、位置指示光の像に近接した位置にあると予測される。そこで、位置指示光の像の周囲から前進指示光の像を確実に検出することのできる適切な半径rの値を定め、図21に示すように、位置指示光の像の重心の点332を中心とし、半径がrである円381内の領域を、画素値が閾値th2以上である画素、つまり前進指示光の像の検出の対象とすることで、より効率よく、かつ確実に前進指示光の像を検出することができる。
In the
なお、図21において、図19における場合と対応する部分には同一の符号を付してあり、その説明は省略する。また、位置指示光の像の輪郭341は、実際には前進指示光画像には表示されない。
In FIG. 21, the same reference numerals are given to the portions corresponding to those in FIG. 19, and the description thereof is omitted. Further, the
図21では、画素値が閾値th2以上である画素についてのクラスタリングの結果、点332の図中、右上の位置に楕円形のクラスタC21が検出されている。クラスタC21は、輪郭341、すなわち位置指示光の像とほぼ同じ大きさであり、円381内には、他にクラスタは検出されていないので、クラスタC21が前進指示光の像であると予測される。
In FIG. 21, as a result of clustering for pixels having a pixel value equal to or greater than the threshold th2, an elliptical cluster C21 is detected at the upper right position in the diagram of the
図20のフローチャートの説明に戻り、ステップS103において、前進指示光検出部224は、クラスタリングの結果として検出されたクラスタのうち、最も大きいクラスタの画素数R1を求める。つまり、最も大きいクラスタを構成する画素の数が画素数R1とされる。
Returning to the description of the flowchart of FIG. 20, in step S103, the forward instruction
ステップS104において、前進指示光検出部224は、求めた画素数R1と、位置指示光検出部223から供給された画素数Kとの差の絶対値が、予め定められた閾値th3よりも小さいか否かを判定する。
In step S104, the forward instruction
すなわち、前進指示光検出部224は、|R1−K|<th3であるか否かを判定する。ここで、|R1−K|は、画素数R1と画素数Kとの差の絶対値を表している。
That is, the forward instruction
ステップS104において、|R1−K|<th3であると判定された場合、前進指示光画像から検出されたクラスタと、位置指示光の像の大きさはほぼ同じであるので、検出されたクラスタは、前進指示光の像であるとされ、処理はステップS105に進む。そして、ステップS105において、前進指示光検出部224は、前進フラグを“true”に設定し、処理はステップS107に進む。ここで、“true”である前進フラグは、前進指示光画像から前進指示光の像が検出され、3次元ポインタ31の奥行き方向への移動が指示されたことを示している。
If it is determined in step S104 that | R1−K | <th3, the size of the cluster detected from the forward instruction light image and the size of the image of the position instruction light is substantially the same, so the detected cluster is , It is assumed that the image is a forward instruction light, and the process proceeds to step S105. In step S105, the forward instruction
これに対して、ステップS104において、|R1−K|<th3でないと判定された場合、前進指示光画像から検出されたクラスタは、位置指示光とは大きく異なる大きさであるか、または前進指示光画像からクラスタが検出されなかったので、前進指示光画像から前進指示光の像は検出されなかったとされ、処理はステップS106に進む。 On the other hand, if it is determined in step S104 that | R1-K | <th3 is not satisfied, the cluster detected from the forward instruction light image has a size significantly different from that of the position instruction light, or the forward instruction. Since no cluster is detected from the light image, it is determined that the image of the forward instruction light is not detected from the forward instruction light image, and the process proceeds to step S106.
ステップS106において、前進指示光検出部224は、前進フラグを“false”に設定し、処理はステップS107に進む。ここで、“false”である前進フラグは、前進指示光画像から前進指示光の像が検出されず、3次元ポインタ31の奥行き方向への移動が指示されなかったことを示している。
In step S106, the forward instruction
ステップS107において、前進指示光検出部224は、“true”または“false”の何れかに設定された前進フラグを出力して処理は図12のステップS45に進み、前進指示光の検出処理は終了する。これにより、前進指示光検出部224から座標計算部226に、前進フラグが供給される。
In step S107, the forward instruction
このようにして、前進指示光検出部224は、前進指示光画像から前進指示光の像を検出し、その検出の結果に応じて、3次元ポインタ31の奥行き方向への移動が指示されたか否かを示す前進フラグを出力する。
In this way, the forward instruction
このように、前進指示光の像を検出することにより、3次元ポインタ31の奥行き方向への移動が指示されたか否かを簡単に知ることができる。特に、前進指示光は、表示画像を表示させるための可視光、位置指示光、後進指示光などの他の光とは異なる波長であるので、それらの光の像は前進指示光画像からは検出されず、前進指示光の像だけが検出されるようになされている。これにより、前進指示光画像から前進指示光の像を容易に検出することができる。
Thus, by detecting the image of the forward instruction light, it is possible to easily know whether or not the movement of the three-
前進指示光検出部224から前進フラグが出力されると、図12のステップS45の処理に対応する処理である後進指示光の検出処理が行われる。以下、図22のフローチャートを参照して、後進指示光の検出処理について説明する。なお、ステップS131乃至ステップS133の処理のそれぞれは、図20のステップS101乃至ステップS103の処理と同様であるので、その説明は適宜、省略する。
When the forward flag is output from the forward instruction
すなわち、ステップS131乃至ステップS133の処理において、例えば、図23に示すように、後進指示光検出部225は、位置指示光の重心の点332を中心とする半径rの円401内の領域を対象として、画素値が閾値th2以上である画素を検出し、クラスタリングを行う。なお、図23において、図19における場合と対応する部分には同一の符号を付してあり、その説明は省略する。また、位置指示光の像の輪郭341は、実際には後進指示光画像には表示されない。
That is, in the processing from step S131 to step S133, for example, as shown in FIG. 23, the backward instruction
図23では、画素値が閾値th2以上である画素についてのクラスタリングの結果、点332の図中、左下の位置に楕円形のクラスタC31が検出されている。クラスタC31は、輪郭341、すなわち位置指示光の像とほぼ同じ大きさであり、円401内には、他にクラスタは検出されていないので、クラスタC31が後進指示光の像であると予測される。また、後進指示光検出部225は、検出されたクラスタのうち、最も大きいクラスタの画素数R2を求める。
In FIG. 23, as a result of clustering for pixels having a pixel value equal to or greater than the threshold th2, an elliptical cluster C31 is detected at the lower left position in the drawing of the
図22のフローチャートの説明に戻り、ステップS134において、後進指示光検出部225は、求めた画素数R2と、位置指示光検出部223から供給された画素数Kとの差の絶対値が、予め定められた閾値th3よりも小さいか否か、つまり|R2−K|<th3であるか否かを判定する。
Returning to the description of the flowchart of FIG. 22, in step S134, the backward indicator
ステップS134において、|R2−K|<th3であると判定された場合、検出されたクラスタは、後進指示光の像であるとされ、処理はステップS135に進む。そしてステップS135において、後進指示光検出部225は、後進フラグを“true”に設定し、処理はステップS137に進む。ここで、“true”である後進フラグは、後進指示光画像から後進指示光の像が検出され、3次元ポインタ31の手前方向への移動が指示されたことを示している。
If it is determined in step S134 that | R2-K | <th3, the detected cluster is assumed to be an image of the backward instruction light, and the process proceeds to step S135. In step S135, the reverse indicator
これに対して、ステップS134において、|R2−K|<th3でないと判定された場合、後進指示光画像から後進指示光の像は検出されなかったとされ、処理はステップS136に進む。ステップS136において、後進指示光検出部225は、後進フラグを“false”に設定し、処理はステップS137に進む。ここで、“false”である後進フラグは、3次元ポインタ31の手前方向への移動が指示されなかったことを示している。
On the other hand, if it is determined in step S134 that | R2-K | <th3 is not satisfied, it is determined that no reverse instruction light image has been detected from the reverse instruction light image, and the process proceeds to step S136. In step S136, the reverse indicator
ステップS137において、後進指示光検出部225は、後進フラグを出力して処理は図12のステップS46に進み、後進指示光の検出処理は終了する。これにより、後進指示光検出部225から座標計算部226に、後進フラグが供給される。
In step S137, the reverse indicator
このようにして、後進指示光検出部225は、後進指示光画像から後進指示光の像を検出し、その検出の結果に応じて、3次元ポインタ31の手前方向への移動が指示されたか否かを示す後進フラグを出力する。
In this manner, the reverse instruction
このように、後進指示光の像を検出することにより、3次元ポインタ31の手前方向への移動が指示されたか否かを簡単に知ることができる。特に、後進指示光は、表示画像を表示させるための可視光、位置指示光、前進指示光などの他の光とは異なる波長であるので、それらの光の像は後進指示光画像からは検出されず、後進指示光の像を容易に検出することができる。
In this way, it is possible to easily know whether or not the movement of the three-
後進指示光検出部225から後進フラグが出力されると、図12のステップS46の処理に対応する3次元ポインタ位置算出処理が行われる。以下、図24乃至図28を参照して、この3次元ポインタ位置算出処理について説明する。
When the reverse flag is output from the reverse instruction
3次元ポインタ位置算出処理において、座標計算部226は、位置指示光検出部223、前進指示光検出部224、および後進指示光検出部225から供給された座標情報、前進フラグ、および後進フラグから、仮想3次元空間上における、3次元ポインタ31を表示させるべき表示位置の座標を求める。
In the three-dimensional pointer position calculation process, the coordinate
まず、座標計算部226は、仮想3次元空間における位置指示光の仰角α、および回転角βを求める。ここで、回転角βは、図24に示すように、位置指示光のxy平面に対する回転角をいう。例えば、位置指示光画像からは、図25に示すように、位置指示光の像の重心の点332と、補助光の像の重心の点331とが検出される。なお、図25において、図19における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
First, the coordinate
位置指示光が空間方向に広がりを持たないものとすると、すなわち位置指示光のビーム径が限りなく0に近いものとすると、位置指示光は、点331および点332を含み、xy平面に垂直な平面上を進むことになる。そこで、その平面とyz平面とがなす角を、位置指示光の回転角βとする。
If the position indicating light does not have a spread in the spatial direction, that is, if the beam diameter of the position indicating light is as close to 0 as possible, the position indicating light includes the
したがって、図中、縦方向の直線431が、仮想3次元空間のy軸と平行な直線であり、横方向の直線432が、仮想3次元空間のx軸と平行な直線であるとすると、位置指示光の回転角βは、楕円である位置指示光の像の輪郭341の長軸と、直線431とのなす角度とされる。
Therefore, in the figure, assuming that the vertical
座標計算部226は、座標情報として供給された点332の座標(xi,yi)、点342の座標(xf,yf)、および点351の座標(xn,yn)から、輪郭341としての楕円の長軸の長さLと短軸の長さDとを求める。そして、座標計算部226は、輪郭341の長軸およびy軸の関係から回転角βを求める。ここで、長軸の長さLは、点332から点342までの長さ(距離)の2倍の長さとされ、短軸の長さDは、点332から点351までの長さ(距離)の2倍の長さとされる。
The coordinate
具体的には、座標計算部226は、点332の座標(xi,yi)および点342の座標(xf,yf)から、次式(1)を計算することにより、cosβを求める。
Specifically, the coordinate
ここで、式(1)において、|yf−yi|は、yfとyiの差の絶対値を表している。このようにしてcosβが求められると、座標計算部226は、さらに式(1)を次式(2)に示すように変形し、回転角βを求める。
Here, in equation (1), | yf−yi | represents the absolute value of the difference between yf and yi. When cos β is obtained in this way, the coordinate
このようにして、座標計算部226は、点332の座標(xi,yi)および点342の座標(xf,yf)から、回転角βを求める。換言すれば、座標計算部226は、位置指示光の像と、補助光の像の位置関係から回転角βを求める。
In this way, the coordinate
また、仮想3次元空間における位置指示光の仰角αは、点332および点342を含み、xy平面に直交する平面内における、位置指示光の光路と平行な直線と、z軸とがなす角度とされる。つまり、仰角αは、位置指示光のz軸に対する仰角とされる。
Further, the elevation angle α of the position indicating light in the virtual three-dimensional space includes the
例えば、図26に示すように、表示画像の表示面であるスクリーン21に対して、回転角βが0となるように位置指示光が入射したとする。図26では、縦方向が仮想3次元空間のy軸方向、横方向が仮想3次元空間のz軸方向とされ、スクリーン21の表示面をx軸方向に見た図を表している。
For example, as shown in FIG. 26, it is assumed that the position indicating light is incident on the
図26では、スクリーン21の表示面に対して、矢印61に示す方向に、つまり図中、右下から左上方向に位置指示光が入射している。ここで、縦方向の直線461は、スクリーン21の表示面を表しており、直線462および直線463は位置指示光を表している。
In FIG. 26, the position indicating light is incident on the display surface of the
つまり、仮に位置指示光が表示面を透過するものとすると、実際には位置指示光のビーム径は0ではないので、位置指示光は、直線462と直線463との間の領域を通過する。したがって、直線462と直線463との距離が位置指示光のビーム径とされる。
In other words, if the position indicating light is transmitted through the display surface, the beam diameter of the position indicating light is not actually 0, so that the position indicating light passes through a region between the
また、直線464が、仮想3次元空間のz軸に平行な直線であるとすると、位置指示光の仰角αは、位置指示光とz軸とがなす角であるので、直線464と直線462(または直線463)とがなす角が仰角αとされる。
Further, if the
ここで、表示面上の位置指示光の像である楕円の短軸の長さ、つまり位置指示光画像上の位置指示光の像の輪郭である楕円の短軸の長さDは、常に位置指示光の直径の大きさと等しい。また、表示面上の位置指示光の像である楕円の長軸の長さ、つまり位置指示光画像上の位置指示光の像の輪郭である楕円の長軸の長さLは、直線462と直線461との交点から、直線463と直線461との交点までの長さ(距離)とされる。
Here, the length of the short axis of the ellipse that is the image of the position indicating light on the display surface, that is, the length D of the short axis of the ellipse that is the contour of the image of the position indicating light on the position indicating light image is always the position. Equal to the diameter of the indicator light. Further, the length of the long axis of the ellipse that is the image of the position indicating light on the display surface, that is, the length L of the long axis of the ellipse that is the contour of the image of the position indicating light on the position indicating light image is represented by a
さらに、直線462に直交する直線と、直線461とのなす角はαであるので、円形である位置指示光の像の長軸の長さLと、位置指示光の直径の長さ、つまり短軸の長さDとは、cosα=D/Lという関係を満たす。したがって、座標計算部226は、位置指示光画像上の位置指示光の像の輪郭である楕円の長軸の長さL、および短軸の長さDの関係から、位置指示光の仰角αを求めることができる。換言すれば、座標計算部226は、位置指示光の像の形状、つまり位置指示光の像の歪みの度合いから仰角αを求める。
Furthermore, since the angle formed by the
より具体的には、座標計算部226は、座標情報としての位置指示光の重心座標(xi,yi)、長軸交点座標(xf,yf)、および短軸交点座標(xn,yn)から、長軸の長さLおよび短軸の長さDを求め、さらに求めた長軸の長さLおよび短軸の長さDから、式(3)を計算することによりcosαを求める。
More specifically, the coordinate
そして、さらに座標計算部226は、式(3)を次式(4)に示すように変形することで、仰角αを求める。
Further, the coordinate
このようにして、座標計算部226は、座標情報としての重心座標(xi,yi)、長軸交点座標(xf,yf)、および短軸交点座標(xn,yn)から仰角αを求める。
In this way, the coordinate
以上のようにして、位置指示光の回転角βおよび仰角αが求められると、座標計算部226は、重心座標(xi,yi)、回転角β、仰角α、および記憶している奥行き長さEから、3次元ポインタ31の表示位置の座標を求める。
As described above, when the rotation angle β and the elevation angle α of the position indicating light are obtained, the coordinate
例えば、位置指示光の像の重心の位置、つまり重心座標(xi,yi)により特定される位置が、表示画像に対して想定された仮想3次元空間の座標系の基準点Oの位置であるとすると、図27に示すように、3次元ポインタ31の表示位置の点Gは、奥行き長さE、回転角β、および仰角αから求まる。なお、図27において、右方向がx軸方向、上方向がy軸方向、奥行き方向がz軸方向とされている。
For example, the position of the center of gravity of the image of the position indicating light, that is, the position specified by the center of gravity coordinates (xi, yi) is the position of the reference point O in the coordinate system of the virtual three-dimensional space assumed for the display image. Then, as shown in FIG. 27, the point G of the display position of the three-
また、図27において、点Hは、点Gからxz平面に下ろした垂線の足であり、点Iは、点Gからz軸に下ろした垂線の足であり、点Jは、点Gからyz平面に下ろした垂線の足である。ここで、基準点Oおよび点Gを結ぶ直線OGは、位置指示光の光路を延長した直線となるので、直線OGとz軸とがなす角が、位置指示光の仰角αとされる。すなわち、∠GOIが仰角αとされる。 In FIG. 27, point H is a perpendicular foot drawn from point G to the xz plane, point I is a perpendicular foot drawn from point G to the z-axis, and point J is point yz from point G. It is a leg of a perpendicular line drawn down on a plane. Here, since the straight line OG connecting the reference point O and the point G is a straight line obtained by extending the optical path of the position indicating light, the angle formed by the straight line OG and the z axis is the elevation angle α of the position indicating light. That is, ∠GOI is set to an elevation angle α.
さらに、位置指示光の像の重心の位置、つまり基準点Oと、補助光の像の重心の位置とを通り、xy平面に直交する平面は、基準点O、点G、および点Iを含む平面であるので、その平面と、yz平面とがなす角が回転角βとされる。すなわち、点Gおよび点Iを結ぶ直線GIと、点Jおよび点Iを結ぶ直線JIとがなす角度である、∠GIJが回転角βとされる。なお、基準点O、点G、および点Iを含む平面は、z軸を回転軸として、yz平面を角度βだけ回転させた平面である。 Further, a plane that passes through the position of the center of gravity of the image of the position indicating light, that is, the reference point O and the position of the center of gravity of the image of the auxiliary light and is orthogonal to the xy plane includes the reference point O, the point G, and the point I. Since it is a plane, the angle formed by the plane and the yz plane is the rotation angle β. That is, ∠GIJ, which is an angle formed by the straight line GI connecting the point G and the point I, and the straight line JI connecting the point J and the point I, is the rotation angle β. The plane including the reference point O, the point G, and the point I is a plane obtained by rotating the yz plane by an angle β with the z axis as the rotation axis.
ここで、点Gのx座標、y座標、およびz座標のそれぞれは、点Hのx座標、点Jのy座標、および点Iのz座標のそれぞれと等しい。また、点Hのx座標、点Jのy座標、および点Iのz座標のそれぞれは、点Hから点Iまでの距離、点Jから点Iまでの距離、および点Iから基準点Oまでの距離のそれぞれに等しいので、これらの距離(長さ)を求めることにより、点Gの座標を求めることができる。 Here, the x coordinate, the y coordinate, and the z coordinate of the point G are equal to the x coordinate of the point H, the y coordinate of the point J, and the z coordinate of the point I, respectively. The x coordinate of point H, the y coordinate of point J, and the z coordinate of point I are respectively the distance from point H to point I, the distance from point J to point I, and from point I to reference point O. Therefore, the coordinates of the point G can be obtained by obtaining these distances (lengths).
そこで、直線OG(ベクトルOG)を、点G、基準点O、および点Iを含む平面GOIに沿って分解することを考えると、ベクトルOGは、ベクトルOIとベクトルIGの和として表すことができる。直線OGの長さは奥行き長さEであり、∠GOIは仰角αであるので、点Iから基準点Oまでの距離(長さ)はEcosαとなり、点Gから点Iまでの距離(長さ)は、Esinαとなる。したがって、点Iのz座標、すなわち点Gのz座標はEcosαとなる。 Therefore, considering that the straight line OG (vector OG) is decomposed along the plane GOI including the point G, the reference point O, and the point I, the vector OG can be expressed as the sum of the vector OI and the vector IG. . Since the length of the straight line OG is the depth length E and ∠GOI is the elevation angle α, the distance (length) from the point I to the reference point O is Ecosα, and the distance from the point G to the point I (length) ) Becomes Esinα. Therefore, the z coordinate of the point I, that is, the z coordinate of the point G is Ecosα.
さらに、点Gから点Iまでの長さ、つまり直線GIの長さEsinαと、位置指示光の回転角βとから点Hのx座標および点Jのy座標を求めることができる。すなわち、図28に示すように、点G、点H、点I、および点Jは、xy平面に平行な1つの平面上に位置している。なお、図28において、図27における場合と対応する部分には、同一の符号を付してあり、その説明は省略する。 Further, the x coordinate of the point H and the y coordinate of the point J can be obtained from the length from the point G to the point I, that is, the length Esin α of the straight line GI and the rotation angle β of the position indicating light. That is, as shown in FIG. 28, the point G, the point H, the point I, and the point J are located on one plane parallel to the xy plane. In FIG. 28, portions corresponding to those in FIG. 27 are denoted by the same reference numerals, and description thereof is omitted.
図28において、直線GIの長さはEsinαであり、∠GIJは回転角βであるので、点Jから点Iまでの長さ、つまり直線JIの長さは、Esinαcosβとなる。また、∠GIJがβであり、∠HIJは90度であるので、∠HGIはβとなる。したがって、点Hから点Iまでの長さ、つまり直線HIの長さは、Esinαsinβとなる。 In FIG. 28, the length of the straight line GI is Esin α, and ∠GIJ is the rotation angle β, so the length from the point J to the point I, that is, the length of the straight line JI is Esin α cos β. Also, since ∠GIJ is β and ∠HIJ is 90 degrees, ∠HGI is β. Therefore, the length from the point H to the point I, that is, the length of the straight line HI is Esinαsinβ.
図27の説明に戻り、直線HIの長さはEsinαsinβであり、直線HIはx軸に平行であるので、点Gのx座標は、直線HIの長さに等しく、Esinαsinβとされる。また、直線JIの長さはEsinαcosβであり、直線JIはy軸に平行であるので、点Gのy座標は、直線JIの長さに等しく、Esinαcosβとされる。このようにして、点Gのx座標、y座標、およびz座標が求められたので、点Gの座標は、座標(Esinαsinβ,Esinαcosβ,Ecosα)となる。 Returning to the description of FIG. 27, since the length of the straight line HI is Esin α sin β and the straight line HI is parallel to the x axis, the x coordinate of the point G is equal to the length of the straight line HI and is set to Esin α sin β. Also, since the length of the straight line JI is Esin α cos β and the straight line JI is parallel to the y axis, the y coordinate of the point G is equal to the length of the straight line JI and is set to Esin α cos β. In this way, since the x coordinate, y coordinate, and z coordinate of the point G are obtained, the coordinates of the point G become coordinates (Esinαsinβ, Esinαcosβ, Ecosα).
なお、図27の例においては、位置指示光の像の重心の位置が、基準点Oと同じ位置である場合について考えたが、実際には、位置指示光の像の重心の位置は、基準点Oと同じ位置となるとは限らない。そこで、位置指示光の像の重心の座標を(xi,yi,0)として、点Gを位置指示光の重心の位置の分だけ移動させると、3次元ポインタ31を表示させるべき位置を示す点Gの座標は、(xi+Esinαsinβ,yi+Esinαcosβ,Ecosα)となる。
In the example of FIG. 27, the case where the position of the center of gravity of the image of the position indicating light is the same position as the reference point O has been considered. It is not always the same position as point O. Therefore, if the coordinates of the center of gravity of the image of the position indicating light are (xi, yi, 0) and the point G is moved by the position of the center of gravity of the position indicating light, the point indicating the position where the three-
このように、3次元ポインタ31の表示位置は、位置指示光の重心座標(xi,yi,0)、位置指示光の回転角β、位置指示光の仰角α、および奥行き長さEを用いて表すことができる。また、点Gの座標のEを変化させることで、3次元ポインタ31の表示位置を奥行き方向、および手前方向に簡単に移動させることができる。
As described above, the display position of the three-
次に、図29のフローチャートを参照して、以上において説明した3次元ポインタ位置算出処理の流れを説明する。この3次元ポインタ位置算出処理は図12のステップS46の処理に対応する処理であり、図12のステップS45において後進指示光の検出が行われると開始される。 Next, the flow of the three-dimensional pointer position calculation process described above will be described with reference to the flowchart of FIG. This three-dimensional pointer position calculation process is a process corresponding to the process in step S46 in FIG. 12, and is started when the backward instruction light is detected in step S45 in FIG.
ステップS161において、座標計算部226は、位置指示光検出部223から供給された座標情報としての重心座標(xi,yi)、長軸交点座標(xf,yf)、および短軸交点座標(xn,yn)を用いて、仰角αおよび回転角βを求める。すなわち、座標計算部226は、上述した式(4)を計算することにより仰角αを求め、式(2)を計算することにより回転角βを求める。
In step S161, the coordinate
ステップS162において、座標計算部226は、求めた仰角αを用いて、sinαおよびcosαを求める。そして、ステップS163において、座標計算部226は、求めた回転角βを用いて、sinβおよびcosβを求める。
In step S162, the coordinate
ステップS164において、座標計算部226は、3次元ポインタ31を手前方向に移動させるか否かを判定する。例えば、座標計算部226は、前進指示光検出部224から供給された前進フラグが“false”に設定されており、後進指示光検出部225から供給された後進フラグが“true”に設定されており、かつ記憶している奥行き長さEが1以上である場合、3次元ポインタ31を手前方向に移動させると判定する。
In step S164, the coordinate
すなわち、後進フラグが“true”に設定されている場合、ユーザにより3次元ポインタ31の手前方向への移動が指示されたことを示している。また、奥行き長さEが0である場合には、これ以上3次元ポインタ31を手前方向に移動させることはできない。そこで、前進フラグが“false”に設定され、後進フラグが“true”に設定され、かつ奥行き長さEが1以上である場合に、3次元ポインタ31が手前方向に移動される。
That is, when the backward flag is set to “true”, it indicates that the user has instructed to move the three-
ステップS164において、手前方向に移動させると判定された場合、3次元ポインタ31を手前方向に移動させるので、処理はステップS165に進む。そして、ステップS165において、座標計算部226は、記憶している奥行き長さEの値を1だけ小さくし、処理はステップS168に進む。
If it is determined in step S164 that the three-
一方、ステップS164において、手前方向に移動させないと判定された場合、ステップS166において、座標計算部226は、3次元ポインタ31を奥行き方向に移動させるか否かを判定する。
On the other hand, when it is determined in step S164 not to move in the forward direction, in step S166, the coordinate
例えば、座標計算部226は、前進指示光検出部224から供給された前進フラグが“true”に設定されており、後進指示光検出部225から供給された後進フラグが“false”に設定されている場合、3次元ポインタ31を奥行き方向に移動させると判定する。
For example, the coordinate
すなわち、前進フラグが“true”に設定されている場合、ユーザにより3次元ポインタ31の奥行き方向への移動が指示されたことを示している。そこで、前進フラグが“true”に設定され、後進フラグが“false”に設定されている場合に、3次元ポインタ31が奥行き方向に移動される。
That is, when the forward flag is set to “true”, it indicates that the user has instructed the movement of the three-
ステップS166において、奥行き方向に移動させると判定された場合、3次元ポインタ31を奥行き方向に移動させるので、処理はステップS167に進む。そして、ステップS167において、座標計算部226は、記憶している奥行き長さEの値を1だけ大きくし、処理はステップS168に進む。
If it is determined in step S166 that the three-
これに対して、ステップS166において、奥行き方向に移動させないと判定された場合、ユーザにより3次元ポインタ31の移動が指示されていないか、またはこれ以上3次元ポインタ31を手前方向に移動させることはできないので、奥行き長さEの値は変更されず、処理はステップS168に進む。
On the other hand, if it is determined in step S166 not to move in the depth direction, the user is not instructed to move the three-
ステップS165若しくはステップS167において奥行き長さEが変更されたか、またはステップS166において奥行き方向に移動させないと判定されると、ステップS168において、座標計算部226は、重心座標(xi,yi,0)、記憶している奥行き長さE、並びに求めたsinα、cosα、sinβ、およびcosβから、3次元ポインタ31を表示させるべき表示位置の座標を求める。そして、座標計算部226は、求めた座標を表示画像処理部228に供給して処理は図12のステップS47に進み、3次元ポインタ位置算出処理は終了する。
If the depth length E has been changed in step S165 or step S167, or if it is determined not to move in the depth direction in step S166, in step S168, the coordinate
すなわち、座標計算部226は、3次元ポインタ31の表示位置の座標(xi+Esinαsinβ,yi+Esinαcosβ,Ecosα)に、重心座標のxiおよびyi、奥行き長さEの値、並びに求めたsinα、cosα、sinβ、およびcosβの値を代入することにより、3次元ポインタ31の表示位置の座標を求める。
That is, the coordinate
このようにして求められた座標は、表示画像処理部228に供給され、図12のステップS47において、表示画像処理部228により、求められた表示位置に対応する3次元画像上の位置に、3次元ポインタ31が表示された画像である表示画像が生成される。
The coordinates obtained in this way are supplied to the display
このようにして、座標計算部226は、位置指示光の仰角αおよび回転角βを求め、それらの角度、位置指示光の重心の位置、および記憶している奥行き長さEから3次元ポインタ31の表示位置の座標を求める。
In this way, the coordinate
このように、仰角αおよび回転角βを求め、それらの角度、位置指示光の重心の位置、および記憶している奥行き長さEから3次元ポインタ31の表示位置の座標を求めることにより、3次元ポインタ31の移動先の位置を簡単に求めることができる。したがって、ユーザ32は、レーザポインタ22を操作して、前進指示光または後進指示光を射出させるという簡単な操作だけで、3次元ポインタ31を奥行き方向または手前方向に移動させることができる。
Thus, the elevation angle α and the rotation angle β are obtained, and the coordinates of the display position of the three-
特に、位置指示光、前進指示光、および後進指示光は、それぞれ不可視光であるため、スクリーン21に照射されても、表示されている表示画像に影響を与えることもない。つまり、表示画像を観察する観察者には、表示画像に照射される位置指示光や前進指示光の像が見えないので、不快に感じることもない。また、カメラ23で位置指示光や前進指示光の像を撮像するだけで、3次元ポインタ31を表示させるべき位置を特定できるため、例えば会議場のスクリーンのような大きい表示面に表示画像を表示させる場合においても、簡単かつ高精度に3次元ポインタ31の表示位置を特定することができる。
In particular, since the position indicating light, the forward indicating light, and the reverse indicating light are invisible lights, they do not affect the displayed display image even if they are irradiated on the
なお、以上においては、カメラ23のCCDイメージセンサ183の受光面には、図9に示したオンチップカラーフィルタが配置されると説明したが、図30に示すオンチップカラーフィルタが配置されるようにしてもよい。
In the above description, the on-chip color filter shown in FIG. 9 is arranged on the light receiving surface of the
なお、図30において、1つの正方形は1つの画素を表しており、それらの正方形内の文字W、およびL1乃至L3のそれぞれは、可視光、位置指示光、前進指示光、および後進指示光のそれぞれだけを透過させる可視光のフィルタ、位置指示光の波長のフィルタ、前進指示光の波長のフィルタ、および後進指示光の波長のフィルタのそれぞれを表している。 In FIG. 30, one square represents one pixel, and each of the letters W and L1 to L3 in these squares is visible light, position indicating light, forward indicating light, and backward indicating light. Each of them represents a visible light filter, a position indicating light wavelength filter, a forward indicating light wavelength filter, and a backward indicating light wavelength filter that transmit only each of them.
図30では、それぞれのフィルタがモザイク状に配置されている。すなわち、可視光のフィルタ、位置指示光の波長のフィルタ、前進指示光の波長のフィルタ、および後進指示光の波長のフィルタのそれぞれが、1画素おきに図中、上下方向および左右方向に並べられている。 In FIG. 30, the respective filters are arranged in a mosaic pattern. That is, a visible light filter, a position indicating light wavelength filter, a forward indicating light wavelength filter, and a backward indicating light wavelength filter are arranged in the vertical and horizontal directions in the figure every other pixel. ing.
このように、図30に示したオンチップカラーフィルタがCCDイメージセンサ183の受光面に配置される場合には、各波長のフィルタ同士の間隔、すなわち各色の光のサンプリング間隔が短くなるので、より精度よく位置指示光の像、前進指示光の像、および後進指示光の像を検出することができる。
As described above, when the on-chip color filter shown in FIG. 30 is arranged on the light receiving surface of the
また、CCDイメージセンサ183が、2つの撮像素子から構成されるようにしてもよい。そのような場合、例えば、レンズ181により集光された光は、それぞれの撮像素子において同じ像が撮像されるように、プリズムなどにより2つの光に分離されてCCDイメージセンサ183を構成する撮像素子のそれぞれに入射するようになされる。
Further, the
また、CCDイメージセンサ183が、2つの撮像素子から構成される場合、それらの撮像素子の受光面には、例えば図31に示すオンチップカラーフィルタが配置される。
Further, when the
ここで、図31AはCCDイメージセンサ183を構成する一方の撮像素子の受光面に配置されるオンチップカラーフィルタを示しており、図31Bは、他方の撮像素子の受光面に配置されるオンチップカラーフィルタを示している。さらに、図31Cは、他方の撮像素子の受光面に配置されるオンチップカラーフィルタの他の例を示している。なお、図31A乃至図31Cにおいて、1つの正方形は1つの画素を表している。
Here, FIG. 31A shows an on-chip color filter arranged on the light receiving surface of one image sensor that constitutes the
図31Aにおいて、1つの画素を表す正方形内の文字L1乃至L3のそれぞれは、位置指示光、前進指示光、および後進指示光のそれぞれだけを透過させる位置指示光の波長のフィルタ、前進指示光の波長のフィルタ、および後進指示光の波長のフィルタのそれぞれを表している。 In FIG. 31A, each of the characters L1 to L3 in the square representing one pixel is a filter of the wavelength of the position indicating light that transmits only the position indicating light, the forward indicating light, and the backward indicating light, and the forward indicating light Each of the wavelength filter and the reverse direction light wavelength filter is shown.
図31Aでは、位置指示光の波長のフィルタ、前進指示光の波長のフィルタ、および後進指示光の波長のフィルタのそれぞれが、1画素おきに図中、上下方向および左右方向に並べられている。したがって、図31Aに示すオンチップカラーフィルタが配置された撮像素子により撮像された撮像画像からは、位置指示光画像、前進指示光画像、および後進指示光画像が分離される。 In FIG. 31A, the filter for the wavelength of the position indicating light, the filter for the wavelength of the forward indicating light, and the filter for the wavelength of the backward indicating light are arranged in the vertical and horizontal directions in the drawing every other pixel. Therefore, the position indicating light image, the forward indicating light image, and the reverse indicating light image are separated from the captured image captured by the image sensor on which the on-chip color filter shown in FIG. 31A is arranged.
また、他方の撮像素子の受光面に配置されるオンチップカラーフィルタは、図31Bに示すように、Rのフィルタ、Gのフィルタ、およびBのフィルタがベイヤー配列と呼ばれる配列で配置されたフィルタとされる。 Further, as shown in FIG. 31B, the on-chip color filter disposed on the light receiving surface of the other image sensor includes an R filter, a G filter, and a filter in which the B filter is disposed in an array called a Bayer array. Is done.
図31Bにおいて、1つの画素を表す正方形内の文字R、G、およびBのそれぞれは、R(赤)、G(緑)、およびB(青)の色の光のそれぞれだけを透過させるRのフィルタ、Gのフィルタ、およびBのフィルタのそれぞれを表している。したがって、このオンチップカラーフィルタが受光面に配置されている撮像素子により撮像された撮像画像からは、可視光の画像を得ることができる。 In FIG. 31B, each of the letters R, G, and B in the square representing one pixel transmits only light of R (red), G (green), and B (blue) colors. Each of the filter, the G filter, and the B filter is shown. Therefore, a visible light image can be obtained from a captured image captured by an image sensor in which the on-chip color filter is disposed on the light receiving surface.
さらに、他方の撮像素子の受光面に配置されるオンチップカラーフィルタは、図31Cに示すフィルタとされてもよい。図31Cにおいて、1つの画素を表す正方形内の文字Wは、可視光だけを透過させる可視光のフィルタを表している。このオンチップカラーフィルタが受光面に配置されている撮像素子により撮像された撮像画像からも、可視光の画像を得ることができる。 Furthermore, the on-chip color filter arranged on the light receiving surface of the other image sensor may be the filter shown in FIG. 31C. In FIG. 31C, a letter W in a square representing one pixel represents a visible light filter that transmits only visible light. A visible light image can also be obtained from a captured image captured by an image sensor in which the on-chip color filter is disposed on the light receiving surface.
このように、CCDイメージセンサ183が、2つの撮像素子から構成されるようにした場合、各色の光のサンプリング間隔が短くなるので、より精度よく位置指示光の像、前進指示光の像、および後進指示光の像を検出することができる。また、図31に示したオンチップカラーフィルタを用いる場合、既存のCCDイメージセンサを用いることができるため、コストを削減することができる。
As described above, when the
また、以上においては、スクリーン21を用いて表示画像を表示させると説明したが、画像処理装置24にLCDやCRTディスプレイなどの表示装置を接続し、その表示装置に表示画像を表示させるようにしてもよい。そのような場合、ユーザ32は、表示画像を表示する表示装置の表示画面に対して、レーザポインタ22からの位置指示光や前進指示光を照射させ、カメラ23は、表示装置の表示画面とその周囲の領域を撮像する。
In the above description, the display image is displayed using the
さらに、画像処理装置24にカメラ23が接続されると説明したが、画像処理装置24にカメラ23が設けられるようにしてもよい。
Furthermore, although it has been described that the
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
図32は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。 FIG. 32 is a block diagram illustrating an example of a hardware configuration of a computer that executes the series of processes described above according to a program.
コンピュータにおいて、CPU501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
In the computer, a
バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、キーボード、マウス、マイクロホンなどよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507、ハードディスクや不揮発性のメモリなどよりなる記録部508、ネットワークインターフェースなどよりなる通信部509、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア511を駆動するドライブ510が接続されている。
An input /
以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
In the computer configured as described above, the
コンピュータ(CPU501)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア511に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
The program executed by the computer (CPU 501) is, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disk, or a semiconductor. The program is recorded on a
そして、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
The program can be installed in the
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
11 プレゼンテーションシステム, 21 スクリーン, 22 レーザポインタ, 23 カメラ, 24 画像処理装置, 25 プロジェクタ, 81 不可視光レーザ, 83 不可視光レーザ, 84 不可視光レーザ, 183 CCDイメージセンサ, 186 DSP, 221 色同時化処理部, 222 幾何変換処理部, 223 位置指示光検出部, 224 前進指示光検出部, 225 後進指示光検出部, 226 座標計算部, 228 表示画像処理部 11 presentation system, 21 screen, 22 laser pointer, 23 camera, 24 image processing device, 25 projector, 81 invisible light laser, 83 invisible light laser, 84 invisible light laser, 183 CCD image sensor, 186 DSP, 221 color synchronization processing , 222 geometric transformation processing unit, 223 position indication light detection unit, 224 forward indication light detection unit, 225 reverse indication light detection unit, 226 coordinate calculation unit, 228 display image processing unit
Claims (11)
前記指示装置は、
前記表示装置により表示されている前記表示画像に対して想定された仮想3次元空間上の表示位置であって、前記ポインタを表示させる表示位置を指示するための光である位置指示光を射出する位置指示光射出手段と、
前記位置指示光とは異なる波長の光であり、前記位置指示光の光路と平行な方向への前記ポインタの移動を指示する方向指示光を射出する方向指示光射出手段と
を備え、
前記撮像装置は、前記表示画像に照射された前記位置指示光の像、および前記方向指示光の像を前記撮像画像として撮像し、
前記画像処理装置は、
前記撮像画像から、前記位置指示光と同じ波長の光の画像である位置指示光画像と、前記方向指示光と同じ波長の光の画像である方向指示光画像とを分離する分離手段と、
前記位置指示光画像から、前記表示画像上における前記位置指示光の像の位置および形状を検出する位置指示光検出手段と、
前記方向指示光画像から前記方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記方向への移動が指示されたか否かを示す方向情報を出力する方向指示光検出手段と、
前記位置指示光の像の位置および形状と、出力された前記方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定手段と、
前記位置特定手段により特定された前記ポインタの表示位置に対応する前記表示画像上の位置に、前記ポインタが表示された新たな表示画像を生成する表示画像生成手段と
を備え、
前記表示装置は、これまで表示していた前記表示画像の表示を、生成された前記新たな表示画像に切り替える
画像処理システム。 A display device that displays a display image, an instruction device that irradiates light to the display image to indicate the position of a pointer displayed on the display image, and an image pickup that captures an area where the display image is displayed An image processing system including an apparatus and an image processing apparatus that newly generates a display image based on a captured image obtained by imaging by the imaging apparatus,
The pointing device is
Position indication light, which is a display position in the virtual three-dimensional space assumed for the display image displayed by the display device and is used to indicate the display position for displaying the pointer, is emitted. Position indicating light emitting means;
A light of a wavelength different from that of the position indicating light, and direction indicating light emitting means for emitting direction indicating light for instructing movement of the pointer in a direction parallel to the optical path of the position indicating light,
The imaging device captures the image of the position indicating light and the image of the direction indicating light irradiated on the display image as the captured image,
The image processing apparatus includes:
Separating means for separating, from the captured image, a position indicating light image that is an image of light having the same wavelength as the position indicating light and a direction indicating light image that is an image of light having the same wavelength as the direction indicating light;
Position indication light detection means for detecting the position and shape of the image of the position indication light on the display image from the position indication light image;
Direction indication light detection means for detecting an image of the direction indication light from the direction indication light image and outputting direction information indicating whether or not the pointer has been instructed to move in the direction based on the detection result; ,
Position specifying means for specifying the display position of the pointer in the virtual three-dimensional space based on the position and shape of the image of the position indicating light and the output direction information;
Display image generating means for generating a new display image in which the pointer is displayed at a position on the display image corresponding to the display position of the pointer specified by the position specifying means;
The display device is configured to switch the display of the display image that has been displayed so far to the generated new display image.
前記表示画像が表示されている領域を撮像して得られる位置指示光画像であって、前記仮想3次元空間上の前記ポインタを表示させる表示位置を指示するための位置指示光と同じ波長の光の画像である位置指示光画像から、前記表示画像上における、前記表示画像に照射された前記位置指示光の像の位置および形状を検出する位置指示光検出手段と、
前記表示画像が表示されている前記領域を撮像して得られる第1の方向指示光画像であって、前記位置指示光の光路と平行な第1の方向への前記ポインタの移動を指示する第1の方向指示光と同じ波長であり、前記位置指示光とは異なる波長の光の画像である第1の方向指示光画像から、前記表示画像に照射された前記第1の方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記第1の方向への移動が指示されたか否かを示す第1の方向情報を出力する第1の方向指示光検出手段と、
前記位置指示光の像の位置および形状と、出力された前記第1の方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定手段と
を備える画像処理装置。 An image processing apparatus that specifies a display position on a virtual three-dimensional space assumed for a display image and that displays a pointer.
A position indicating light image obtained by imaging an area where the display image is displayed, and light having the same wavelength as the position indicating light for indicating the display position for displaying the pointer in the virtual three-dimensional space Position indication light detection means for detecting the position and shape of the image of the position indication light irradiated on the display image on the display image from the position indication light image which is an image of
A first direction indicating light image obtained by imaging the area where the display image is displayed, wherein the pointer indicates movement of the pointer in a first direction parallel to the optical path of the position indicating light. An image of the first direction indicating light irradiated on the display image from a first direction indicating light image having the same wavelength as that of the first direction indicating light and a wavelength different from that of the position indicating light. First direction indicating light detecting means for outputting first direction information indicating whether or not movement of the pointer in the first direction is instructed based on the detection result;
An image processing apparatus comprising: position specifying means for specifying a display position of the pointer in the virtual three-dimensional space based on the position and shape of the image of the position indicating light and the output first direction information. .
請求項2に記載の画像処理装置。 The display image generating means for generating a new display image in which the pointer is displayed at a position on the display image corresponding to the display position of the pointer specified by the position specifying means. Image processing device.
請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the position indicating light has a perfect circular cross section.
請求項4に記載の画像処理装置。 The display position of the pointer passes through the position in the virtual three-dimensional space corresponding to the position of the image of the position indicating light, and is a straight line parallel to the first direction specified from the shape of the image of the position indicating light The image processing apparatus according to claim 4, wherein the image processing apparatus is in an upper position.
請求項5に記載の画像処理装置。 The position specifying means stores a depth length that determines a length from the position in the virtual three-dimensional space corresponding to the position of the image of the position indicating light to the display position of the pointer. 6. The display position of the pointer is specified based on the depth length after the change and the position and shape of the image of the position indicating light. The image processing apparatus described.
前記位置特定手段は、前記第1の方向情報および前記第2の方向情報に基づいて、前記奥行き長さを変更する
請求項6に記載の画像処理装置。 A second direction indicating light image obtained by imaging the area where the display image is displayed, wherein the pointer indicates movement of the pointer in a second direction opposite to the first direction. The display image is irradiated from a second direction indicating light image having the same wavelength as the direction indicating light of 2 and a light having a wavelength different from that of the position indicating light and the first direction indicating light. A second direction that detects an image of the second direction indicating light and outputs second direction information indicating whether or not the movement of the pointer in the second direction is instructed based on the detection result. Further comprising indicator light detection means,
The image processing apparatus according to claim 6, wherein the position specifying unit changes the depth length based on the first direction information and the second direction information.
前記撮像画像から、前記位置指示光画像と、前記第1の方向指示光画像とを分離する分離手段と
をさらに備える請求項3に記載の画像処理装置。 Imaging means for imaging the display image, the image of the position indicating light irradiated to the display image, and the image of the first direction indicating light irradiated to the display image as the captured image;
The image processing apparatus according to claim 3, further comprising: a separating unit that separates the position indication light image and the first direction indication light image from the captured image.
請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the position indicating light and the first direction indicating light are invisible light.
前記表示画像が表示されている領域を撮像して得られる位置指示光画像であって、前記仮想3次元空間上の前記ポインタを表示させる表示位置を指示するための位置指示光と同じ波長の光の画像である位置指示光画像から、前記表示画像上における、前記表示画像に照射された前記位置指示光の像の位置および形状を検出する位置指示光検出ステップと、
前記表示画像が表示されている前記領域を撮像して得られる方向指示光画像であって、前記位置指示光の光路と平行な方向への前記ポインタの移動を指示する方向指示光と同じ波長であり、前記位置指示光とは異なる波長の光の画像である方向指示光画像から、前記表示画像に照射された前記方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記方向への移動が指示されたか否かを示す方向情報を出力する方向指示光検出ステップと、
前記位置指示光の像の位置および形状と、出力された前記方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定ステップと
を含む画像処理方法。 An image processing method of an image processing apparatus for specifying a display position for displaying a pointer, which is a display position in a virtual three-dimensional space assumed for a display image,
A position indicating light image obtained by imaging an area where the display image is displayed, and light having the same wavelength as the position indicating light for indicating the display position for displaying the pointer in the virtual three-dimensional space A position indicating light detection step for detecting the position and shape of the image of the position indicating light irradiated on the display image on the display image from the position indicating light image which is an image of
A direction indicating light image obtained by imaging the area where the display image is displayed, and having the same wavelength as the direction indicating light for instructing movement of the pointer in a direction parallel to the optical path of the position indicating light And detecting the image of the direction indicating light irradiated on the display image from the direction indicating light image which is an image of light having a wavelength different from that of the position indicating light, and based on the detection result, the pointer of the pointer A direction indicating light detection step for outputting direction information indicating whether or not movement in the direction has been instructed;
An image processing method comprising: a position specifying step of specifying a display position of the pointer in the virtual three-dimensional space based on the position and shape of the image of the position indicating light and the output direction information.
前記表示画像が表示されている領域を撮像して得られる位置指示光画像であって、前記仮想3次元空間上の前記ポインタを表示させる表示位置を指示するための位置指示光と同じ波長の光の画像である位置指示光画像から、前記表示画像上における、前記表示画像に照射された前記位置指示光の像の位置および形状を検出する位置指示光検出ステップと、
前記表示画像が表示されている前記領域を撮像して得られる方向指示光画像であって、前記位置指示光の光路と平行な方向への前記ポインタの移動を指示する方向指示光と同じ波長であり、前記位置指示光とは異なる波長の光の画像である方向指示光画像から、前記表示画像に照射された前記方向指示光の像を検出し、その検出結果に基づいて、前記ポインタの前記方向への移動が指示されたか否かを示す方向情報を出力する方向指示光検出ステップと、
前記位置指示光の像の位置および形状と、出力された前記方向情報とに基づいて、前記仮想3次元空間上における前記ポインタの表示位置を特定する位置特定ステップと
を含む処理をコンピュータに実行させるプログラム。 It is a display position in a virtual three-dimensional space assumed for a display image, and is a program for image processing that specifies a display position for displaying a pointer,
A position indicating light image obtained by imaging an area where the display image is displayed, and light having the same wavelength as the position indicating light for indicating the display position for displaying the pointer in the virtual three-dimensional space A position indicating light detection step for detecting the position and shape of the image of the position indicating light irradiated on the display image on the display image from the position indicating light image which is an image of
A direction indicating light image obtained by imaging the area where the display image is displayed, and having the same wavelength as the direction indicating light for instructing movement of the pointer in a direction parallel to the optical path of the position indicating light And detecting the image of the direction indicating light irradiated on the display image from the direction indicating light image which is an image of light having a wavelength different from that of the position indicating light, and based on the detection result, the pointer of the pointer A direction indicating light detection step for outputting direction information indicating whether or not movement in the direction has been instructed;
Causing the computer to execute processing including a position specifying step of specifying the display position of the pointer in the virtual three-dimensional space based on the position and shape of the image of the position indicating light and the output direction information. program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007133758A JP4807322B2 (en) | 2007-05-21 | 2007-05-21 | Image processing system, image processing apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007133758A JP4807322B2 (en) | 2007-05-21 | 2007-05-21 | Image processing system, image processing apparatus and method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008287625A JP2008287625A (en) | 2008-11-27 |
JP4807322B2 true JP4807322B2 (en) | 2011-11-02 |
Family
ID=40147269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007133758A Expired - Fee Related JP4807322B2 (en) | 2007-05-21 | 2007-05-21 | Image processing system, image processing apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4807322B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5118663B2 (en) * | 2009-03-31 | 2013-01-16 | Kddi株式会社 | Information terminal equipment |
JP6251962B2 (en) * | 2012-03-01 | 2017-12-27 | 日産自動車株式会社 | Camera apparatus and image processing method |
JP6251963B2 (en) | 2012-03-01 | 2017-12-27 | 日産自動車株式会社 | Camera apparatus and image processing method |
JP6112618B2 (en) * | 2014-07-17 | 2017-04-12 | Necプラットフォームズ株式会社 | Information processing system |
ES2574617B1 (en) * | 2014-11-18 | 2017-04-05 | Ignacio FERRERO PERIS | METHOD, SYSTEM AND COMPUTER PRODUCT TO INTERACT WITH A LASER POINTER |
CN108037870B (en) * | 2017-11-03 | 2020-03-17 | 福建天晴数码有限公司 | Touch screen-based three-dimensional scene object picking method and terminal |
JP7251094B2 (en) * | 2018-10-22 | 2023-04-04 | セイコーエプソン株式会社 | POSITION DETECTION DEVICE, DISPLAY SYSTEM AND POSITION DETECTION METHOD |
JP7251095B2 (en) * | 2018-10-22 | 2023-04-04 | セイコーエプソン株式会社 | POSITION DETECTION DEVICE, DISPLAY DEVICE, DISPLAY SYSTEM AND POSITION DETECTION METHOD |
JP6950669B2 (en) * | 2018-12-06 | 2021-10-13 | セイコーエプソン株式会社 | Display control method, display device, and display system |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2790965B2 (en) * | 1992-08-19 | 1998-08-27 | 富士通株式会社 | Optical pointing system |
JP2000276297A (en) * | 1999-03-25 | 2000-10-06 | Seiko Epson Corp | Device and method for detecting pointing position, presentation system, and information storage medium |
JP2001290600A (en) * | 2000-04-06 | 2001-10-19 | Casio Comput Co Ltd | Coordinate input system |
JP2003036142A (en) * | 2001-07-24 | 2003-02-07 | Hitachi Ltd | System and method for presentation |
JP2004178469A (en) * | 2002-11-29 | 2004-06-24 | Hitachi Ltd | Remote control system |
JP4644800B2 (en) * | 2005-01-07 | 2011-03-02 | 国立大学法人電気通信大学 | 3D position input device |
JP4577612B2 (en) * | 2005-03-30 | 2010-11-10 | カシオ計算機株式会社 | Information display system and information display method |
JP2007086962A (en) * | 2005-09-21 | 2007-04-05 | Fuji Xerox Co Ltd | Screen position indicating system and screen position indicating method |
-
2007
- 2007-05-21 JP JP2007133758A patent/JP4807322B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008287625A (en) | 2008-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4807322B2 (en) | Image processing system, image processing apparatus and method, and program | |
US9542755B2 (en) | Image processor and image processing method | |
US10210629B2 (en) | Information processor and information processing method | |
US9460337B2 (en) | Information processor and information processing method | |
WO2013035554A1 (en) | Method for detecting motion of input body and input device using same | |
US20160049011A1 (en) | Display control device, display control method, and program | |
JP2009205556A (en) | User interface device | |
WO2007055335A1 (en) | Image processing device, image processing method, program thereof, and recording medium containing the program | |
JP2010165248A (en) | Image processor, image collation method, and program | |
JP2008269616A (en) | Cursor control device and method for image display, and image system | |
JP2019033917A (en) | Endoscope system | |
CN108781268B (en) | Image processing apparatus and method | |
JP6804056B2 (en) | Projection type display device, control method of projection type display device, and program | |
JP2019215811A (en) | Projection system, image processing apparatus, and projection method | |
JP2017050684A (en) | Controller, control method and program | |
JP2008287624A (en) | System and method for processing image, image processor, and program | |
US8908012B2 (en) | Electronic device and method for creating three-dimensional image | |
JP2011198270A (en) | Object recognition device and controller using the same, and object recognition method | |
JP2010217984A (en) | Image detector and image detection method | |
WO2017163527A1 (en) | Image processing system, image processing method, and program | |
WO2017029886A1 (en) | Information processing device, information processing method, and program | |
JP2009055332A (en) | Video composition and display device | |
JP2007322704A (en) | Image display system and its control method | |
JP5001400B2 (en) | Shield removal display device | |
KR101056388B1 (en) | Pointing / Interface System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100427 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110714 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110719 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110801 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140826 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |