JP4742196B2 - Presentation system and content creation system - Google Patents
Presentation system and content creation system Download PDFInfo
- Publication number
- JP4742196B2 JP4742196B2 JP2004334335A JP2004334335A JP4742196B2 JP 4742196 B2 JP4742196 B2 JP 4742196B2 JP 2004334335 A JP2004334335 A JP 2004334335A JP 2004334335 A JP2004334335 A JP 2004334335A JP 4742196 B2 JP4742196 B2 JP 4742196B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- display
- presentation system
- pointing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Position Input By Displaying (AREA)
Description
本発明は、コンピュータを用いて生成した画像の表示を行うプレゼンテーションシステム、及びプレゼンテーションシステムによって生成した画像を含むコンテンツを作成するコンテンツ作成システムに関する。 The present invention relates to a presentation system that displays an image generated using a computer, and a content creation system that creates content including an image generated by the presentation system.
講義、講演、発表等には、大型の表示画面を有するプレゼンテーションシステムが利用される。プレゼンテーションシステムとしては、コンピュータを用いて生成した画像を、液晶プロジェクタや大型フラットパネルディスプレイ等に表示させるコンピュータ利用のシステムがある。また、プレゼンテーションや講義を行う時に、予め作成した電子化文書に手書き情報を付加した画像情報を生成し、表示するものも提案されている(特許文献1、特許文献2参照)。 A presentation system having a large display screen is used for lectures, lectures, presentations, and the like. As a presentation system, there is a computer-based system that displays an image generated using a computer on a liquid crystal projector, a large flat panel display, or the like. In addition, it has also been proposed to generate and display image information in which handwritten information is added to a digitized document created in advance when giving a presentation or lecture (see Patent Document 1 and Patent Document 2).
このようなプレゼンテーション用画像の表示切換えを行ったり、手書き画像を表示させたりするためには、プレゼンタや講師等が操作する入力手段が必要であり、一般にキーボード、マウス、タブレット等が利用される。しかし、これらの入力手段は、コンピュータの近傍に固定設置されるため、移動しながらのプレゼンテーションや講義が難しい。 In order to switch the display of the presentation image or to display the handwritten image, an input unit operated by a presenter, a lecturer, or the like is required, and a keyboard, a mouse, a tablet, or the like is generally used. However, since these input means are fixedly installed near the computer, it is difficult to make presentations and lectures while moving.
設置位置から離れた位置でのコンピュータの操作を可能とする技術が、特許文献3に記載されている。特許文献3に記載されたポインティング方法は、操作者が手に持っている色タグを含む画像を撮影するカメラを設置し、撮影した画像における色タグの位置に基づいて、ディスプレイ画面上にカーソルを表示するものである。したがって、操作者が色タグを移動させることにより、カーソルを移動させることができるので、操作者は、コンピュータの設置位置近傍から離れた位置からでもコンピュータの操作が可能となる。
Japanese Patent Application Laid-Open No. 2004-228561 describes a technique that enables a computer to be operated at a position away from the installation position. In the pointing method described in
特許文献3に記載されたポインティング方法においては、撮影画像における色タグの位置とカーソル位置を対応付けるための変換パラメータの設定が必要である。この変換パラメータは、カメラ設置位置とディスプレイ設置位置、カメラの画角を考慮して、回転・拡大/縮小・移動処理により変換するためのものであり、操作者の平均的な立ち位置からみてディスプレイ上の適切な範囲が指示可能となるように予めキャリブレーションによって設定する。したがって、操作者がコンピュータの操作が可能となる範囲は、カメラの予め定められた画角内に制限されることになる。
In the pointing method described in
本発明は、上記事情に鑑みなされたもので、プレゼンタによる表示画像の操作が可能な移動範囲を拡張することができるプレゼテーションシステムを提供することを目的とする。また、そのようなプレゼンテーションシステムを用いて作成した画像を含むコンテンツを作成するコンテンツ作成システムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a presentation system capable of extending a moving range in which a presenter can operate a display image. It is another object of the present invention to provide a content creation system that creates content including an image created using such a presentation system.
本発明のプレゼンテーションシステムは、コンピュータを用いて生成した画像の表示を行うプレゼンテーションシステムであって、プレゼンタの画像を撮影する撮像手段と、前記撮像手段からの撮影画像データを一部に含む合成画像データを生成する画像合成手段と、前記合成画像データに基づく画像を表示する表示手段と、前記合成画像データに含まれる前記撮影画像データに基づき、前記プレゼンタによるポインティング操作を認識するポインティング処理手段と、を備え、前記ポインティング処理手段は、前記撮影画像データに含まれる前記プレゼンタによって移動される特定物体を識別し、前記撮影画像データに基づく画像の表示領域における前記特定物体の相対位置座標を認識し、前記相対位置座標に基づいて表示画面上のポインティング位置を認識し、前記画像合成手段が、前記撮影画像データの鏡像データを合成して前記合成画像データを生成するものである。 The presentation system of the present invention is a presentation system that displays an image generated by using a computer, and is an image capturing unit that captures an image of a presenter, and composite image data that partially includes captured image data from the image capturing unit. Image display means for generating an image, display means for displaying an image based on the composite image data, and pointing processing means for recognizing a pointing operation by the presenter based on the captured image data included in the composite image data. The pointing processing means identifies a specific object moved by the presenter included in the captured image data, recognizes a relative position coordinate of the specific object in an image display region based on the captured image data, and Point on display screen based on relative position coordinates It recognizes the Ingu position, the image synthesizing means, in which by combining the mirror image data of the photographed image data to generate the synthetic image data.
本発明によれば、撮影手段による撮影画像データの内、合成すべき領域を簡単に変更できるので、プレゼンタによるポインティング位置を認識するための画像の領域、すなわちプレゼンタによって移動される特定物体の表示可能領域を簡単に変更できる。したがって、プレゼンタが移動しても合成すべき領域を変更することにより、ポインティングが可能となり、プレゼンタによる表示画像の操作可能範囲を拡張することができる。また、プレゼンタの撮影画像に、特定物体の識別の妨げになる外乱物体が含まれる場合には、その外乱物体が含まれない領域の画像を合成領域とすることにより、ポインティング位置の認識精度を向上させることができる。また、表示用合成画像データに含まれる撮影画像データを、ポインティング処理に必要な部分の撮影画像データのみとすることができるで、ポインティング位置の認識精度を向上させることができるととともに、認識処理負担を軽減することができる。また、プレゼンタにとって、表示画面の全領域に渡ってポインティングし易いものとなる。 According to the present invention, the area to be synthesized can be easily changed in the image data taken by the imaging means, so that the area of the image for recognizing the pointing position by the presenter, that is, the specific object moved by the presenter can be displayed. You can easily change the area. Therefore, by changing the region to be synthesized even if the presenter moves, pointing becomes possible, and the range in which the presenter can operate the display image can be expanded. Also, if the presenter's captured image contains a disturbing object that hinders identification of a specific object, the pointing position recognition accuracy is improved by using an image of the area that does not include the disturbing object as a composite area. Can be made. In addition, since the captured image data included in the composite image data for display can be only the captured image data of the portion necessary for the pointing process, the recognition accuracy of the pointing position can be improved, and the recognition processing burden is increased. Can be reduced. In addition, it is easy for the presenter to point over the entire area of the display screen.
本発明のプレゼンテーションシステムは、前記画像合成手段が、前記表示手段に表示された撮影画像に対する操作に基づき、前記撮影画像データの合成すべき領域を認識するものであるものを含む。本発明によれば、ポインティング位置認識用の撮影画像領域を簡単に変更することができる。 The presentation system of the present invention includes one in which the image synthesizing unit recognizes a region to be synthesized of the photographed image data based on an operation on the photographed image displayed on the display unit. According to the present invention, a captured image area for pointing position recognition can be easily changed.
本発明のプレゼンテーションシステムは、前記ポインティング処理手段が、前記相対位置座標を前記表示手段の表示領域全体の座標にスケール変換して得た座標を前記ポインティング位置として認識するものであるものを含む。 The presentation system of the present invention includes one in which the pointing processing means recognizes coordinates obtained by scaling the relative position coordinates to coordinates of the entire display area of the display means as the pointing position.
本発明のプレゼンテーションシステムは、前記特定物体が、特定の色の光を発光又は反射する物体であるものを含む。具体的には、発光体、特定色のテープ等が利用可能である。 The presentation system of the present invention includes one in which the specific object is an object that emits or reflects light of a specific color. Specifically, a light emitter, a specific color tape, or the like can be used.
本発明のコンテンツ作成システムは、上記したプレゼンテーションシステムにおける前記画像合成手段によって生成された前記合成画像データに基づく表示用合成画像信号を生成するビデオ信号生成手段と、前記表示用合成画像信号に基づくデジタル動画データを含む動画ファイルを生成する動画ファイル生成手段とを備えるものである。 The content creation system according to the present invention includes a video signal generation unit that generates a display composite image signal based on the composite image data generated by the image synthesis unit in the presentation system, and a digital signal based on the display composite image signal. And a moving image file generating means for generating a moving image file including moving image data.
本発明の講義ビデオ作成システムは、上記したコンテンツ作成システムを利用して生成した前記動画ファイルを講義ビデオとして出力するものである。 The lecture video creation system of the present invention outputs the moving image file generated using the content creation system described above as a lecture video.
以上の説明から明らかなように、本発明によれば、プレゼンタによる表示画像の操作が可能な移動範囲を拡張することができるプレゼテーションシステムを提供することができる。また、そのようなプレゼンテーションシステムを用いて作成した画像を含むコンテンツを作成するコンテンツ作成システムを提供することができる。 As is clear from the above description, according to the present invention, it is possible to provide a presentation system that can expand the moving range in which the presenter can operate the display image. In addition, it is possible to provide a content creation system that creates content including an image created using such a presentation system.
以下、本発明の実施の形態について、図面を用いて説明する。なお、以下の説明では、プレゼンテーションシステムを講義に使用し、同時に講義ビデオを作成する講義ビデオ作成システムを適用例としている。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, a lecture video creation system that uses a presentation system for lectures and creates lecture videos at the same time is used as an application example.
図1は、コンテンツ作成システムの一例である講義ビデオ作成システムの概略構成を示す図である。図1の講義ビデオ作成システムは、教室等での講義と同時に講義ビデオを作成するものであり、講師用コンピュータ1、カメラ2、タブレット3、プロジェクタ4、スキャンコンバータ5、録画用コンピュータ6、マイクロホン7、ビデオサーバ8を含んで構成される。
FIG. 1 is a diagram showing a schematic configuration of a lecture video creation system which is an example of a content creation system. The lecture video creation system shown in FIG. 1 creates a lecture video simultaneously with a lecture in a classroom or the like. The lecturer computer 1, camera 2,
講師用コンピュータ1は、プレゼンタである講師が講義に使用するコンピュータであり、例えばノート型PCである。講師用コンピュータ1には、予め、Power Point等のプレゼンテーションソフトウェアで作成された講義用素材が用意されている。また、Webサイトのコンテンツを講義に使用する場合は、Webブラウザをインストールしておくと共にインターネットに接続可能としておく。 The instructor computer 1 is a computer used by a lecturer who is a presenter for a lecture, and is a notebook PC, for example. The lecturer computer 1 is prepared with lecture materials created in advance by presentation software such as Power Point. In addition, when using the contents of a website for lectures, a web browser is installed and connected to the Internet.
講師用コンピュータ1には、カメラ2とタブレット3が、例えばUSB接続により接続される。カメラ2は、講義中の講師を撮影する講師撮影用カメラであって、動画像を講師用コンピュータ1に入力するものであり、タブレット3は、講義中の板書と同様に、講師が手書きデータを入力するためのものである。また、講師用コンピュータ1は、操作手段としてキーボードとマウス、及び液晶表示部(いずれも図示せず)を備える。講師用コンピュータ1は、このような操作手段によって操作され、表示画像の切換え等を行うが、さらに、カメラ2の撮影画像に基づくポインティング操作も可能である。ポインティング操作については、後述する。
A camera 2 and a
講師用コンピュータ1には、カメラ2からの映像をデスクトップ上に表示させるソフトウェアと、タブレット3からの手書き情報をデスクトップ上に描画するためのソフトウェアが予めインストールされる。これらのソフトウェアは、周知の技術により簡単に作成することができる。既に作成されたソフトウェアは、例えば、「COE e-Learning Tools」、<URL:http://coe-el.sfc.keio.ac.jp/>でダウンロードすることができる。このサイトからダウンロードされるソフトウェアは、カメラ2からの撮影動画像及びタブレット3からの手書き画像と1又は複数の講義用素材画像とを合成した合成画像データを生成するものである。
The instructor computer 1 is preinstalled with software for displaying video from the camera 2 on the desktop and software for drawing handwritten information from the
ここで生成される合成画像データは、複数の画像を重ね合わせたものでも、一部の画像を部分的に上書きしたものでも、それぞれの画像を所定の大きさの領域に配置したものでよい。また、合成する各アプリケーション画像(カメラ画像、手書き画像を含む。)の大きさは、任意であり、講師が変更可能である。また、カメラ画像のうちの合成領域も講師が変更可能である。ただし、カメラ画像については、講義資料の表示の邪魔にならないように表示領域の一部に合成する。また、後述するポインティング操作のために、カメラ画像は、鏡像データに変換した上で合成するのが好ましい。 The composite image data generated here may be a superposition of a plurality of images, a partial overwrite of a part of the images, or a configuration in which each image is arranged in a predetermined size area. Further, the size of each application image (including a camera image and a handwritten image) to be combined is arbitrary and can be changed by the lecturer. In addition, the instructor can also change the synthesis area in the camera image. However, the camera image is combined with a part of the display area so as not to disturb the display of the lecture material. Further, for a pointing operation described later, it is preferable that the camera image is synthesized after being converted into mirror image data.
カメラ画像の大きさの変更操作、及び合成領域の変更操作は、マウス操作によって行う。図2に、カメラ画像の大きさの変更操作の一例を示す。表示画面200の右下部分に、カメラ画像が領域210aの大きさで表示されているものとする。この状態で領域21aの左上隅の点220aをドラッグすることにより、カメラ画像の大きさを変更する。例えば、点220aを点220bまでドラッグすると、カメラ画像が領域210bの大きさで表示され、点220cまでドラッグすると、カメラ画像が領域210cの大きさで表示される。
The operation for changing the size of the camera image and the operation for changing the composition area are performed by operating the mouse. FIG. 2 shows an example of an operation for changing the size of the camera image. Assume that the camera image is displayed in the size of the
図3に、カメラ画像の合成領域の変更操作の一例を示す。表示画面300の右下部分に、領域310aの大きさでカメラ画像全体が表示されているものとする。この状態でカメラ画像を選択し、移動させるものとする。この処理は、周知の表示ウィンドウの選択移動により行うことができる。いま、選択したカメラ画像を右下方向に移動させると、表示画面300に表示されるカメラ画像は、領域310b(斜め左下方向のハッチングを付した領域)に、撮影領域の一部がトリミングされた状態で表示される。そして、さらに右下方向に移動させると、カメラ画像は、領域310c(斜め右下方向のハッチングを付した領域)に、表示される。すなわち、図3で仮想的に示した領域320b、320cの領域の撮影画像データが除かれた部分が合成されることになる。
FIG. 3 shows an example of the operation for changing the composite area of the camera image. It is assumed that the entire camera image is displayed in the lower right portion of the
以上の説明では、カメラ画像を表示画面の右下に表示させるものとしたが、講義資料の表示の邪魔にならないような位置であれば、右下に限らない。また、図1のシステムでは、カメラ2を1台としたが複数台のカメラを設け、それぞれ別のウィンドウに表示させてもよい。さらに、カメラ画像を移動させることによってカメラ画像左上部分を残すようにトリミングしたが、マウス操作によって、任意の部分を残すことも可能である。 In the above description, the camera image is displayed at the lower right of the display screen. However, the position is not limited to the lower right as long as it does not interfere with the display of the lecture material. In the system of FIG. 1, the number of cameras 2 is one, but a plurality of cameras may be provided and displayed in separate windows. Further, the camera image is trimmed so as to leave the upper left part of the camera image by moving it, but it is also possible to leave an arbitrary part by operating the mouse.
なお、このような合成画像を表示するための合成画像データは、講師用コンピュータ1のフレームバッファ(図示せず)に書き込まれ、講師用コンピュータ1のデスクトップ画面の表示に利用される。また、フレームバッファの画像データは、後述するポインティング処理に利用される。 The composite image data for displaying such a composite image is written in a frame buffer (not shown) of the instructor computer 1 and used for displaying the desktop screen of the instructor computer 1. Also, the image data in the frame buffer is used for pointing processing described later.
講師用コンピュータ1の外部モニタ出力端子(図示せず)には、デスクトップの画面を映像として図示しない大規模スクリーンに表示するためのプロジェクタ4が接続される。スキャンコンバータ5は、講師用コンピュータ1の外部モニタ出力端子(図示せず)に接続され、この出力端子から出力されるデジタル信号を表示用画像信号の1つであるアナログビデオ信号に変換するものである。
A
録画用コンピュータ6は、スキャンコンバータ5で取得したアナログビデオ信号をビデオキャプチャボードにより入力し、既存のビデオキャプチャソフトを用いて動画ファイル、例えばWindows Media 形式(.WMV)にリアルタイムでエンコードする。Windows Media 形式の動画ファイルは、非常に軽量である。例えば、録画解像度を640pixels×480pixels、配信ビットレートを250bpsに設定すると、1時間あたりのファイル容量は約100MBである。録画解像度を640pixels×480pixelsで、講師用コンピュータ1の画面上の資料及びタブレット描画による板書は、問題なく判読可能である。また、フレームレートは、10fps程度であり、講師の表情や板書の動き等を違和感なく閲覧することが可能である。録画用コンピュータ6の性能は、例えば、PentiumIV.4GHzプロセッサ、メモリ1GB、ハードディスク容量180GBである。
The
マイクロホン7は、講師の音声信号取得するためのものであり、録画用コンピュータ6に接続される。録画用コンピュータ6は、動画ファイルの生成時に音声データの付加を行う。なお、図1では、マイクロホン7を録画用コンピュータ6に接続したが、講師用コンピュータ1に接続し、講師用コンピュータ1で取得した音声データを録画用コンピュータ6に送ってもよい。
The
ビデオサーバ8は、録画用コンピュータ6で作成された動画ファイルがアップされ、ストリーミング配信するものである。ビデオサーバ8は、例えば、Windows 2000Server がインストールされたコンピュータであり、その性能は、Pentium III,750MHzプロセッサ、メモリ512MB、ハードディスク容量240GBである。
The
このような構成を有する講義ビデオを作成システムの動作について説明する。講義室には、予め、講師用コンピュータ1以外の機器が用意されている。講師は、講義用素材を記憶した自己のコンピュータ1のUSB端子にカメラ2、タブレット3を接続し、ビデオ出力端子にプロジェクタ4及びスキャンコンバータ5を接続する。そして、全ての機器を動作させ、講師用コンピュータ1に用意した講義資料表示用のアプリケーションを起動する。
The operation of the lecture video creation system having such a configuration will be described. In the lecture room, devices other than the lecturer computer 1 are prepared in advance. The lecturer connects the camera 2 and the
講師は、このようなシステムの状態で講義を開始し、講師用コンピュータ1に必要な講義用資料を表示させながら講義を進める。講師用コンピュータ1の画像表示信号は、プロジェクタ4に送られるので、図示しない大規模スクリーンにも表示される。講師用コンピュータ1には、講義用資料の一部にカメラ2からの撮影画像が表示される。図4に、表示画像の一例を示す。
The lecturer starts the lecture in such a system state, and advances the lecture while displaying necessary lecture materials on the instructor computer 1. Since the image display signal of the instructor computer 1 is sent to the
図4は、表示画面400のほぼ大部分の領域に、プレゼンテーションソフトウェアによる表示画像410を表示させ、さらに表示画面400の右下部に講師の撮影映像420が表示されている状態を模式的に示したものである。講師の撮影画像420における講師430は、ポインティング位置を認識するための物体430aを保持している。そして、撮影画像420が占める領域における物体430aの相対位置座標に対応する表示画面400の位置にカーソル440が表示されている。ポインティング位置を認識するための物体430aは、例えば、特定の色の光を発光又は反射する物体である。
FIG. 4 schematically shows a state in which the
講師用コンピュータ1の画像表示信号は、同時にスキャンコンバータ5に送られ、スキャンコンバータ5では、画像表示信号に基づくアナログビデオ信号が生成される。そして、生成されたアナログビデオ信号は、録画用コンピュータ6に送られ、デジタル動画ファイルに変換される。すなわち、アナログビデオ信号は、録画用コンピュータ6のビデオキャプチャボード(図示せず)を介して入力され、既存のビデオキャプチャソフトを用いてWindows Media 形式(WMV)のデジタル画像データにリアルタイムでエンコードされる。その際、マイクロホン7によって入力された音声信号も同時にデジタル化され、合わせて出力される。
The image display signal of the instructor computer 1 is sent to the
録画用コンピュータ6で作成されたWindows Media 形式(WMV) の動画ファイルは、ビデオサーバ8にアップロードされる。そして、図示しないネットワークを介して講義ビデオの配信に供せられる。アップロードされる講義ビデオは動画ファイルであるので、ストリーム配信も可能であり、したがって、実際の講義とほぼ同時のライブ配信も可能であり、遠隔講義も実現できる。
A Windows Media format (WMV) video file created by the
録画用コンピュータ6で作成されたWindows Media 形式(WMV) の動画ファイルは、ビデオサーバ8にアップロードされる。そして、図示しないネットワークを介して講義ビデオの配信に供せられる。アップロードされる講義ビデオは動画ファイルであるので、ストリーム配信も可能であり、したがって、実際の講義とほぼ同時のライブ配信も可能であり、遠隔講義も実現できる。
A Windows Media format (WMV) video file created by the
次に、講師用コンピュータ1が行うポインティング処理について説明する。ポインティング処理は、合成画像データに含まれるカメラ画像データに基づき、講師によるポインティング操作を認識する処理である。具体的には、カメラ画像データに含まれる講師が保持する特定物体(例えば、特定の色の光を発光又は反射する物体)を識別し、カメラ画像データに基づく画像の表示領域における特定物体の相対位置座標を認識し、認識した相対位置座標に基づいて表示画面上のポインティング位置を認識するものである。表示画面上のポインティング位置は、認識した相対位置座標を表示領域全体の座標にスケール変換して求める。 Next, the pointing process performed by the instructor computer 1 will be described. The pointing process is a process for recognizing a pointing operation performed by a lecturer based on camera image data included in the composite image data. Specifically, a specific object (for example, an object that emits or reflects light of a specific color) held by the instructor included in the camera image data is identified, and the relative relationship of the specific object in the image display area based on the camera image data The position coordinates are recognized, and the pointing position on the display screen is recognized based on the recognized relative position coordinates. The pointing position on the display screen is obtained by scaling the recognized relative position coordinates to the coordinates of the entire display area.
図5に、ポインティング処理の一例の概略フローを示す。ステップS101では、フレームバッファに記憶された合成画像データを取得し、ステップS102では、表示領域中のカメラ画像表示用ウィンドウを特定するデータを取得する。今、表示画面が(X0+1)×(Y0+1)画素で構成され、フレームバッファに、図6(a)に示すような座標に対応させて画素データが記憶されているものとする。図6(b)における領域610は、カメラ画像のウィンドウ領域である。このような合成が行われる場合、カメラ画像ウィンドウを特定するデータとして、領域610の左上点の座標を取得する。
FIG. 5 shows a schematic flow of an example of the pointing process. In step S101, the composite image data stored in the frame buffer is acquired, and in step S102, data specifying the camera image display window in the display area is acquired. Now, it is assumed that the display screen is made up of (X 0 +1) × (Y 0 +1) pixels, and pixel data is stored in the frame buffer in correspondence with the coordinates as shown in FIG. An
続いて、ステップS103では、カメラ画像ウィンドウ領域における特定物体の探索を行う。特定物体の探索のための画像処理は、例えば、特許文献3に示される技術が利用可能である。そして、探索結果カメラ画像ウィンドウ領域に1つの特定物体が認識できた場合は、探索成功と判断し、特定物体が認識できない場合及び2以上の特定物体が認識できた場合は探索不成功と判断する(ステップS104)。
Subsequently, in step S103, the specific object in the camera image window area is searched. For example, a technique disclosed in
探索成功の場合は、認識できた特定物体の重心位置の相対座標を演算する(ステップS105)。相対座標は、ウィンドウ領域610における座標であり、次のように求めることができる。図6(a)に示すように、表示画面座標系(X,Y)において、ウィンドウ領域610の左上点の座標が(XW,YW)であり、特定物体の重心位置P1の座標が(X1、Y1)であるとする。ここで、図6(b)に示すようなAを原点とする座標系(x,y)を考えると、点P1の相対座標(x1、y1)は、(X1−XW,Y1)となる。
If the search is successful, the relative coordinates of the center of gravity position of the recognized specific object are calculated (step S105). The relative coordinates are coordinates in the
次に、ウィンドウ領域610における点P1の座標系(x,y)での相対座標を、表示画面全体の座標にスケール変換する(ステップS106)。表示画面全体の画素数は、(X0+1)×(Y0+1)であり、ウィンドウ領域610の画素数は、(X0−XW+1)×(YW+1)であるので、点P1をスケール変換した座標は、((X0+1)(X1−XW)/(X0−XW+1),(Y0+1)(Y1)/(YW+1))となる。図6(a)の例では、点Pcの位置がスケール変換した座標となる。そして、ステップS107では、このスケール変換した座標をポインティング位置情報として出力する。このポインティング位置情報は、例えばカーソル表示や手書き軌跡データの作成に利用される。
Next, the coordinate system of the point P 1 in the window area 610 (x, y) coordinates relative to, the scale transformation to the coordinates of the entire display screen (step S106). Since the number of pixels of the entire display screen is (X 0 +1) × (Y 0 +1) and the number of pixels in the
ポインティング処理によって、マウスと同様のポインティングを、コンピュータから離れた状態で行うことができる。なお、マウスのクリックに対応する入力は、例えば、他のリモコン端末を操作して行う。この場合のリモコン端末は、1又は2のオンオフ信号を出力するものであるので、小型かつ安価ものを利用できる。また、プレゼンタが保持する特定物体として複数の色の光を発光又は反射可能なものを利用し、特定物体の色を変化させることにより、クリック動作を認識させることも可能である。 By the pointing process, the same pointing as that of the mouse can be performed in a state away from the computer. Note that the input corresponding to the mouse click is performed by operating another remote control terminal, for example. Since the remote control terminal in this case outputs one or two on / off signals, a small and inexpensive one can be used. It is also possible to recognize a click operation by using a specific object held by the presenter that can emit or reflect light of a plurality of colors and changing the color of the specific object.
ステップS104で探索不成功と判断された場合は、ステップS108で探索不成功を講師用コンピュータ1のOSに通知して終了する。 If it is determined in step S104 that the search is unsuccessful, the search unsuccessful notification is sent to the OS of the instructor computer 1 in step S108, and the process ends.
以上のように、本発明においては、合成画像データに基づいて特定物体の識別処理を行うので、ポインティング処理自体の手順は変更なく、処理負担も増加しない。また、表示手段の一部には、カメラによる撮影画像が表示されるので、プレゼンタは、特定の物体がその画像に含まれるように動かすことにより、ポインティング位置を任意に設定することができる。 As described above, in the present invention, since the specific object identification process is performed based on the composite image data, the procedure of the pointing process itself is not changed, and the processing load does not increase. In addition, since an image captured by the camera is displayed on a part of the display unit, the presenter can arbitrarily set the pointing position by moving the specific object to be included in the image.
さらに、合成されるカメラ画像データの領域を適宜変更することにより、ポインティング処理に適した部分のみを合成させることができるので、ポインティング位置の認識精度を向上させることができるととともに、認識処理負担を軽減することができる。また、プレゼンタにとって、表示画面の全領域に渡ってポインティングし易い領域を合成することも可能である。なお、合成領域の変更操作は、プレゼンタがマウス等を使用して行ってもよいが、プレゼンテーションの補佐をする者が別のマウス等を利用して行ってもよい Furthermore, by appropriately changing the area of the camera image data to be synthesized, it is possible to synthesize only the portion suitable for the pointing process, so that the recognition accuracy of the pointing position can be improved and the recognition process burden is reduced. Can be reduced. It is also possible for the presenter to synthesize an area that can be easily pointed over the entire area of the display screen. The change operation of the composite area may be performed by the presenter using a mouse or the like, but may be performed by a person who assists the presentation using another mouse or the like.
1・・・講師用コンピュータ
2・・・カメラ
3・・・タブレット
4・・・プロジェクタ
5・・・スキャンコンバータ
6・・・録画用コンピュータ
7・・・マイクロホン
8・・・ビデオサーバ
DESCRIPTION OF SYMBOLS 1 ... Instructor computer 2 ...
Claims (6)
プレゼンタの画像を撮影する撮像手段と、
前記撮像手段からの撮影画像データを一部に含む合成画像データを生成する画像合成手段と、
前記合成画像データに基づく画像を表示する表示手段と、
前記合成画像データに含まれる前記撮影画像データに基づき、前記プレゼンタによるポインティング操作を認識するポインティング処理手段と、を備え、
前記ポインティング処理手段は、前記撮影画像データに含まれる前記プレゼンタによって移動される特定物体を識別し、前記撮影画像データに基づく画像の表示領域における前記特定物体の相対位置座標を認識し、前記相対位置座標に基づいて表示画面上のポインティング位置を認識し、
前記画像合成手段は、前記撮影画像データの鏡像データを合成して前記合成画像データを生成するプレゼンテーションシステム。 A presentation system for displaying an image generated using a computer,
Imaging means for taking an image of the presenter;
Image composition means for generating composite image data including a part of the captured image data from the imaging means;
Display means for displaying an image based on the composite image data;
Pointing processing means for recognizing a pointing operation by the presenter based on the captured image data included in the composite image data,
The pointing processing means identifies a specific object to be moved by the presenter included in the captured image data, recognizes a relative position coordinate of the specific object in an image display area based on the captured image data, and Recognize the pointing position on the display screen based on the coordinates ,
The image synthesizing unit is a presentation system that synthesizes mirror image data of the captured image data to generate the synthesized image data .
前記画像合成手段は、前記表示手段に表示された撮影画像に対する操作に基づき、前記撮影画像データの合成すべき領域を認識するプレゼンテーションシステム。 The presentation system according to claim 1,
The presentation system that recognizes an area to be synthesized of the photographed image data based on an operation on the photographed image displayed on the display means .
前記ポインティング処理手段は、前記相対位置座標を前記表示手段の表示領域全体の座標にスケール変換して得た座標を前記ポインティング位置として認識するプレゼンテーションシステム。 The presentation system according to claim 1 or 2,
The presentation system in which the pointing processing means recognizes coordinates obtained by scaling the relative position coordinates to coordinates of the entire display area of the display means as the pointing position .
前記特定物体は、特定の色の光を発光又は反射する物体であるプレゼンテーションシステム。 The presentation system according to any one of claims 1 to 3,
The presentation system , wherein the specific object is an object that emits or reflects light of a specific color .
前記表示用合成画像信号に基づくデジタル動画データを含む動画ファイルを生成する動画ファイル生成手段とを備えるコンテンツ作成システム。 Video signal generation means for generating a composite image signal for display based on the composite image data generated by the image composition means in the presentation system according to any one of claims 1 to 4 ,
A content creation system comprising: a moving image file generating unit that generates a moving image file including digital moving image data based on the composite image signal for display.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004334335A JP4742196B2 (en) | 2004-11-18 | 2004-11-18 | Presentation system and content creation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004334335A JP4742196B2 (en) | 2004-11-18 | 2004-11-18 | Presentation system and content creation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006146481A JP2006146481A (en) | 2006-06-08 |
JP4742196B2 true JP4742196B2 (en) | 2011-08-10 |
Family
ID=36626099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004334335A Expired - Fee Related JP4742196B2 (en) | 2004-11-18 | 2004-11-18 | Presentation system and content creation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4742196B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6623876B2 (en) | 2016-03-24 | 2019-12-25 | 富士通株式会社 | Drawing processing apparatus, method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09265346A (en) * | 1996-03-29 | 1997-10-07 | Bijiyuaru Sci Kenkyusho:Kk | Space mouse, mouse position detection device and visualization device |
JP2000122767A (en) * | 1998-10-14 | 2000-04-28 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for creating common space giving room sharing feeling, and communication system |
JP2004272598A (en) * | 2003-03-07 | 2004-09-30 | Nippon Telegr & Teleph Corp <Ntt> | Pointing method, device and program |
-
2004
- 2004-11-18 JP JP2004334335A patent/JP4742196B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09265346A (en) * | 1996-03-29 | 1997-10-07 | Bijiyuaru Sci Kenkyusho:Kk | Space mouse, mouse position detection device and visualization device |
JP2000122767A (en) * | 1998-10-14 | 2000-04-28 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for creating common space giving room sharing feeling, and communication system |
JP2004272598A (en) * | 2003-03-07 | 2004-09-30 | Nippon Telegr & Teleph Corp <Ntt> | Pointing method, device and program |
Also Published As
Publication number | Publication date |
---|---|
JP2006146481A (en) | 2006-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11910128B2 (en) | Enhanced video interaction for a user interface of a telepresence network | |
US9239627B2 (en) | SmartLight interaction system | |
JP5556911B2 (en) | Method, program, and system for creating content representations | |
US20110099493A1 (en) | Image auxiliary data searching and displaying method and document camera using such method | |
US20220198774A1 (en) | System and method for dynamically cropping a video transmission | |
WO2005114466A2 (en) | Animation review methods and apparatus | |
JP2005051778A (en) | Integrated system for providing shared interactive environment, computer data signal, program, system, method for exchanging information in shared interactive environment, and method for annotating live video image | |
WO2006123780A1 (en) | Remote distribution system and remote distribution method | |
JP6841519B2 (en) | Methods and Electronic Devices for Creating Digital Signatures | |
US11966658B2 (en) | System and method for displaying image, image-capturing device, and recording medium | |
CN109660710A (en) | Camera control method, terminal and storage medium based on video conference | |
JP4649640B2 (en) | Image processing method, image processing apparatus, and content creation system | |
US8395669B2 (en) | Image data transmission apparatus and method, remote display control apparatus and control method thereof, program, and storage medium | |
JP4565232B2 (en) | Lecture video creation system | |
US20230292011A1 (en) | Information processing system, image-capturing device, and display method | |
JP2007026090A (en) | Video preparation device | |
JP4742196B2 (en) | Presentation system and content creation system | |
Liao et al. | Shared interactive video for teleconferencing | |
JP2007060032A (en) | Information processing apparatus, lecture system, and video conference system | |
JP2008090526A (en) | Conference information storage device, system, conference information display device, and program | |
US12086500B2 (en) | Device management system, information processing method, information processing server, and non-transitory recording medium | |
TWI739544B (en) | Method for producing video, system thereof and user interface | |
US20230262200A1 (en) | Display system, display method, and non-transitory recording medium | |
US20230280961A1 (en) | Device management system, information processing system, information processing device, device management method, and non-transitory recording medium | |
CN117608465A (en) | Information processing apparatus, display method, storage medium, and computer apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060425 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071025 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100427 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100628 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110323 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140520 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |