JP2009237950A - Presentation system - Google Patents

Presentation system Download PDF

Info

Publication number
JP2009237950A
JP2009237950A JP2008083910A JP2008083910A JP2009237950A JP 2009237950 A JP2009237950 A JP 2009237950A JP 2008083910 A JP2008083910 A JP 2008083910A JP 2008083910 A JP2008083910 A JP 2008083910A JP 2009237950 A JP2009237950 A JP 2009237950A
Authority
JP
Japan
Prior art keywords
image
indicator
value
storage unit
dimensional coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008083910A
Other languages
Japanese (ja)
Inventor
Yuichiro Takai
雄一郎 高井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissha Printing Co Ltd
Original Assignee
Nissha Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissha Printing Co Ltd filed Critical Nissha Printing Co Ltd
Priority to JP2008083910A priority Critical patent/JP2009237950A/en
Priority to PCT/JP2009/001101 priority patent/WO2009119025A1/en
Priority to TW098109824A priority patent/TW200947261A/en
Publication of JP2009237950A publication Critical patent/JP2009237950A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a presentation system simplifying three-dimensional coordinate arithmetic processing and having an operation method along a habit of a presenter. <P>SOLUTION: This presentation system 1 has: a display surface 2 expanding in an X-axis direction and a Y-axis direction; a display control means 22 displaying an already created image; a pointer 3; cameras 4, 5 photographing a three-dimensional coordinate space; a coordinate value arithmetic means 23 calculating three-dimensional coordinate values of the pointer from a photographic image simultaneously photographed by the cameras 4, 5; and a drawing means 24. The three-dimensional coordinate values x1, y1, z1 of the pointer at time t1 and those x2, y2, z2 of the pointer at time t2 are calculated, image correction is performed according to the value of z1, a starting point of drawing is fixed according to the values of x1, y1, and a finishing point of the drawing is fixed according to the values of x2, y2. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、スクリーン、ディスプレイなどの表示体に画像を表示し発表者がプレゼンテーションを行うにあたり、指示体を移動させ、画像に線などを書き加えることができるプレゼンテーションシステムにかかるものである。   The present invention relates to a presentation system in which an image is displayed on a display body such as a screen or a display and a presenter performs a presentation, and a pointer can be moved to add a line or the like to the image.

従来のハンドポインティング装置は、三次元空間を示す画像をディスプレイに表示し、互いに異なる複数の方向から認識対象者を撮影し、認識対象者が指し示している特定箇所の座標を判断している(例えば、特許文献1参照。)。   A conventional hand pointing device displays an image showing a three-dimensional space on a display, images a person to be recognized from a plurality of different directions, and determines the coordinates of a specific point indicated by the person to be recognized (for example, , See Patent Document 1).

上記ハンドポイント装置は、認識対象者が腕を屈曲伸長させることで位置が変化する特徴点及び認識対象者が腕を屈曲伸長させても位置が変化しない基準点の三次元座標を各々求めて、認識対象者が意図する三次元空間内の特定三次元座標を判断している。
特開平11−134089号公報
The hand point device obtains the three-dimensional coordinates of the feature point whose position changes when the recognition target person flexes and extends the arm and the reference point whose position does not change even when the recognition target person flexes and extends the arm, The specific 3D coordinates in the 3D space intended by the person to be recognized are determined.
Japanese Patent Application Laid-Open No. 11-134089

上記従来のハンドポイント装置は、装置動作中、常時特徴点と基準点の位置を求めるものであり、装置の演算処理が輻輳する。また、認識対象者が正面を向くか、背面を向くかなどにより、基準点を変更するなどの措置も必要となる。   The above-described conventional hand point device constantly obtains the positions of feature points and reference points during operation of the device, and the arithmetic processing of the device becomes congested. In addition, it is necessary to take measures such as changing the reference point depending on whether the person to be recognized faces the front or the back.

さらに、プレゼンテーションにあたり、発表者は説明、表示画像の選択、画像特定位置を指示、聴衆の反応追跡など種々の行為を同時に行うものであり、加えて、精神緊張もある。このような状況下に使用する装置は、可能なかぎり、発表者の普遍的な習性に沿った操作を行うものが好ましい。   Further, in the presentation, the presenter simultaneously performs various actions such as explanation, selection of a display image, instruction of a specific position of the image, tracking of the reaction of the audience, and in addition, there is a mental tension. It is preferable that the apparatus used in such a situation performs an operation in accordance with the presenter's universal behavior as much as possible.

本発明は、三次元座標演算処理を単純化したプレゼンテーションシステムを得ることを課題とする。また、本発明は、発表者の習性に沿った操作方法を備えたプレゼンテーションシステムを得ることを課題とする。   An object of the present invention is to obtain a presentation system that simplifies three-dimensional coordinate calculation processing. Moreover, this invention makes it a subject to obtain the presentation system provided with the operation method according to the presenter's custom.

本発明のその他の課題は、本発明の説明により明らかになる。   Other problems of the present invention will become apparent from the description of the present invention.

本発明の一の態様にかかるプレゼンテーションシステムは、
X軸、Y軸方向にひろがる表示面
前記表示面に表示するための既作成画像を記憶する既作成画像記憶部、
前記既作成画像記憶部に記憶された既作成画像を選択する既作成画像選択手段、
既作成画像選択手段が選択した既作成画像を前記表示面に表示する表示制御手段、
前記表示面を含む三次元座標空間を撮影する2つのカメラ、
前記三次元座標空間内を移動することがある指示体、
前記2つのカメラが同時に撮影した撮影画像を各々記憶する撮影画像記憶部、
撮影画像記憶部に記憶された前記同時撮影画像から、前記三次元座標空間内の一の固定点を基準点とした前記指示体の三次元座標値を演算する座標値演算手段、
前記三次元座標値を記憶する指示体座標値記憶部、
前記指示体座標値記憶部に記憶された前記指示体の三次元座標値を参照し、前記指示体の三次元座標値に応じて描画画像を生成する描画手段を有し、
前記表示制御手段は、前記表示面に、選択・表示された前記既作成画像と同時に前記描画画像を表示するものであり、
前記座標値演算手段により、時刻t1における前記指示体の三次元座標値であるx1、y1、z1が演算され、前記座標値が前記指示体座標値記憶部に記憶されるとともに、前記座標値演算手段により、時刻t1から所定時間経過後の時刻t2における前記指示体の三次元座標値であるx2、y2、z2が演算され、前記座標値が前記指示体座標値記憶部に記憶され、
前記描画手段が生成する描画画像は、時刻t1におけるZ軸座標値であるz1の値に応じて画像修正が行われ、時刻t1におけるX軸とY軸座標値であるx1、y1の値に対応して描画の始点が定められ、時刻t2におけるX軸とY軸座標値であるx2、y2の値に対応して描画の終点が定められることを特徴とする。
A presentation system according to one aspect of the present invention includes:
Display surface extending in the X-axis and Y-axis directions An already-created image storage unit that stores an already-created image to be displayed on the display surface,
Pre-created image selection means for selecting a pre-created image stored in the pre-created image storage unit;
Display control means for displaying the already created image selected by the already created image selecting means on the display surface;
Two cameras for photographing a three-dimensional coordinate space including the display surface;
An indicator that may move in the three-dimensional coordinate space;
A photographed image storage unit for storing photographed images taken by the two cameras at the same time;
Coordinate value calculation means for calculating a three-dimensional coordinate value of the indicator with a single fixed point in the three-dimensional coordinate space as a reference point from the simultaneous captured image stored in the captured image storage unit,
An indicator coordinate value storage unit for storing the three-dimensional coordinate value;
With reference to a three-dimensional coordinate value of the indicator stored in the indicator coordinate value storage unit, and a drawing means for generating a drawing image according to the three-dimensional coordinate value of the indicator;
The display control means displays the drawing image simultaneously with the already-created image selected and displayed on the display surface,
The coordinate value calculation means calculates x1, y1, z1 which are the three-dimensional coordinate values of the indicator at time t1, stores the coordinate values in the indicator coordinate value storage unit, and calculates the coordinate values. The means calculates x2, y2, z2 which are three-dimensional coordinate values of the indicator at time t2 after a predetermined time has elapsed from time t1, and stores the coordinate values in the indicator coordinate value storage unit.
The drawn image generated by the drawing means is corrected according to the value of z1 that is the Z-axis coordinate value at time t1, and corresponds to the values of x1 and y1 that are the X-axis and Y-axis coordinate values at time t1. Thus, the drawing start point is determined, and the drawing end point is determined in accordance with the values of x2 and y2 which are the X-axis and Y-axis coordinate values at time t2.

本発明において、指示体の三次元座標値は、一の固定を基準点として演算算出される。また、前記描画手段が生成する描画画像は、時刻t1におけるZ軸座標値であるz1の値、すなわち、指示体の奥行方向位置に応じて画像種別が定められる。   In the present invention, the three-dimensional coordinate value of the indicator is calculated and calculated using a fixed value as a reference point. The drawing image generated by the drawing means is determined in accordance with the value of z1, which is the Z-axis coordinate value at time t1, that is, the depth direction position of the indicator.

本発明の好ましい実施態様において、前記プレゼンテーションシステムにおける前記描画画像は線であり、z1の値が前記表示面に相対的に近いものである場合に相対的に太い線とする画像修正が行われ、z1の値が前記表示面に相対的に遠いものである場合に相対的に細い線とする画像修正が行われるものであってもよい。   In a preferred embodiment of the present invention, the rendered image in the presentation system is a line, and when the value of z1 is relatively close to the display surface, image correction is performed to make a relatively thick line, When the value of z1 is relatively far from the display surface, image correction with a relatively thin line may be performed.

本好ましい実施態様によれば、指示体が表示面に近いと相対的に太い線が描画され、指示体が表示面に遠いと細い線が描画される。一般に、発表者は強調したい部分を指示する場合には表示面に指示体を近づける習性がある。このため、強調したい部分に、太い下線や、太いオーバーマークが描画されることになる。よって、本好ましい実施態様は、より一層、発明者の習性に沿ったプレゼンテーションシステムとなる。   According to this preferred embodiment, a relatively thick line is drawn when the indicator is close to the display surface, and a thin line is drawn when the indicator is far from the display surface. Generally, a presenter has a habit of bringing an indicator close to a display surface when indicating a portion to be emphasized. For this reason, a thick underline or a thick overmark is drawn in a portion to be emphasized. Therefore, this preferred embodiment is a presentation system that further conforms to the inventor's habits.

もっとも本発明において、画像修正は本好ましい実施態様に限定されるものではなく、例えば、指示体が表示面に近い場合に相対的に細い線に修正されるものであってもよい。   However, in the present invention, the image correction is not limited to this preferred embodiment, and may be corrected to a relatively thin line when the indicator is close to the display surface, for example.

本発明の他の好ましい実施態様において、前記プレゼンテーションシステムは、
さらに、予め定められた奥行値を記憶する奥行値記憶部と奥行判定手段を有し、
奥行判定手段は前記z1の値と前記奥行値を比較し、前記z1の値が前記奥行値を満足する場合に、
前記描画手段が前記描画画像を生成するものであってもよい。
In another preferred embodiment of the present invention, the presentation system comprises:
Furthermore, it has a depth value storage unit and a depth determination means for storing a predetermined depth value,
The depth determination means compares the value of z1 with the depth value, and when the value of z1 satisfies the depth value,
The drawing unit may generate the drawing image.

本好ましい実施態様によれば、指示体が一定範囲の奥行に位置する場合に、描画が行われる。例えば、発表者が表示面に接近し指示体を移動する場合には、描画がおこなわれる。一方、発表者が表示面を離れ、例えば演壇付近で指示体を移動する場合には、描画は行われない。当該演壇付近での指示体の操作は、コマンド入力のための操作と定義し、このようにプレゼンテーションシステムを構成することもできる。   According to this preferred embodiment, the drawing is performed when the indicator is located within a certain range of depth. For example, when the presenter approaches the display surface and moves the indicator, drawing is performed. On the other hand, when the presenter leaves the display surface and moves the indicator near the podium, for example, drawing is not performed. The operation of the indicator near the podium is defined as an operation for inputting a command, and the presentation system can be configured in this way.

一般に、発表者はスライドなど既作成画像の説明時には、表示面に近づいて指示体で表示面をなぞるなど一定奥行方向に移動する習性がある。よって、本好ましい実施態様は、より一層、発明者の習性に沿ったプレゼンテーションシステムとなる。   In general, a presenter has a habit of moving in a certain depth direction, for example, by approaching a display surface and tracing the display surface with an indicator when explaining an already created image such as a slide. Therefore, this preferred embodiment is a presentation system that further conforms to the inventor's habits.

本発明のその他の好ましい実施態様において、前記プレゼンテーションシステムは、
さらに、予め定められた移動距離値を記憶する移動距離値記憶部と第一操作判定手段を有し、
第一操作判定手段は、時刻t1における前記指示体の位置と時刻t2における前記指示体の位置間の距離を算出して前記移動距離値と比較し、前記算出した距離が前記移動距離値を満足する場合に、第一の所定の操作を行うものであってもよい。
In another preferred embodiment of the present invention, the presentation system comprises:
Furthermore, it has a movement distance value storage unit for storing a predetermined movement distance value and a first operation determination means,
The first operation determination means calculates a distance between the position of the indicator at time t1 and the position of the indicator at time t2 and compares the distance with the movement distance value, and the calculated distance satisfies the movement distance value. In this case, the first predetermined operation may be performed.

本好ましい実施態様によれば、指示体が特定速度で移動をした場合には、所定の操作入力(例えば、コマンド入力)と判定され、表示画像が変更される等の所定の操作を行う事ができる。一般に、発表者はスライド送りなどを要求する場合に指示体をす早く移動させ、スライドの説明時には指示体をゆっくり動かす習性がある。よって、本好ましい実施態様では、指示体の移動速度を変化させることによる所定操作の入力を盛り込む事でより一層、発明者の習性に沿ったプレゼンテーションシステムとなる。   According to this preferred embodiment, when the indicator moves at a specific speed, it is determined as a predetermined operation input (for example, command input), and a predetermined operation such as changing a display image can be performed. it can. Generally, the presenter has a habit of moving the indicator quickly when requesting slide feed or the like, and slowly moving the indicator when explaining the slide. Therefore, in the present preferred embodiment, the presentation system is more in line with the inventor's habits by incorporating an input of a predetermined operation by changing the moving speed of the indicator.

所定の操作を例示すれば、既作成画像の頁送り頁戻し、表示画像が変化するいわゆるアニメーションの開始停止、音響の発生停止などである。   Examples of the predetermined operation include page turning and page returning of an already created image, so-called animation start / stop in which a display image changes, and sound generation stop.

以上説明した本発明、本発明の好ましい実施態様、これらに含まれる構成要素は可能な限り組み合わせて実施することができる。   The present invention described above, preferred embodiments of the present invention, and components included in these can be implemented in combination as much as possible.

本発明によれば、指示体の三次元座標値は一の固定点を基準点として演算算出される。当該固定点は、本プレゼンテーションシステムが定常動作を続ける間一定である。従って三次元座標値演算処理は指示体についてのみ行われる。このため、演算効率が向上する。ひいては、処理速度向上、誤動作防止などが実現されるプレゼンテーションシステムとなる。   According to the present invention, the three-dimensional coordinate value of the indicator is calculated and calculated using one fixed point as a reference point. The fixed point is constant while the present presentation system continues steady operation. Therefore, the three-dimensional coordinate value calculation process is performed only for the indicator. For this reason, calculation efficiency improves. As a result, it becomes a presentation system that realizes an improvement in processing speed and prevention of malfunction.

また、時刻t1におけるZ軸座標値であるz1の値、すなわち、指示体の奥行方向位置に応じて画像修正が行われるので、発表者が強調したい部分により顕著な描画がなされるなど、発表者の習性に沿った操作が可能なプレゼンテーションシステムとなる。ひいては、使いやすさ、操作性が向上する。   In addition, since the image correction is performed according to the value of z1 which is the Z-axis coordinate value at time t1, that is, the depth direction position of the indicator, the presenter is able to draw more prominently on the portion that the presenter wants to emphasize. It will be a presentation system that can be operated according to the habits of. As a result, ease of use and operability are improved.

以下、図面を参照して本発明の実施例にかかるプレゼンテーションシステム1をさらに説明する。本発明の実施例に記載した部材や部分の寸法、材質、形状、その相対位置などは、とくに特定的な記載のない限りは、この発明の範囲をそれらのみに限定する趣旨のものではなく、単なる説明例にすぎない。   Hereinafter, the presentation system 1 according to the embodiment of the present invention will be further described with reference to the drawings. The dimensions, materials, shapes, relative positions, etc. of the members and parts described in the embodiments of the present invention are not intended to limit the scope of the present invention only to those unless otherwise specified. It is just an illustrative example.

図1は、プレゼンテーションシステム1の構成図である。プレゼンテーションシステム1は、スクリーンである表示面2、指示体3、第1カメラ4、第2カメラ5、システム制御器8から構成される。   FIG. 1 is a configuration diagram of the presentation system 1. The presentation system 1 includes a display surface 2, which is a screen, an indicator 3, a first camera 4, a second camera 5, and a system controller 8.

本実施例における画像表示はプロジェクター6とスクリーンによりなされる。しかし、本発明において表示面2はスクリーンに限られるものではなく、例えば、液晶ディスプレイなどの表示面であってもよい。   The image display in this embodiment is performed by the projector 6 and the screen. However, in the present invention, the display surface 2 is not limited to the screen, and may be a display surface such as a liquid crystal display, for example.

表示面2は、X軸方向とY軸方向に広がる平面である。本発明において、平面は幾何学に定義される平面と、プロジェクターやディスプレイの特性に応じた曲面を含む。また、本発明においてX軸、Y軸は、表示面との距離を表現するZ軸との相対的な関係を表すものである。   The display surface 2 is a plane that extends in the X-axis direction and the Y-axis direction. In the present invention, the plane includes a plane defined by geometry and a curved surface according to the characteristics of the projector and the display. In the present invention, the X axis and the Y axis represent a relative relationship with the Z axis that expresses the distance from the display surface.

第一カメラ4と第二カメラ5は、表示面2を含む三次元空間を撮影するカメラであり、動画カメラでもよく、静止画カメラであってもよい。もっとも、スムーズな描画を行うなどのためには、例えば、60フレーム/秒程度以上の速度で画像を得ることが好ましいので、第一カメラ4と第二カメラ5は動画カメラが好ましい。第一カメラ4と第二カメラ5は例えば、CCDカメラを使用することができる。   The first camera 4 and the second camera 5 are cameras that capture a three-dimensional space including the display surface 2, and may be a moving image camera or a still image camera. However, in order to perform smooth drawing or the like, it is preferable to obtain an image at a speed of, for example, about 60 frames / second or more. Therefore, the first camera 4 and the second camera 5 are preferably moving image cameras. For example, a CCD camera can be used as the first camera 4 and the second camera 5.

第一カメラ4と第二カメラ5は表示面2の全面を視野にすることが好ましく、図1中に視野7に示すように表示面2の輪郭領域を視野に含むことが好ましい。   The first camera 4 and the second camera 5 preferably have the entire surface of the display surface 2 as the field of view, and preferably include the contour region of the display surface 2 as shown in the field of view 7 in FIG.

なお、カメラは2個に限られず、3個以上あってもよい。   The number of cameras is not limited to two and may be three or more.

指示体3は、例えば赤色や緑色の物体である。物体の形状は例えば、球状体や立方体である。指示体3の移動によるプレゼンテーションシステム1の操作を容易にするために、棒の先端に当該指示体3を付着することが好ましい。また、発表者が例えば赤色や緑色の手袋を片手に装着し、当該手袋を指示体3としてもよい。   The indicator 3 is, for example, a red or green object. The shape of the object is, for example, a spherical body or a cube. In order to facilitate the operation of the presentation system 1 by moving the indicator 3, the indicator 3 is preferably attached to the tip of the bar. Also, the presenter may wear, for example, a red or green glove on one hand and use the glove as the indicator 3.

指示体3はプレゼンテーションシステム1を操作する手段である。指示体3は第1カメラ4と第2カメラ5の視野内で移動したり、静止したりする。また。当該視野外に出て移動したり、静止したりする。視野内での指示体を検出し、プレゼンテーションシステム1を操作する。   The indicator 3 is a means for operating the presentation system 1. The indicator 3 moves within the field of view of the first camera 4 and the second camera 5 or stops. Also. Move out of the field of view or move still. An indicator in the field of view is detected and the presentation system 1 is operated.

システム制御器8は、例えば、コンピュータである。システム制御器8は既作成画像記憶部11、対象色ルックアップテーブルである対象色LUT12、三次元座標記憶部13、レンズ補正係数記憶部14、画像−空間変換係数記憶部15、移動距離値記憶部16、描画画種記憶部17、描画修正記憶部18、奥行値記憶部19、撮影画像記憶部31、レンズ補正済画像記憶部32、指示体座標値記憶部33の各記憶部、既作成画像選択手段21、表示制御手段22、座標値演算手段23、描画手段24、第一操作判定手段25、コマンド制御手段26、対象色判定手段27、奥行判定手段30の各手段、さらに主制御部28、周辺機器制御部29を有している。   The system controller 8 is, for example, a computer. The system controller 8 includes an already created image storage unit 11, a target color LUT 12 that is a target color lookup table, a three-dimensional coordinate storage unit 13, a lens correction coefficient storage unit 14, an image-space conversion coefficient storage unit 15, and a movement distance value storage. 16, a drawing image type storage unit 17, a drawing correction storage unit 18, a depth value storage unit 19, a captured image storage unit 31, a lens corrected image storage unit 32, and a pointer coordinate value storage unit 33. Image selection means 21, display control means 22, coordinate value calculation means 23, drawing means 24, first operation determination means 25, command control means 26, target color determination means 27, depth determination means 30 and further main control unit 28 and a peripheral device control unit 29.

上記の各手段は、コンピュータに組み込まれたプログラムとCPU、RAM、ROMなどにより実現できる。上記の各記憶部は、例えば、コンピュータのハードメモリー内の一定部分を割り当てることで実現できる。さらに、既作成画像選択手段21は、例えば、市販のプレゼンテーションシステム用プログラムを使用することができる。   Each of the above means can be realized by a program incorporated in a computer, a CPU, a RAM, a ROM, and the like. Each said memory | storage part is realizable by allocating the fixed part in the hard memory of a computer, for example. Furthermore, the already created image selection means 21 can use a commercially available presentation system program, for example.

主制御部28はシステム制御器8の全体の動作制御などを行う。周辺機器制御部29は、第1カメラ4、第2カメラ5の動作、画像処理、プロジェクター6の制御などを行う。また、システム制御器8は、システム表示装置41、入力デバイス42を有する。システム表示装置41はコンピュータに付属する液晶ディスプレイであり、入力デバイス42はキーボードとポインター、例えばマウスである。   The main control unit 28 performs overall operation control of the system controller 8. The peripheral device control unit 29 performs operations of the first camera 4 and the second camera 5, image processing, control of the projector 6, and the like. Further, the system controller 8 includes a system display device 41 and an input device 42. The system display device 41 is a liquid crystal display attached to the computer, and the input device 42 is a keyboard and a pointer, for example, a mouse.

(初期設定)
プレゼンテーションシステム1の初期設定その操作などを説明する。
(Initial setting)
The initial setting operation of the presentation system 1 will be described.

表示面2に表示する既作成画像を作成し、既作成画像記憶部11に記憶する。既作成画像は、文字、図形、写真、イラスト、動画これらの混合物などである。また、既作成画像は白紙の画像であってもよい。既作成画像の具体例はプレゼンテーション用のスライド原稿である。   An already created image to be displayed on the display surface 2 is created and stored in the already created image storage unit 11. The already created image is a character, a figure, a photograph, an illustration, a mixture of these, or the like. The already created image may be a blank image. A specific example of the created image is a slide document for presentation.

描画画種記憶部17に描画画種を記憶する。描画画種は、例えば、実線、破線、一点鎖線、丸印、三角印、四角印、矢印などである。記憶する描画画種は、単一であってもよい。   The drawing image type is stored in the drawing image type storage unit 17. The drawing image types are, for example, a solid line, a broken line, an alternate long and short dash line, a circle mark, a triangle mark, a square mark, and an arrow. A single drawing image type may be stored.

描画修正記憶部18に、描画画像の修正事項を記憶する。修正事項は、例えば、線の太さ、色の濃淡、色相である。そして、z1の値との関係式を記述する。例えば、線の太さを修正するのであれば、0≦z1<50の場合に線の太さ100画素、50≦z1<100の場合に線の太さ70画素、100≦z1<150の場合に線の太さ40画素のように記述する。また、例えば、色相を修正するのであれば、0≦z1<100の場合に赤、100≦z1<200の場合に橙、200≦z1<300の場合に黄のように記述する。   The drawing correction storage unit 18 stores the correction items of the drawing image. The correction items include, for example, line thickness, color shading, and hue. Then, a relational expression with the value of z1 is described. For example, when correcting the line thickness, when 0 ≦ z1 <50, the line thickness is 100 pixels, when 50 ≦ z1 <100, the line thickness is 70 pixels, and when 100 ≦ z1 <150 The line thickness is described as 40 pixels. For example, if the hue is to be corrected, it is described as red when 0 ≦ z1 <100, orange when 100 ≦ z1 <200, and yellow when 200 ≦ z1 <300.

(環境設定)
次に、環境設定を行う。環境設定は、プレゼンテーションシステム1を実際の使用場所に設置して、照明状態、指示体移動範囲などに応じて、プレゼンテーションシステム1に必要なデータを入力する設定である。
(Environmental setting)
Next, environment setting is performed. The environment setting is a setting in which the presentation system 1 is installed in an actual use place and necessary data is input to the presentation system 1 according to the lighting state, the indicator movement range, and the like.

プレゼンテーションシステム1を発表場所に設置し、表示面2、プロジェクター6を配置する。第1カメラ4と第2カメラ5を配置し、カメラ視野7を調節する。カメラ視野は、環境設定中と引き続く定常運転中固定される。   The presentation system 1 is installed at the presentation place, and the display surface 2 and the projector 6 are arranged. The 1st camera 4 and the 2nd camera 5 are arrange | positioned, and the camera visual field 7 is adjusted. The camera field of view is fixed during environment setting and during subsequent steady operation.

次に、プレゼンテーションシステム1に認識対象色の教示を行う。図3は認識対象色教示処理のフローチャートであり、図2は対象色LUT12の内容説明図である。   Next, the presentation system 1 is taught the recognition target color. FIG. 3 is a flowchart of the recognition target color teaching process, and FIG. 2 is an explanatory diagram of the contents of the target color LUT 12.

S11で指示体3をカメラ視野7内に位置付け、第1カメラ4、第2カメラ5で指示体3を含む画像を撮影する。S12で第1カメラ4の撮影画像と第2カメラ5の撮影画像を撮影画像記憶部31に記憶する。   In S11, the indicator 3 is positioned in the camera visual field 7, and an image including the indicator 3 is taken by the first camera 4 and the second camera 5. In S 12, the captured image of the first camera 4 and the captured image of the second camera 5 are stored in the captured image storage unit 31.

S13で第1カメラ4の撮影画像を撮影画像記憶部31から呼び出し、システム表示装置41に表示する。S14で、入力デバイス42にてシステム表示装置上の指示体3領域を指定する。この操作により第1の認識対象色C1が教示される。S15で第1の認識対象色C1を対象色LUT12に記憶する。   In S13, the captured image of the first camera 4 is called from the captured image storage unit 31 and displayed on the system display device 41. In S14, the indicator 3 area on the system display device is designated by the input device 42. By this operation, the first recognition target color C1 is taught. In S15, the first recognition target color C1 is stored in the target color LUT12.

S16で、システム表示装置41に表示されている同一画像に対して、非指示体領域を指定する。この操作により第1の非認識対象色NC1−1が教示される。S17で第1の非認識対象色NC1−1を対象色LUT12に記憶する。S16とS17を繰り返して他の非認識対象色を教示する。   In S16, a non-indicator region is designated for the same image displayed on the system display device 41. By this operation, the first non-recognition target color NC1-1 is taught. In S17, the first unrecognized target color NC1-1 is stored in the target color LUT12. Repeat S16 and S17 to teach other unrecognized colors.

ここで、S16においてシステム表示装置41に表示されている同一画像に教示すべき非認識対象色がない場合には、以下の撮影操作から繰り返す。すなわち、当該特定の非認識対象色を含む画像を表示面2に表示し、あるいは、当該特定の非認識対象色の物をカメラ視野7内に位置づけて、第1カメラで撮影し、S12、S13、S16、S17を行う。   Here, when there is no non-recognition target color to be taught in the same image displayed on the system display device 41 in S16, the following photographing operation is repeated. That is, an image including the specific non-recognition target color is displayed on the display surface 2, or an object of the specific non-recognition target color is positioned in the camera visual field 7 and photographed with the first camera, and S12, S13 , S16, S17.

以上により、第1カメラ撮影画像について第1の認識対象色C1と第1の非認識対象色NC1−1、NC1−2 −−− NC1−nが教示され、対象色LUT12に記憶される。   As described above, the first recognition target color C1 and the first non-recognition target colors NC1-1 and NC1-2 --- NC1-n are taught and stored in the target color LUT 12 for the first camera photographed image.

次にS19に移行し、第2カメラ撮影画像について、S13〜S18の操作を繰り返す。S14で指定される第2の認識対象色C2と、上述した第1の認識対象色C1は略同一であるが、それぞれ第2カメラと第1カメラの色特性が反映された色データである。   Next, the process proceeds to S19, and the operations of S13 to S18 are repeated for the second camera image. The second recognition target color C2 specified in S14 and the first recognition target color C1 described above are substantially the same, but are color data reflecting the color characteristics of the second camera and the first camera, respectively.

以上の認識対象色教示が終了すると、図2に示すように、対象色LUT12内には、第1カメラ撮影画像について認識対象色C1と非認識対象色NC1−1、NC1−2 −−− NC1−nが記憶され、第2カメラ撮影画像について認識対象色C2と非認識対象色NC2−1、NC2−2 −−− NC2−nが記憶される。   When the above recognition target color teaching is completed, as shown in FIG. 2, the target color LUT 12 includes the recognition target color C1 and the non-recognition target colors NC1-1 and NC1-2 in the target camera LUT12. -N is stored, and the recognition target color C2 and the non-recognition target colors NC2-1 and NC2-2 for the second camera photographed image are stored.

カメラを3台以上含むプレゼンテーションシステムにあっては、第3カメラ撮影画像などについて、認識対象色と非認識対象色を教示する。   In a presentation system including three or more cameras, a recognition target color and a non-recognition target color are taught for a third camera photographed image and the like.

次に図4を参照して、画像―空間変換にかかる環境設定を説明する。   Next, with reference to FIG. 4, the environment setting for image-space conversion will be described.

S21で補正用基準点が描かれた画像を表示面2に表示する。画像表示に替えて同様の印刷物を表示面に貼り付けてもよい。補正用基準点が描かれた画像は、例えば、方眼画像、市松模様画像である。そして、当該表示を第1カメラ4、第2カメラ5で撮影する。   In S21, the image on which the reference point for correction is drawn is displayed on the display surface 2. A similar printed material may be attached to the display surface instead of the image display. The image on which the correction reference point is drawn is, for example, a grid image or a checkered pattern image. Then, the display is photographed by the first camera 4 and the second camera 5.

S22で第1カメラ4の撮影画像と第2カメラ5の撮影画像を撮影画像記憶部31に記憶する。S23で第1カメラ4の撮影画像を撮影画像記憶部31から呼び出し、システム表示装置41に表示する。表示画像上の補正用基準点の画像座標値を検出する。   In S 22, the captured image of the first camera 4 and the captured image of the second camera 5 are stored in the captured image storage unit 31. In S23, the captured image of the first camera 4 is called from the captured image storage unit 31 and displayed on the system display device 41. An image coordinate value of a reference point for correction on the display image is detected.

S24で三次元座標(ワールド座標)における補正用基準点と、S23で検出した画像座標値を関連つける。S25で三次元座標値と画像座標値を一時メモリーに記憶する。   In S24, the reference point for correction in the three-dimensional coordinates (world coordinates) is associated with the image coordinate value detected in S23. In S25, the three-dimensional coordinate value and the image coordinate value are stored in a temporary memory.

他の補正用基準点について、S23〜S25の操作を繰り返す。   The operations of S23 to S25 are repeated for other correction reference points.

S26で一時メモリーから三次元座標値群と各々1対1に対応する画像座標値群を呼び出し、両群から第1カメラ撮影画像のレンズ補正係数と第1カメラ撮影画像の画像−空間変換係数を算出する。レンズ補正係数は係数値であり、画像−空間変換係数は行列値である。   In S26, the three-dimensional coordinate value group and the image coordinate value group corresponding to each one-to-one are called from the temporary memory. calculate. The lens correction coefficient is a coefficient value, and the image-space conversion coefficient is a matrix value.

S27で、第1カメラ撮影画像のレンズ補正係数をレンズ補正係数記憶部14に記憶する。S28で、第1カメラ撮影画像の画像−空間変換係数を画像−空間変換係数記憶部15に記憶する。   In S <b> 27, the lens correction coefficient of the first camera image is stored in the lens correction coefficient storage unit 14. In S 28, the image-space conversion coefficient of the first camera image is stored in the image-space conversion coefficient storage unit 15.

S29で第2カメラ撮影画像に対して、S23〜S28と同様の操作を行う。当該操作により、第2カメラ撮影画像のレンズ補正係数がレンズ補正係数記憶部14に記憶され、第2カメラ撮影画像の画像−空間変換係数が画像−空間変換係数記憶部15に記憶される。   In S29, the same operation as in S23 to S28 is performed on the image captured by the second camera. With this operation, the lens correction coefficient of the second camera photographed image is stored in the lens correction coefficient storage unit 14, and the image-space conversion coefficient of the second camera photographed image is stored in the image-space conversion coefficient storage unit 15.

(定常運転−1)
次に図5に示す定常運転のフローチャート、図6に示す指示体3の三次元座標決定処理フローチャートを参照しつつ、定常運転処理を説明する。
(Steady operation-1)
Next, the steady operation process will be described with reference to the steady operation flowchart shown in FIG. 5 and the three-dimensional coordinate determination process flowchart of the indicator 3 shown in FIG.

S40で定常運転を開始する。定常運転中、指示体3は発表者の操作に従って、移動したり静止したりする。   Steady operation is started in S40. During steady operation, the indicator 3 moves or stops according to the operation of the presenter.

S41で既作成画像選択手段21は、既作成画像記憶部11から一の画像を選択する。S42で、表示制御手段21は当該画像を表示面2に表示する。   In S <b> 41, the already created image selection unit 21 selects one image from the already created image storage unit 11. In S <b> 42, the display control unit 21 displays the image on the display surface 2.

S430で、第1カメラ4と第2カメラ5は各々の視野内を同時に撮影し、撮影画像中の指示体3の位置から指示体3の三次元座標値を算出する。S430の詳細な処理は、以下で別途説明する。   In S430, the first camera 4 and the second camera 5 simultaneously photograph each field of view, and calculate the three-dimensional coordinate value of the indicator 3 from the position of the indicator 3 in the photographed image. Detailed processing of S430 will be separately described below.

当該算出により、時刻t1における指示体3の三次元座標値x1、y1、z1と、時刻t2における座標値x2、y2、z2が、指示体座標値記憶部33に記憶される。   With this calculation, the three-dimensional coordinate values x1, y1, and z1 of the indicator 3 at time t1 and the coordinate values x2, y2, and z2 at time t2 are stored in the indicator coordinate value storage unit 33.

S51で描画手段24が描画画種記憶部17から、一の描画画種を選択する。描画画種は、例えば、一の定常運転中は、常時、同一描画画種が選択されるように予めプログラムしておいてもよく、また、x1、y1、z1の値に応じて描画画種が選択されるようにプログラムしておいてもよい。   In S51, the drawing unit 24 selects one drawing image type from the drawing image type storage unit 17. For example, the drawing image type may be programmed in advance so that the same drawing image type is always selected during one steady operation, and the drawing image type is determined according to the values of x1, y1, and z1. May be programmed to be selected.

S52で描画手段24が指示体座標値記憶部33を参照し、z1の値に応じて描画画像を修正する。描画画種が線の場合に、例えば、z1の値が前記表示面に相対的に近いものである場合に相対的に太い線とする画像修正を行い、z1の値が前記表示面に相対的に遠いものである場合に相対的に細い線とする画像修正を行う。   In S52, the drawing unit 24 refers to the indicator coordinate value storage unit 33 and corrects the drawing image according to the value of z1. When the drawing image type is a line, for example, when the value of z1 is relatively close to the display surface, image correction is performed so that the line is relatively thick, and the value of z1 is relative to the display surface. When the image is far from the image, the image is corrected so that the line is relatively thin.

S53で、描画手段24が指示体座標値記憶部33のx1、y1の値を参照して、描画画像の始点を決定する。S54で、描画手段24が指示体座標値記憶部33のx2、y2の値を参照して、描画画像の終点を決定する。   In S <b> 53, the drawing unit 24 refers to the values of x <b> 1 and y <b> 1 in the indicator coordinate value storage unit 33 and determines the starting point of the drawn image. In S54, the drawing unit 24 refers to the x2 and y2 values in the indicator coordinate value storage unit 33 to determine the end point of the drawn image.

S55で、描画手段は、S41で選択され、現在表示面2に表示されていると同一の既作成画像を既作成画像記憶手段11から呼び出す。当該既作成画像にS51〜S54で作成修正された描画画像を重ねる処理を行う。当該描画処理は、描画画像が最前面に表示され、重なった既作成画像は見えない態様であってもよく、描画画像が、たとえば、50%の透過度で描かれるものであってもよい。そして当該画像を表示制御手段22に送付する。   In S55, the drawing means calls the already created image that is selected in S41 and that is currently displayed on the display surface 2 from the already created image storage means 11. A process of superimposing the drawing image created and corrected in S51 to S54 on the already created image is performed. The drawing process may be such that the drawn image is displayed in the foreground and the previously created image that is overlapped is not visible, or the drawn image may be drawn with a transparency of 50%, for example. Then, the image is sent to the display control means 22.

S56で、表示制御手段22は、重ね合わされた画像を表示面2に表示する。   In S <b> 56, the display control unit 22 displays the superimposed image on the display surface 2.

S56が終了すれば、座標値記憶部32中のx2、y2、z2のデータは、新たなx1、y1、z1と定義される。   When S56 ends, the data of x2, y2, and z2 in the coordinate value storage unit 32 are defined as new x1, y1, and z1.

(定常運転−2、三次元座標決定処理)
S430における指示体3の三次元座標決定処理を説明する。
(Steady operation-2, three-dimensional coordinate determination processing)
The three-dimensional coordinate determination process of the indicator 3 in S430 will be described.

S61において、第1カメラ4、第2カメラ5で固定視野を同時に撮影する。S62で第1カメラ4の撮影画像と第2カメラ5の撮影画像を撮影画像記憶部31に記憶する。   In S61, the first camera 4 and the second camera 5 photograph the fixed visual field simultaneously. In S 62, the captured image of the first camera 4 and the captured image of the second camera 5 are stored in the captured image storage unit 31.

S63で第1カメラ4の撮影画像を撮影画像記憶部31から呼び出す。S64でレンズ補正係数記憶部に記憶された第1カメラ撮影画像のレンズ補正係数を用いて、第1カメラ撮影画像にレンズ補正を行う。S65で第1カメラレンズ補正済画像をレンズ補正済画像記憶部32に記憶する。   In S63, the captured image of the first camera 4 is called from the captured image storage unit 31. In step S64, lens correction is performed on the first camera photographed image using the lens correction coefficient of the first camera photographed image stored in the lens correction coefficient storage unit. In step S65, the first camera lens corrected image is stored in the lens corrected image storage unit 32.

S66で第2カメラ撮影画像に対して、S61〜S65と同様の処理を行う。当該処理に用いるレンズ補正係数は、第2カメラ撮影画像のレンズ補正係数である。これにより第2カメラレンズ補正済画像もレンズ補正済画像記憶部32に記憶される。   In S66, the same process as in S61 to S65 is performed on the image captured by the second camera. The lens correction coefficient used for this processing is the lens correction coefficient of the second camera photographed image. Accordingly, the second camera lens corrected image is also stored in the lens corrected image storage unit 32.

S67で三次元座標記憶部13に記憶された三次元座標空間の第1の点を抽出する。抽出された点の座標値を「抽出三次元座標値」と呼ぶ。三次元座標空間は、表示面2(X軸とY軸方向に広がる)を含み、表示面から前方(発表者、聴衆が位置する方向(Z軸))と後方に広がる空間である。同時に、三次元座標空間はカメラ視野7で撮影される空間である。三次元座標記憶部13には、三次元座標空間を微小立方体、または微小直方体に区画した空間上の各座標点が記憶されている。三次元座標値のZ軸正負は右手座標系で定義するが、必要に応じてZ軸の正負を補正すればよい。   In S67, the first point in the three-dimensional coordinate space stored in the three-dimensional coordinate storage unit 13 is extracted. The coordinate value of the extracted point is called “extracted three-dimensional coordinate value”. The three-dimensional coordinate space is a space that includes the display surface 2 (expanding in the X-axis and Y-axis directions) and extends forward (in the direction in which the presenter and audience are located (Z-axis)) and backward from the display surface. At the same time, the three-dimensional coordinate space is a space photographed with the camera visual field 7. The three-dimensional coordinate storage unit 13 stores coordinate points on a space obtained by dividing the three-dimensional coordinate space into a minute cube or a minute rectangular parallelepiped. Although the Z-axis positive / negative of the three-dimensional coordinate value is defined in the right-handed coordinate system, the positive / negative of the Z-axis may be corrected as necessary.

S68で、座標値演算手段23は、画像−空間変換係数記憶部15に記憶された第1カメラ撮影画像の画像−空間変換係数を用いて、抽出三次元座標値を第1カメラ撮影画像の画像座標値に変換する。変換された画像座標値を「抽出画像座標値」と呼ぶ。   In S <b> 68, the coordinate value calculation unit 23 uses the image-space conversion coefficient of the first camera photographed image stored in the image-space conversion coefficient storage unit 15 to extract the extracted three-dimensional coordinate value of the first camera photographed image. Convert to coordinate values. The converted image coordinate value is referred to as “extracted image coordinate value”.

S69で、対象色判定手段は第1カメラレンズ補正済画像を呼び出し、対象色LUT12内の第1カメラ撮影画像用の認識対象色C1、非認識対象色NC1−1、NC1−2 −−− NC1−nを参照しながら、抽出画像座標値の画素が認識対象色に該当するか否かを判定する。認識対象色に該当する場合には、S70に移行する。認識対象色に該当しない場合には、S67に戻り、三次元座標記憶部13に記憶された三次元座標空間の第2の点を抽出し、S68、S69の同様の処理を行う。   In S69, the target color determination unit calls the first camera lens corrected image, recognizes the target color C1 for the first camera photographed image in the target color LUT12, the non-recognition target color NC1-1, NC1-2 --- NC1. With reference to -n, it is determined whether or not the pixel of the extracted image coordinate value corresponds to the recognition target color. If it falls under the recognition target color, the process proceeds to S70. If the color does not correspond to the recognition target color, the process returns to S67, the second point in the three-dimensional coordinate space stored in the three-dimensional coordinate storage unit 13 is extracted, and the same processes of S68 and S69 are performed.

S70では、第2カメラレンズ補正済画像に対してS68、S69と同様の処理を行う。このとき、抽出画像座標値の変換に使用される画像−空間変換係数は、第2カメラ撮影画像の画像−空間変換係数である。また、対象色判定手段が参照する対象色LUT12中の色データは、第2カメラ撮影画像用の認識対象色C2、非認識対象色NC2−1、NC2−2 −−− NC2−nである。   In S70, the same processing as S68 and S69 is performed on the second camera lens corrected image. At this time, the image-space conversion coefficient used for conversion of the extracted image coordinate value is an image-space conversion coefficient of the second camera photographed image. Further, the color data in the target color LUT 12 referred to by the target color determination means are the recognition target color C2 for the second camera photographed image, the non-recognition target color NC2-1, NC2-2 --- NC2-n.

S71で、対象色判定手段27は、第1カメラ撮影画像と第2カメラ撮影画像で認識対象色が検出されたか否かを判定する。すなわち、第2カメラ撮影画像における抽出画像座標点の画素が認識対象色と判定した場合には、抽出三次元座標値を指示体3の検出座標点とみなして、座標値記憶部32に検出指示体座標点として抽出三次元座標値を記憶する。第2カメラ撮影画像で認識対象色が検出されない場合には、S67に戻り、三次元座標記憶部13に記憶された三次元座標空間の第2の点を抽出し、S68、S69と同様の処理を行う。   In S <b> 71, the target color determination unit 27 determines whether or not a recognition target color is detected in the first camera captured image and the second camera captured image. That is, when the pixel of the extracted image coordinate point in the second camera photographed image is determined as the recognition target color, the extracted three-dimensional coordinate value is regarded as the detected coordinate point of the indicator 3 and the detection instruction is given to the coordinate value storage unit 32. The extracted three-dimensional coordinate value is stored as a body coordinate point. When the recognition target color is not detected in the second camera photographed image, the process returns to S67, the second point in the three-dimensional coordinate space stored in the three-dimensional coordinate storage unit 13 is extracted, and the same processing as in S68 and S69 is performed. I do.

S72では、S67〜S71までの処理を繰り返して、三次元座標空間の全ての点で、対象色検出処理を行う。   In S72, the process from S67 to S71 is repeated, and the target color detection process is performed at all points in the three-dimensional coordinate space.

S73では、上記の処理で対象色の検出があれば、S74に進む。上記の処理で対象色の検出がなければ、S76に進む。   In S73, if the target color is detected in the above process, the process proceeds to S74. If no target color is detected in the above processing, the process proceeds to S76.

S74では、指示体座標値記憶部33に記憶された検出指示体座標値群を座標値演算手段により一点に確定する。当該一点への確定は、例えば、検出指示体座標値群の重心を求めてもよく、また、検出指示体座標値群の中で、表示面に最近接している点の座標を選択してもよい。   In S74, the detected indicator coordinate value group stored in the indicator coordinate value storage unit 33 is determined as one point by the coordinate value calculation means. For example, the center of the detection indicator coordinate value group may be obtained, or the point closest to the display surface may be selected from the detection indicator coordinate value group. Good.

S75で、確定した検出指示体座標点を時刻t1におけるx1、y1、z1として記憶する。   In S75, the determined detection indicator coordinate point is stored as x1, y1, and z1 at time t1.

S76では、S61に戻り、次フレーム(時刻t2)での撮影画像について、指示体座標検出を行う。これにより、時刻t2における指示体の座標点x2、y2、z2が指示体座標値記憶部33に記憶される。   In S76, the process returns to S61, and pointer coordinate detection is performed on the captured image in the next frame (time t2). Thereby, the coordinate point x2, y2, z2 of the indicator at time t2 is stored in the indicator coordinate value storage unit 33.

なお、カメラが3台以上のプレゼンテーションシステムにあっては、S70の第2カメラレンズ補正済画像に対するS68、S69と同様の処理に引き続き、第3カメラレンズ補正済画像に対するS68、S69と同様の処理等等を行う。   If the presentation system has three or more cameras, the processing similar to S68 and S69 for the second camera lens corrected image in S70 is followed by the same processing as S68 and S69 for the third camera lens corrected image. Etc.

巨大な表示面2を使用するプレゼンテーションシステムにあっては、画像−空間変換にかかる環境設定は上述の操作を行い、定常運転時の指示体三次元座標値算出にあって、抽出する三次元座標値の範囲を指示体が移動する範囲に限ればよい。このようにすれば、演算速度が向上するなどの効果を得ることができる。   In a presentation system using a huge display surface 2, the environment setting for image-space conversion is performed by the above-described operation, and the three-dimensional coordinates to be extracted are calculated in the indicator three-dimensional coordinate value during steady operation. The value range may be limited to the range in which the indicator moves. In this way, it is possible to obtain an effect such as an increase in calculation speed.

(第二の実施例)
好ましい実施態様である指示体の奥行位置判断を付加したプレゼンテーションシステム1(第二の実施例)について説明する。付加される奥行位置判断は、三次元空間における指示体の奥行き位置により、描画処理を行うか否かを判断する処理である。
(Second embodiment)
A presentation system 1 (second embodiment) to which the depth position determination of the indicator as a preferred embodiment is added will be described. The added depth position determination is a process for determining whether or not to perform drawing processing based on the depth position of the indicator in the three-dimensional space.

図7は、第二の実施例を説明するフローチャートである。第二の実施例にあっては、上記で説明した定常運転において、S430(指示体の三次元座標決定)とS51(描画開始)の間に、S81〜S84までの処理が挿入される。   FIG. 7 is a flowchart for explaining the second embodiment. In the second embodiment, in the steady operation described above, the processes from S81 to S84 are inserted between S430 (determining the three-dimensional coordinates of the indicator) and S51 (drawing start).

奥行値記憶部19に、予め、指示体のZ軸の閾値を記憶しておく。あるいはZ軸の両端値を記憶しておく。閾値の場合には、閾値よりもz1が大きい(あるいは小さい場合)に描画処理に進む旨を記述する。両端値の場合には、z1が両端値の間にある場合(あるいは外れる場合)に描画処理に進む旨を記述する。以上奥行値記憶部19に記憶された値と条件を総称して「閾値条件」と呼ぶ。   In the depth value storage unit 19, the Z-axis threshold value of the indicator is stored in advance. Alternatively, both end values of the Z axis are stored. In the case of the threshold value, it is described that the process proceeds to the drawing process when z1 is larger (or smaller) than the threshold value. In the case of both-end values, it is described that the process proceeds to the drawing process when z1 is between the end-values (or when it is outside). The values and conditions stored in the depth value storage unit 19 are collectively referred to as “threshold conditions”.

S430による指示体座標値の検出の後に、S81で奥行判定手段30が奥行値記憶部19に記憶された値と、指示体座標値記憶部33に記憶されたz1の値を比較する。   After the detection of the indicator coordinate value in S430, the depth determination means 30 compares the value stored in the depth value storage unit 19 in S81 with the value z1 stored in the indicator coordinate value storage unit 33.

S82でz1が閾値条件を満足する場合には、S83に進む。また、z1値が閾値条件を外れる場合にはS84に進む。S83では、S51に進み描画処理が行われる。   If z1 satisfies the threshold condition in S82, the process proceeds to S83. If the z1 value is outside the threshold condition, the process proceeds to S84. In S83, the process proceeds to S51 and a drawing process is performed.

S84では、例えば、コマンド認識処理を開始する。コマンド認識は、複数の時刻t1、t2、−− tnにおける指示体座標値(x1、y1、z1)(x2、y2、z2)−−(xn、yn、zn)の組み合わせにより特定のコマンドと認識する処理である。   In S84, for example, command recognition processing is started. Command recognition is recognized as a specific command by a combination of indicator coordinate values (x1, y1, z1) (x2, y2, z2)-(xn, yn, zn) at a plurality of times t1, t2, --tn. It is processing to do.

コマンド認識処理に入って、コマンドが認識されない場合には、S430に戻る。   When the command recognition process is entered and the command is not recognized, the process returns to S430.

上記のコマンド処理は、所定の処理の一例である。閾値条件を外れる場合に、所定の処理を行うことなく、単にS430に戻ってもよい。   The above command processing is an example of predetermined processing. If the threshold condition is not satisfied, the process may simply return to S430 without performing a predetermined process.

(第三の実施例)
他の好ましい実施態様である指示体の移動速度判断を付加したプレゼンテーションシステム1(第三の実施例)について説明する。付加される移動速度判断は、三次元空間における指示体の移動速度により、描画処理を行うか所定の操作を行うか判断する処理である。
(Third embodiment)
The presentation system 1 (third embodiment) to which the determination of the moving speed of the indicator as another preferred embodiment is added will be described. The added moving speed determination is a process of determining whether to perform a drawing process or a predetermined operation based on the moving speed of the indicator in the three-dimensional space.

図8は、第三の実施例を説明するフローチャートである。第三の実施例にあっては、上記で説明した定常運転において、S430(指示体の三次元座標決定)とS51(描画開始)の間に、S91〜S96までの処理が挿入される。   FIG. 8 is a flowchart for explaining the third embodiment. In the third embodiment, in the steady operation described above, the processes from S91 to S96 are inserted between S430 (determining the three-dimensional coordinates of the indicator) and S51 (drawing start).

移動距離値記憶部16に予め指示体の移動距離値を記憶しておく。本実施例では移動距離値は単一の値(閾値)である。   A movement distance value of the indicator is stored in advance in the movement distance value storage unit 16. In this embodiment, the movement distance value is a single value (threshold value).

S430による指示体座標値の検出の後に、S91で第一操作判定手段25が、指示体座標値記憶部33に記憶された時刻t1における指示体の位置と時刻t2における指示体の位置の距離(算出移動距離)を算出する。S92で第一操作判定手段25は、移動距離値記憶部16に記憶された移動距離値と算出された算出移動距離を比較する。   After the detection of the indicator coordinate value in S430, the first operation determination means 25 in S91 determines the distance between the position of the indicator at time t1 stored in the indicator coordinate value storage unit 33 and the position of the indicator at time t2 ( Calculate travel distance). In S92, the first operation determination unit 25 compares the calculated movement distance with the movement distance value stored in the movement distance value storage unit 16.

算出移動距離が移動距離値(閾値)よりも大きい場合には、S93に移動する。算出移動距離が移動距離値(閾値)よりも小さい場合にはS96に移動する。   When the calculated movement distance is larger than the movement distance value (threshold value), the process moves to S93. If the calculated movement distance is smaller than the movement distance value (threshold value), the process moves to S96.

S93では、第一操作判定手段がコマンド制御手段26にコマンド信号を送付する。S94でコマンド信号を受けたコマンド制御手段26は現在表示中の既作成画像、または、既作成画像選択手段に所定の処理を施す。   In S93, the first operation determination means sends a command signal to the command control means 26. Upon receiving the command signal in S94, the command control means 26 performs a predetermined process on the already created image currently displayed or the already created image selection means.

S95で表示制御手段22は当該処理済既作成画像を表示面2に表示する。   In S95, the display control means 22 displays the processed already created image on the display surface 2.

S96ではS51に進み描画処理が行われる。   In S96, the process proceeds to S51 and a drawing process is performed.

移動距離記憶部16に記憶する値と第一操作判定手段25が行う判定は、例えば、
(1) 単一閾値を記憶して算出移動距離との大小比較判定、
(2) 単一範囲の両端値を記憶して、算出移動距離が範囲に入るか外れるかの比較判定、
(3) 2範囲の2の両端値を記憶して、算出移動距離がいずれの範囲に入るかの比較判定、
などであってもよい。
The value stored in the movement distance storage unit 16 and the determination performed by the first operation determination unit 25 are, for example,
(1) A single threshold value is stored and compared with the calculated travel distance.
(2) Memorize both end values of a single range, and compare and judge whether the calculated moving distance falls within the range,
(3) Store both end values of 2 in 2 ranges, and compare and determine which range the calculated moving distance falls into,
It may be.

コマンド信号を受けたコマンド制御手段26は、既作成画像に関して、頁送り頁戻し、アニメーションの開始停止を行ってもよく、また音響の発生停止を行ってもよい。   Upon receiving the command signal, the command control means 26 may perform page turning page return, animation start / stop, or sound generation stop for the already created image.

プレゼンテーションシステム1の構成図である。1 is a configuration diagram of a presentation system 1. FIG. 対象色LUT12の内容説明図である。It is a content explanatory drawing of object color LUT12. 認識対象色教示処理のフローチャートである。It is a flowchart of a recognition target color teaching process. 画像―空間変換にかかる環境設定のフローチャートである。It is a flowchart of the environment setting concerning image-space conversion. 定常運転のフローチャートである。It is a flowchart of steady operation. 指示体3の三次元座標決定処理フローチャートである。3 is a three-dimensional coordinate determination process flowchart of an indicator 3. 指示体3の奥行位置判断付加部分のフローチャートである。It is a flowchart of the depth position determination addition part of the indicator. 指示体3の移動速度判断付加部分のフローチャートであるIt is a flowchart of the moving speed judgment addition part of the indicator 3.

符号の説明Explanation of symbols

1 プレゼンテーションシステム
2 表示面
3 指示体
4 第1カメラ
5 第2カメラ
7 カメラ視野
8 システム制御器
DESCRIPTION OF SYMBOLS 1 Presentation system 2 Display surface 3 Indicator 4 1st camera 5 2nd camera 7 Camera view 8 System controller

Claims (4)

X軸、Y軸方向にひろがる表示面
前記表示面に表示するための既作成画像を記憶する既作成画像記憶部、
前記既作成画像記憶部に記憶された既作成画像を選択する既作成画像選択手段、
既作成画像選択手段が選択した既作成画像を前記表示面に表示する表示制御手段、
前記表示面を含む三次元座標空間を撮影する2つのカメラ、
前記三次元座標空間内を移動することがある指示体、
前記2つのカメラが同時に撮影した撮影画像を各々記憶する撮影画像記憶部、
撮影画像記憶部に記憶された前記同時撮影画像から、前記三次元座標空間内の一の固定点を基準点とした前記指示体の三次元座標値を演算する座標値演算手段、
前記三次元座標値を記憶する指示体座標値記憶部、
前記指示体座標値記憶部に記憶された前記指示体の三次元座標値を参照し、前記指示体の三次元座標値に応じて描画画像を生成する描画手段を有し、
前記表示制御手段は、前記表示面に、選択・表示された前記既作成画像と同時に前記描画画像を表示するものであり、
前記座標値演算手段により、時刻t1における前記指示体の三次元座標値であるx1、y1、z1が演算され、前記座標値が前記指示体座標値記憶部に記憶されるとともに、前記座標値演算手段により、時刻t1から所定時間経過後の時刻t2における前記指示体の三次元座標値であるx2、y2、z2が演算され、前記座標値が前記指示体座標値記憶部に記憶され、
前記描画手段が生成する描画画像は、時刻t1におけるZ軸座標値であるz1の値に応じて画像修正が行われ、時刻t1におけるX軸とY軸座標値であるx1、y1の値に対応して描画の始点が定められ、時刻t2におけるX軸とY軸座標値であるx2、y2の値に対応して描画の終点が定められることを特徴とするプレゼンテーションシステム。
Display surface extending in the X-axis and Y-axis directions An already-created image storage unit that stores an already-created image to be displayed on the display surface,
Pre-created image selection means for selecting a pre-created image stored in the pre-created image storage unit;
Display control means for displaying the already created image selected by the already created image selecting means on the display surface;
Two cameras for photographing a three-dimensional coordinate space including the display surface;
An indicator that may move in the three-dimensional coordinate space;
A photographed image storage unit for storing photographed images taken by the two cameras at the same time;
Coordinate value calculation means for calculating a three-dimensional coordinate value of the indicator with a single fixed point in the three-dimensional coordinate space as a reference point from the simultaneous captured image stored in the captured image storage unit,
An indicator coordinate value storage unit for storing the three-dimensional coordinate value;
With reference to a three-dimensional coordinate value of the indicator stored in the indicator coordinate value storage unit, and a drawing means for generating a drawing image according to the three-dimensional coordinate value of the indicator;
The display control means displays the drawing image simultaneously with the already-created image selected and displayed on the display surface,
The coordinate value calculation means calculates x1, y1, z1 which are the three-dimensional coordinate values of the indicator at time t1, stores the coordinate values in the indicator coordinate value storage unit, and calculates the coordinate values. The means calculates x2, y2, z2 which are three-dimensional coordinate values of the indicator at time t2 after a predetermined time has elapsed from time t1, and stores the coordinate values in the indicator coordinate value storage unit.
The drawn image generated by the drawing means is corrected according to the value of z1 that is the Z-axis coordinate value at time t1, and corresponds to the values of x1 and y1 that are the X-axis and Y-axis coordinate values at time t1. Then, the drawing start point is determined, and the drawing end point is determined in accordance with the values of x2 and y2 which are the X-axis and Y-axis coordinate values at time t2.
前記描画画像は線であり、z1の値が前記表示面に相対的に近いものである場合に相対的に太い線とする画像修正が行われ、z1の値が前記表示面に相対的に遠いものである場合に相対的に細い線とする画像修正が行われることを特徴とする請求項1に記載したプレゼンテーションシステム。   The drawn image is a line, and when the value of z1 is relatively close to the display surface, image correction is performed so that the line is relatively thick, and the value of z1 is relatively far from the display surface. The presentation system according to claim 1, wherein the image is corrected so as to be a relatively thin line when it is a thing. さらに、予め定められた奥行値を記憶する奥行値記憶部と奥行判定手段を有し、
奥行判定手段は前記z1の値と前記奥行値を比較し、前記z1の値が前記奥行値を満足する場合に、
前記描画手段が前記描画画像を生成することを特徴とする請求項1に記載したプレゼンテーションシステム。
Furthermore, it has a depth value storage unit and a depth determination means for storing a predetermined depth value,
The depth determination means compares the value of z1 with the depth value, and when the value of z1 satisfies the depth value,
The presentation system according to claim 1, wherein the drawing unit generates the drawing image.
さらに、予め定められた移動距離値を記憶する移動距離値記憶部と第一操作判定手段を有し、
第一操作判定手段は、時刻t1における前記指示体の位置と時刻t2における前記指示体の位置間の距離を算出して前記移動距離値と比較し、前記算出した距離が前記移動距離値を満足する場合に、
第一の所定の操作を行うことを特徴とする請求項1に記載したプレゼンテーションシステム。
Furthermore, it has a movement distance value storage unit for storing a predetermined movement distance value and a first operation determination means,
The first operation determination means calculates a distance between the position of the indicator at time t1 and the position of the indicator at time t2 and compares the distance with the movement distance value, and the calculated distance satisfies the movement distance value. If you want to
The presentation system according to claim 1, wherein a first predetermined operation is performed.
JP2008083910A 2008-03-27 2008-03-27 Presentation system Withdrawn JP2009237950A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008083910A JP2009237950A (en) 2008-03-27 2008-03-27 Presentation system
PCT/JP2009/001101 WO2009119025A1 (en) 2008-03-27 2009-03-12 Presentation system
TW098109824A TW200947261A (en) 2008-03-27 2009-03-26 A presentation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008083910A JP2009237950A (en) 2008-03-27 2008-03-27 Presentation system

Publications (1)

Publication Number Publication Date
JP2009237950A true JP2009237950A (en) 2009-10-15

Family

ID=41113239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008083910A Withdrawn JP2009237950A (en) 2008-03-27 2008-03-27 Presentation system

Country Status (3)

Country Link
JP (1) JP2009237950A (en)
TW (1) TW200947261A (en)
WO (1) WO2009119025A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017021678A (en) * 2015-07-14 2017-01-26 株式会社リコー Information processing system, information processing apparatus, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI410825B (en) * 2010-06-15 2013-10-01 Acer Inc Presentation control method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001306254A (en) * 2000-02-17 2001-11-02 Seiko Epson Corp Inputting function by slapping sound detection
JP4867586B2 (en) * 2005-11-25 2012-02-01 株式会社セガ Game device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017021678A (en) * 2015-07-14 2017-01-26 株式会社リコー Information processing system, information processing apparatus, and program

Also Published As

Publication number Publication date
WO2009119025A1 (en) 2009-10-01
TW200947261A (en) 2009-11-16

Similar Documents

Publication Publication Date Title
US11245806B2 (en) Method and apparatus for scanning and printing a 3D object
CN111667582B (en) Electronic device and method for adjusting size of augmented reality three-dimensional object
JP6153564B2 (en) Pointing device with camera and mark output
US9516214B2 (en) Information processing device and information processing method
JP6264972B2 (en) Display device, display control program, and display control method
US8094204B2 (en) Image movement based device control method, program, and apparatus
WO2015182134A1 (en) Improved setting of virtual illumination environment
KR20170031733A (en) Technologies for adjusting a perspective of a captured image for display
JP5791577B2 (en) Image processing apparatus, image display method, and program
JP5134409B2 (en) Presentation system
JP2008134793A (en) Electronic handwriting input device
JP2559910B2 (en) Method and apparatus for designating 3D points in 2D graphic display
JP2012022632A (en) Information processing apparatus and control method thereof
CN108629799B (en) Method and equipment for realizing augmented reality
CN105912101B (en) Projection control method and electronic equipment
JP4649559B2 (en) 3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded
US10073614B2 (en) Information processing device, image projection apparatus, and information processing method
CN111176425A (en) Multi-screen operation method and electronic system using same
JP2012014657A (en) Image display device and control method thereof, and program and recording medium
WO2009119025A1 (en) Presentation system
JP2017059041A (en) Image processing device, image processing method, and program
JP6632298B2 (en) Information processing apparatus, information processing method and program
JP4563723B2 (en) Instruction motion recognition device and instruction motion recognition program
JPH07160412A (en) Pointed position detecting method
KR101709529B1 (en) Apparatus and method for controlling image screen using portable terminal

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110607