JP2009237951A - Presentation system - Google Patents

Presentation system Download PDF

Info

Publication number
JP2009237951A
JP2009237951A JP2008083911A JP2008083911A JP2009237951A JP 2009237951 A JP2009237951 A JP 2009237951A JP 2008083911 A JP2008083911 A JP 2008083911A JP 2008083911 A JP2008083911 A JP 2008083911A JP 2009237951 A JP2009237951 A JP 2009237951A
Authority
JP
Japan
Prior art keywords
indicator
image
storage unit
color
coordinate value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008083911A
Other languages
Japanese (ja)
Other versions
JP5134409B2 (en
Inventor
Yuichiro Takai
雄一郎 高井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissha Printing Co Ltd
Original Assignee
Nissha Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissha Printing Co Ltd filed Critical Nissha Printing Co Ltd
Priority to JP2008083911A priority Critical patent/JP5134409B2/en
Priority to PCT/JP2009/001103 priority patent/WO2009119026A1/en
Priority to TW098109826A priority patent/TW200947265A/en
Publication of JP2009237951A publication Critical patent/JP2009237951A/en
Application granted granted Critical
Publication of JP5134409B2 publication Critical patent/JP5134409B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment

Abstract

<P>PROBLEM TO BE SOLVED: To provide a presentation system simplifying distinction of a prescribed first processing request such as command operation and a prescribed second processing request such as drawing operation and having an operation method along intuition of a presenter. <P>SOLUTION: This presentation system 1 has: a display surface 2; a display control means 22 displaying an already-created image; a pointer 3; a specific background area 91 or 92; and cameras 4, 5 for photographing a three-dimensional coordinate space. In the presentation system 1, three-dimensional coordinate values of the pointer and those of the specific background area are calculated from an image photographed by the camera, and prescribed first processing or prescribed second processing are performed according to mutual positional relation between the three-dimensional coordinate values of the pointer and the specific background area. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、スクリーン、ディスプレイなどの表示体に画像を表示し発表者がプレゼンテーションを行うにあたり、指示体を移動させ、表示画像の変更などコマンド操作を行うとともに、表示画像に線などを書き加える描画処理を行うプレゼンテーションシステムにかかるものである。   The present invention displays an image on a display body such as a screen or a display, and when a presenter gives a presentation, moves the indicator, performs a command operation such as changing the display image, and adds a line to the display image. It relates to a presentation system that performs processing.

従来のハンドポインティング装置は、三次元空間を示す画像をディスプレイに表示し、互いに異なる複数の方向から認識対象者を撮影し、認識対象者の手が特定の形になったかを判定し、他の条件が一致した場合に、ディスプレイ画像を拡大縮小するものがある。(例えば、特許文献1参照。)。
特開平11−134089号公報 特に請求項4
A conventional hand pointing device displays an image showing a three-dimensional space on a display, images a person to be recognized from a plurality of different directions, determines whether a hand of the person to be recognized has a specific shape, Some of the display images are enlarged or reduced when the conditions are met. (For example, refer to Patent Document 1).
JP, 11-134089, A Especially Claim 4

上記従来のハンドポイント装置は手の形を判定するものである。発表者により手の大きさや指に長さなどは個人差がある。従って認識対象を規格化し、その変化を判定する必要があり、装置の演算処理が輻輳する。また、認識対象者の手がどちらの方向にあるかなどにより、撮影画像が変化し、判別が困難になる場合もある。   The conventional handpoint device determines the shape of the hand. Depending on the presenter, there are individual differences in hand size and finger length. Therefore, it is necessary to normalize the recognition target and determine the change, and the arithmetic processing of the apparatus becomes congested. Further, the captured image may change depending on the direction of the hand of the person to be recognized in which direction, and it may be difficult to determine.

さらに、プレゼンテーションにあたり、発表者は説明、表示画像の選択、画像特定位置の指示、聴衆の反応追跡など種々の行為を同時に行うものであり、加えて、精神緊張もある。このような状況下に使用する装置は、可能なかぎり、簡便な操作かつ直感に沿った操作であることが好ましい。   Further, in the presentation, the presenter performs various actions such as explanation, selection of a display image, instruction of a specific position of the image, tracking of the reaction of the audience, and in addition, there is a mental tension. It is preferable that the device used in such a situation is as simple and intuitive as possible.

本発明は、コマンド操作など所定の第一の処理要求と、描画操作など所定の第二の処理要求の判別を単純化したプレゼンテーションシステムを得ることを課題とする。また、本発明は、操作の習熟が容易で、かつ、発表者の直感に沿った操作方法を備えたプレゼンテーションシステムを得ることを課題とする。   An object of the present invention is to obtain a presentation system that simplifies the determination of a predetermined first processing request such as a command operation and a predetermined second processing request such as a drawing operation. It is another object of the present invention to obtain a presentation system that is easy to master operation and that has an operation method in line with the presenter's intuition.

本発明のその他の課題は、本発明の説明により明らかになる。   Other problems of the present invention will become apparent from the description of the present invention.

本発明の一の態様にかかるプレゼンテーションシステムは、
X軸、Y軸方向にひろがる表示面
前記表示面に表示するための既作成画像を記憶する既作成画像記憶部、
前記既作成画像記憶部に記憶された既作成画像を選択する既作成画像選択手段、
既作成画像選択手段が選択した既作成画像を前記表示面に表示する表示制御手段、
前記表示面を含む三次元座標空間を撮影する2つのカメラ、
前記三次元座標空間内を移動することがある着色指示体、
前記指示体の色データを記憶し、ならびに、前記2つのカメラが撮影するカメラ視野内に位置することがあって、及び、前記カメラ視野内の一部領域である特定背景領域について、前記特定背景領域の色データを記憶する指示体色背景色記憶部、
前記指示体と前記特定背景領域との一定の位置関係を記憶する指示体背景相互位置記憶部、
前記2つのカメラが同時に撮影した撮影画像を各々記憶する撮影画像記憶部、
を有し、
前記撮影画像記憶部に記憶された撮影画像を呼出し、前記指示体色背景色記憶部に記憶された指示体色と同色の指示体画像位置を検出して指示体の三次元座標値を算出し、及び、前記指示体色背景色記憶部に記憶された背景色と同色の特定背景画像を検出して特定背景領域の三次元座標値を算出する座標位置検出手段、
前記指示体の三次元座標値と前記特定背景領域の三次元座標値の相互位置関係が前記指示体背景相互位置記憶部に記憶されている一定の位置関係を満足するか否かを判定する指示体背景相互位置判定手段、
指示体背景相互位置判定手段が一定の位置関係を満足する場合に、所定の第一の処理を行い、
指示体背景相互位置判定手段が一定の位置関係を満足しない場合に、所定の第二の処理を行う。
A presentation system according to one aspect of the present invention includes:
Display surface extending in the X-axis and Y-axis directions An already-created image storage unit that stores an already-created image to be displayed on the display surface,
Pre-created image selection means for selecting a pre-created image stored in the pre-created image storage unit;
Display control means for displaying the already created image selected by the already created image selecting means on the display surface;
Two cameras for photographing a three-dimensional coordinate space including the display surface;
A colored indicator that may move in the three-dimensional coordinate space;
Stores the color data of the indicator, and may be located in a camera field of view captured by the two cameras, and the specific background for a specific background region that is a partial region in the camera field of view Indicator color background color storage unit for storing color data of the area;
An indicator background mutual position storage unit for storing a fixed positional relationship between the indicator and the specific background region;
A photographed image storage unit for storing photographed images taken by the two cameras at the same time;
Have
Call the photographed image stored in the photographed image storage unit, detect the indicator image position of the same color as the indicator color stored in the indicator color background color storage unit, and calculate the three-dimensional coordinate value of the indicator Coordinate position detection means for detecting a specific background image of the same color as the background color stored in the indicator color background color storage unit and calculating a three-dimensional coordinate value of the specific background area;
Instruction for determining whether or not the mutual positional relationship between the three-dimensional coordinate value of the indicator and the three-dimensional coordinate value of the specific background region satisfies a certain positional relationship stored in the indicator background mutual position storage unit Body background mutual position determination means,
When the indicator background mutual position determination means satisfies a certain positional relationship, a predetermined first process is performed,
When the pointer background mutual position determination means does not satisfy a certain positional relationship, a predetermined second process is performed.

本発明は、指示体周囲背景の背景色を判定し、背景色が特定色の場合に所定の第一の処理を行い。背景色が特定色以外の場合に所定の第二の処理を行うものである。   The present invention determines the background color of the background around the indicator, and performs a predetermined first process when the background color is a specific color. A predetermined second process is performed when the background color is other than the specific color.

所定の処理として、表示面に表示されている画像への描画処理、既作成画像の頁送り頁戻し、表示画像が変化するいわゆるアニメーションの開始停止、音響の発生停止などを例示することができる。   Examples of the predetermined process include a drawing process on an image displayed on the display surface, a page advance page return of an already created image, a so-called animation start / stop in which a display image changes, and a sound generation stop.

本発明の好ましい実施態様にかかるプレゼンテーションシステムにあっては、前記特定背景領域は、既作成画像が表示される前記表示面の輪郭領域の一部領域であってもよい。   In the presentation system according to a preferred embodiment of the present invention, the specific background area may be a partial area of the outline area of the display surface on which the created image is displayed.

本好ましい実施態様は、背景色として表示面の輪郭部分の色を使用するものである。輪郭部分として、例えば壁の色を使用することができる。発表者は所定の第一の処理を要求する場合に、既作成画像表示面の輪郭(外側)で指示体を移動させる。所定の第二の処理を要求する場合は表示面内で指示体を移動させる。このため、より一層発表者の直感に合致したプレゼンテーションシステムとなる。   In this preferred embodiment, the color of the contour portion of the display surface is used as the background color. For example, the color of the wall can be used as the contour portion. When the presenter requests a predetermined first process, the presenter moves the indicator along the outline (outside) of the already created image display surface. When a predetermined second process is requested, the indicator is moved within the display surface. For this reason, the presentation system further matches the presenter's intuition.

本発明の他の好ましい実施態様にかかるプレゼンテーションシステムにあっては、前記特定背景領域は、既作成画像が表示される前記表示面領域の一部領域であってもよい。   In the presentation system according to another preferred embodiment of the present invention, the specific background area may be a partial area of the display surface area on which an already created image is displayed.

本好ましい実施態様は、背景色として表示面内の特定色を使用するものである。例えば、スライド表示面内でスライドの右側に緑色部分を作成しておく。どのスライドが表示されている場合であっても、緑色部分に指示体を置くと、所定の第一の処理が行われることになる。従って、より一層発表者の直感に合致したプレゼンテーションシステムとなる。   This preferred embodiment uses a specific color in the display surface as the background color. For example, a green part is created on the right side of the slide in the slide display surface. Regardless of which slide is displayed, if the indicator is placed on the green portion, a predetermined first process is performed. Therefore, the presentation system further matches the presenter's intuition.

本発明のその他の好ましい実施態様にかかるプレゼンテーションシステムは、前記所定の第一の処理が、前記既作成画像選択手段または前記表示制御手段に変更を指示する処理であり、前記所定の第二の処理が前記表示面に表示された画像に描画画像を追加する描画処理であってもよい。   In the presentation system according to another preferred embodiment of the present invention, the predetermined first process is a process of instructing the change to the already-created image selection unit or the display control unit, and the predetermined second process May be a drawing process for adding a drawing image to the image displayed on the display surface.

本好ましい実施態様はコマンド処理と描画処理を行うものである。   The preferred embodiment performs command processing and drawing processing.

本発明のその他の好ましい実施態様にかかるプレゼンテーションシステムは、前記所定の第二の処理が描画処理であり、前記プレゼンテーションシステムは、さらに、
前記指示体の三次元座標値を記憶する指示体座標値記憶部、
前記座標値記憶部に記憶された前記三次元座標値を参照し、前記三次元座標値に応じて描画画像を生成する描画手段を有し、
前記表示制御手段は、選択された前記既作成画像と同時に前記描画画像を、前記表示面に表示するものであり、
前記座標値演算手段により、時刻t1における前記指示体の三次元座標値であるx1、y1、z1が演算され、前記座標値が前記座標値記憶部に記憶されるとともに、前記座標値演算手段により、時刻t1から所定時間経過後の時刻t2における前記指示体の三次元座標値であるx2、y2、z2が演算され、前記座標値が前記座標値記憶部に記憶され、
前記描画手段が生成する描画画像は、時刻t1におけるZ軸座標値であるz1の値に応じて画像種別が定められ、時刻t1におけるX軸とY軸座標値であるx1、y1の値に対応して描画の始点が定められ、時刻t2におけるX軸とY軸座標値であるx2、y2の値に対応して描画の終点が定められることを特徴とするものであってもよい。
In a presentation system according to another preferred embodiment of the present invention, the predetermined second process is a drawing process, and the presentation system further includes:
An indicator coordinate value storage unit for storing a three-dimensional coordinate value of the indicator;
With reference to the three-dimensional coordinate value stored in the coordinate value storage unit, and having a drawing means for generating a drawing image according to the three-dimensional coordinate value,
The display control means is for displaying the drawing image on the display surface simultaneously with the selected pre-created image,
The coordinate value calculation means calculates the three-dimensional coordinate values x1, y1, and z1 of the indicator at time t1, and the coordinate values are stored in the coordinate value storage unit. , X2, y2, and z2 that are three-dimensional coordinate values of the indicator at time t2 after a predetermined time has elapsed from time t1, and the coordinate values are stored in the coordinate value storage unit,
The drawing image generated by the drawing means has an image type determined according to the value of z1 that is the Z-axis coordinate value at time t1, and corresponds to the values of x1 and y1 that are the X-axis and Y-axis coordinate values at time t1. Then, the drawing start point is determined, and the drawing end point is determined in accordance with the values of x2 and y2 which are the X-axis and Y-axis coordinate values at time t2.

本好ましい実施態様によれば、描画処理は、指示体の奥行き位置に依存して、描画画像の修正が行われ、修正後の描画が表示面に追加される。発表者が強調したい部分により顕著な描画がなされるなど、発表者の直感や習性に沿った操作が可能なプレゼンテーションシステムとなる。   According to this preferred embodiment, in the drawing process, the drawing image is corrected depending on the depth position of the indicator, and the corrected drawing is added to the display surface. The presentation system can be operated in accordance with the presenter's intuition and habits, such as by drawing more prominently in the part that the presenter wants to emphasize.

以上説明した本発明、本発明の好ましい実施態様、これらに含まれる構成要素は可能な限り組み合わせて実施することができる。   The present invention described above, preferred embodiments of the present invention, and components included in these can be implemented in combination as much as possible.

本発明によれば、背景色により所定の第一の処理と所定の第二の処理要求が判別される。よって、処理要求の判別が単純化し、システムの演算が単純となる。ひいては、追随性の向上、システムの安価などが達成される。一方、特定色の部分で指示体を操作すれば所定の第一の処理要求となり、画像上で指示体を操作すれば所定の第二の処理要求となり、発表者の操作は直感に合致したものであり、また操作が単純化する効果を有する。   According to the present invention, the predetermined first process and the predetermined second process request are determined based on the background color. Therefore, the determination of the processing request is simplified and the system operation is simplified. As a result, improvement in followability, low cost of the system, and the like are achieved. On the other hand, if the indicator is operated at a specific color portion, a predetermined first processing request is obtained, and if the indicator is operated on the image, a predetermined second processing request is obtained, and the presenter's operation matches the intuition. And has the effect of simplifying the operation.

以下、図面を参照して本発明の実施例にかかるプレゼンテーションシステム1をさらに説明する。本発明の実施例に記載した部材や部分の寸法、材質、形状、その相対位置などは、とくに特定的な記載のない限りは、この発明の範囲をそれらのみに限定する趣旨のものではなく、単なる説明例にすぎない。   Hereinafter, the presentation system 1 according to the embodiment of the present invention will be further described with reference to the drawings. The dimensions, materials, shapes, relative positions, etc. of the members and parts described in the embodiments of the present invention are not intended to limit the scope of the present invention only to those unless otherwise specified. It is just an illustrative example.

図1は、プレゼンテーションシステム1の構成図である。プレゼンテーションシステム1は、スクリーンである表示面2、指示体3、第1カメラ4、第2カメラ5、システム制御器8から構成される。   FIG. 1 is a configuration diagram of the presentation system 1. The presentation system 1 includes a display surface 2, which is a screen, an indicator 3, a first camera 4, a second camera 5, and a system controller 8.

本実施例における画像表示はプロジェクター6とスクリーンによりなされる。しかし、本発明において表示面2はスクリーンに限られるものではなく、例えば、液晶ディスプレイなどの表示面であってもよい。   The image display in this embodiment is performed by the projector 6 and the screen. However, in the present invention, the display surface 2 is not limited to the screen, and may be a display surface such as a liquid crystal display, for example.

表示面2は、X軸方向とY軸方向に広がる平面である。本発明において、平面は幾何学に定義される平面と、プロジェクターやディスプレイの特性に応じた曲面を含む。また、本発明においてX軸、Y軸は、表示面との距離を表現するZ軸との相対的な関係を表すものである。   The display surface 2 is a plane that extends in the X-axis direction and the Y-axis direction. In the present invention, the plane includes a plane defined by geometry and a curved surface according to the characteristics of the projector and the display. In the present invention, the X axis and the Y axis represent a relative relationship with the Z axis that expresses the distance from the display surface.

第一カメラ4と第二カメラ5は、表示面2を含む三次元空間を撮影するカメラであり、動画カメラでもよく、静止画カメラであってもよい。もっとも、スムーズな描画を行うなどのためには、例えば、60フレーム/秒程度以上の速度で画像を得ることが好ましいので、第一カメラ4と第二カメラ5は動画カメラが好ましい。第一カメラ4と第二カメラ5は例えば、CCDカメラを使用することができる。   The first camera 4 and the second camera 5 are cameras that capture a three-dimensional space including the display surface 2, and may be a moving image camera or a still image camera. However, in order to perform smooth drawing or the like, it is preferable to obtain an image at a speed of, for example, about 60 frames / second or more. Therefore, the first camera 4 and the second camera 5 are preferably moving image cameras. For example, a CCD camera can be used as the first camera 4 and the second camera 5.

第一カメラ4と第二カメラ5は表示面2の全面を視野にすることが好ましく、図1中に視野7に示すように表示面2の輪郭領域を視野に含むことが好ましい。なお、カメラは2個に限られず、3個以上あってもよい。   The first camera 4 and the second camera 5 preferably have the entire surface of the display surface 2 as the field of view, and preferably include the contour region of the display surface 2 as shown in the field of view 7 in FIG. The number of cameras is not limited to two and may be three or more.

指示体3は、例えば赤色や緑色の物体である。物体の形状は例えば、球状体や立方体である。指示体3の移動によるプレゼンテーションシステム1の操作を容易にするために、棒の先端に当該指示体3を付着することが好ましい。また、発表者が例えば赤色や緑色の手袋を片手に装着し、当該手袋を指示体3としてもよい。   The indicator 3 is, for example, a red or green object. The shape of the object is, for example, a spherical body or a cube. In order to facilitate the operation of the presentation system 1 by moving the indicator 3, the indicator 3 is preferably attached to the tip of the bar. Also, the presenter may wear, for example, a red or green glove on one hand and use the glove as the indicator 3.

指示体3はプレゼンテーションシステム1を操作する手段である。指示体3は第1カメラ4と第2カメラ5の視野内で移動したり、静止したりする。また。当該視野外に出て移動したり、静止したりする。視野内での指示体を検出し、プレゼンテーションシステム1の処理が進行する。   The indicator 3 is a means for operating the presentation system 1. The indicator 3 moves within the field of view of the first camera 4 and the second camera 5 or stops. Also. Move out of the field of view or move still. The indicator in the visual field is detected, and the processing of the presentation system 1 proceeds.

指示体3は、特定背景領域(91又は92)の前面に位置付けされることがある。特定背景領域(1)91は、当該領域を表示面の中に設けた一例である。特定背景領域は、既作成画像であるスライドの一部分を特定に色に着色して設けることができる。この場合、スライドの枚数が複数あれば、全枚のスライドの同一色を着色した特定背景領域を、全枚のスライドに共通する部分(例えば、左上隅)に設けることが好ましい。特定背景領域(2)92は、当該領域を表示面の外側に設けた一例である。例えば、発表場所の壁を特定背景領域にすることができる。   The indicator 3 may be positioned in front of the specific background area (91 or 92). The specific background area (1) 91 is an example in which the area is provided on the display surface. The specific background region can be provided by specifically coloring a part of the slide that is an already created image. In this case, if there are a plurality of slides, it is preferable to provide a specific background region colored in the same color of all the slides in a portion common to all the slides (for example, the upper left corner). The specific background area (2) 92 is an example in which the area is provided outside the display surface. For example, the wall of the presentation place can be a specific background area.

システム制御器8は、例えば、コンピュータである。システム制御器8は既作成画像記憶部11、指示体色背景色記憶部である指示体色背景色LUT12(ルックアップテーブル)、三次元座標記憶部13、レンズ補正係数記憶部14、画像−空間変換係数記憶部15、移動距離値記憶部16、描画画種記憶部17、描画修正記憶部18、奥行値記憶部19、指示体背景相互位置記憶部20、撮影画像記憶部31、レンズ補正済画像記憶部32、指示体座標値記憶部33、背景座標値記憶部34の各記憶部、既作成画像選択手段21、表示制御手段22、座標値演算手段23、描画手段24、第一操作判定手段25、コマンド制御手段27、対象色判定手段27、奥行判定手段30、指示体背景相互位置判定手段51の各手段、さらに主制御部28、周辺機器制御部29を有している。   The system controller 8 is, for example, a computer. The system controller 8 includes an already created image storage unit 11, an indicator color background color LUT 12 (lookup table) that is an indicator color background color storage unit, a three-dimensional coordinate storage unit 13, a lens correction coefficient storage unit 14, and an image-space. Conversion coefficient storage unit 15, movement distance value storage unit 16, drawing image type storage unit 17, drawing correction storage unit 18, depth value storage unit 19, indicator background mutual position storage unit 20, photographed image storage unit 31, lens corrected Image storage unit 32, indicator coordinate value storage unit 33, background coordinate value storage unit 34, already created image selection unit 21, display control unit 22, coordinate value calculation unit 23, drawing unit 24, first operation determination Means 25, command control means 27, target color determination means 27, depth determination means 30, indicator background mutual position determination means 51, a main control unit 28, and a peripheral device control unit 29.

上記の各手段は、コンピュータに組み込まれたプログラムとCPU、RAM、ROMなどにより実現できる。上記の各記憶部は、例えば、コンピュータのハードメモリー内の一定部分を割り当てることで実現できる。さらに、既作成画像選択手段21は、例えば、市販のプレゼンテーションシステム用プログラムを使用することができる。   Each of the above means can be realized by a program incorporated in a computer, a CPU, a RAM, a ROM, and the like. Each said memory | storage part is realizable by allocating the fixed part in the hard memory of a computer, for example. Furthermore, the already created image selection means 21 can use a commercially available presentation system program, for example.

主制御部28はシステム制御器8の全体の動作制御などを行う。周辺機器制御部29は、第1カメラ4、第2カメラ5の動作、画像処理、プロジェクター6の制御などを行う。また、システム制御器8は、システム表示装置41、入力デバイス42を有する。システム表示装置41はコンピュータに付属する液晶ディスプレイであり、入力デバイス42はキーボードとポインター、例えばマウスである。   The main control unit 28 performs overall operation control of the system controller 8. The peripheral device control unit 29 performs operations of the first camera 4 and the second camera 5, image processing, control of the projector 6, and the like. Further, the system controller 8 includes a system display device 41 and an input device 42. The system display device 41 is a liquid crystal display attached to the computer, and the input device 42 is a keyboard and a pointer, for example, a mouse.

本実施例で使用している、指示体色背景色LUTとカメラ撮影画像中での指示体または背景色の判別手法は、
和田俊和:最近傍識別器を用いた色ターゲット検出
情報処理学会トランザクション「コンピュータビジョンとイメージメディア」Vol. 44, No. SIG17-014, 2002
に報告されている。
The indicator color background color LUT and the indicator or background color discriminating method in the camera photographed image used in this embodiment are as follows:
Toshikazu Wada: Color Target Detection Information Processing Society Transaction “Computer Vision and Image Media” with Nearest Neighbor Discriminator Vol. 44, No. SIG17-014, 2002
Has been reported.

(初期設定)
プレゼンテーションシステム1の初期設定その操作などを説明する。
(Initial setting)
The initial setting operation of the presentation system 1 will be described.

表示面2に表示する既作成画像を作成し、既作成画像記憶部11に記憶する。既作成画像は、文字、図形、写真、イラスト、動画これらの混合物などである。また、既作成画像は白紙の画像であってもよい。既作成画像の具体例はプレゼンテーション用のスライド原稿である。   An already created image to be displayed on the display surface 2 is created and stored in the already created image storage unit 11. The already created image is a character, a figure, a photograph, an illustration, a mixture of these, or the like. The already created image may be a blank image. A specific example of the created image is a slide document for presentation.

描画画種記憶部17に描画画種を記憶する。描画画種は、例えば、実線、破線、一点鎖線、丸印、三角印、四角印、矢印などである。記憶する描画画種は、単一であってもよい。   The drawing image type is stored in the drawing image type storage unit 17. The drawing image types are, for example, a solid line, a broken line, an alternate long and short dash line, a circle mark, a triangle mark, a square mark, and an arrow. A single drawing image type may be stored.

描画修正記憶部18に、描画画像の修正事項を記憶する。修正事項は、例えば、線の太さ、色の濃淡、色相である。そして、z1の値との関係式を記述する。例えば、線の太さを修正するのであれば、0≦z1<50の場合に線の太さ100画素、50≦z1<100の場合に線の太さ70画素、100≦z1<150の場合に線の太さ40画素のように記述する。また、例えば、色相を修正するのであれば、0≦z1<100の場合に赤、100≦z1<200の場合に橙、200≦z1<300の場合に黄のように記述する。   The drawing correction storage unit 18 stores the correction items of the drawing image. The correction items include, for example, line thickness, color shading, and hue. Then, a relational expression with the value of z1 is described. For example, when correcting the line thickness, when 0 ≦ z1 <50, the line thickness is 100 pixels, when 50 ≦ z1 <100, the line thickness is 70 pixels, and when 100 ≦ z1 <150 The line thickness is described as 40 pixels. For example, if the hue is to be corrected, it is described as red when 0 ≦ z1 <100, orange when 100 ≦ z1 <200, and yellow when 200 ≦ z1 <300.

指示体背景相互位置記憶部20には、指示体の検出座標値と特定背景領域の検出座標値の関係を記述する。指示体3を特定背景領域部分に位置づける操作をすれば、両者のZ軸値は近接し、両者のX軸値、Y軸値もまた近接する。このような近接の関係などの位置関係を当該記憶部に記述すればよい。   The indicator background mutual position storage unit 20 describes the relationship between the detected coordinate value of the indicator and the detected coordinate value of the specific background region. If the operation of positioning the indicator 3 in the specific background area portion is performed, both Z-axis values are close to each other, and both X-axis values and Y-axis values are also close to each other. A positional relationship such as the proximity relationship may be described in the storage unit.

例えば、表示面をZ=0の基準平面とし、基準平面と平行な平面であるZ=nの特定背景領域平面内に特定背景領域が存在する場合には、指示体背景相互位置記憶部20には、指示体の検出座標値のX軸値、Y軸値が特定背景領域内にあり、指示体の検出座標値のZ軸値と特定背景領域の検出座標値のZ軸値とが予め定められた一定値以内に近接すれば位置関係を満たすとの関係を記憶させる。   For example, if the display surface is a reference plane of Z = 0 and a specific background area exists in the specific background area plane of Z = n that is a plane parallel to the reference plane, the indicator background mutual position storage unit 20 The X-axis value and the Y-axis value of the detected coordinate value of the pointer are within the specific background area, and the Z-axis value of the detected coordinate value of the pointer and the Z-axis value of the detected coordinate value of the specific background area are determined in advance. The relationship that the positional relationship is satisfied if the proximity is within the predetermined value is stored.

また、指示体背景相互位置記憶部20には、指示体の検出座標値と特定背景領域の検出座標値との距離である一定値だけを記憶させておく事もできる。この場合は特定背景領域内に指示体が存在するか否かの厳密な判断ではないが、十分に近接した場合に位置関係を満足したと判定するよう設定すれば操作に支障は無い。   The indicator background mutual position storage unit 20 may store only a fixed value that is a distance between the detected coordinate value of the indicator and the detected coordinate value of the specific background area. In this case, it is not a strict judgment as to whether or not the indicator exists in the specific background area, but if it is set to determine that the positional relationship is satisfied when sufficiently close, there is no problem in operation.

(環境設定)
次に、環境設定を行う。環境設定は、プレゼンテーションシステム1を実際の使用場所に設置して、照明状態、指示体移動範囲などに応じて、プレゼンテーションシステム1に必要なデータを入力する設定である。
(Environmental setting)
Next, environment setting is performed. The environment setting is a setting in which the presentation system 1 is installed in an actual use place and necessary data is input to the presentation system 1 according to the lighting state, the indicator movement range, and the like.

プレゼンテーションシステム1を発表場所に設置し、表示面2、プロジェクター6を配置する。第1カメラ4と第2カメラ5を配置し、カメラ視野7を調節する。カメラ視野は、環境設定中と引き続く定常運転中固定される。   The presentation system 1 is installed at the presentation place, and the display surface 2 and the projector 6 are arranged. The 1st camera 4 and the 2nd camera 5 are arrange | positioned, and the camera visual field 7 is adjusted. The camera field of view is fixed during environment setting and during subsequent steady operation.

次に、プレゼンテーションシステム1に認識対象色の教示を行う。   Next, the presentation system 1 is taught the recognition target color.

図2は指示体色背景色LUT12の内容説明図であり、図3は認識対象色教示処理のフローチャートである。   FIG. 2 is a diagram for explaining the contents of the indicator color background color LUT12, and FIG. 3 is a flowchart of the recognition target color teaching process.

指示体色背景色LUT12は、複数の色チャンネルを有している。第1カメラ撮影画像用として指示体色判別に用いる色チャンネルCh1−1と背景色判別に用いる色チャンネルであるCh1−2を有し、各チャンネルについて各々認識対象色と非認識対象色を記憶する。また、第2カメラ撮影画像用として指示体色判別に用いる色チャンネルCh2−1と背景色判別に用いる色チャンネルであるCh2−2を有し、各チャンネルについて各々認識対象色と非認識対象色を記憶する。   The indicator color background color LUT12 has a plurality of color channels. The first camera has a color channel Ch1-1 used for indicator color discrimination and Ch1-2 which is a color channel used for background color discrimination for a captured image, and stores a recognition target color and a non-recognition target color for each channel. . The second camera has a color channel Ch2-1 used for indicator color discrimination and Ch2-2 which is a color channel used for background color discrimination for a captured image of the camera, and a recognition target color and a non-recognition target color for each channel. Remember.

S11で指示体3をカメラ視野7内に位置付け、また、特定背景領域(1)91を表示面2に表示して、第1カメラ4、第2カメラ5で指示体3を含む画像を撮影する。特定背景領域(2)92を使用する場合は、指示体3をカメラ視野7内に位置付けてカメラ視野7を撮影すればよい。S12で第1カメラ4の撮影画像と第2カメラ5の撮影画像を撮影画像記憶部31に記憶する。   In S11, the indicator 3 is positioned in the camera visual field 7, and the specific background area (1) 91 is displayed on the display surface 2, and the first camera 4 and the second camera 5 capture an image including the indicator 3. . When the specific background area (2) 92 is used, the indicator 3 may be positioned in the camera visual field 7 and the camera visual field 7 may be photographed. In S 12, the captured image of the first camera 4 and the captured image of the second camera 5 are stored in the captured image storage unit 31.

S13で第1カメラ4の撮影画像を撮影画像記憶部31から呼び出し、システム表示装置41に表示する。S14で、入力デバイス42にてシステム表示装置上の指示体3領域を指定する。この操作により第1の指示体色C1−1が教示される。S15で第1の指示体色C1−1を指示体色背景色LUT12に記憶する。   In S13, the captured image of the first camera 4 is called from the captured image storage unit 31 and displayed on the system display device 41. In S14, the indicator 3 area on the system display device is designated by the input device 42. By this operation, the first indicator color C1-1 is taught. In S15, the first indicator color C1-1 is stored in the indicator color background color LUT12.

S16で、システム表示装置41に表示されている同一画像に対して、非指示体領域を指定する。この操作により第1の非認識対象色NC1−1−1が教示される。S17で第1の非認識対象色NC1−1−1を指示体色背景色LUT12に記憶する。S16とS17を繰り返して他の非認識対象色NC1−1―nを教示する。   In S16, a non-indicator region is designated for the same image displayed on the system display device 41. By this operation, the first non-recognition target color NC1-1-1 is taught. In S17, the first non-recognition target color NC1-1-1 is stored in the indicator color background color LUT12. S16 and S17 are repeated to teach other non-recognition target colors NC1-1-n.

ここで、S16においてシステム表示装置41に表示されている同一画像に教示すべき非認識対象色がない場合には、以下の撮影操作から繰り返す。すなわち、当該特定の非認識対象色を含む画像を表示面2に表示し、あるいは、当該特定の非認識対象色の物をカメラ視野7内に位置づけて、第1カメラで撮影し、S12、S13、S16、S17を行う。   Here, when there is no non-recognition target color to be taught in the same image displayed on the system display device 41 in S16, the following photographing operation is repeated. That is, an image including the specific non-recognition target color is displayed on the display surface 2, or an object of the specific non-recognition target color is positioned in the camera visual field 7 and photographed with the first camera, and S12, S13 , S16, S17.

以上により、第1カメラ撮影画像について指示体の認識対象色C1−1、指示体の非認識対象色NC1−1−1、NC1−1−2 −−− NC1−1−nが教示され、指示体色背景色LUT12に記憶される。図2中では色チャンネルCh1−1で表示している。   As described above, the recognition target color C1-1 of the indicator, the non-recognition target colors NC1-1-1, and NC1-1-2 of the indicator are taught about the first camera photographed image, and the instructions It is stored in the body color background color LUT12. In FIG. 2, the color channel Ch1-1 is displayed.

次にS181に移行し、第1カメラ撮影画像について、背景色に関してS14〜S18の同様の処理を繰りかえす。この処理により、第1カメラ撮影画像について背景の認識対象色C1−2、背景の非認識対象色NC1−2−1、NC1−2−2 −−− NC1−2−nが教示され、指示体色背景色LUT12に記憶される。図2中では色チャンネルCh1−2で表示している。   Next, the process proceeds to S181, and the same process of S14 to S18 is repeated for the background color of the first camera photographed image. By this processing, the background recognition target color C1-2, the background non-recognition target color NC1-2-1, NC1-2-2 --- NC1-2-n are taught for the first camera photographed image, and the indicator It is stored in the color background color LUT12. In FIG. 2, the color channel Ch1-2 is displayed.

S19で第2カメラ撮影画像について、S13〜S18と同様の処理を繰り返す。S14で指定される第2の指示体色C2−1と、上述した第1の指示体色C1−1は略同一であるが、それぞれ第2カメラと第1カメラの色特性が反映された色データである。背景色C2−2と背景色C1−2についても同様の関係にある。   In S19, the same processing as S13 to S18 is repeated for the second camera image. The second indicator color C2-1 specified in S14 and the first indicator color C1-1 described above are substantially the same, but are colors that reflect the color characteristics of the second camera and the first camera, respectively. It is data. The background color C2-2 and the background color C1-2 have the same relationship.

以上の認識対象色教示が終了すると、図2に示すように、色チャンネルCh2−1とCh2−2について、それぞれ認識対象色と非認識対象色が記憶される。   When the above recognition target color teaching is completed, as shown in FIG. 2, the recognition target color and the non-recognition target color are stored for the color channels Ch2-1 and Ch2-2, respectively.

カメラを3台以上含むプレゼンテーションシステムにあっては、第3カメラ撮影画像などについて、指示体色と非認識対象色、背景色と非認識対象色を教示する。   In a presentation system including three or more cameras, a pointer color and a non-recognition target color, a background color and a non-recognition target color are taught for a third camera photographed image and the like.

次に図4を参照して、画像―空間変換にかかる環境設定を説明する。   Next, with reference to FIG. 4, the environment setting for image-space conversion will be described.

S21で補正用基準点が描かれた画像を表示面2に表示する。画像表示に替えて同様の印刷物を表示面に貼り付けてもよい。補正用基準点が描かれた画像は、例えば、方眼画像、市松模様画像である。そして、当該表示を第1カメラ4、第2カメラ5で撮影する。   In S21, the image on which the reference point for correction is drawn is displayed on the display surface 2. A similar printed material may be attached to the display surface instead of the image display. The image on which the correction reference point is drawn is, for example, a grid image or a checkered pattern image. Then, the display is photographed by the first camera 4 and the second camera 5.

S22で第1カメラ4の撮影画像と第2カメラ5の撮影画像を撮影画像記憶部31に記憶する。S23で第1カメラ4の撮影画像を撮影画像記憶部31から呼び出し、システム表示装置41に表示する。表示画像上の補正用基準点の画像座標値を検出する。   In S 22, the captured image of the first camera 4 and the captured image of the second camera 5 are stored in the captured image storage unit 31. In S23, the captured image of the first camera 4 is called from the captured image storage unit 31 and displayed on the system display device 41. An image coordinate value of a reference point for correction on the display image is detected.

S24で三次元座標(ワールド座標)における補正用基準点と、S23で検出した画像座標値を関連付ける。S25で三次元座標値と画像座標値を一時メモリーに記憶する。他の補正用基準点について、S23〜S25の操作を繰り返す。   In S24, the reference point for correction in the three-dimensional coordinates (world coordinates) is associated with the image coordinate value detected in S23. In S25, the three-dimensional coordinate value and the image coordinate value are stored in a temporary memory. The operations of S23 to S25 are repeated for other correction reference points.

S26で一時メモリーから三次元座標値群と各々1対1に対応する画像座標値群を呼び出し、両群から第1カメラ撮影画像のレンズ補正係数と第1カメラ撮影画像の画像−空間変換係数を算出する。レンズ補正係数は係数値であり、画像−空間変換係数は行列値である。   In S26, the three-dimensional coordinate value group and the image coordinate value group corresponding to each one-to-one are called from the temporary memory, and the lens correction coefficient of the first camera photographed image and the image-space conversion coefficient of the first camera photographed image are obtained from both groups. calculate. The lens correction coefficient is a coefficient value, and the image-space conversion coefficient is a matrix value.

S27で、第1カメラ撮影画像のレンズ補正係数をレンズ補正係数記憶部14に記憶する。S28で、第1カメラ撮影画像の画像−空間変換係数を画像−空間変換係数記憶部15に記憶する。   In S <b> 27, the lens correction coefficient of the first camera image is stored in the lens correction coefficient storage unit 14. In S 28, the image-space conversion coefficient of the first camera image is stored in the image-space conversion coefficient storage unit 15.

S29で第2カメラ撮影画像に対して、S23〜S28と同様の操作を行う。当該操作により、第2カメラ撮影画像のレンズ補正係数がレンズ補正係数記憶部14に記憶され、第2カメラ撮影画像の画像−空間変換係数が画像−空間変換係数記憶部15に記憶される。   In S29, the same operation as in S23 to S28 is performed on the image captured by the second camera. With this operation, the lens correction coefficient of the second camera photographed image is stored in the lens correction coefficient storage unit 14, and the image-space conversion coefficient of the second camera photographed image is stored in the image-space conversion coefficient storage unit 15.

(定常運転−1)
次に図5に示す定常運転のフローチャート、図6と図7に示す指示体3の三次元座標と特定背景領域の三次元座標決定処理フローチャートを参照しつつ、定常運転処理を説明する。
(Steady operation-1)
Next, the steady operation process will be described with reference to the flowchart of the steady operation shown in FIG. 5 and the three-dimensional coordinate determination processing flowchart of the indicator 3 and the specific background region shown in FIGS. 6 and 7.

S40で定常運転を開始する。定常運転中、指示体3は発表者の操作に従って、移動したり静止したりする。   Steady operation is started in S40. During steady operation, the indicator 3 moves or stops according to the operation of the presenter.

S41で既作成画像選択手段21は、既作成画像記憶部11から一の画像を選択する。   In S <b> 41, the already created image selection unit 21 selects one image from the already created image storage unit 11.

S42で、表示制御手段21は当該画像を表示面2に表示する。S440で、第1カメラ4と第2カメラ5は各々の視野内を同時に撮影し、撮影画像中の指示体3の位置から指示体3の三次元座標値を算出し、また、撮影画像中の特定背景領域の位置から特定背景領域の三次元座標値を算出する。S440の詳細な処理は、以下で別途説明する。   In S <b> 42, the display control unit 21 displays the image on the display surface 2. In S440, the first camera 4 and the second camera 5 simultaneously photograph each field of view, calculate the three-dimensional coordinate value of the indicator 3 from the position of the indicator 3 in the photographed image, and also in the photographed image. The three-dimensional coordinate value of the specific background area is calculated from the position of the specific background area. Detailed processing of S440 will be separately described below.

当該算出により、時刻t1における指示体3の三次元座標値x1、y1、z1と特定背景領域の三次元座標値、時刻t2における座標値x2、y2、z2が算出される。これら指示体3の三次元座標値は指示体座標値記憶部33に記憶される。また、特定背景領域の三次元座標値は背景座標値記憶部34に記憶される。   With this calculation, the three-dimensional coordinate values x1, y1, and z1 of the indicator 3 at the time t1, the three-dimensional coordinate values of the specific background area, and the coordinate values x2, y2, and z2 at the time t2 are calculated. These three-dimensional coordinate values of the indicator 3 are stored in the indicator coordinate value storage unit 33. Further, the three-dimensional coordinate value of the specific background area is stored in the background coordinate value storage unit 34.

S441で、指示体背景相互位置判定手段51が、指示体座標値記憶部33から時刻t1における指示体3の三次元座標値を呼び出す。また、背景座標値記憶部34から時刻t1における特定背景領域の三次元座標値を呼び出す。そして、指示体背景相互位置判定手段51は、これら2の三次元座標値の関係と、指示体背景相互位置記憶部20に記憶された位置関係を比較する。   In S441, the indicator background mutual position determination unit 51 calls the three-dimensional coordinate value of the indicator 3 at time t1 from the indicator coordinate value storage unit 33. Also, the three-dimensional coordinate value of the specific background area at time t1 is called from the background coordinate value storage unit 34. Then, the indicator background mutual position determination means 51 compares the relationship between the two three-dimensional coordinate values with the positional relationship stored in the indicator background mutual position storage unit 20.

指示体背景相互位置判定手段51が行う判定は、例えば、全ての検出背景座標値群を背景領域として背景座標値記憶部34に記憶させた場合は、指示体座標値記憶部33に記録された確定した検出指示体座標点と検出背景座標値との位置関係を全ての点の組み合わせで計算し、指示体背景相互位置記憶部20に記憶された位置関係を満足させる座標の組み合わせが存在するか否かを判定する。単純に指示体の検出座標値と特定背景領域の検出座標値との間の距離の一定値だけで判定する場合はこの手法で良い。   The determination performed by the indicator background mutual position determination means 51 is recorded in the indicator coordinate value storage unit 33 when, for example, all the detected background coordinate value groups are stored in the background coordinate value storage unit 34 as background regions. Is there a combination of coordinates that calculates the positional relationship between the determined detection indicator coordinate point and the detected background coordinate value for all combinations of points and satisfies the positional relationship stored in the indicator background mutual position storage unit 20? Determine whether or not. This method may be used when the determination is made only with a fixed value of the distance between the detected coordinate value of the indicator and the detected coordinate value of the specific background area.

または、表示面が基準面であり、背景領域が存在する特定背景領域平面は基準面に平行に存在すると判っている場合には、検出背景座標値群のX軸値、Y軸値の最大値、最小値を計算で求めておけば、確定した検出指示体座標点が検出背景座標値群のX軸値、Y軸値の最大値、最小値の間に存在するか否か、確定した検出指示体座標点のZ軸値と特定背景領域平面のZ軸値との間の距離が位置関係を満足するか否かの判定などによって、指示体背景相互位置記憶部20に記憶された位置関係を満足するか否かを判定できる。   Alternatively, when the display surface is the reference surface and the specific background region plane where the background region exists is known to exist parallel to the reference surface, the maximum value of the X-axis value and the Y-axis value of the detected background coordinate value group If the minimum value is obtained by calculation, it is determined whether or not the determined detection indicator coordinate point exists between the X-axis value, the maximum value of the Y-axis value, and the minimum value of the detected background coordinate value group. The positional relationship stored in the pointer background mutual position storage unit 20 by determining whether or not the distance between the Z-axis value of the pointer coordinate point and the Z-axis value of the specific background region plane satisfies the positional relationship. Can be determined.

また、座標値演算手段により検出背景座標値群の最外部にあたる背景領域境界点を確定し、背景領域境界点で囲まれ形成される平面を特定背景領域として確定した場合には、背景領域境界点より特定背景領域の存在する特定背景領域平面を空間ベクトルの手法などを用いて計算で求め、特定背景領域平面と確定した検出指示体座標点との間の距離、特定背景領域平面上の特定背景領域の境界の法線を連ねた領域の内側に確定した検出指示体座標点が存在するか否かなどから、指示体背景相互位置記憶部20に記憶された位置関係を満足させるか否かを判定する。この手法は、特定背景領域平面が基準平面に水平でない場合に有効である。   In addition, when the background area boundary point that is the outermost part of the detected background coordinate value group is determined by the coordinate value calculation means, and the plane surrounded by the background area boundary point is determined as the specific background area, the background area boundary point The specific background area plane where the specific background area exists is obtained by calculation using a space vector method, etc., the distance between the specific background area plane and the fixed detection indicator coordinate point, the specific background on the specific background area plane Whether or not the positional relationship stored in the indicator background mutual position storage unit 20 is satisfied is determined based on whether or not the detected indicator coordinate point determined inside the region connected with the normal of the region boundary exists. judge. This technique is effective when the specific background area plane is not horizontal to the reference plane.

時刻t1における2の三次元座標値の関係が、記憶された位置関係を満足する場合には
S442に進む。時刻t1における2の三次元座標値の関係が、記憶された位置関係を満足しない場合にはS500に進む。
If the relationship between the two three-dimensional coordinate values at time t1 satisfies the stored positional relationship, the process proceeds to S442. If the relationship between the two three-dimensional coordinate values at time t1 does not satisfy the stored positional relationship, the process proceeds to S500.

S442は、所定の第一の処理の開始処理であり、本実施例では、所定の第一の処理はコマンド制御処理である。すなわち、S443では、コマンド制御手段26は現在表示中の既作成画像、または、既作成画像選択手段に所定の処理を施す。所定の処理は、例えば、表示中の既作成画像に替わって次の既作成画像が表示制御手段22により表示面2に表示さる処理であってもよい。また、例えば、表示中の画像が拡大あるいは縮小される処理であってもよい。   S442 is a start process of a predetermined first process, and in the present embodiment, the predetermined first process is a command control process. That is, in S443, the command control unit 26 performs a predetermined process on the already created image currently displayed or the already created image selection unit. The predetermined process may be, for example, a process in which the next created image is displayed on the display surface 2 by the display control means 22 instead of the already created image being displayed. Further, for example, a process of enlarging or reducing an image being displayed may be performed.

S500は、所定の第二の処理の開始処理であり、本実施例では、所定の第二の処理は描画処理である。   S500 is a start process of a predetermined second process, and in the present embodiment, the predetermined second process is a drawing process.

S51で描画手段24が描画画種記憶部17から、一の描画画種を選択する。描画画種は、例えば、一の定常運転中は、常時、同一描画画種が選択されるように予めプログラムしておいてもよく、また、x1、y1、z1の値に応じて描画画種が選択されるようにプログラムしておいてもよい。   In S51, the drawing unit 24 selects one drawing image type from the drawing image type storage unit 17. For example, the drawing image type may be programmed in advance so that the same drawing image type is always selected during one steady operation, and the drawing image type is determined according to the values of x1, y1, and z1. May be programmed to be selected.

S52で描画手段24が指示体座標値記憶部33を参照し、z1の値に応じて描画画像を修正する。描画画種が線の場合に、例えば、z1の値が前記表示面に相対的に近いものである場合に相対的に太い線とする画像修正を行い、z1の値が前記表示面に相対的に遠いものである場合に相対的に細い線とする画像修正を行う。   In S52, the drawing unit 24 refers to the indicator coordinate value storage unit 33 and corrects the drawing image according to the value of z1. When the drawing image type is a line, for example, when the value of z1 is relatively close to the display surface, image correction is performed so that the line is relatively thick, and the value of z1 is relative to the display surface. When the image is far from the image, the image is corrected so that the line is relatively thin.

S53で、描画手段24が指示体座標値記憶部33のx1、y1の値を参照して、描画画像の始点を決定する。S54で、描画手段24が指示体座標値記憶部33のx2、y2の値を参照して、描画画像の終点を決定する。   In S <b> 53, the drawing unit 24 refers to the values of x <b> 1 and y <b> 1 in the indicator coordinate value storage unit 33 and determines the starting point of the drawn image. In S54, the drawing unit 24 refers to the x2 and y2 values in the indicator coordinate value storage unit 33 to determine the end point of the drawn image.

S55で、描画手段は、S41で選択され、現在表示面2に表示されていると同一の既作成画像を既作成画像記憶手段11から呼び出す。当該既作成画像にS51〜S54で作成修正された描画画像を重ねる処理を行う。当該描画処理は、描画画像が最前面に表示され、重なった既作成画像は見えない態様であってもよく、描画画像が、たとえば、50%の透過度で描かれるものであってもよい。そして当該画像を表示制御手段22に送付する。   In S55, the drawing means calls the already created image that is selected in S41 and that is currently displayed on the display surface 2 from the already created image storage means 11. A process of superimposing the drawing image created and corrected in S51 to S54 on the already created image is performed. The drawing process may be such that the drawn image is displayed in the foreground and the previously created image that is overlapped is not visible, or the drawn image may be drawn with a transparency of 50%, for example. Then, the image is sent to the display control means 22.

S56で、表示制御手段22は、重ね合わされた画像を表示面2に表示する。   In S <b> 56, the display control unit 22 displays the superimposed image on the display surface 2.

S56が終了すれば、指示体座標値記憶部33中のx2、y2、z2のデータは、新たなx1、y1、z1と定義される。   When S56 ends, the data of x2, y2, and z2 in the indicator coordinate value storage unit 33 are defined as new x1, y1, and z1.

(定常運転−2、三次元座標決定処理)
S440における指示体3の三次元座標及び特定背景領域の三次元座標決定処理を説明する。
(Steady operation-2, three-dimensional coordinate determination processing)
The three-dimensional coordinate of the indicator 3 and the three-dimensional coordinate determination process of the specific background area in S440 will be described.

S61において、第1カメラ4、第2カメラ5で固定視野を同時に撮影する。S62で第1カメラ4の撮影画像と第2カメラ5の撮影画像を撮影画像記憶部31に記憶する。   In S61, the first camera 4 and the second camera 5 photograph the fixed visual field simultaneously. In S 62, the captured image of the first camera 4 and the captured image of the second camera 5 are stored in the captured image storage unit 31.

S63で第1カメラ4の撮影画像を撮影画像記憶部31から呼び出す。S64でレンズ補正係数記憶部14に記憶された第1カメラ撮影画像のレンズ補正係数を用いて、第1カメラ撮影画像にレンズ補正を行う。S65で第1カメラレンズ補正済画像をレンズ補正済画像記憶部32に記憶する。   In S63, the captured image of the first camera 4 is called from the captured image storage unit 31. Using the lens correction coefficient of the first camera photographed image stored in the lens correction coefficient storage unit 14 in S64, lens correction is performed on the first camera photographed image. In step S65, the first camera lens corrected image is stored in the lens corrected image storage unit 32.

S66で第2カメラ撮影画像に対して、S61〜S65と同様の処理を行う。当該処理に用いるレンズ補正係数は、第2カメラ撮影画像のレンズ補正係数である。これにより第2カメラレンズ補正済画像もレンズ補正済画像記憶部32に記憶される。   In S66, the same process as in S61 to S65 is performed on the image captured by the second camera. The lens correction coefficient used for this processing is the lens correction coefficient of the second camera photographed image. Accordingly, the second camera lens corrected image is also stored in the lens corrected image storage unit 32.

S67で三次元座標記憶部13に記憶された三次元座標空間の第1の点を抽出する。抽出された点の座標値を「抽出三次元座標値」と呼ぶ。三次元座標空間は、表示面2(X軸とY軸方向に広がる)を含み、表示面から前方(発表者、聴衆が位置する方向(Z軸))と後方に広がる空間である。同時に、三次元座標空間はカメラ視野7で撮影される空間である。三次元座標記憶部13には、三次元座標空間を微小立方体、または微小直方体に区画した空間上の各座標点が記憶されている。三次元座標値のZ軸正負は右手座標系で定義するが、必要に応じてZ軸の正負を補正すればよい。   In S67, the first point in the three-dimensional coordinate space stored in the three-dimensional coordinate storage unit 13 is extracted. The coordinate value of the extracted point is called “extracted three-dimensional coordinate value”. The three-dimensional coordinate space is a space that includes the display surface 2 (expanding in the X-axis and Y-axis directions) and extends forward (in the direction in which the presenter and audience are located (Z-axis)) and backward from the display surface. At the same time, the three-dimensional coordinate space is a space photographed with the camera visual field 7. The three-dimensional coordinate storage unit 13 stores coordinate points on a space obtained by dividing the three-dimensional coordinate space into a minute cube or a minute rectangular parallelepiped. Although the Z-axis positive / negative of the three-dimensional coordinate value is defined in the right-handed coordinate system, the positive / negative of the Z-axis may be corrected as necessary.

S68で、座標値演算手段23は、画像−空間変換係数記憶部15に記憶された第1カメラ撮影画像の画像−空間変換係数を用いて、抽出三次元座標値を第1カメラ撮影画像の画像座標値に変換する。変換された画像座標値を「抽出画像座標値」と呼ぶ。   In S <b> 68, the coordinate value calculation unit 23 uses the image-space conversion coefficient of the first camera photographed image stored in the image-space conversion coefficient storage unit 15 to extract the extracted three-dimensional coordinate value of the first camera photographed image. Convert to coordinate values. The converted image coordinate value is referred to as “extracted image coordinate value”.

S69で、対象色判定手段は第1カメラレンズ補正済画像を呼び出し、指示体色背景色LUT12の第1カメラ撮影画像用の色チャンネルであるCh1−1、Ch1−2を参照しながら、抽出画像座標値の画素が認識対象色に該当するか否かを判定する。認識対象色に該当する場合には、S70に移行する。認識対象色に該当しない場合には、S67に戻り、三次元座標記憶部13に記憶された三次元座標空間の第2の点を抽出し、S68、S69の同様の処理を行う。   In S69, the target color determination unit calls the first camera lens corrected image, and extracts the extracted image while referring to Ch1-1 and Ch1-2 which are color channels for the first camera photographed image of the indicator color background color LUT12. It is determined whether or not the pixel of the coordinate value corresponds to the recognition target color. If it falls under the recognition target color, the process proceeds to S70. If the color does not correspond to the recognition target color, the process returns to S67, the second point in the three-dimensional coordinate space stored in the three-dimensional coordinate storage unit 13 is extracted, and the same processes of S68 and S69 are performed.

S70では、第2カメラレンズ補正済画像に対してS68、S69と同様の処理を行う。このとき、抽出画像座標値の変換に使用される画像−空間変換係数は、第2カメラ撮影画像の画像−空間変換係数である。また、対象色判定手段が参照する指示体色背景色LUT12中の色データは、第2カメラ撮影画像用の色チャンネルであるCh2−1、Ch2−2である。   In S70, the same processing as S68 and S69 is performed on the second camera lens corrected image. At this time, the image-space conversion coefficient used for conversion of the extracted image coordinate value is an image-space conversion coefficient of the second camera photographed image. Further, the color data in the indicator color background color LUT12 referred to by the target color determination means are Ch2-1 and Ch2-2 which are color channels for the second camera photographed image.

S71で、対象色判定手段27は、第1カメラ撮影画像と第2カメラ撮影画像で認識対象色が検出されたか否かを判定する。すなわち、第2カメラ撮影画像における抽出画像座標値の画素が認識対象色と判定した場合には、抽出三次元座標値を指示体3または特定背景領域の検出座標点とみなす。そして、指示体色の場合には、指示体座標値記憶部32に検出指示体座標点として抽出三次元座標値を記憶する。背景色の場合には、背景座標値記憶部33に検出背景座標点として抽出三次元座標値を記憶する。第2カメラ撮影画像で認識対象色が検出されない場合には、S67に戻り、三次元座標記憶部13に記憶された三次元座標空間の第2の点を抽出し、S68、S69と同様の処理を行う。   In S <b> 71, the target color determination unit 27 determines whether or not a recognition target color is detected in the first camera captured image and the second camera captured image. That is, when the pixel of the extracted image coordinate value in the second camera photographed image is determined as the recognition target color, the extracted three-dimensional coordinate value is regarded as the detected coordinate point of the indicator 3 or the specific background region. In the case of the indicator color, the extracted three-dimensional coordinate value is stored as a detection indicator coordinate point in the indicator coordinate value storage unit 32. In the case of the background color, the extracted three-dimensional coordinate value is stored in the background coordinate value storage unit 33 as the detected background coordinate point. When the recognition target color is not detected in the second camera photographed image, the process returns to S67, the second point in the three-dimensional coordinate space stored in the three-dimensional coordinate storage unit 13 is extracted, and the same processing as in S68 and S69 is performed. I do.

S72で、S67〜S71までの処理を繰り返して、三次元座標空間の全ての点で、認識対象色検出処理を行う。   In S72, the processing from S67 to S71 is repeated to perform recognition target color detection processing at all points in the three-dimensional coordinate space.

S73で、上記の処理で対象色の検出があれば、S74に進む。上記の処理で対象色の検出がなければ、S76に進む。   In S73, if the target color is detected in the above processing, the process proceeds to S74. If no target color is detected in the above processing, the process proceeds to S76.

S74では、指示体座標値記憶部33に記憶された検出指示体座標値群を座標値演算手段により一点に確定する。当該一点への確定は、例えば、検出座標値群の重心を求めてもよく、また、検出座標値群の中で、表示面に最近接している点の座標を選択してもよい。   In S74, the detected indicator coordinate value group stored in the indicator coordinate value storage unit 33 is determined as one point by the coordinate value calculation means. For example, the center of gravity of the detected coordinate value group may be obtained, or the coordinates of the point closest to the display surface may be selected from the detected coordinate value group.

次に、背景座標値記憶部34に記憶された検出背景座標値群より背景領域を確定する。背景座標値記憶部34に記憶された全ての検出背景座標値群を背景領域として記憶させてもよく、また、座標値演算手段により検出背景座標値群の最外部にあたる背景領域境界点を確定し、背景領域境界点で囲まれ形成される平面を特定背景領域として確定してもよい。背景領域境界点は背景領域頂点を含み、3点以上よりなる。   Next, a background area is determined from the detected background coordinate value group stored in the background coordinate value storage unit 34. All the detected background coordinate value groups stored in the background coordinate value storage unit 34 may be stored as a background area, and a background area boundary point corresponding to the outermost part of the detected background coordinate value group is determined by the coordinate value calculation means. A plane surrounded and formed by the boundary points of the background area may be determined as the specific background area. The background area boundary point includes the background area vertex and is composed of three or more points.

S75で、確定した検出指示体座標点を指示体座標値記憶部33に、時刻t1におけるx1、y1、z1として記憶する。また、確定した背景領域を背景座標値記憶部34に記憶する。   In S75, the determined detection indicator coordinate point is stored in the indicator coordinate value storage unit 33 as x1, y1, and z1 at time t1. Further, the determined background area is stored in the background coordinate value storage unit 34.

S76では、S61に戻り、次フレーム(時刻t2)での撮影画像について、指示体座標検出を行う。これにより、時刻t2における指示体の座標点x2、y2、z2が指示体座標値記憶部33に記憶され、時刻t2における背景領域が、背景座標値記憶部34に記憶される。   In S76, the process returns to S61, and pointer coordinate detection is performed on the captured image in the next frame (time t2). Thus, the coordinate points x2, y2, z2 of the indicator at time t2 are stored in the indicator coordinate value storage unit 33, and the background area at time t2 is stored in the background coordinate value storage unit 34.

なお、カメラが3台以上のプレゼンテーションシステムにあっては、S70の第2カメラレンズ補正済画像に対するS68、S69と同様の処理に引き続き、第3カメラレンズ補正済画像に対するS68、S69と同様の処理等等を行う。   If the presentation system has three or more cameras, the processing similar to S68 and S69 for the second camera lens corrected image in S70 is followed by the same processing as S68 and S69 for the third camera lens corrected image. Etc.

巨大な表示面2を使用するプレゼンテーションシステムにあっては、画像−空間変換にかかる環境設定は上述の操作を行い、定常運転時の指示体三次元座標値算出にあって、抽出する三次元座標値の範囲を指示体が移動する範囲に限ればよい。このようにすれば、演算速度が向上するなどの効果を得ることができる。   In a presentation system using a huge display surface 2, the environment setting for image-space conversion is performed by the above-described operation, and the three-dimensional coordinates to be extracted are calculated in the indicator three-dimensional coordinate value during steady operation. The value range may be limited to the range in which the indicator moves. In this way, it is possible to obtain an effect such as an increase in calculation speed.

(第一の変形実施例)
好ましい実施態様である指示体の奥行位置判断を付加したプレゼンテーションシステム1(第一の変形実施例)について説明する。付加される奥行位置判断は、三次元空間における指示体の奥行位置により、所定の第二の処理を行うか否かを判断する処理である。
(First modified embodiment)
The presentation system 1 (first modified example) to which the depth position determination of the indicator as a preferred embodiment is added will be described. The added depth position determination is a process of determining whether or not to perform a predetermined second process based on the depth position of the indicator in the three-dimensional space.

本好ましい実施態様によれば、指示体が一定範囲の奥行に位置する場合に、所定の第二の処理が行われる。例えば、発表者が表示面に接近し指示体を移動する場合には、描画がおこなわれる。一方、発表者が表示面を離れ、例えば演壇付近で指示体を移動する場合には、描画は行われない。   According to this preferred embodiment, when the indicator is located within a certain range of depth, the predetermined second process is performed. For example, when the presenter approaches the display surface and moves the indicator, drawing is performed. On the other hand, when the presenter leaves the display surface and moves the indicator near the podium, for example, drawing is not performed.

一般に、発表者はスライドなど既作成画像の説明時には、表示面に近づいて指示体で表示面をなぞるなど一定奥行方向に移動する習性がある。よって、本好ましい実施態様は、所定の第二の処理が描画処理である場合に、より一層、発明者の習性に沿ったプレゼンテーションシステムとなる。   In general, a presenter has a habit of moving in a certain depth direction, for example, by approaching a display surface and tracing the display surface with an indicator when explaining an already created image such as a slide. Therefore, this preferred embodiment is a presentation system that further conforms to the inventor's habits when the predetermined second process is a drawing process.

もっとも、本発明において奥行位置判断の後に行われる処理は、描画処理に限られることはない。   However, the process performed after the depth position determination in the present invention is not limited to the drawing process.

図8は第一の変形実施例を説明するフローチャートである。第一の変形実施例にあっては、上記で説明した定常運転において、S500(所定の第二の処理開始)とS51(描画開始)の間に、S81〜S82の処理が挿入される。   FIG. 8 is a flowchart for explaining the first modified embodiment. In the first modified embodiment, the processes of S81 to S82 are inserted between S500 (predetermined second process start) and S51 (drawing start) in the steady operation described above.

奥行値記憶部19に、予め、指示体のZ軸の閾値を記憶しておく。あるいはZ軸の両端値を記憶しておく。閾値の場合には、閾値よりもz1が大きい(あるいは小さい場合)に描画処理に進む旨を記述する。両端値の場合には、z1が両端値の間にある場合(あるいは外れる場合)に描画処理に進む旨を記述する。以上奥行値記憶部19に記憶された値と条件を総称して「閾値条件」と呼ぶ。   In the depth value storage unit 19, the Z-axis threshold value of the indicator is stored in advance. Alternatively, both end values of the Z axis are stored. In the case of the threshold value, it is described that the process proceeds to the drawing process when z1 is larger (or smaller) than the threshold value. In the case of both-end values, it is described that the process proceeds to the drawing process when z1 is between the end-values (or when it is outside). The values and conditions stored in the depth value storage unit 19 are collectively referred to as “threshold conditions”.

S81で奥行判定手段30が奥行値記憶部19に記憶された値と、指示体座標値記憶部33に記憶されたz1の値を比較する。S82でz1が閾値条件を満足する場合には、S51に進み描画処理を行う。また、z1値が閾値条件を外れる場合にはS440に戻る。   In S <b> 81, the depth determination unit 30 compares the value stored in the depth value storage unit 19 with the value of z <b> 1 stored in the indicator coordinate value storage unit 33. If z1 satisfies the threshold condition in S82, the process proceeds to S51 to perform drawing processing. If the z1 value is outside the threshold condition, the process returns to S440.

(第二の変形実施例)
他の好ましい実施態様である指示体の移動速度判断を付加したプレゼンテーションシステム1(第二の変形実施例)について説明する。付加される移動速度判断は、三次元空間における指示体の移動速度により、所定の第二の処理を行うか否かを判断する処理である。
(Second modified embodiment)
The presentation system 1 (second modified example) to which the moving speed judgment of the indicator as another preferred embodiment is added will be described. The added moving speed determination is a process of determining whether or not to perform a predetermined second process based on the moving speed of the indicator in the three-dimensional space.

本好ましい実施態様によれば、指示体が特定の速度で移動をした場合に、所定の第二の処理が行われる。一般に、発表者はスライドなど既作成画像の説明及び描画要求時には指示体をゆっくり動かす習性がある。一方、スライド送りなどを要求する場合に指示体をす早く移動させる習性がある。   According to this preferred embodiment, when the indicator moves at a specific speed, the predetermined second process is performed. In general, the presenter has a habit of slowly moving the indicator when requesting an explanation and drawing of an already created image such as a slide. On the other hand, there is a habit of quickly moving the indicator when a slide feed or the like is requested.

よって、本好ましい実施態様では、所定の第二の処理が、描画処理である場合に、より一層、発明者の習性に沿ったプレゼンテーションシステムとなる。もっとも、本発明において奥行位置判断の後に行われる処理は、描画処理に限られることはない。   Therefore, in this preferred embodiment, when the predetermined second process is a drawing process, the presentation system further conforms to the inventor's habits. However, the process performed after the depth position determination in the present invention is not limited to the drawing process.

図9は、第二の変形実施例を説明するフローチャートである。第二の変形実施例にあっては、上記で説明した定常運転において、S500(所定の第二の処理開始)とS51(描画開始)の間に、S91〜S92の処理が挿入される。   FIG. 9 is a flowchart for explaining the second modified embodiment. In the second modified embodiment, the processes of S91 to S92 are inserted between S500 (predetermined second process start) and S51 (drawing start) in the steady operation described above.

移動距離値記憶部16に予め指示体の移動距離値を記憶しておく。   A movement distance value of the indicator is stored in advance in the movement distance value storage unit 16.

S91で第一操作判定手段25が、指示体座標値記憶部33に記憶された時刻t1における指示体の位置と時刻t2における指示体の位置の距離(算出移動距離)を算出する。S92で第一操作判定手段25は、移動距離値記憶部16に記憶された移動距離値と算出された算出移動距離を比較する。   In S91, the first operation determination means 25 calculates the distance (calculated movement distance) between the position of the pointer at time t1 and the position of the pointer at time t2 stored in the pointer coordinate value storage unit 33. In S92, the first operation determination unit 25 compares the calculated movement distance with the movement distance value stored in the movement distance value storage unit 16.

算出移動距離が記憶された距離値よりも小さい場合には、S51に進み描画処理を開始する。算出移動距離が記憶された距離値よりも小さい場合にはS440に戻る。   When the calculated movement distance is smaller than the stored distance value, the process proceeds to S51 to start the drawing process. If the calculated movement distance is smaller than the stored distance value, the process returns to S440.

移動距離記憶部16に記憶する値と第一操作判定手段25が行う判定は、例えば、
(1) 単一閾値を記憶して算出移動距離との大小比較判定、
(2) 単一範囲の両端値を記憶して、算出移動距離が範囲に入るか外れるかの比較判定、
(3) 2範囲の2の両端値を記憶して、算出移動距離がいずれの範囲に入るかの比較判定、
などであってもよい。
The value stored in the movement distance storage unit 16 and the determination performed by the first operation determination unit 25 are, for example,
(1) A single threshold value is stored and compared with the calculated travel distance.
(2) Memorize both end values of a single range, and compare and judge whether the calculated moving distance falls within the range,
(3) Store both end values of 2 in 2 ranges, and compare and determine which range the calculated moving distance falls into,
It may be.

プレゼンテーションシステム1の構成図である。1 is a configuration diagram of a presentation system 1. FIG. 指示体色背景色LUT12の内容説明図である。It is a content explanatory drawing of indicator color background color LUT12. 認識対象色教示処理のフローチャートである。It is a flowchart of a recognition target color teaching process. 画像―空間変換にかかる環境設定のフローチャートである。It is a flowchart of the environment setting concerning image-space conversion. 定常運転のフローチャートである。It is a flowchart of steady operation. 指示体3と特定背景領域の三次元座標決定処理フローチャートその1である。It is the 1st three-dimensional coordinate determination process flowchart 1 of the indicator 3 and a specific background area | region. 指示体3と特定背景領域の三次元座標決定処理フローチャートその2である。It is the flowchart 3 of the three-dimensional coordinate determination process of the indicator 3 and a specific background area | region. 指示体3の奥行位置判断付加部分のフローチャートである。It is a flowchart of the depth position determination addition part of the indicator. 指示体3の移動速度判断付加部分のフローチャートであるIt is a flowchart of the moving speed judgment addition part of the indicator 3.

符号の説明Explanation of symbols

1 プレゼンテーションシステム
2 表示面
3 指示体
4 第1カメラ
5 第2カメラ
7 カメラ視野
8 システム制御器
12 指示体色背景色記憶部である指示体色背景色LUT
91 特定背景領域(1)
92 特定背景領域(2)
DESCRIPTION OF SYMBOLS 1 Presentation system 2 Display surface 3 Indicator 4 1st camera 5 2nd camera 7 Camera visual field 8 System controller 12 Indicator color background color LUT which is a indicator color background color memory | storage part
91 Specific background area (1)
92 Specific background area (2)

Claims (5)

X軸、Y軸方向にひろがる表示面
前記表示面に表示するための既作成画像を記憶する既作成画像記憶部、
前記既作成画像記憶部に記憶された既作成画像を選択する既作成画像選択手段、
既作成画像選択手段が選択した既作成画像を前記表示面に表示する表示制御手段、
前記表示面を含む三次元座標空間を撮影する2つのカメラ、
前記三次元座標空間内を移動することがある着色指示体、
前記指示体の色データを記憶し、ならびに、前記2つのカメラが撮影するカメラ視野内に位置することがあって、及び、前記カメラ視野内の一部領域である特定背景領域について、前記特定背景領域の色データを記憶する指示体色背景色記憶部、
前記指示体と前記特定背景領域との一定の位置関係を記憶する指示体背景相互位置記憶部、
前記2つのカメラが同時に撮影した撮影画像を各々記憶する撮影画像記憶部、
を有し、
前記撮影画像記憶部に記憶された撮影画像を呼出し、前記指示体色背景色記憶部に記憶された指示体色と同色の指示体画像位置を検出して指示体の三次元座標値を算出し、及び、前記指示体色背景色記憶部に記憶された背景色と同色の特定背景画像を検出して特定背景領域の三次元座標値を算出する座標位置検出手段、
前記指示体の三次元座標値と前記特定背景領域の三次元座標値の相互位置関係が前記指示体背景相互位置記憶部に記憶されている一定の位置関係を満足するか否かを判定する指示体背景相互位置判定手段、
指示体背景相互位置判定手段が一定の位置関係を満足する場合に、所定の第一の処理を行い、
指示体背景相互位置判定手段が一定の位置関係を満足しない場合に、所定の第二の処理を行う、プレゼンテーションシステム。
Display surface extending in the X-axis and Y-axis directions An already-created image storage unit that stores an already-created image to be displayed on the display surface,
Pre-created image selection means for selecting a pre-created image stored in the pre-created image storage unit;
Display control means for displaying the already created image selected by the already created image selecting means on the display surface;
Two cameras for photographing a three-dimensional coordinate space including the display surface;
A colored indicator that may move in the three-dimensional coordinate space;
Stores the color data of the indicator, and may be located in a camera field of view captured by the two cameras, and the specific background for a specific background region that is a partial region in the camera field of view Indicator color background color storage unit for storing color data of the area;
An indicator background mutual position storage unit for storing a fixed positional relationship between the indicator and the specific background region;
A photographed image storage unit for storing photographed images taken by the two cameras at the same time;
Have
Call the photographed image stored in the photographed image storage unit, detect the indicator image position of the same color as the indicator color stored in the indicator color background color storage unit, and calculate the three-dimensional coordinate value of the indicator Coordinate position detection means for detecting a specific background image of the same color as the background color stored in the indicator color background color storage unit and calculating a three-dimensional coordinate value of the specific background area;
Instruction for determining whether or not the mutual positional relationship between the three-dimensional coordinate value of the indicator and the three-dimensional coordinate value of the specific background region satisfies a certain positional relationship stored in the indicator background mutual position storage unit Body background mutual position determination means,
When the indicator background mutual position determination means satisfies a certain positional relationship, a predetermined first process is performed,
A presentation system that performs a predetermined second process when the pointer background mutual position determination means does not satisfy a certain positional relationship.
前記特定背景領域は、既作成画像が表示される前記表示面の輪郭領域の一部領域であることを特徴とする請求項1に記載したプレゼンテーションシステム。   The presentation system according to claim 1, wherein the specific background area is a partial area of a contour area of the display surface on which an already created image is displayed. 前記特定背景領域は、既作成画像が表示される前記表示面領域の一部領域であることを特徴とする請求項1に記載したプレゼンテーションシステム。   The presentation system according to claim 1, wherein the specific background area is a partial area of the display surface area on which an already created image is displayed. 前記所定の第一の処理が、前記既作成画像選択手段または前記表示制御手段に変更を指示する処理であり、前記所定の第二の処理が前記表示面に表示された画像に描画画像を追加する描画処理であることを特徴とする請求項1に記載したプレゼンテーションシステム。   The predetermined first process is a process of instructing the pre-created image selection unit or the display control unit to change, and the predetermined second process adds a drawing image to the image displayed on the display surface. The presentation system according to claim 1, wherein the presentation system performs drawing processing. 前記所定の第二の処理が描画処理であり、前記プレゼンテーションシステムは、さらに、
前記指示体の三次元座標値を記憶する指示体座標値記憶部、
前記座標値記憶部に記憶された前記三次元座標値を参照し、前記三次元座標値に応じて描画画像を生成する描画手段を有し、
前記表示制御手段は、選択された前記既作成画像と同時に前記描画画像を、前記表示面に表示するものであり、
前記座標値演算手段により、時刻t1における前記指示体の三次元座標値であるx1、y1、z1が演算され、前記座標値が前記座標値記憶部に記憶されるとともに、前記座標値演算手段により、時刻t1から所定時間経過後の時刻t2における前記指示体の三次元座標値であるx2、y2、z2が演算され、前記座標値が前記座標値記憶部に記憶され、
前記描画手段が生成する描画画像は、時刻t1におけるZ軸座標値であるz1の値に応じて画像種別が定められ、時刻t1におけるX軸とY軸座標値であるx1、y1の値に対応して描画の始点が定められ、時刻t2におけるX軸とY軸座標値であるx2、y2の値に対応して描画の終点が定められることを特徴とする請求項1に記載したプレゼンテーションシステム。
The predetermined second process is a drawing process, and the presentation system further includes:
An indicator coordinate value storage unit for storing a three-dimensional coordinate value of the indicator;
With reference to the three-dimensional coordinate value stored in the coordinate value storage unit, and having a drawing means for generating a drawing image according to the three-dimensional coordinate value,
The display control means is for displaying the drawing image on the display surface simultaneously with the selected pre-created image,
The coordinate value calculation means calculates the three-dimensional coordinate values x1, y1, and z1 of the indicator at time t1, and the coordinate values are stored in the coordinate value storage unit. , X2, y2, and z2 that are three-dimensional coordinate values of the indicator at time t2 after a predetermined time has elapsed from time t1, and the coordinate values are stored in the coordinate value storage unit,
The drawing image generated by the drawing means has an image type determined according to the value of z1 that is the Z-axis coordinate value at time t1, and corresponds to the values of x1 and y1 that are the X-axis and Y-axis coordinate values at time t1. The presentation system according to claim 1, wherein the drawing start point is determined, and the drawing end point is determined corresponding to the values of x2 and y2 which are the X-axis and Y-axis coordinate values at time t2.
JP2008083911A 2008-03-27 2008-03-27 Presentation system Expired - Fee Related JP5134409B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008083911A JP5134409B2 (en) 2008-03-27 2008-03-27 Presentation system
PCT/JP2009/001103 WO2009119026A1 (en) 2008-03-27 2009-03-12 Presentation system
TW098109826A TW200947265A (en) 2008-03-27 2009-03-26 Presentation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008083911A JP5134409B2 (en) 2008-03-27 2008-03-27 Presentation system

Publications (2)

Publication Number Publication Date
JP2009237951A true JP2009237951A (en) 2009-10-15
JP5134409B2 JP5134409B2 (en) 2013-01-30

Family

ID=41113240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008083911A Expired - Fee Related JP5134409B2 (en) 2008-03-27 2008-03-27 Presentation system

Country Status (3)

Country Link
JP (1) JP5134409B2 (en)
TW (1) TW200947265A (en)
WO (1) WO2009119026A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011152166A1 (en) * 2010-05-31 2011-12-08 株式会社Pfu Overhead scanner apparatus, image processing method, and program
JP2012150636A (en) * 2011-01-19 2012-08-09 Seiko Epson Corp Projection type display device and information processing system
JP2016076275A (en) * 2010-06-09 2016-05-12 ザ・ボーイング・カンパニーThe Boeing Company Man-machine interface based on gesture
JP2021099857A (en) * 2018-08-24 2021-07-01 グーグル エルエルシーGoogle LLC Smartphone, system and method involving radar system
US11435468B2 (en) 2018-08-22 2022-09-06 Google Llc Radar-based gesture enhancement for voice interfaces

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106454068B (en) * 2016-08-30 2019-08-16 广东小天才科技有限公司 A kind of method and apparatus of fast acquiring effective image

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08242469A (en) * 1995-03-06 1996-09-17 Nippon Telegr & Teleph Corp <Ntt> Image pickup camera
JPH09311759A (en) * 1996-05-22 1997-12-02 Hitachi Ltd Method and device for gesture recognition
JP2002196873A (en) * 2000-12-27 2002-07-12 Ntt Docomo Inc Device and method for inputting handwritten data, personal certification device and its method
JP2005063225A (en) * 2003-08-15 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> Interface method, system and program using self-image display
JP2007241833A (en) * 2006-03-10 2007-09-20 Kagoshima Univ Recognition device, recognition system, shape recognition method, program and computer readable recording medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08242469A (en) * 1995-03-06 1996-09-17 Nippon Telegr & Teleph Corp <Ntt> Image pickup camera
JPH09311759A (en) * 1996-05-22 1997-12-02 Hitachi Ltd Method and device for gesture recognition
JP2002196873A (en) * 2000-12-27 2002-07-12 Ntt Docomo Inc Device and method for inputting handwritten data, personal certification device and its method
JP2005063225A (en) * 2003-08-15 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> Interface method, system and program using self-image display
JP2007241833A (en) * 2006-03-10 2007-09-20 Kagoshima Univ Recognition device, recognition system, shape recognition method, program and computer readable recording medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011152166A1 (en) * 2010-05-31 2011-12-08 株式会社Pfu Overhead scanner apparatus, image processing method, and program
JPWO2011152166A1 (en) * 2010-05-31 2013-07-25 株式会社Pfu Overhead scanner device, image processing method, and program
JP5364845B2 (en) * 2010-05-31 2013-12-11 株式会社Pfu Overhead scanner device, image processing method, and program
JP2016076275A (en) * 2010-06-09 2016-05-12 ザ・ボーイング・カンパニーThe Boeing Company Man-machine interface based on gesture
JP2012150636A (en) * 2011-01-19 2012-08-09 Seiko Epson Corp Projection type display device and information processing system
US11435468B2 (en) 2018-08-22 2022-09-06 Google Llc Radar-based gesture enhancement for voice interfaces
JP2021099857A (en) * 2018-08-24 2021-07-01 グーグル エルエルシーGoogle LLC Smartphone, system and method involving radar system
JP7296415B2 (en) 2018-08-24 2023-06-22 グーグル エルエルシー Smartphone with radar system, system and method
JP7340656B2 (en) 2018-08-24 2023-09-07 グーグル エルエルシー Electronic equipment and software programs

Also Published As

Publication number Publication date
TW200947265A (en) 2009-11-16
JP5134409B2 (en) 2013-01-30
WO2009119026A1 (en) 2009-10-01

Similar Documents

Publication Publication Date Title
TWI534661B (en) Image recognition device and operation determination method and computer program
US9619104B2 (en) Interactive input system having a 3D input space
JP6265027B2 (en) Display device, position specifying program, and position specifying method
JP6264972B2 (en) Display device, display control program, and display control method
US7755608B2 (en) Systems and methods of interfacing with a machine
JP5134409B2 (en) Presentation system
US9516214B2 (en) Information processing device and information processing method
KR20040029258A (en) Image editing method, image editing apparatus, program for implementing image editing method and recording medium recording program
TWI485600B (en) Pattern swapping method and multi-touch device thereof
CN104364712A (en) Methods and apparatus for capturing a panoramic image
JP2010134738A (en) Terminal apparatus, display control method, and display control program
JP2012022632A (en) Information processing apparatus and control method thereof
US20120249838A1 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus
TWI464692B (en) Method of identifying an operating object, method of constructing depth information of an operating object, and an electronic device
CN105912101B (en) Projection control method and electronic equipment
JP4649559B2 (en) 3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded
JP2014029656A (en) Image processor and image processing method
CN111176425A (en) Multi-screen operation method and electronic system using same
KR100845274B1 (en) Apparatus and method for generating user-interface based on face recognition in a exhibition system
JP2012014657A (en) Image display device and control method thereof, and program and recording medium
WO2009119025A1 (en) Presentation system
JP2018106611A (en) AR information display device and program
KR101709529B1 (en) Apparatus and method for controlling image screen using portable terminal
US20120256834A1 (en) Physical object for intuitive navigation in a three-dimensional space
US10606242B2 (en) Print data division apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121109

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151116

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151116

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees