JP2011113216A - Pointing system - Google Patents

Pointing system Download PDF

Info

Publication number
JP2011113216A
JP2011113216A JP2009267882A JP2009267882A JP2011113216A JP 2011113216 A JP2011113216 A JP 2011113216A JP 2009267882 A JP2009267882 A JP 2009267882A JP 2009267882 A JP2009267882 A JP 2009267882A JP 2011113216 A JP2011113216 A JP 2011113216A
Authority
JP
Japan
Prior art keywords
video
visual change
unit
screen
pointing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009267882A
Other languages
Japanese (ja)
Inventor
Kayato Sekiya
かや人 関谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2009267882A priority Critical patent/JP2011113216A/en
Publication of JP2011113216A publication Critical patent/JP2011113216A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a pointing system capable of solving display delay and the precision and operability of pointing. <P>SOLUTION: A pointing system 1 is provided with: a display part 230 for displaying the photographic video of an object space on a screen; an instruction part slave unit 250 for accepting the instruction of target coordinates on the screen on which the photographic video of the object space is displayed and an infrared LED 240; a space pointing part 140 for generating visual change at a corresponding position in the object space with respect to the target coordinates; and control parts 110 and 210 for displaying a video obtained by suppressing the visual change generated in the object space as the result of the instruction on the screen. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ポインティングシステムに関し、特に、対象空間の撮影映像を表示した画面上で、目標座標を指示し、指示に呼応して対象空間内の対応する位置をポインティングするポインティングシステムに関する。   The present invention relates to a pointing system, and more particularly, to a pointing system that indicates a target coordinate on a screen that displays a captured image of a target space and points to a corresponding position in the target space in response to the instruction.

複数の遠隔地を、双方向のビデオ映像および音声によりネットワークを介して結び、物理的に離れたメンバ間の意思疎通を支援するビデオ会議システムは、デジタル圧縮技術およびディスプレイ技術の発展に伴い、高品質化、大画面化が進んでいる。   Video conferencing systems that connect multiple remote locations over a network with bidirectional video images and audio and support communication between physically distant members are becoming increasingly popular with the development of digital compression and display technologies. The quality and screen size are increasing.

特にテレプレゼンスシステムと呼ばれるビデオ会議システムでは、遠隔地の会議参加者が等身大に表示されることなどにより臨場感が演出されており、その人があたかも同じ空間に居るように感じることができる。   In particular, in a video conference system called a telepresence system, a sense of reality is produced by, for example, displaying remote conference participants in a life-size manner, and the person can feel as if they are in the same space.

なお、多くのテレビ会議システムでは、プレゼンテーション資料等を表示した画面を共有する機能、および拠点ごとに独立のマウスポインタを共有画面上に色などで区別して表示する機能が準備されている。これにより参加者は共有画面上のデータ等を指し示して(ポインティング)参照しながら、効率的に議論を行うことができる。   Many video conference systems are provided with a function for sharing a screen on which presentation materials are displayed and a function for displaying an independent mouse pointer for each site by distinguishing them with colors on the shared screen. Accordingly, the participants can efficiently discuss while pointing to and pointing to the data on the shared screen (pointing).

しかしながら、上記機能で参照可能なのはプレゼンテーション資料などの電子データのみであり、遠隔地の実物体を参照することはできない。したがって、ブレインストーミングなど事前に資料が準備されず、その場でホワイトボードや付箋紙などに情報が記載されていく形態の会議や、モックアップなどの物理的なモデルを囲んだ会議において遠隔地の物体を参照したい場合には、通常、遠隔地の人に言葉などで説明をして、代理で指してもらうなどの煩雑な手続きが必要となるという問題点があった。   However, only electronic data such as presentation materials can be referred to by the above function, and it is not possible to refer to a real object in a remote place. Therefore, it is not possible to prepare materials in advance such as brainstorming, and in a meeting where information is written on a whiteboard or sticky note on the spot, or in a meeting that surrounds a physical model such as a mockup, In order to refer to an object, there is a problem that a complicated procedure such as explaining to a person at a remote place with words or the like and pointing to a substitute is usually required.

このような問題点を解決する技術が特許文献1に記載されている。特許文献1のテレビ会議装置は、遠隔地の映像が画面上に表示され、利用者はタッチパネルなどを用いて画像の一部を指し示すことができる。すると、遠隔地に設置(たとえば、映像を撮影するカメラと一体化して設置)された光ビーム装置のビーム照射方向が、タッチパネルで指し示された座標を元に、モーターなどを利用して制御される。この結果、光ビームがタッチパネルで指示された場所に照射され、遠隔地の人は、指し示された場所が認識できる。   A technique for solving such problems is described in Patent Document 1. In the video conference apparatus of Patent Document 1, a video of a remote place is displayed on a screen, and a user can point a part of an image using a touch panel or the like. Then, the beam irradiation direction of the light beam device installed in a remote location (for example, integrated with a camera for taking images) is controlled using a motor or the like based on the coordinates pointed to by the touch panel. The As a result, the light beam is irradiated to the place designated by the touch panel, and the person at the remote place can recognize the pointed place.

なお、特許文献2では、類似した技術ではあるが、光ビームを照射する代わりに、ビデオプロジェクタを用いてポインタを投影する方法も開示されている。   In Patent Document 2, although a similar technique is disclosed, a method of projecting a pointer using a video projector instead of irradiating a light beam is also disclosed.

しかしながら、上記技術においては、利用者がタッチパネルなどを用いて画像の一部を指し示してから、その情報が遠隔地に伝わり、光ビーム装置などの指示装置が対応する場所を指し示すまでの遅延、さらには光ビームなどのポインタが照射された映像が遠隔地より逆方向に伝わり、画面表示上で利用者にフィードバックされるまでの遅延に関する考察がなされていない。   However, in the above technique, a delay from when the user points to a part of the image using a touch panel or the like until the information is transmitted to a remote place and a pointing device such as a light beam device points to a corresponding place, There is no consideration about the delay until the image irradiated with a pointer such as a light beam is transmitted in the opposite direction from the remote location and fed back to the user on the screen display.

遠隔地の単一の点を指定する場合においては、上記従来技術を用いても大きな問題は生じない。しかしながら、差し棒などの指示器の利用経験から多くの人が知るように、人は、指示器を利用して、単一の点を指定する以外にも、領域を囲む(円形を描く)、方向を示す、形状や文字を描くといったより複雑なジェスチャを行うことが多い。   In the case of designating a single point at a remote place, no major problem occurs even if the above-described conventional technique is used. However, as many people know from the use of indicators such as a stick, people use the indicator to surround a region (draw a circle), in addition to specifying a single point, Often, more complicated gestures, such as drawing directions or shapes or letters, are performed.

このようにある程度の時間をかけて軌跡を描くポインティング操作を行う際、利用者の操作に対する視覚的フィードバックが遅延すると、意図した操作を完了するまでの総時間が増加し、更には指示位置や形状の精度が低下することが知られている。   When performing a pointing operation that draws a trajectory over a certain amount of time in this way, if the visual feedback on the user's operation is delayed, the total time until the intended operation is completed increases, and further, the indicated position and shape It is known that the accuracy of the is reduced.

たとえば、非特許文献1に示されるように、マウスとカーソルを用いてターゲット領域をポインティングする操作において、利用者がマウスを動かしてから、それに応じたカーソル表示の変化に遅れがある場合、ターゲット領域内にカーソルを移動するまでの時間、および精度が遅延と共に増加する実験結果が開示されている。   For example, as shown in Non-Patent Document 1, in the operation of pointing the target area using the mouse and the cursor, when the user moves the mouse and there is a delay in the change of the cursor display corresponding thereto, the target area Experimental results have been disclosed in which the time to move the cursor in and the accuracy increases with delay.

たとえば、非特許文献1の図1の表に示されるように、遅延が225ミリ秒(ms)の場合は、遅延が無視できるほど小さい(8.5ms)の場合と比べ、ターゲット領域内にカーソルを移動するまでの時間が平均60%増加し、操作のエラー率が平均214%増加するという結果が報告されている。   For example, as shown in the table of FIG. 1 of Non-Patent Document 1, when the delay is 225 milliseconds (ms), the cursor is placed in the target area compared to the case where the delay is negligibly small (8.5 ms). It has been reported that the average time to move is increased by 60% and the error rate of operation is increased by 214% on average.

ちなみに、225ms程度の遅延は遠隔地値のビデオ会議システムにおいては珍しくない値である。一般的に、遠隔地への情報伝達に伴う遅延は、入力サンプリング遅延、伝搬遅延、伝送遅延、出力サンプリング遅延、およびソフトウェアオーバヘッドに大別される。   Incidentally, a delay of about 225 ms is not uncommon in a remote video conference system. In general, delay associated with information transmission to a remote location is roughly divided into input sampling delay, propagation delay, transmission delay, output sampling delay, and software overhead.

入力サンプリング遅延は、利用者がタッチパネルなどに触れてから、システムが座標を読み取るまでの遅延で、たとえば、100Hzでサンプリング行う場合、最大10ms、平均して5msの遅延が生じる。   The input sampling delay is a delay from when the user touches the touch panel until the system reads the coordinates. For example, when sampling is performed at 100 Hz, a delay of 10 ms at maximum and 5 ms on average occurs.

伝搬遅延は、座標情報が伝送媒体を伝搬するのにかかる遅延で、距離を伝搬速度で割った値となる。伝送遅延は、座標情報を含むネットワークパケットの先頭が到着してから、パケット全体の受信が完了するまでの時間で、パケット全体をメモリ上に一旦読み込んだ上で処理を行う一般的なストアアンドフォワード型の処理装置で発生する遅延である。これはパケット長を伝送ビットレートで割った値となる。   The propagation delay is a delay required for the coordinate information to propagate through the transmission medium, and is a value obtained by dividing the distance by the propagation speed. Transmission delay is the time from the arrival of the beginning of a network packet including coordinate information to the completion of reception of the entire packet. The general store-and-forward process is performed after the entire packet is read into memory. This is a delay that occurs in the type of processing device. This is a value obtained by dividing the packet length by the transmission bit rate.

出力サンプリング遅延は、出力バッファに保存された座標情報を出力装置(たとえば、光ビーム装置)が読み取るまでの遅延で、たとえば、100Hzでサンプリング行う場合、最大10ms、平均して5msの遅延が生じる。ソフトウェアオーバヘッドは、座標情報をネットワークパケットにコーディング・デコーディングする際などに生じる各種処理遅延である。   The output sampling delay is a delay until the coordinate information stored in the output buffer is read by the output device (for example, the light beam device). For example, when sampling is performed at 100 Hz, a delay of 10 ms at maximum and an average of 5 ms occurs. The software overhead is various processing delays that occur when coordinate information is coded and decoded in a network packet.

なお、上記光ビームの像を撮影し視覚的フィードバックを行う場合は、遠隔地で撮影された映像が再度ネットワークを伝達して表示されるため、上記の遅延が2回ずつ発生することなる。   In the case where the image of the light beam is taken and visual feedback is performed, the image taken at a remote place is displayed again through the network, so that the above delay occurs twice.

特開平5−204534号公報JP-A-5-204534 特開2003−209832号公報JP 2003-209832 A 特許第3422383号公報Japanese Patent No. 3422383

アイ・スコット・マッケンジー(I. Scott MacKenzie)、コリン・ウェア(Colin Ware)著、「ラグ・アズ・ア・デターミナント・オブ・ヒューマン・パフォーマンス・イン・インタラクティブ・システムズ(Lag as a Determinant of Human Performance in Interactive Systems)」、コンファランス・オン・ヒューマンファクターズ・イン・コンピューティング・システムズ(Conference on Human factors in computing systems)、1993年、p.488−493By I. Scott MacKenzie, Colin Wear, "Lag as a Determinant of Human Performance in Human Systems" Interactive Systems), Conference on Human Factors in Computing Systems, 1993, p. 488-493

たとえば、伝搬遅延だけを考慮しても、地球の裏側(距離=約2万キロメートル)から情報を折り返し伝達するには光信号(速度=毎秒3×10の8乗メートル)でも、片道約66msの遅延(2E7÷3E8秒)、折り返しで約130msの遅延が発生するため、その他の遅延も含めると数百msの全遅延が発生することが頻繁にある。このような遅延を伴う状況下にて上述した文献記載の技術を利用すると、ポインティングに要する時間やポインティング精度の劣化が発生し、遠隔地間での意思疎通が阻害されるという問題点があった。   For example, even if only the propagation delay is taken into account, an optical signal (speed = 3 × 10 8 sq.m) for transmitting information from the back side of the earth (distance = approximately 20,000 kilometers) is about 66 ms one way. Since a delay (2E7 ÷ 3E8 seconds) and a delay of about 130 ms occur due to folding, a total delay of several hundred ms often occurs when other delays are included. When using the technique described in the above-mentioned document in a situation involving such a delay, there is a problem that the time required for pointing and the pointing accuracy deteriorate, and communication between remote locations is hindered. .

このような問題が発生する理由は、上記文献記載の技術では、遠隔地にて撮影されたポインタの像を、ポインティング操作に対する利用者への視覚的フィードバックとして利用しているためである。この様子を模式的に図22に示す。同図(a)の通り、上記文献記載の技術では、利用者が画面20上で実際に指し示している位置21では無く、軌跡上の過去に指し示した位置に、レーザポインタなどの像23が映像の一部として画面20上に表示される。このため、遅延の増加に伴い、実際に指し示している位置21と視覚的フィードバックの乖離が著しく、操作に手間取ることになる。   The reason why such a problem occurs is that, in the technique described in the above document, a pointer image photographed at a remote place is used as a visual feedback to the user for a pointing operation. This situation is schematically shown in FIG. As shown in FIG. 5A, in the technique described in the above document, an image 23 such as a laser pointer is displayed at a position pointed to in the past on the trajectory instead of the position 21 actually pointed on the screen 20 by the user. As part of the screen 20. For this reason, with the increase in the delay, the difference between the actually indicated position 21 and the visual feedback is remarkably increased, which takes time.

なお、一部のシステムにおいてはマウスポインタ31などのローカルポインタを、遠隔地にて撮影されたポインタの像とは別に画面20上に表示して操作者に提供するシステムもあるが、この場合、同図(b)の通り、マウスポインタ31に加えてレーザポインタなどの像23と、視覚的フィードバックが二重になされるため、利用者の混乱の結果、やはりポインティングに要する時間やポインティング精度の劣化してしまう。   In some systems, there is a system in which a local pointer such as the mouse pointer 31 is displayed on the screen 20 separately from the image of the pointer photographed at a remote place and provided to the operator. As shown in FIG. 6B, the visual feedback is doubled with the image 23 such as the laser pointer in addition to the mouse pointer 31, and as a result of the user's confusion, the time required for pointing and the deterioration of the pointing accuracy are also deteriorated. Resulting in.

本発明の目的は、上述した課題である表示遅延およびポインティングの精度と操作性を解決するポインティングシステムを提供することにある。   An object of the present invention is to provide a pointing system that solves the above-described problems of display delay and pointing accuracy and operability.

本発明のポインティングシステムは、対象空間の撮影映像を画面上に表示する表示手段と、
前記対象空間の前記撮影映像を表示した前記画面上にて目標座標の指示を受け付ける指示受付手段と、
前記目標座標に対し、前記対象空間内の対応する位置に視覚的変化を発生させる空間ポインティング手段と、
前記指示の結果として前記対象空間内に生じる前記視覚的変化を抑制した映像を前記画面上に表示させる制御手段と、
を備える。
The pointing system of the present invention includes display means for displaying a captured image of a target space on a screen,
Instruction accepting means for accepting an instruction of target coordinates on the screen displaying the captured video of the target space;
Spatial pointing means for generating a visual change at a corresponding position in the target space with respect to the target coordinates;
Control means for displaying an image on which the visual change occurring in the target space as a result of the instruction is suppressed is displayed on the screen;
Is provided.

本発明の第1の処理装置は、対象空間の撮影映像を表示した画面上にて指示される目標座標に対し、前記対象空間内の対応する位置に視覚的変化を発生させる空間ポインティング手段と、
前記指示の結果として前記対象空間内に生じる前記視覚的変化を抑制した映像を前記画面上に表示させる制御手段と、を備える。
The first processing apparatus of the present invention includes a spatial pointing means for generating a visual change at a corresponding position in the target space with respect to target coordinates indicated on a screen displaying a captured image of the target space.
Control means for displaying on the screen an image in which the visual change occurring in the target space as a result of the instruction is suppressed.

本発明の第2の処理装置は、対象空間の撮影映像を画面上に表示する表示手段と、
前記対象空間の前記撮影映像を表示した前記画面上にて目標座標の指示を受け付ける指示受付手段と、
前記指示の結果として、前記目標座標に対し、前記対象空間内の対応する位置に発生させる視覚的変化を抑制した映像を前記画面上に表示させる制御手段と、を備える。
The second processing apparatus of the present invention comprises a display means for displaying a captured video of the target space on a screen,
Instruction accepting means for accepting an instruction of target coordinates on the screen displaying the captured video of the target space;
As a result of the instruction, there is provided control means for displaying on the screen an image in which a visual change generated at a corresponding position in the target space is suppressed with respect to the target coordinates.

本発明の処理装置のデータ処理方法は、対象空間の撮影映像を画面上に表示し、
前記対象空間の前記撮影映像を表示した前記画面上にて目標座標の指示を受け付け、
前記目標座標に対し、前記対象空間内の対応する位置に視覚的変化を発生させ、
前記指示の結果として前記対象空間内に生じる前記視覚的変化を抑制した映像を前記画面上に表示させる。
The data processing method of the processing device of the present invention displays a captured video of the target space on the screen,
Receiving an instruction of target coordinates on the screen displaying the captured video of the target space;
Generating a visual change at a corresponding position in the target space with respect to the target coordinates;
An image in which the visual change that occurs in the target space as a result of the instruction is suppressed is displayed on the screen.

本発明のコンピュータプログラムは、処理装置を実現するためのコンピュータプログラムであって、
対象空間の撮影映像を画面上に表示する表示手順と、
前記対象空間の前記撮影映像を表示した前記画面上にて目標座標の指示を受け付ける指示受付手順と、
前記目標座標に対し、前記対象空間内の対応する位置に視覚的変化を発生させる発生手順と、
前記指示の結果として前記対象空間内に生じる前記視覚的変化を抑制した映像を前記画面上に表示させる制御手順と、をコンピュータに実行させるためのものである。
The computer program of the present invention is a computer program for realizing a processing device,
A display procedure for displaying the captured image of the target space on the screen;
An instruction receiving procedure for receiving an instruction of a target coordinate on the screen displaying the captured video of the target space;
A generation procedure for generating a visual change at a corresponding position in the target space with respect to the target coordinates;
A control procedure for causing the computer to execute a control procedure for displaying on the screen an image in which the visual change occurring in the target space as a result of the instruction is suppressed.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

また、本発明の各種の構成要素は、必ずしも個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等でもよい。   The various components of the present invention do not necessarily have to be independent of each other. A plurality of components are formed as a single member, and a single component is formed of a plurality of members. It may be that a certain component is a part of another component, a part of a certain component overlaps with a part of another component, or the like.

また、本発明のデータ処理方法およびコンピュータプログラムには複数の手順を順番に記載してあるが、その記載の順番は複数の手順を実行する順番を限定するものではない。このため、本発明のデータ処理方法およびコンピュータプログラムを実施するときには、その複数の手順の順番は内容的に支障しない範囲で変更することができる。   In addition, although a plurality of procedures are described in order in the data processing method and the computer program of the present invention, the described order does not limit the order in which the plurality of procedures are executed. For this reason, when implementing the data processing method and computer program of this invention, the order of the several procedure can be changed in the range which does not interfere in content.

さらに、本発明のデータ処理方法およびコンピュータプログラムの複数の手順は個々に相違するタイミングで実行されることに限定されない。このため、ある手順の実行中に他の手順が発生すること、ある手順の実行タイミングと他の手順の実行タイミングとの一部ないし全部が重複していること、等でもよい。   Furthermore, the plurality of procedures of the data processing method and the computer program of the present invention are not limited to being executed at different timings. For this reason, another procedure may occur during the execution of a certain procedure, or some or all of the execution timing of a certain procedure and the execution timing of another procedure may overlap.

本発明によれば、表示遅延およびポインティングの精度と操作性を解決するポインティングシステムが提供される。   According to the present invention, a pointing system that solves display delay and pointing accuracy and operability is provided.

本発明の実施の形態に係るポインティングシステムの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the pointing system which concerns on embodiment of this invention. 本発明の実施の形態に係るポインティングシステムの空間ポインティング部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the space pointing part of the pointing system which concerns on embodiment of this invention. 図2の空間ポインティング部のガルバノスキャナの詳細な構成を示すブロック図である。FIG. 3 is a block diagram illustrating a detailed configuration of a galvano scanner of the space pointing unit in FIG. 2. 本発明の実施の形態に係るポインティングシステムの指示部子機の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the instruction | indication part subunit | mobile_unit of the pointing system which concerns on embodiment of this invention. 本実施形態の撮影部の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the imaging | photography part of this embodiment. 本実施形態の第1処理装置の制御部が送信する制御信号を示す図である。It is a figure which shows the control signal which the control part of the 1st processing apparatus of this embodiment transmits. 本実施形態のポインティングシステムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the pointing system of this embodiment. 本実施形態のポインティングシステムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the pointing system of this embodiment. 本実施形態の空間ポインティング部の制御回路の動作を表す状態遷移図である。It is a state transition diagram showing operation | movement of the control circuit of the space pointing part of this embodiment. 本実施形態の第1処理装置の各構成要素の動作のタイミングを示すタイミングチャートである。It is a timing chart which shows the timing of operation of each component of the 1st processing unit of this embodiment. 本実施形態の空間ポインティング部が生じる視覚的変化と撮影部により撮影される映像の一例を示す図である。It is a figure which shows an example of the image | video image | photographed by the visual change and imaging | photography part which the space pointing part of this embodiment produces. 本実施の形態のポインティングシステムの各ユニットの動作の一例を説明するための図である。It is a figure for demonstrating an example of operation | movement of each unit of the pointing system of this Embodiment. 本実施形態の撮影部で撮影された映像と、表示部で表示される画面の一例を示す図である。It is a figure which shows an example of the image | video image | photographed with the imaging | photography part of this embodiment, and the screen displayed on a display part. 本実施形態の指示部で円状の軌跡を描いたときに表示部で表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display part, when a circular locus | trajectory is drawn with the instruction | indication part of this embodiment. 本実施形態の指示部を水平に一定速度で移動させたときに表示部で表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display part when the instruction | indication part of this embodiment is moved at a constant speed horizontally. 本実施形態の空間ポインティング部の制御回路の動作を表す状態遷移図である。It is a state transition diagram showing operation | movement of the control circuit of the space pointing part of this embodiment. 本実施形態の第1処理装置の各構成要素の動作のタイミングを示すタイミングチャートである。It is a timing chart which shows the timing of operation of each component of the 1st processing unit of this embodiment. 本実施の形態の撮影部で撮影される2種類の映像と、それらを合成して得られる第3の映像の一例を示す図である。It is a figure which shows an example of the 3rd image | video obtained by combining two types of image | videos image | photographed with the imaging | photography part of this Embodiment, and them. 本実施の形態の指示部で円状の軌跡を描いたときに表示部で表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display part, when a circular locus | trajectory is drawn with the instruction | indication part of this Embodiment. 本実施の形態の制御部で画素の色情報が置き換えられる領域を表す図である。It is a figure showing the area | region where the color information of a pixel is replaced by the control part of this Embodiment. 本実施の形態の制御部で画素の色情報が置き換えられる領域を自動的に算出する方法を説明するための図である。It is a figure for demonstrating the method of calculating automatically the area | region where the color information of a pixel is replaced by the control part of this Embodiment. 文献記載の技術の遠隔ポインティングシステムにおける画面表示の例を示す図である。It is a figure which shows the example of the screen display in the remote pointing system of the technique of literature description.

(第1の実施の形態)
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
(First embodiment)
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all the drawings, the same reference numerals are given to the same components, and the description will be omitted as appropriate.

図1は、本発明の実施の形態に係るポインティングシステム1の構成を示す機能ブロック図である。
同図に示すように、ポインティングシステム1は、第1処理装置100と、第2処理装置200と、を備え、第1処理装置100および第2処理装置200はLAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどのネットワーク3を介して互いに接続される。各装置とネットワーク3の接続は、無線でも有線でもよい。
FIG. 1 is a functional block diagram showing a configuration of a pointing system 1 according to an embodiment of the present invention.
As shown in FIG. 1, the pointing system 1 includes a first processing device 100 and a second processing device 200. The first processing device 100 and the second processing device 200 include a LAN (Local Area Network), a WAN ( Wide Area Network) and the network 3 such as the Internet. The connection between each device and the network 3 may be wireless or wired.

本実施形態のポインティングシステム1において、第1処理装置100と第2処理装置200は、たとえば、離れた場所にそれぞれ設置することができる。特に限定しないが、設置場所は、同じ部屋の離れた場所、異なる部屋、異なるフロア、異なる建物、または異なる地域などとすることができる。   In the pointing system 1 of this embodiment, the 1st processing apparatus 100 and the 2nd processing apparatus 200 can each be installed in the place distant, for example. Although not particularly limited, the installation location can be a remote location in the same room, a different room, a different floor, a different building, a different area, or the like.

第1処理装置100は、制御部110と、空間ポインティング部140と、撮影部142と、を備えている。また、第2処理装置200は、制御部210と、表示部230と、指示部子機250と、指示部親機280と、を備えている。第2処理装置200の制御部210と第1処理装置100の制御部110は、ネットワーク3を介して接続される。制御部210および制御部110とネットワーク3との接続は、有線または無線のいずれでもよい。   The first processing apparatus 100 includes a control unit 110, a space pointing unit 140, and a photographing unit 142. Further, the second processing device 200 includes a control unit 210, a display unit 230, an instruction unit slave device 250, and an instruction unit parent device 280. The control unit 210 of the second processing apparatus 200 and the control unit 110 of the first processing apparatus 100 are connected via the network 3. The connection between the control unit 210 and the control unit 110 and the network 3 may be either wired or wireless.

第2処理装置200は、第1処理装置100で撮影された遠隔の対象空間の映像を画面に表示してユーザBに提示するとともに、指示部子機250を用いたユーザBによる対象空間の映像画面への指示を受け付ける。第1処理装置100は、対象空間の映像を撮像して第2処理装置200に送信するとともに、ユーザAが見ている対象空間に対し、ユーザBによる指示位置に視覚的変化を発生させる。   The second processing device 200 displays the video of the remote target space captured by the first processing device 100 on the screen and presents it to the user B, and also displays the video of the target space by the user B using the instruction unit slave unit 250. Accept instructions on the screen. The first processing device 100 captures an image of the target space and transmits it to the second processing device 200, and causes a visual change in the position indicated by the user B with respect to the target space viewed by the user A.

すなわち、本実施形態のポインティングシステム1は、たとえば、電子会議などで、ユーザAがホワイトボード132などの前に居る状況で、対象空間内のホワイトボード132などを撮影した映像を、ネットワーク3を介して送信し、ユーザBが見る表示部230の画面上に映像を表示する。
そして、ユーザBが表示部230に表示された撮影映像の画面上で所望の位置をポイントすると、その情報がユーザA側に送信され、空間ポインティング部140が、対象空間内の対応する位置に視覚的変化を発生させ、たとえば、光ビーム170によるポインタ172をホワイトボード132に照射する。これにより、ユーザAにユーザBが指示した位置を伝達することができる。
That is, the pointing system 1 of the present embodiment, for example, in an electronic conference or the like, in a situation where the user A is in front of the whiteboard 132 or the like, an image of the whiteboard 132 or the like in the target space is captured via the network 3. The video is displayed on the screen of the display unit 230 viewed by the user B.
Then, when the user B points to a desired position on the screen of the captured video displayed on the display unit 230, the information is transmitted to the user A side, and the space pointing unit 140 is visually displayed at the corresponding position in the target space. The whiteboard 132 is irradiated with a pointer 172 by the light beam 170, for example. Thereby, the position instructed by the user B can be transmitted to the user A.

ポインティングシステム1の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスクなどの記憶ユニット、ネットワーク接続用インタフェースを中心にハードウェアとソフトウェアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。以下説明する各図は、ハードウェア単位の構成ではなく、機能単位のブロックを示している。   Each component of the pointing system 1 is centered on an arbitrary computer CPU, memory, a program for realizing the components shown in the figure loaded in the memory, a storage unit such as a hard disk for storing the program, and a network connection interface. Realized by any combination of hardware and software. It will be understood by those skilled in the art that there are various modifications to the implementation method and apparatus. Each figure described below shows functional unit blocks, not hardware unit configurations.

第1処理装置100および第2処理装置200は、たとえば、図示しないCPU(Central Processing Unit)やメモリ、ハードディスク、および通信用ネットワークインターフェースを備え、キーボードやマウス等の入力装置やディスプレイやプリンタ等の出力装置と接続されるサーバコンピュータやパーソナルコンピュータ(Personal Computer:PC)、またはそれらに相当する装置により実現することができる。そして、CPUが、ハードディスクに記憶されるプログラムをメモリに読み出して汎用のオペレーティングシステムで実行することにより、上記各ユニットの各機能を実現することができる。なお、以下の各図において、本発明の本質に関わらない部分の構成については省略してあり、図示されていない。   The first processing device 100 and the second processing device 200 include, for example, a CPU (Central Processing Unit) (not shown), a memory, a hard disk, and a communication network interface, and input devices such as a keyboard and a mouse, and outputs such as a display and a printer. It can be realized by a server computer or a personal computer (PC) connected to the device, or a device corresponding to them. The CPU can realize each function of each unit by reading a program stored in the hard disk into the memory and executing it with a general-purpose operating system. In the following drawings, the configuration of parts not related to the essence of the present invention is omitted and is not shown.

本実施形態のポインティングシステム1は、対象空間の撮影映像を画面上に表示する表示部230と、対象空間の撮影映像を表示した画面上にて目標座標の指示を受け付ける指示受付部(指示部子機250、指示部親機280、赤外LED(Light Emitting Diode)240a〜d)と、目標座標に対し、対象空間内の対応する位置に視覚的変化を発生させる空間ポインティング部140と、指示の結果として対象空間内に生じる視覚的変化を抑制した映像を表示部230の画面上に表示させる制御部(110、210)と、を備える。   The pointing system 1 according to the present embodiment includes a display unit 230 that displays a captured image of the target space on the screen, and an instruction reception unit (instruction unit that receives an instruction of target coordinates on the screen that displays the captured image of the target space. Machine 250, pointing unit master 280, infrared LED (Light Emitting Diode) 240 a to d), space pointing unit 140 that generates a visual change at a corresponding position in the target space with respect to the target coordinates, And a control unit (110, 210) that displays on the screen of the display unit 230 an image that suppresses a visual change that occurs as a result in the target space.

また、本実施形態のポインティングシステムは、対象空間を撮影する撮影部142をさらに備え、制御部(110、210)は、視覚的変化が生じる時間間隔と視覚的変化が生じない時間間隔が繰り返すように、空間ポインティング部140に、対象空間内の対応する位置に視覚的変化を発生させ、空間ポインティング部140が視覚的変化を発生させない時間間隔に、撮影部142に対象空間を繰り返し撮影させることにより得られる一連の画像から構成される視覚的変化を抑制した映像を生成し、生成された視覚的変化を抑制した映像を表示部230の画面上に表示させる。   In addition, the pointing system of the present embodiment further includes an imaging unit 142 that images the target space, and the control units (110, 210) repeat a time interval in which a visual change occurs and a time interval in which a visual change does not occur. In addition, by causing the space pointing unit 140 to generate a visual change at a corresponding position in the target space, and causing the shooting unit 142 to repeatedly capture the target space at a time interval at which the spatial pointing unit 140 does not generate a visual change. A video that suppresses a visual change composed of a series of obtained images is generated, and the generated video that suppresses the visual change is displayed on the screen of the display unit 230.

以下、本実施形態のポインティングシステム1の各構成要素について、詳細に説明する。
はじめに、対象空間に遠隔から指示された位置に視覚的変化を発生させる第1処理装置100について説明する。
第1処理装置100において、撮影部142は、ポインティング対象となる物体が設置された空間の映像を撮影する(ここでは、ポインティング対象として文字の描かれたホワイトボード132の例を図示している)。撮影部142により撮影を行う時間間隔は、制御部110より入力される制御信号により制御される。撮影部142には、たとえば、一般的に入手可能IEEE1394カメラなどが使用できる。
Hereinafter, each component of the pointing system 1 of this embodiment is demonstrated in detail.
First, the 1st processing apparatus 100 which generates a visual change in the position instruct | indicated remotely from object space is demonstrated.
In the first processing apparatus 100, the imaging unit 142 captures an image of a space in which an object to be pointed is placed (here, an example of a whiteboard 132 on which characters are drawn as a pointing target is illustrated). . The time interval at which shooting is performed by the shooting unit 142 is controlled by a control signal input from the control unit 110. For the photographing unit 142, for example, a generally available IEEE 1394 camera can be used.

制御部110は、撮影部142および空間ポインティング部140に接続されており、撮影部142からの撮影映像の読み出すとともに、空間ポインティング部140へのポインティング指示などを行う。また、制御部210と制御部110は、互いにネットワーク3を介して映像情報や映像内座標情報などのやりとりを行う。   The control unit 110 is connected to the imaging unit 142 and the space pointing unit 140, and reads out the captured video from the imaging unit 142 and issues a pointing instruction to the space pointing unit 140. In addition, the control unit 210 and the control unit 110 exchange video information, in-video coordinate information, and the like via the network 3.

空間ポインティング部140は、通常、撮影部142と一体化されて設置される装置で、光ビーム170を対象空間に照射することにより、空間内の特定位置に視覚的変化を生じさせる。図1では、視覚的変化領域としてポインタ172が示されている。この視覚的変化により、ユーザAにポインティング指示を提示できる。   The space pointing unit 140 is a device that is usually installed integrally with the photographing unit 142, and irradiates the target space with the light beam 170, thereby causing a visual change at a specific position in the space. In FIG. 1, a pointer 172 is shown as a visual change area. By this visual change, a pointing instruction can be presented to the user A.

空間ポインティング部140により光ビーム170の照射を行う時間間隔は制御部110により制御される。空間ポインティング部140としては光ビーム170のオンオフと照射方向が制御可能な赤色レーザポインタが利用できる。   A time interval at which the light beam 170 is irradiated by the space pointing unit 140 is controlled by the control unit 110. As the spatial pointing unit 140, a red laser pointer capable of controlling the on / off of the light beam 170 and the irradiation direction can be used.

図2は、空間ポインティング部140の構成例を示すブロック図である。同図を参照すると、空間ポインティング部140は、レーザ148と、2組のガルバノスキャナ152a、b(以下、特に区別が不要な場合は、「ガルバノスキャナ152」と呼ぶ)と、ミラー150a、b(以下、特に区別が不要な場合は、「ミラー150」と呼ぶ)と、制御回路146とを有する。レーザ148は、指向性を有する光ビーム170を発生するために使用し、一般的に市販されているクラス2のレーザポインタが利用できる。   FIG. 2 is a block diagram illustrating a configuration example of the space pointing unit 140. Referring to the figure, the spatial pointing unit 140 includes a laser 148, two sets of galvano scanners 152a, b (hereinafter referred to as "galvano scanner 152" if no particular distinction is required), and mirrors 150a, b ( Hereinafter, when there is no need for distinction, it is referred to as “mirror 150”) and a control circuit 146. The laser 148 is used to generate a light beam 170 having directivity, and a commercially available class 2 laser pointer can be used.

ガルバノスキャナ152は、流す電流の量に応じて、取り付けられたミラー150の方向を高速に制御するデバイスで、図3のような構造を有する。コイル164に電流を流すと磁性体166を介して磁場が発生し、磁石162に対し磁力を発生する。磁石162はこの磁力がバネ160の応力と釣り合うまで回転する。そして、磁石162の回転に伴いそれに取り付けられたミラー150の角度が変化する。   The galvano scanner 152 is a device that controls the direction of the mounted mirror 150 at high speed in accordance with the amount of current to flow, and has a structure as shown in FIG. When a current is passed through the coil 164, a magnetic field is generated via the magnetic body 166 and a magnetic force is generated with respect to the magnet 162. The magnet 162 rotates until this magnetic force balances with the stress of the spring 160. As the magnet 162 rotates, the angle of the mirror 150 attached thereto changes.

このようなガルバノスキャナ152はレーザプロジェクタなど、光ビーム170を偏向して映像を生成する装置にて一般的に使用されているもので、専門のメーカから既製品を入手することも可能である。図2に戻り、制御回路146は、図1の制御部110から接続ケーブルを介して受け取る偏向角度情報を元にガルバノスキャナ152に流れる電流を調整し、光ビーム170の方向を制御する。制御回路146としては、一般的なマイコンとドライバ回路を組み合わせて使用できる。   Such a galvano scanner 152 is generally used in an apparatus that generates an image by deflecting the light beam 170 such as a laser projector, and an off-the-shelf product can be obtained from a specialized manufacturer. Returning to FIG. 2, the control circuit 146 controls the direction of the light beam 170 by adjusting the current flowing through the galvano scanner 152 based on the deflection angle information received from the control unit 110 of FIG. 1 via the connection cable. As the control circuit 146, a general microcomputer and a driver circuit can be used in combination.

次に、図1に戻り、遠隔の対象空間の映像を画面表示し、ユーザBによる指示を受け付け対象空間に伝達する第2処理装置200について説明する。
第2処理装置200において、制御部210は、表示部230および指示部親機280に接続されており、表示部230への映像の表示制御や指示器からの映像内座標の読み出しなどを行う。
Next, returning to FIG. 1, a description will be given of the second processing device 200 that displays an image of a remote target space on the screen and receives an instruction from the user B and transmits it to the target space.
In the second processing device 200, the control unit 210 is connected to the display unit 230 and the instruction unit master 280, and performs display control of the image on the display unit 230, reading of the coordinates in the image from the indicator, and the like.

表示部230は、たとえば、液晶ディスプレイ、有機EL(ElectroLuminescence)ディスプレイ、プラズマディスプレイなどである。表示部230の画面には、撮影部142により撮影された対象空間、ここでは、ホワイトボードの映像232が表示される。表示部230の画面の四隅には、4つの赤外LED240が配置されている。なお、図1では、4つの赤外LED240は、符号240a、240b、240c、240dでそれぞれ示している。以下、特に、4つ赤外LED240を区別する必要がない場合は、「赤外LED240」と呼ぶものとする。   The display unit 230 is, for example, a liquid crystal display, an organic EL (ElectroLuminescence) display, a plasma display, or the like. On the screen of the display unit 230, a target space imaged by the imaging unit 142, here, a video 232 of a whiteboard is displayed. Four infrared LEDs 240 are arranged at the four corners of the screen of the display unit 230. In FIG. 1, the four infrared LEDs 240 are indicated by reference numerals 240a, 240b, 240c, and 240d, respectively. Hereinafter, particularly when it is not necessary to distinguish the four infrared LEDs 240, they are referred to as “infrared LEDs 240”.

また、第2処理装置200は、ユーザBが、表示部230に表示された映像の特定の位置(映像内座標)を指し示すために使用する指示器として、指示部子機250および指示部親機280を含む。指示部子機250は、ユーザBが表示部230に表示された対象空間の映像に対して指示をするものであり、第2処理装置200において、表示部230のホワイトボードの映像232上に指示部子機250によって指示された位置に、カーソル242が表示されるようになっている。指示部親機280は、指示部子機250によって指示された位置を第1処理装置100に伝達する。   In addition, the second processing device 200 includes an instruction unit slave unit 250 and an instruction unit master unit as indicators used by the user B to point to a specific position (coordinates in the image) of the image displayed on the display unit 230. 280. The instruction unit slave unit 250 gives an instruction to the image of the target space displayed on the display unit 230 by the user B. In the second processing device 200, the instruction unit slave unit 250 instructs the image on the whiteboard image 232 of the display unit 230. A cursor 242 is displayed at a position designated by the slave unit 250. The instruction unit parent device 280 transmits the position indicated by the instruction unit child device 250 to the first processing apparatus 100.

図4は、指示部の一部である指示部子機250の構成例を示すブロック図である。同図を参照すると、指示部子機250は、カメラモジュール252と、スイッチ254と、演算回路256と、無線モジュール258と、有する。   FIG. 4 is a block diagram illustrating a configuration example of the instruction unit slave unit 250 that is a part of the instruction unit. Referring to the drawing, the instruction unit slave unit 250 includes a camera module 252, a switch 254, an arithmetic circuit 256, and a wireless module 258.

カメラモジュール252は、赤外領域で感度を有するデバイスで、図1の表示部230の四隅に配置される赤外LED(赤外LED240a〜d)を撮影し、それらの位置を特定する。カメラモジュールとしては、電荷結合素子(CCD:Charge Coupled Device)イメージセンサや相補性金属酸化膜半導体(CMOS:Complementary Metal Oxide Semiconductor)イメージセンサなどの半導体イメージセンサを搭載したカメラに可視光カットフィルタを取り付けたものが使用できる。   The camera module 252 is a device having sensitivity in the infrared region, and captures infrared LEDs (infrared LEDs 240a to 240d) arranged at the four corners of the display unit 230 in FIG. 1 and specifies their positions. As a camera module, a visible light cut filter is attached to a camera equipped with a semiconductor image sensor such as a charge coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS) image sensor. Can be used.

スイッチ254は、ユーザBがポインティングを行いたい時に押下するもので、特に限定されないが、たとえば、一般的なプッシュスイッチが使用できる。演算回路256は、カメラモジュール252により撮影された赤外LED240a〜dの位置を元に指示部子機250の指し示す方向と表示部230の画面の交点、すなわち、映像画面上での座標(X,Y)を算出する。さらに、演算回路256はスイッチ254の押下状態の変化(ボタンイベント)も検出し、指示部親機280に受け渡す。演算回路256としては、一般的なマイコンが使用できる。   The switch 254 is pressed when the user B wants to perform pointing, and is not particularly limited. For example, a general push switch can be used. The arithmetic circuit 256 is based on the positions of the infrared LEDs 240a to 240d photographed by the camera module 252 and the intersection of the direction indicated by the pointing unit slave unit 250 and the screen of the display unit 230, that is, the coordinates (X, Y) is calculated. Further, the arithmetic circuit 256 also detects a change in the pressed state of the switch 254 (button event) and passes it to the instruction unit master 280. As the arithmetic circuit 256, a general microcomputer can be used.

無線モジュール258は、演算回路256より算出された映像内座標およびボタンイベントを、無線リンクを介して指示部親機280に送信する。無線モジュール258としては、たとえば、ブルートゥース(Bluetooth)などの無線規格に準ずる無線トランシーバが使用できる。指示部親機280と制御部210の間の接続は、特に限定されず、汎用のインタフェースを用いることができ、たとえば、USB(Universal Serial Bus)、IEEE1394、または、RS232C等でもよい。   The wireless module 258 transmits the in-video coordinates and the button event calculated by the arithmetic circuit 256 to the instruction unit master 280 via a wireless link. As the wireless module 258, for example, a wireless transceiver conforming to a wireless standard such as Bluetooth can be used. The connection between the instruction unit master 280 and the control unit 210 is not particularly limited, and a general-purpose interface can be used. For example, USB (Universal Serial Bus), IEEE 1394, or RS232C may be used.

図1に戻り、制御部210は、指示部親機280から受け取った映像内座標(X,Y)とボタンイベントに基づいて、表示部230の画面上のカーソル242表示を更新するとともに、同情報をネットワークパケットに内包して、ネットワーク3を介し制御部110に送信する。制御部110に送信されるボタンイベントは、前述した対象空間内への指示位置に発生させる視覚的変化の制御、すなわち、光ビーム170のオン/オフ制御の指示となる。ボタンイベントには、たとえば、スイッチ254が押し下げられた状態に遷移したことを表すボタンダウンイベントと、スイッチ254が押し下げられた状態から離された状態に遷移したこと表すボタンアップイベントと、を含むことができる。   Returning to FIG. 1, the control unit 210 updates the display of the cursor 242 on the screen of the display unit 230 based on the in-video coordinates (X, Y) and the button event received from the instruction unit main unit 280, and the same information. Is included in a network packet and transmitted to the control unit 110 via the network 3. The button event transmitted to the control unit 110 is an instruction to control the visual change generated at the indicated position in the target space, that is, the on / off control of the light beam 170. The button event includes, for example, a button down event indicating that the switch 254 has transitioned to a pressed state, and a button up event indicating that the switch 254 has transitioned from a pressed state to a released state. Can do.

以上のように構成された本実施の形態の第1処理装置100および第2処理装置200は、コンピュータプログラムに対応する各種の処理動作を、各制御回路等に組み込まれているCPUが実行することにより、前述のような各種ユニットや回路が各種機能として実現される。   In the first processing apparatus 100 and the second processing apparatus 200 of the present embodiment configured as described above, various processing operations corresponding to the computer program are executed by the CPU incorporated in each control circuit or the like. Thus, the various units and circuits as described above are realized as various functions.

本実施形態のコンピュータプログラムは、第1処理装置100および第2処理装置200を実現させるためのコンピュータに、対象空間の撮影映像を表示部230の画面上に表示する表示手順と、対象空間の撮影映像を表示した画面上にて目標座標の指示を指示部子機250から受け付ける指示受付手順と、目標座標に対し、対象空間内の対応する位置に視覚的変化を空間ポインティング部140に発生させる発生手順と、指示の結果として対象空間内に生じる視覚的変化を抑制した映像を表示部230の画面上に表示させる制御手順と、を実行させるように記述されている。   The computer program according to the present embodiment causes a computer for realizing the first processing device 100 and the second processing device 200 to display a captured image of the target space on the screen of the display unit 230 and to capture the target space. An instruction receiving procedure for receiving an instruction of a target coordinate from the instruction unit slave unit 250 on a screen on which an image is displayed, and a generation that causes the space pointing unit 140 to generate a visual change at a corresponding position in the target space with respect to the target coordinate It is described that a procedure and a control procedure for displaying on the screen of the display unit 230 an image in which a visual change that occurs in the target space as a result of the instruction is suppressed are described.

本実施形態のコンピュータプログラムは、コンピュータで読み取り可能な記録媒体に記録されてもよい。記録媒体は特に限定されず、様々な形態のものが考えられる。また、プログラムは、記録媒体からコンピュータのメモリにロードされてもよいし、ネットワークを通じてコンピュータにダウンロードされ、メモリにロードされてもよい。   The computer program of this embodiment may be recorded on a computer-readable recording medium. The recording medium is not particularly limited, and various forms can be considered. The program may be loaded from a recording medium into a computer memory, or downloaded to a computer through a network and loaded into the memory.

このように構成された本実施形態のポインティングシステム1の動作について、以下に説明する。本実施形態の第1処理装置100と第2処理装置200を含むポインティングシステム1の全体の動作を説明する前に、まず、第1処理装置100における撮影部142による対象空間の撮影動作と、空間ポインティング部140による対象空間への視覚的変化の発生動作について詳細に説明する。
以下に示すように、撮影部142と空間ポインティング部140の動作が、制御部110の制御信号により制御され、互いに動作の同期をとることにより、第1処理装置100の対象空間に表示されたポインタ172を撮影した映像内の視覚的変化、すなわち、光ビーム170によるポインタ172の映像を抑制して第2処理装置200に送信できることとなる。
The operation of the pointing system 1 of the present embodiment configured as described above will be described below. Before describing the overall operation of the pointing system 1 including the first processing device 100 and the second processing device 200 according to the present embodiment, first, the imaging operation of the target space by the imaging unit 142 in the first processing device 100 and the space The generation operation of the visual change to the target space by the pointing unit 140 will be described in detail.
As shown below, the operations of the photographing unit 142 and the space pointing unit 140 are controlled by the control signal of the control unit 110 and synchronized with each other, thereby displaying the pointer displayed in the target space of the first processing device 100. The visual change in the image obtained by photographing 172, that is, the image of the pointer 172 by the light beam 170 can be suppressed and transmitted to the second processing device 200.

はじめに、本実施形態の第1処理装置100における撮影部142の動作について、説明する。
図5は、本実施形態の撮影部142の動作の一例を示すフローチャートである。
First, the operation of the imaging unit 142 in the first processing apparatus 100 of the present embodiment will be described.
FIG. 5 is a flowchart illustrating an example of the operation of the imaging unit 142 of the present embodiment.

撮影部142は、ポインティング対象となる物体(この例ではホワイトボード132(図1))が設置された空間の動画映像を撮影する。動画映像の撮影は、カメラのシャッタを開く(ステップS11)、一定時間(露光時間)露光する(ステップS13)、シャッタを閉じる(ステップS15)という一連の動作を高速(たとえば、30Hz)でくり返す(ステップS17のNO、ステップS19)ことにより行われる。本実施の形態で示されるシステムでは、シャッタの開くタイミングおよび閉じるタイミングは制御部110により制御される。   The imaging unit 142 captures a moving image in a space where an object to be pointed (in this example, the whiteboard 132 (FIG. 1)) is installed. For shooting a moving image, a series of operations of opening the shutter of the camera (step S11), exposing for a fixed time (exposure time) (step S13), and closing the shutter (step S15) is repeated at a high speed (for example, 30 Hz). (NO in step S17, step S19). In the system shown in the present embodiment, the opening timing and closing timing of the shutter are controlled by the control unit 110.

たとえば、制御部110は、撮影部142に対し、約33ミリ秒(ms)の繰り返し間隔で、図6に示されるような矩形波状の制御信号を送信し、撮影部142は制御信号がHighの状態においてシャッタを開き、Lowの状態においてシャッタを閉じるように構成されているものとする。すると撮影部142では、制御信号の立ち上がりのタイミングでシャッタが開き、15msの間露光を行って、制御信号の立ち下がりのタイミングでシャッタが閉じることになる。この結果、撮影部142からは、制御部110の制御するタイミングにて、毎秒30フレームの映像(静止画列)が生成されることになる。撮影された映像は随時、撮影部142から制御部110に送られる。   For example, the control unit 110 transmits a rectangular wave control signal as shown in FIG. 6 to the imaging unit 142 at a repetition interval of about 33 milliseconds (ms), and the imaging unit 142 has a control signal of High. It is assumed that the shutter is opened in the state and is closed in the low state. Then, the photographing unit 142 opens the shutter at the rising timing of the control signal, performs exposure for 15 ms, and closes the shutter at the falling timing of the control signal. As a result, from the photographing unit 142, a video (still image sequence) of 30 frames per second is generated at the timing controlled by the control unit 110. The captured video is sent from the imaging unit 142 to the control unit 110 as needed.

なお、ここでは、制御部110が撮影部142を制御する方法として、制御信号がHighの状態においてシャッタを開き、Lowの状態においてシャッタを閉じるように構成された例を示したが、制御信号の立ち上がりのタイミングでシャッタが開いた後、撮影部142に内蔵されたクロックがあらかじめ定められた一定カウント経過後にシャッタを閉じるような制御方法なども考えられる。なお、このような制御はIEEE1394カメラなどのシャッタ制御方法として一般的に知られている内容であるので詳細な説明は省略する。   Here, as an example of the method in which the control unit 110 controls the photographing unit 142, the shutter is opened when the control signal is High, and the shutter is closed when the control signal is Low. A control method is also conceivable in which, after the shutter opens at the rising timing, the shutter is closed after a predetermined count of a clock built in the photographing unit 142 has elapsed. Since such control is generally known as a shutter control method for an IEEE 1394 camera or the like, detailed description thereof is omitted.

次に、本実施形態の第1処理装置100の空間ポインティング部140の動作について説明する。
以下、本実施形態の第1処理装置100の空間ポインティング部140におけるレーザ制御処理について、具体的なレーザ出力の制御方法の一例を、図9および図10を用いて説明する。図9は、指示部子機250による指示に応じた空間ポインティング部140の制御回路146の状態遷移図である。図10は、制御部110が撮影部142および空間ポインティング部140に送信する制御信号と、撮影部142のシャッタの開閉状態および空間ポインティング部140のレーザのオンオフ状態の関係を表すタイミングチャートである。
Next, the operation of the space pointing unit 140 of the first processing apparatus 100 of this embodiment will be described.
Hereinafter, an example of a specific laser output control method for the laser control process in the spatial pointing unit 140 of the first processing apparatus 100 of the present embodiment will be described with reference to FIGS. 9 and 10. FIG. 9 is a state transition diagram of the control circuit 146 of the space pointing unit 140 in accordance with an instruction from the instruction unit slave unit 250. FIG. 10 is a timing chart showing a relationship between a control signal transmitted from the control unit 110 to the imaging unit 142 and the space pointing unit 140, an open / close state of the shutter of the imaging unit 142, and an on / off state of the laser of the space pointing unit 140.

初期状態S21にある空間ポインティング部140の制御回路146(図2)は制御部110よりボタンダウンイベントを受信する(S31)と、レーザ出力がオフの待機状態S23に遷移する。待機状態S23において、制御部110より受信している制御信号の立ち下がりを検出すると(S33)、制御回路146はレーザオン状態S25に遷移し、レーザ出力を開始する(図10のボタンダウン以降参照)。同時にレーザオン状態S25の持続時間の計測も行い、レーザオン状態S25が所定の時間に達した場合(この例では15ms)(S35)、レーザ出力を停止して、再び待機状態S23に遷移する。これを制御信号の繰り返し周波数(約30Hz)にて繰り返す。   When the control circuit 146 (FIG. 2) of the space pointing unit 140 in the initial state S21 receives a button down event from the control unit 110 (S31), the control state shifts to a standby state S23 in which the laser output is off. When the falling edge of the control signal received from the control unit 110 is detected in the standby state S23 (S33), the control circuit 146 transitions to the laser on state S25 and starts laser output (refer to the button down and after in FIG. 10). . At the same time, the duration of the laser-on state S25 is also measured. When the laser-on state S25 reaches a predetermined time (15 ms in this example) (S35), the laser output is stopped and the state transits to the standby state S23 again. This is repeated at the repetition frequency (about 30 Hz) of the control signal.

ボタンダウンイベント受信から待機状態S23およびレーザオン状態S25において、空間ポインティング部140の制御回路146(図2)は、制御部110から受け取った偏向角度に応じてガルバノスキャナ152(図2)のコイル164(図3)に電流を流し、ミラー150(図2)の角度を調整する。なお、ここで水平方向の偏向ではガルバノスキャナ152aが、垂直方向の偏向ではガルバノスキャナ152bが、互いとは独立に制御される。また、この制御は通常、映像内座標(Xi,Yi)がサンプリングされる間隔(この例では10Hz、すなわち100ms)と比べ、はるか短い時間内に行われる。なお、i(ただし、i=1,2,3,・・・)は制御部110の制御周期毎の値であることを示している。   In the standby state S23 and the laser-on state S25 from the reception of the button-down event, the control circuit 146 (FIG. 2) of the space pointing unit 140 responds to the deflection angle received from the control unit 110 according to the coil 164 of the galvano scanner 152 (FIG. 2). Current is passed through FIG. 3) to adjust the angle of the mirror 150 (FIG. 2). Here, the galvano scanner 152a is controlled independently in the horizontal deflection, and the galvano scanner 152b is controlled independently in the vertical deflection. Further, this control is usually performed within a much shorter time than the interval (in this example, 10 Hz, that is, 100 ms) at which the in-video coordinates (Xi, Yi) are sampled. Note that i (where i = 1, 2, 3,...) Indicates a value for each control cycle of the control unit 110.

レーザオン状態S25もしくは待機状態S23にて制御部110よりボタンアップイベントを受信した場合(S39またはS37)(レーザ出力がオンの場合は出力を停止し)、初期状態S21に遷移する。なお、初期状態S21においては制御信号の立ち下がりを検出してもレーザ出力はオフのままである(図10のボタンアップ以降参照)。   When a button-up event is received from the control unit 110 in the laser-on state S25 or the standby state S23 (S39 or S37) (when the laser output is on, the output is stopped), the state transitions to the initial state S21. In the initial state S21, the laser output remains off even if the falling edge of the control signal is detected (see after button up in FIG. 10).

このようにして、待機状態S23とレーザオン状態S25を制御信号に従って遷移を繰り返す間、恒常的にレーザ出力がオンされるのではなく、オンオフを繰り返すパルス状の光を発生させる制御を行うことができる。このオンオフ制御は、撮影部142と時間的に同期して制御される。   In this way, while the transition between the standby state S23 and the laser-on state S25 is repeated according to the control signal, the laser output is not constantly turned on, but control can be performed to generate pulsed light that repeatedly turns on and off. . This on / off control is controlled in synchronization with the photographing unit 142 in terms of time.

すなわち、撮影部142は、前記の制御の通り、制御信号の立ち上がりでシャッタが開き、その後15ms間露光を行う動作をしているものとする。このような制御の結果、図10で示される通り、撮影部142のシャッタの開いている時間間隔とレーザ出力がオンである時間間隔は交互に、相補的に発生することになる。   That is, it is assumed that the photographing unit 142 operates as described above to perform exposure for 15 ms after the shutter is opened at the rising edge of the control signal. As a result of such control, as shown in FIG. 10, the time interval at which the shutter of the photographing unit 142 is opened and the time interval at which the laser output is on are alternately and complementarily generated.

このようにして撮影部142により撮影される映像のフレームはたとえば、図11(b)のようなものとなる。すなわち、図11(a)に示すような実際の空間の状態から、空間ポインティング部140(図1)が生じる視覚的変化(この例では、光ビームの像182)を取り除いた、図11(b)に示す映像が撮影部142(図1)により撮影される。一方で、この例の30Hzのように制御信号の繰り返し周波数が充分早い場合は、残像現象により、撮影対象の空間に居る人(たとえば、ユーザA)から見てレーザの光ビームの像182はほぼ恒常的に点灯しているように見える。   Thus, the frame of the video imaged by the imaging unit 142 is, for example, as shown in FIG. That is, the visual change (in this example, the light beam image 182) generated by the space pointing unit 140 (FIG. 1) is removed from the actual space state as shown in FIG. ) Is taken by the photographing unit 142 (FIG. 1). On the other hand, when the repetition frequency of the control signal is sufficiently high, such as 30 Hz in this example, the image 182 of the laser light beam is almost the same as seen from the person (for example, user A) in the space to be imaged due to the afterimage phenomenon. Looks like it's constantly lit.

このようにして、第1処理装置100において、撮影部142と空間ポインティング部140の光ビーム170の動作を上記説明したように制御することで、対象空間内に生じる視覚的変化を抑制した映像を第2処理装置200に送信できることとなる。すなわち、本実施形態のポインティングシステム1では、制御部110と制御部210が、視覚的変化が生じる時間間隔と視覚的変化が生じない時間間隔が繰り返すように、空間ポインティング部140に、対象空間内の対応する位置に視覚的変化を発生させ、空間ポインティング部140が視覚的変化を発生させない時間間隔に、撮影部142に対象空間を繰り返し撮影させることにより得られる一連の画像から構成される視覚的変化を抑制した映像を生成し、生成された視覚的変化を抑制した映像を表示部230の画面上に表示させることができる。   In this way, in the first processing apparatus 100, by controlling the operations of the light beam 170 of the imaging unit 142 and the space pointing unit 140 as described above, an image in which a visual change occurring in the target space is suppressed can be obtained. It can be transmitted to the second processing device 200. That is, in the pointing system 1 of the present embodiment, the control unit 110 and the control unit 210 have the space pointing unit 140 in the target space so that a time interval in which a visual change occurs and a time interval in which a visual change does not occur are repeated. A visual change composed of a series of images obtained by causing the photographing unit 142 to repeatedly photograph the target space at a time interval in which a visual change is generated at a corresponding position of the image and the space pointing unit 140 does not cause a visual change. An image in which the change is suppressed can be generated, and the generated image in which the visual change is suppressed can be displayed on the screen of the display unit 230.

次に、本実施の形態のポインティングシステム1における第1処理装置100および第2処理装置200によるデータ処理方法を以下に説明する。図7および図8は、本実施形態のポインティングシステム1全体の動作の一例を示すフローチャートである。なお、第2処理装置200については、制御部210と指示部子機250に分けて処理を説明する。以下、図1、図4、図7、および図8を用いて説明する。   Next, a data processing method by the first processing apparatus 100 and the second processing apparatus 200 in the pointing system 1 of the present embodiment will be described below. 7 and 8 are flowcharts showing an example of the operation of the entire pointing system 1 of the present embodiment. In addition, about 2nd processing apparatus 200, a process is divided into the control part 210 and the instruction | indication part subunit | mobile_unit 250, and is demonstrated. Hereinafter, description will be made with reference to FIGS. 1, 4, 7, and 8.

本実施形態のデータ処理方法は、対象空間の撮影映像を表示部230の画面上に表示し(図7のステップS205)、対象空間の撮影映像を表示した画面上にて目標座標の指示を受け付け(図7のステップS301のYES)、目標座標に対し、対象空間内の対応する位置に視覚的変化を発生させ(図8のステップS115)、指示の結果として対象空間内に生じる視覚的変化を抑制した映像を表示部230の画面上に表示させる(図7のステップS205)。   In the data processing method of the present embodiment, a captured image of the target space is displayed on the screen of the display unit 230 (step S205 in FIG. 7), and an instruction for target coordinates is received on the screen displaying the captured image of the target space. (YES in step S301 in FIG. 7), a visual change is generated at a corresponding position in the target space with respect to the target coordinates (step S115 in FIG. 8), and the visual change that occurs in the target space as a result of the instruction is generated. The suppressed video is displayed on the screen of the display unit 230 (step S205 in FIG. 7).

図7および図8のフローチャートは、一連の処理が終了した後、先頭のステップに戻り、同じ処理を繰り返すものとする。ユーザからの開始指示または終了指示(スイッチの押下など)を受け付けた時に、処理が開始または終了するものとする。   In the flowcharts of FIGS. 7 and 8, after a series of processing ends, the process returns to the first step and the same processing is repeated. It is assumed that the process starts or ends when a start instruction or an end instruction (such as pressing a switch) is received from the user.

図7に示すように、第1処理装置100において、撮影部142(図1)で撮影され(図7のステップS101)、制御部110(図1)に送られた映像は、適当なエンコーダ(不図示)(たとえば、H.264規格)により圧縮符号化され(図7のステップS103)、ネットワーク3(図1)を介して制御部210(図1)に送信される(図7のステップS105)。   As shown in FIG. 7, in the first processing apparatus 100, the video imaged by the imaging unit 142 (FIG. 1) (step S <b> 101 in FIG. 7) and sent to the control unit 110 (FIG. 1) (Not shown) (for example, H.264 standard) (step S103 in FIG. 7) and transmitted to the control unit 210 (FIG. 1) via the network 3 (FIG. 1) (step S105 in FIG. 7). ).

第2処理装置200では、制御部210(図1)が圧縮映像を受信し(図7のステップS201のYES)、受信した圧縮映像を対応するデコーダ(不図示)で復号し(図7のステップS203)、表示部230(図1)に表示し(図7のステップS205)、ステップS207に進む。なお、ステップS201で、映像を受信しない場合は(図7のステップS201のNO)、ステップS203およびステップS205をバイパスしてステップS207に進む。   In the second processing device 200, the control unit 210 (FIG. 1) receives the compressed video (YES in step S201 of FIG. 7), and decodes the received compressed video by a corresponding decoder (not shown) (step of FIG. 7). (S203), displayed on the display unit 230 (FIG. 1) (step S205 in FIG. 7), and proceeds to step S207. If no video is received in step S201 (NO in step S201 in FIG. 7), the process proceeds to step S207, bypassing steps S203 and S205.

ユーザB(図1)が表示部230に表示されたホワイトボードの映像232(図1)を見て、ホワイトボード上の特定の場所をポインティングする意図を持ったとする。この場合、ユーザBは指示部子機250(図1)のスイッチ254(図4)を押し、指示部子機250で画面を指さすような仕草をする。すると、指示部子機250の演算回路256がスイッチ254のオンを受け付け(図7のステップS301のYES)、指示部子機250に内蔵されたカメラモジュール252(図4)では、赤外LED240a〜d(図1)を含む像が撮影される(図7のステップS303)。一方、ステップS301で、スイッチ254の押下が検出されない場合は(図7のステップS301のNO)、ステップS309に進む。   It is assumed that the user B (FIG. 1) looks at the whiteboard video 232 (FIG. 1) displayed on the display unit 230 and intends to point to a specific place on the whiteboard. In this case, the user B presses the switch 254 (FIG. 4) of the instruction unit slave unit 250 (FIG. 1) and performs a gesture such that the instruction unit slave unit 250 points to the screen. Then, the arithmetic circuit 256 of the instruction unit slave unit 250 receives the ON of the switch 254 (YES in step S301 in FIG. 7), and the camera module 252 (FIG. 4) built in the instruction unit slave unit 250 has infrared LEDs 240a to 240C. An image including d (FIG. 1) is taken (step S303 in FIG. 7). On the other hand, when pressing of the switch 254 is not detected in step S301 (NO in step S301 in FIG. 7), the process proceeds to step S309.

ステップS303で得られた情報を基に指示部子機250の演算回路256(図4)は、指示部子機250が指し示している、映像画面上での座標(X,Y)を算出する(図7のステップS305)。カメラモジュール252で撮影された赤外LED240a〜dの映像上の座標をそれぞれ、(Xa,Ya)、(Xb,Yb)、(Xc,Yc)、(Xd,Yd)とすると、指示部子機250が指し示している、映像画面上での座標(X,Y)は以下の式(1)および式(2)より与えられる。   Based on the information obtained in step S303, the arithmetic circuit 256 (FIG. 4) of the instruction unit slave unit 250 calculates the coordinates (X, Y) on the video screen indicated by the instruction unit slave unit 250 ( Step S305 in FIG. When the coordinates on the images of the infrared LEDs 240a to 240d photographed by the camera module 252 are (Xa, Ya), (Xb, Yb), (Xc, Yc), (Xd, Yd), respectively, the instruction unit slave unit The coordinates (X, Y) on the video screen indicated by 250 are given by the following equations (1) and (2).

X=K1[{Ya−Xa(Ya―Yd)/(Xa−Xd)−Yb+Xb(Yb−Yc)/(Xb−Xc)}/{(Yb−Yc)/(Xb−Xc)−(Ya−Yd)/(Xa−Xd)}] ・・・式(1)
Y=K2{X(Ya−Yd)/(Xa−Yd)+Ya−Xa(Ya−Yd)/(Xa−Xd)} ・・・式(2)
X = K1 [{Ya-Xa (Ya-Yd) / (Xa-Xd) -Yb + Xb (Yb-Yc) / (Xb-Xc)} / {(Yb-Yc) / (Xb-Xc)-(Ya- Yd) / (Xa−Xd)}] (1)
Y = K2 {X (Ya−Yd) / (Xa−Yd) + Ya−Xa (Ya−Yd) / (Xa−Xd)} (2)

ただし、ここでK1およびK2は、カメラモジュール252の画角と画素数および赤外LED240a〜dの配置間隔により決まる定数で、キャリブレーションを行うことにより求まる。なお、ここで述べた映像画面上での座標の求め方については、特許文献3(特許第3422383号公報)などに記載されているので詳細は省略する。   Here, K1 and K2 are constants determined by the angle of view and the number of pixels of the camera module 252 and the arrangement interval of the infrared LEDs 240a to 240d, and are obtained by performing calibration. Note that the method for obtaining coordinates on the video screen described here is described in Patent Document 3 (Japanese Patent No. 3422383) and the like, and thus the details are omitted.

上記の処理の結果算出された映像画面上での座標(X,Y)は無線モジュール258(図4)、指示部親機280(図1)を介して、制御部210に送られる(図7のステップS307)。このとき、ボタンダウンイベントも送信される。   The coordinates (X, Y) on the video screen calculated as a result of the above processing are sent to the control unit 210 via the wireless module 258 (FIG. 4) and the instruction unit master 280 (FIG. 1) (FIG. 7). Step S307). At this time, a button down event is also transmitted.

そして、制御部210は、ボタンダウンイベントと座標を受信すると(図7のステップS207のYES)、撮影部142より得られた映像の座標(X,Y)の位置にカーソル242(図1)を表示部230の画面に重畳して表示する(図7のステップS209)。表示するカーソル242は矢印のような抽象的な記号でもよいが、空間ポインティング部140が生じる視覚的変化に近いものであることが望ましい。たとえば、この例であると赤色レーザポインタの照射を連想させるカーソル242が望ましい。   When the control unit 210 receives the button down event and the coordinates (YES in step S207 of FIG. 7), the control unit 210 moves the cursor 242 (FIG. 1) to the position of the coordinates (X, Y) of the video obtained from the imaging unit 142. The image is displayed superimposed on the screen of the display unit 230 (step S209 in FIG. 7). The cursor 242 to be displayed may be an abstract symbol such as an arrow, but it is desirable that the cursor 242 be close to the visual change generated by the spatial pointing unit 140. For example, in this example, a cursor 242 reminiscent of irradiation with a red laser pointer is desirable.

ここで、ユーザBが指示部子機250のスイッチ254を押しながら(図8のステップS321のNO)、指示部子機250で円などの軌跡を描くジェスチャを行ったものとする。スイッチ254が押されている間(図8のステップS321のNO)、図7のステップS309に戻り、指示部子機250から制御部210へはこの軌跡を表す、複数の映像内座標(X,Y)が、カメラモジュール252が赤外LED240を撮影する間隔(たとえば、10Hz)で送られる(図7のステップS309、ステップS311、ステップS312)。これら座標を(Xi,Yi)(ただし、i=1,2,3,・・・)と呼ぶことにする。制御部210は映像内座標(Xi,Yi)を受け取ると(図8のステップS213のYES)、逐次、表示部230の画面上のカーソル242の表示位置を更新する(図8のステップS215)。したがって、表示部230画面上では、ユーザBのジェスチャにより描かれる軌跡に沿ってカーソルが移動することになる。   Here, it is assumed that the user B performs a gesture of drawing a locus such as a circle with the instruction unit slave unit 250 while pressing the switch 254 of the instruction unit slave unit 250 (NO in step S321 in FIG. 8). While the switch 254 is being pressed (NO in step S321 in FIG. 8), the process returns to step S309 in FIG. 7, and a plurality of in-video coordinates (X, Y) is sent at intervals (for example, 10 Hz) at which the camera module 252 captures the infrared LED 240 (step S309, step S311, and step S312 in FIG. 7). These coordinates are called (Xi, Yi) (where i = 1, 2, 3,...). Upon receiving the in-video coordinates (Xi, Yi) (YES in step S213 in FIG. 8), the control unit 210 sequentially updates the display position of the cursor 242 on the screen of the display unit 230 (step S215 in FIG. 8). Therefore, on the display unit 230 screen, the cursor moves along the locus drawn by the gesture of the user B.

そして、スイッチ254が押し下げられた状態から離された場合(図8のステップS321のYES)、スイッチ254が押し下げられた状態から離された状態に遷移したことを表すボタンアップイベントが制御部210に通知される(図8のステップS323)。
上述したように図7のステップS307では、指示部子機250から指示部親機280を介して制御部210へ、映像内座標(Xi,Yi)に加え、スイッチ254が押し下げられた状態に遷移したことを表すボタンダウンイベントが制御部210に通知されるとともに、スイッチ254が押し下げられた状態から離された状態に遷移したことを表すボタンアップイベントが制御部210に通知されるものとする。制御部210はこれらボタンイベントを用いて(図7のステップS207のYES、図8のステップS221のYES)、表示部230画面上へのカーソル242の表示(図7のステップS209)、または消去(図8のステップS223)を制御する。
When the switch 254 is released from the depressed state (YES in step S321 in FIG. 8), a button up event indicating that the switch 254 has transitioned from the depressed state to the released state is displayed in the control unit 210. Notification is made (step S323 in FIG. 8).
As described above, in step S307 in FIG. 7, the instruction unit slave unit 250 transits to the control unit 210 via the instruction unit master unit 280 in addition to the in-video coordinates (Xi, Yi) and the switch 254 is depressed. It is assumed that a button-down event indicating that the switch has been performed is notified to the control unit 210, and a button-up event indicating that the switch 254 has been changed from the pressed state to the released state is notified to the control unit 210. Using these button events (YES in step S207 in FIG. 7, YES in step S221 in FIG. 8), the control unit 210 displays the cursor 242 on the display unit 230 screen (step S209 in FIG. 7) or deletes ( Step S223) of FIG. 8 is controlled.

このように、制御部210は、受け取った映像内座標(Xi,Yi)およびボタンイベントを表示部230の画面上のカーソル242表示に反映させると共に、同情報をネットワークパケットに内包して、ネットワーク3を介し制御部110に送信する(図7のステップS211、図8のステップS217、ステップS225)。たとえば、ここで、ネットワーク3にて平均約Tミリ秒(ms)の遅延が発生したものとすると、制御部110は、ユーザBが指示部子機250のスイッチ254を押して表示部230の画面上を指し示してから約T[ms]後にボタンイベントおよび映像内座標(Xi,Yi)を受け取ることになる(図8のステップS111のYES)。   As described above, the control unit 210 reflects the received in-video coordinates (Xi, Yi) and the button event on the display of the cursor 242 on the screen of the display unit 230, and includes the same information in the network packet so that the network 3 (Step S211 in FIG. 7, step S217 in FIG. 8, step S225). For example, here, assuming that an average delay of about T milliseconds (ms) occurs in the network 3, the control unit 110 causes the user B to press the switch 254 of the instruction unit slave unit 250 to display the screen on the display unit 230. The button event and the in-video coordinates (Xi, Yi) are received about T [ms] after pointing (YES in step S111 in FIG. 8).

第1処理装置100において、制御部110は、制御部210から受け取った映像内座標(Xi,Yi)を空間ポインティング部140のレーザの偏向角度に換算する(図8のステップS113)。空間ポインティング部140が撮影部142に近接しており、カメラとレーザの光軸が一致していると近似できるものとすると、レーザの水平方向の偏向角度αihおよび垂直方向の偏向角度αivは以下の式で求められる。ここで、iは制御部110の制御周期毎の値であることを示している。   In the first processing apparatus 100, the control unit 110 converts the in-video coordinates (Xi, Yi) received from the control unit 210 into the laser deflection angle of the spatial pointing unit 140 (step S113 in FIG. 8). Assuming that the spatial pointing unit 140 is close to the photographing unit 142 and the optical axis of the camera and the laser can be approximated, the horizontal deflection angle αih and the vertical deflection angle αiv of the laser are as follows: It is calculated by the formula. Here, i indicates a value for each control cycle of the control unit 110.

tanαih=(2Xi/Xnum−1)・tanθh/2 ・・・式(3)
tanαiv=(2Yi/Ynum−1)・tanθv/2 ・・・式(4)
tanαih = (2Xi / Xnum−1) · tanθh / 2 Formula (3)
tanαiv = (2Yi / Ynum−1) · tanθv / 2 Formula (4)

ここで、Xnum、Ynumはそれぞれ撮影部142で撮影される映像の水平解像度および垂直解像度、θh、θvはそれぞれ撮影部142の水平画角および垂直画角である。   Here, Xnum and Ynum are the horizontal and vertical resolutions of the video imaged by the imaging unit 142, respectively, and θh and θv are the horizontal and vertical field angles of the imaging unit 142, respectively.

制御部110は算出した偏向角度を空間ポインティング部140の制御回路146に送信し、空間ポインティング部140による光ビーム170の偏向角度を制御するとともに、第2処理装置200から受信したボタンイベントに応じて、光ビーム170のオン/オフを制御する(図8のステップS115)。   The control unit 110 transmits the calculated deflection angle to the control circuit 146 of the spatial pointing unit 140, controls the deflection angle of the light beam 170 by the spatial pointing unit 140, and responds to the button event received from the second processing device 200. Then, on / off of the light beam 170 is controlled (step S115 in FIG. 8).

このようにして、本実施形態のポインティングシステム1では、制御部110と制御部210が、視覚的変化が生じる時間間隔と視覚的変化が生じない時間間隔が繰り返すように、空間ポインティング部140に、対象空間内の対応する位置に視覚的変化を発生させ、空間ポインティング部140が視覚的変化を発生させない時間間隔に、撮影部142に対象空間を繰り返し撮影させることにより得られる一連の画像から構成される視覚的変化を抑制した映像を生成し、生成された視覚的変化を抑制した映像を表示部230の画面上に表示させることができる。   In this manner, in the pointing system 1 of the present embodiment, the control unit 110 and the control unit 210 allow the spatial pointing unit 140 to repeat a time interval in which a visual change occurs and a time interval in which a visual change does not occur. It is composed of a series of images obtained by causing the photographing unit 142 to repeatedly photograph the target space at a time interval that causes a visual change at a corresponding position in the target space and the spatial pointing unit 140 does not cause a visual change. Thus, an image with suppressed visual change can be generated, and the generated image with suppressed visual change can be displayed on the screen of the display unit 230.

以下に、上述したポインティングシステム1の動作に従って、各ユニットが動作した時の具体例を図12乃至図14を用いて説明する。まず、ポインティングシステム1全体の各ユニットの動作タイミングを説明し、その後、第2処理装置200の表示部230の画面上に表示される映像と、第2処理装置200側のユーザによって指示された位置に該当する、第1処理装置100側の対象空間内の位置に発生させられる視覚的変化とについて具体例を挙げて説明する。   A specific example when each unit operates in accordance with the operation of the pointing system 1 described above will be described below with reference to FIGS. First, the operation timing of each unit of the entire pointing system 1 will be described, and then the image displayed on the screen of the display unit 230 of the second processing device 200 and the position designated by the user on the second processing device 200 side. The visual change generated at the position in the target space on the first processing apparatus 100 side corresponding to the above will be described with a specific example.

図12は、ポインティングシステム1の各ユニットの動作の一例を示すタイミングチャートである。同図に示すように、撮影部142で撮影された映像192は、既に述べたとおり、制御部110にて、適当なエンコーダにより圧縮符号化され、ネットワーク3を介して制御部210に送信され、制御部210で復号の上、表示部230に表示される。このとき、ネットワーク3にて約T[ms]の遅延を受けることになる。なおまた、映像内座標(Xi,Yi)およびボタンイベント194の転送も同様に、ネットワーク3にて約T[ms]の遅延を受ける。すなわち、指示部子機250でユーザBが指示してから、表示部230の画面上に映像が反映されるまでに約2T[ms]遅延することになる。   FIG. 12 is a timing chart showing an example of the operation of each unit of the pointing system 1. As shown in the figure, the video 192 photographed by the photographing unit 142 is compressed and encoded by an appropriate encoder by the control unit 110 and transmitted to the control unit 210 via the network 3 as described above. After being decoded by the control unit 210, it is displayed on the display unit 230. At this time, the network 3 receives a delay of about T [ms]. In addition, the transfer of the in-video coordinates (Xi, Yi) and the button event 194 is similarly delayed by about T [ms] in the network 3. That is, there is a delay of about 2T [ms] from when the user B gives an instruction using the instruction unit slave unit 250 until the video is reflected on the screen of the display unit 230.

既に述べたとおり表示部230では、指示部子機250のスイッチ254が押し下げられている間は、撮影された映像内の映像内座標(Xi,Yi)に赤色レーザポインタの照射を連想させるカーソル242を重畳して表示する。したがって、図13(a)にて示される、撮影された映像192に対し、図13(b)に示す通り、表示部230に表示される映像は画面302となる。   As described above, in the display unit 230, while the switch 254 of the instruction unit slave unit 250 is being pressed down, the cursor 242 reminiscent of the irradiation of the red laser pointer with the coordinates (Xi, Yi) in the captured image. Is superimposed and displayed. Accordingly, as shown in FIG. 13B, the video displayed on the display unit 230 is a screen 302 as compared to the photographed video 192 shown in FIG.

ここで、図14に示すとおり、ユーザBが指示部子機250のスイッチ254を押しながら、指示部子機250で円などの軌跡を描くジェスチャを行ったものとする。すると、スイッチ254が押されている間、指示部子機250から制御部210へはこの軌跡304を表す、複数の映像内座標(Xi,Yi)が、一定間隔で送られる。制御部210が映像内座標(Xi,Yi)を受け取ると、直ちに、カーソル242の表示位置を更新する。   Here, as illustrated in FIG. 14, it is assumed that the user B performs a gesture of drawing a locus such as a circle with the instruction unit slave unit 250 while pressing the switch 254 of the instruction unit slave unit 250. Then, while the switch 254 is pressed, a plurality of in-video coordinates (Xi, Yi) representing the locus 304 is sent from the instruction unit slave unit 250 to the control unit 210 at regular intervals. When the control unit 210 receives the in-video coordinates (Xi, Yi), the display position of the cursor 242 is immediately updated.

したがって、表示部230画面上では、ユーザBのジェスチャによって、同図の位置Aにカーソル242が表示されることになる。一方で、指示部子機250から送られた映像内座標(Xi,Yi)により制御された空間ポインティング部140が生じる視覚的変化は、実際の空間内では位置Bに発生しているが、先述の撮影部142と空間ポインティング部140の制御機構により表示部230の画面上の映像には現れない。   Therefore, on the display unit 230 screen, the cursor 242 is displayed at the position A in FIG. On the other hand, the visual change generated by the space pointing unit 140 controlled by the in-video coordinates (Xi, Yi) sent from the instruction unit slave unit 250 occurs at the position B in the actual space. Due to the control mechanism of the photographing unit 142 and the space pointing unit 140, the image does not appear on the screen of the display unit 230.

以上説明したように、本発明のポインティングシステム1によれば、撮影部142に視覚的変化を抑制した映像を撮影させるように空間ポインティング部140と撮影部142を制御する制御部110と、遅延した視覚的フィードバックを抑制した映像を表示する表示部230と、を備えることで、表示遅延およびポインティングの精度と操作性の問題を解決することができる。   As described above, according to the pointing system 1 of the present invention, the spatial pointing unit 140 and the control unit 110 that controls the imaging unit 142 are delayed so as to cause the imaging unit 142 to capture images with suppressed visual changes. By providing the display unit 230 that displays an image in which visual feedback is suppressed, problems of display delay and pointing accuracy and operability can be solved.

本発明によれば、たとえば、ビデオ映像に映った遠隔地の実物体を指し示して参照する遠隔ポインティングシステム1が遅延を受けている際、ユーザBに遅延がない状況と同等のポインティング感を提供し、ポインティングに要する時間の短縮とポインティング精度の向上を実現できるという効果を奏する。   According to the present invention, for example, when the remote pointing system 1 that points to and refers to a real object in a remote place reflected in a video image is delayed, the user B is provided with a pointing feeling equivalent to a situation where there is no delay. The effect of shortening the time required for pointing and improving the pointing accuracy can be achieved.

このような効果が生じる理由は、本発明の制御部110および210が、レーザポインタなどの遠隔空間内において視覚的変化を生じる空間ポインティング部140と撮影部142を制御して、視覚的変化の度合いが少ない映像を生成し、遅延した視覚的フィードバックを抑制するためである。この結果、ユーザBは表示部230に表示されたカーソルなどの目印を実際のレーザポインタの像と錯覚するようになる。カーソルはユーザのポインティング操作にほぼ遅延無く反応するため、遠隔地との間のネットワーク3に遅延がある状況でも、ユーザBに遅延がない状況と同等のポインティング感を与えることができる。このようにして、ユーザBにおける、映像内のレーザポインタの像などの遅延した視覚的フィードバックによる混乱を避けることができる。   The reason why such an effect occurs is that the control units 110 and 210 of the present invention control the spatial pointing unit 140 and the photographing unit 142 that cause visual changes in a remote space such as a laser pointer, and the degree of visual change. This is to generate a video with less and suppress delayed visual feedback. As a result, the user B has an illusion that the mark such as the cursor displayed on the display unit 230 is an actual image of the laser pointer. Since the cursor responds to the user's pointing operation with almost no delay, even when there is a delay in the network 3 with the remote place, the user B can be given a feeling of pointing equivalent to the situation without a delay. In this way, confusion due to delayed visual feedback, such as the image of a laser pointer in the video, at user B can be avoided.

本発明のポインティングシステムによれば、このように、遠隔地間の情報の伝送に遅延を伴う状況下において、ビデオ映像に映った遠隔地の実物体を指し示して参照する遠隔ポインティングシステムの使い勝手を向上することができる。より具体的には、遅延がある状況において、ユーザBに遅延がない状況と同等のポインティング感を提供し、ポインティングに要する時間の短縮とポインティング精度の向上を実現することができる。   According to the pointing system of the present invention, the usability of the remote pointing system for pointing and referring to the real object in the remote location shown in the video image is improved in the situation where the transmission of information between the remote locations is delayed as described above. can do. More specifically, in a situation where there is a delay, the user B can provide a feeling of pointing equivalent to that in a situation where there is no delay, and the time required for pointing can be reduced and the pointing accuracy can be improved.

なお、上記実施形態において、表示部230にて、実際のレーザポインタなどの像を表示しない結果、ユーザBの指し示している位置と、実際の空間で指し示される位置の乖離が、上述した文献記載の技術等と比べて増加するようにも感じられるが、実際にはそのようなことはない。たとえば、図15に示すように、ユーザBが画面上を水平方向に一定の速度で指し示したものとする。時刻tにおいてはAの位置を、時刻t−Δt、t−2Δtにおいては、それぞれ、BおよびCの位置を指し示していたものとする。ネットワークを伝搬する片道の遅延がΔtであるとすると、時刻tにおいては時刻t−Δtに取得された座標、すなわちBの座標が空間ポインティング部140に反映された段階であるので、時刻tにおいて、実際の空間で指し示される位置はBである。   In the above embodiment, as a result of not displaying an image such as an actual laser pointer on the display unit 230, the difference between the position pointed to by the user B and the position pointed to in the actual space is described in the above-described literature. Although it seems that it increases compared with the technology of no, etc., it is not actually such a thing. For example, as shown in FIG. 15, it is assumed that the user B points on the screen at a constant speed in the horizontal direction. It is assumed that the position A is indicated at the time t, and the positions B and C are indicated at the times t−Δt and t−2Δt, respectively. If the one-way delay through the network is Δt, the coordinates acquired at time t−Δt, that is, the coordinates of B are reflected in the space pointing unit 140 at time t. The position pointed to in the actual space is B.

一方で、画面上に表示されているのは時刻t−2Δtに撮影された映像であるので、仮にポインタの像が撮影されていたものとすると、それはCの位置に表示される。したがって、ポインタの像によるフィードバックの方法では、実際の空間で指し示される位置とΔt相当分の乖離が生じる。一方で、本発明では、ユーザBの指し示している位置Aにカーソルを視覚的フィードバックして表示する。この位置もポインタの像によるフィードバックの方法と同じく、実際の空間で指し示される位置とΔt相当分の乖離がある。したがって、本技術の方法においても、視覚的フィードバックと、実際の空間で指し示される位置の乖離は、乖離の方向は異なるが、同程度である。   On the other hand, since what is displayed on the screen is an image taken at time t−2Δt, if the image of the pointer is taken, it is displayed at the position C. Therefore, in the feedback method using the pointer image, a deviation corresponding to Δt occurs from the position indicated in the actual space. On the other hand, in the present invention, the cursor is visually fed back to the position A indicated by the user B and displayed. Similar to the feedback method using the image of the pointer, this position also has a difference corresponding to Δt from the position indicated in the actual space. Therefore, also in the method of the present technology, the difference between the visual feedback and the position indicated in the actual space is the same, although the direction of the difference is different.

なお、音声チャネルを併用したシステムにおいては本発明の生じる性質の乖離は有利に働く。なぜならば、図15に示すように、ユーザBが表示部230の画面上を水平方向に一定の速度で指示部子機250を用いて指し示しながら、視覚的フィードバックに対応した場所の文字を発話したものとする。
発話した音声はマイク(不図示)で集音され、適当なエンコーダ(たとえば、AAC(Advanced Audio Coding)規格)(不図示)により圧縮符号化され、制御部210からネットワーク3を介して制御部110に送信することができる。
Note that the divergence of properties caused by the present invention is advantageous in a system using voice channels. This is because, as shown in FIG. 15, the user B utters a character at a location corresponding to visual feedback while pointing on the screen of the display unit 230 at a constant speed in the horizontal direction using the pointing unit slave unit 250. Shall.
The uttered voice is collected by a microphone (not shown), compressed and encoded by an appropriate encoder (for example, AAC (Advanced Audio Coding) standard) (not shown), and the control unit 110 via the network 3 through the control unit 110. Can be sent to.

音声データと映像内座標データが同程度の遅延Δtを受けるものとすると、第1処理装置100側の遠隔地においては、音声データと映像内座標データの両者がほぼ同時に到着するため、たとえば、時刻tにおいては、空間ポインティング部140が位置Bを指し示すと共に、ユーザBの発した「い」の音声が遠隔地に報じられることになる。   If the audio data and the in-video coordinate data are subjected to the same delay Δt, both the audio data and the in-video coordinate data arrive almost simultaneously at the remote location on the first processing device 100 side. At t, the space pointing unit 140 points to the position B, and the voice of “I” uttered by the user B is reported to the remote place.

一方で、ポインタの像によるフィードバックの方法では、たとえば、ユーザBは時刻tに位置Cにポインタ像が表示された時に初めて「あ」を発声するので、時刻t+Δtにこの音声が遠隔地に到着し報じられるころには、空間ポインティング部140は位置A、すなわち「う」の文字を指し示していることになり、音声とレーザポインタの指し示す位置に差が生じてしまう。このように、ポインタの像によるフィードバックの方法に比較して、本発明は、ポインティング操作に欠かせない音声指示との併用においても、優れた特性を発揮する。   On the other hand, in the feedback method using the pointer image, for example, the user B utters “A” for the first time when the pointer image is displayed at the position C at time t, so that the voice arrives at a remote place at time t + Δt. When reported, the space pointing unit 140 points to the position A, that is, the letter “u”, and a difference occurs between the position indicated by the voice and the laser pointer. As described above, compared with the feedback method using the pointer image, the present invention exhibits excellent characteristics even in combination with the voice instruction indispensable for the pointing operation.

(第2の実施の形態)
本実施形態のポインティングシステム1は、上記実施の形態とは、撮影部142が、この視覚的変化を生じている間の映像(第1の映像)と、視覚的変化を生じていない間の映像(第2の映像)を区別して撮影する点で相違する。本実施形態のポインティングシステム1の各構成要素は、上記実施形態と同様な構成を有し、制御部110による撮影部142と空間ポインティング部140の制御方法、および制御部(110、210)が生成する映像の生成方法が異なる。
(Second Embodiment)
The pointing system 1 of the present embodiment is different from the above-described embodiment in that a video (first video) during which the photographing unit 142 causes this visual change and a video during which no visual change occurs. The difference is that the (second video) is photographed separately. Each component of the pointing system 1 of the present embodiment has the same configuration as that of the above-described embodiment, and is generated by the control unit 110 and the control unit (110, 210). Different video generation methods.

本実施形態のポインティングシステムは、対象空間を撮影する撮影部142をさらに備え、制御部(110、210)は、視覚的変化が生じる時間間隔と視覚的変化が生じない時間間隔が繰り返すように、空間ポインティング部140に、対象空間内の対応する位置に視覚的変化を発生させ、視覚的変化が生じる時間間隔に撮影部142が繰り返し撮影することにより得られる一連の画像から構成される第1の映像、および視覚的変化が生じない時間間隔に撮影部142に繰り返し撮影させることにより得られる一連の画像から構成される第2の映像を取得し、第1の映像および第2の映像に基づいて、視覚的変化を抑制した映像を生成し、生成された視覚的変化を抑制した映像を表示部230の画面上に表示させる。   The pointing system of the present embodiment further includes an imaging unit 142 that images the target space, and the control unit (110, 210) repeats a time interval in which a visual change occurs and a time interval in which no visual change occurs. A first change is made up of a series of images obtained by causing the space pointing unit 140 to generate a visual change at a corresponding position in the target space, and the imaging unit 142 to repeatedly capture images at time intervals when the visual change occurs. A second video composed of a video and a series of images obtained by causing the photographing unit 142 to repeatedly shoot at a time interval at which no visual change occurs is acquired, and based on the first video and the second video Then, an image in which the visual change is suppressed is generated, and the generated image in which the visual change is suppressed is displayed on the screen of the display unit 230.

本実施の形態では、上記実施形態同様に、空間ポインティング部140は、視覚的変化を生じさせる時間間隔と、視覚的変化を生じさせない時間間隔を有する。   In the present embodiment, like the above embodiment, the spatial pointing unit 140 has a time interval that causes a visual change and a time interval that does not cause a visual change.

以下、本実施形態のポインティングシステム1のレーザ出力の制御方法の一例について、図16および図17を用いて説明する。図16は、空間ポインティング部140の制御回路146の状態遷移図である。図17は、制御部110が撮影部142および空間ポインティング部140に送信する制御信号と、撮影部142のシャッタの開閉状態および空間ポインティング部140のレーザのオンオフ状態の関係を表すグラフである。   Hereinafter, an example of a laser output control method of the pointing system 1 of the present embodiment will be described with reference to FIGS. 16 and 17. FIG. 16 is a state transition diagram of the control circuit 146 of the space pointing unit 140. FIG. 17 is a graph showing a relationship between a control signal transmitted from the control unit 110 to the photographing unit 142 and the space pointing unit 140, an open / close state of the shutter of the photographing unit 142, and an on / off state of the laser of the spatial pointing unit 140.

図16の状態遷移図は、上記実施形態の図9とは、待機状態S23における動作が異なる。すなわち、上記実施形態では、待機状態S23において、制御部110より受信している制御信号の立ち下がりを検出すると(S33)、制御回路146はレーザオン状態S25に遷移し、レーザ出力を開始する。本実施形態では、さらに待機状態S23において、制御部110より受信している制御信号の立ち上がりを検出すると(S41)、制御回路146はレーザオン状態S25に遷移し、レーザ出力を開始する。そして、いずれの場合も、同時にレーザオン状態S25の持続時間の計測も行い、レーザオン状態S25が所定の時間に達した場合(この例では15ms)(S35)、レーザ出力を停止して、再び待機状態S23に遷移する。   The state transition diagram of FIG. 16 differs from FIG. 9 of the above embodiment in the operation in the standby state S23. That is, in the above embodiment, when the falling edge of the control signal received from the control unit 110 is detected in the standby state S23 (S33), the control circuit 146 transitions to the laser on state S25 and starts laser output. In the present embodiment, when the rising edge of the control signal received from the control unit 110 is further detected in the standby state S23 (S41), the control circuit 146 transitions to the laser-on state S25 and starts laser output. In either case, the duration of the laser-on state S25 is also measured at the same time. When the laser-on state S25 reaches a predetermined time (in this example, 15 ms) (S35), the laser output is stopped and the standby state is resumed. Transition to S23.

そして、図17に示すように、制御部110は、制御信号を約33msの間隔で空間ポインティング部140および撮影部142に送信する。空間ポインティング部140は、ボタンダウンイベントからボタンアップイベントまでの間は、制御信号の立ち上がりの検出に伴い、レーザ出力を15ms間オンに設定する。一方、撮影部142は、制御信号の立ち上がり、立ち下がりの両方においてシャッタを15ms間開放する。この結果、図18(a)に示すように奇数フレームでは、空間に視覚的変化が生じた映像311が、図18(b)に示すように、偶数フレームでは、空間に視覚的変化が生じていない映像312が、それぞれ30Hzの周波数で撮影されることになる。ここでは、前者を第1の映像311、後者を第2の映像312と呼ぶものとする。   Then, as shown in FIG. 17, the control unit 110 transmits a control signal to the space pointing unit 140 and the imaging unit 142 at intervals of about 33 ms. The space pointing unit 140 sets the laser output to ON for 15 ms in accordance with the detection of the rising edge of the control signal from the button down event to the button up event. On the other hand, the imaging unit 142 opens the shutter for 15 ms both at the rise and fall of the control signal. As a result, as shown in FIG. 18 (a), an image 311 in which a visual change has occurred in space in an odd frame, and a visual change in a space has occurred in an even frame, as shown in FIG. 18 (b). No video 312 is captured at a frequency of 30 Hz. Here, the former is called a first video 311 and the latter is called a second video 312.

制御部110は、第2の映像312に第1の映像311を画像処理により透過性を持たせて加算し、図18(c)で示されるような第3の映像313を生成する。ここで、透過性を持たせて画像同士を加算する方法としては、一般的に知られたアルファブレンディングが使用できる。なお、透過の度合いはユーザにより変更できることが望ましい。   The control unit 110 adds the first video 311 to the second video 312 with transparency through image processing, and generates a third video 313 as shown in FIG. Here, as a method of adding images with transparency, generally known alpha blending can be used. It is desirable that the degree of transmission can be changed by the user.

すなわち、本実施形態のポインティングシステム1において、制御部110は、第1の映像311と、第2の映像312とを異なる重み付けで加算することにより視覚的変化を抑制した第3の映像313を生成する。   That is, in the pointing system 1 of the present embodiment, the control unit 110 generates the third video 313 in which the visual change is suppressed by adding the first video 311 and the second video 312 with different weights. To do.

このようにして第3の映像313が生成された後の動作は、上記実施形態と同様、第3の映像313は制御部110にて適当なエンコーダにより圧縮符号化、ネットワーク3を介して制御部210に送信され、制御部210で復号の上、表示部230の画面上に表示される。   After the third video 313 is generated in this manner, the third video 313 is compressed and encoded by an appropriate encoder by the control unit 110 and the control unit via the network 3 as in the above embodiment. 210, decoded by the control unit 210, and displayed on the screen of the display unit 230.

また、表示部230では、指示部子機250のスイッチが押下られている間は、撮影された映像内の映像内座標(Xi,Yi)に赤色レーザポインタの照射を連想させるカーソル242を重畳して画面上に表示する。したがって、ユーザBが指示部子機250のスイッチを押しながら、指示部子機250で円などの軌跡を描くジェスチャを行ったものとすると、表示部230には図19のように、カーソル242と、レーザポインタなどの像321が異なる強度で(レーザポインタの像の方が薄く)表示される。   Further, in the display unit 230, while the switch of the instruction unit slave unit 250 is pressed, a cursor 242 that reminds the irradiation of the red laser pointer is superimposed on the in-video coordinates (Xi, Yi) in the captured video. Display on the screen. Therefore, when the user B performs a gesture of drawing a locus such as a circle with the instruction unit slave unit 250 while pressing the switch of the instruction unit slave unit 250, the display unit 230 has a cursor 242 and a cursor 242 as shown in FIG. The image 321 such as the laser pointer is displayed with different intensities (the laser pointer image is lighter).

本実施形態において、このレーザポインタなどの像321の強度を調整するための構成を備えてもよい。たとえば、ポインティングシステム1は、像321の強度のレベル調整指示を受け付ける受付部(不図示)と、受け付けたレベルにしたがって像321の強度を調整する調整部(不図示)と、調整された映像のプレビュー画面をユーザAまたはBに提示し、確認を促す確認部(不図示)と、をさらに備えてもよい。受付部、蓄積部、および確認部は、制御部110または制御部210のいずれに備えてもよく、いずれか一方または両方に部分的または全てを備えてもよい。   In the present embodiment, a configuration for adjusting the intensity of the image 321 such as a laser pointer may be provided. For example, the pointing system 1 includes a receiving unit (not shown) that receives an intensity level adjustment instruction for the image 321, an adjusting unit (not shown) that adjusts the intensity of the image 321 according to the received level, and the adjusted video. A confirmation unit (not shown) that presents a preview screen to the user A or B and prompts confirmation may be further provided. The reception unit, the storage unit, and the confirmation unit may be provided in either the control unit 110 or the control unit 210, and either one or both of them may be provided partially or entirely.

受付部は、たとえば、調整設定画面でユーザAまたはBに、第1の映像311の透過性をパーセンテージや数値の入力や、レベル調整用のスライダの操作を促し、設定を受け付けることで、レベル調整指示として受け付ける。確認部は、調整設定画面でレベル調整時に、調整後の映像をプレビュー画面に表示し、ユーザAまたはBに提示して確認を促す。調整結果を参照しながら、ユーザAまたはBはレベル調整を行うことができる。   For example, the reception unit prompts the user A or B on the adjustment setting screen to input the percentage or numerical value of the transparency of the first video 311 or operate the slider for level adjustment, and receives the setting to adjust the level. Accept as an instruction. When the level is adjusted on the adjustment setting screen, the confirmation unit displays the adjusted image on the preview screen and presents it to the user A or B for prompting confirmation. The user A or B can adjust the level while referring to the adjustment result.

ユーザBは、第1の映像311の透過性、すなわちレーザポインタ像の表示部230上での強度を認知的に気にならないレベルまで調整することにより、映像内の遅延した視覚的フィードバックによる混乱を避けることができる。また、それ同時に、レーザポインタの像に注視するか、もしくは透過性を再度調整することにより実際の空間におけるレーザポインタの像を認知することもできるので、空間ポインティング機器が正しく動作していることの動作確認や、ネットワークの遅延具合も把握しながら、精度高いポインティング操作を実現することができる。   User B adjusts the transparency of the first video 311, that is, the intensity of the laser pointer image on the display unit 230 to a level at which he / she does not care about the confusion due to delayed visual feedback in the video. Can be avoided. At the same time, it is possible to recognize the laser pointer image in the actual space by gazing at the image of the laser pointer or adjusting the transparency again, so that the space pointing device is operating correctly. It is possible to realize a pointing operation with high accuracy while checking the operation and knowing the delay state of the network.

なお、上記例では、第2の映像312に第1の映像311を、透過性を持って加算する例を示したが、第1の映像311と第2の映像312の差分、すなわち、レーザポインタ像のみの映像を白黒映像に変換した上で、再度第2の映像312に透過性を持って加算する方法なども考えられる。こうすることにより、よりユーザBの認知に対し、レーザポインタの像の影響を弱くすることが可能である。   In the above example, the first video 311 is added to the second video 312 with transparency, but the difference between the first video 311 and the second video 312, that is, the laser pointer. It is also conceivable to convert the image-only image into a black and white image and then add it to the second image 312 with transparency again. By doing so, it is possible to further weaken the influence of the image of the laser pointer on the recognition of the user B.

以上説明したように、本実施形態のポインティングシステム1によれば、上記実施形態と同様な効果を奏するとともに、レーザポインタ像の表示部230上での強度を認知的に気にならないレベルまで調整することにより、映像内の遅延した視覚的フィードバックによる混乱を避けることができる。   As described above, according to the pointing system 1 of the present embodiment, the same effects as those of the above-described embodiment can be obtained, and the intensity of the laser pointer image on the display unit 230 can be adjusted to a level that is not noticeable. This avoids confusion due to delayed visual feedback in the video.

(第3の実施の形態)
本実施形態のポインティングシステム1は、上記実施の形態とは、視覚的変化を抑制した映像の生成方法が、指示部子機250により指定される映像内座標近辺の画素の色情報を、その周辺の画素の色情報に近い値で置き換える点で相違する。それ以外の構成および動作については、本実施形態のポインティングシステム1は、上記実施形態のいずれと組み合わせてもよい。
(Third embodiment)
The pointing system 1 according to the present embodiment is different from the above embodiment in that the video generation method that suppresses the visual change uses the color information of the pixels in the vicinity of the coordinates in the video designated by the instruction unit slave unit 250 as the surroundings. The difference is that the pixel is replaced with a value close to the color information of the pixel. For other configurations and operations, the pointing system 1 of the present embodiment may be combined with any of the above embodiments.

本実施形態のポインティングシステム1は、対象空間を撮影する撮影部142をさらに備え、制御部(110、210)は、撮影部142が撮影した映像に対し、視覚的変化が生じる位置近辺の画素の色情報を、その周辺の画素の色情報に近い値で置き換えることにより視覚的変化を抑制した映像を生成し、生成された視覚的変化を抑制した映像を表示部230の画面上に表示させる。   The pointing system 1 according to the present embodiment further includes an imaging unit 142 that captures the target space, and the control units (110, 210) of pixels near a position where a visual change occurs with respect to an image captured by the imaging unit 142. By replacing the color information with a value close to the color information of the surrounding pixels, an image in which the visual change is suppressed is generated, and the generated image in which the visual change is suppressed is displayed on the screen of the display unit 230.

なお、本実施の形態では、制御部110において、空間ポインティング部140が視覚的変化を生じさせる時間間隔と、視覚的変化を生じさせない時間間隔を繰り返す制御は行わない。その代わりに、制御部110は、指示部子機250により指定される映像内座標近辺の画素の色情報を、その周辺の画素の色情報に近い値で置き換えることにより、視覚的変化を抑制した映像を生成する。   In the present embodiment, control unit 110 does not perform control to repeat the time interval at which space pointing unit 140 causes a visual change and the time interval at which a visual change does not occur. Instead, the control unit 110 suppresses the visual change by replacing the color information of the pixels in the vicinity of the in-video coordinates specified by the instruction unit slave unit 250 with a value close to the color information of the surrounding pixels. Generate video.

本実施形態において、制御部110は、指示部子機250が指し示す映像内座標(Xi,Yi)を制御部210より受け取ると、空間ポインティング部140のレーザの偏向角度に換算し、空間ポインティング部140の制御を行う。制御が完了後、撮影部142より得られる映像フレームに対し制御部110は以下の処理を行う。   In this embodiment, when the control unit 110 receives the in-video coordinates (Xi, Yi) pointed to by the instruction unit slave unit 250 from the control unit 210, the control unit 110 converts the coordinate into the laser deflection angle of the space pointing unit 140 and the space pointing unit 140. Control. After the control is completed, the control unit 110 performs the following process on the video frame obtained from the photographing unit 142.

制御部110は映像フレームの映像内座標(Xi,Yi)を中心とした直径aの円状領域Aに含まれる画素の色情報を、外径b、内径aの環状領域に含まれる画素の色情報により内挿した値で置き換える(図20を参照)。最も簡単には、領域Bの画素の色情報の平均値で領域Aを一様に塗りつぶせば良い。もしくは、たとえば、領域Bの画素を境界条件として与えたラプラス方程式(∇2F(X,Y)=0;F(X,Y)が色の強度)の解を領域Aの画素の色情報としても良い。ラプラス方程式の数値解法については一般的な数値解析の文献に記載されているので、詳細は省略する。   The control unit 110 uses the color information of the pixels included in the circular area A with the diameter a centered on the in-video coordinates (Xi, Yi) of the video frame, and the colors of the pixels included in the annular area with the outer diameter b and the inner diameter a. Replace with the value interpolated by the information (see FIG. 20). In the simplest case, the area A may be uniformly filled with the average value of the color information of the pixels in the area B. Alternatively, for example, the solution of the Laplace equation (∇2F (X, Y) = 0; F (X, Y) is the color intensity) given the pixels in the region B as boundary conditions may be used as the color information of the pixels in the region A. good. Since the numerical solution of the Laplace equation is described in general numerical analysis literature, the details are omitted.

なお、半径aおよびbの値は、あらかじめ定められた値を使用しても良いし、映像内座標(Xi,Yi)周辺の画素を解析して自動的に抽出しても良い。この方法を、空間ポインティング部140に赤色レーザポインタを使用した例で説明する。映像内座標(Xi,Yi)を中心とした直径cの円状領域(cの値はあらかじめ広めに与えておく)において、赤色の情報のみを抽出する処理を行う。この結果、赤色の強度分布が図21の実線の通り得られたものとする(図中では簡単のため1次元で説明しているが、実際の強度分布は2次元である)。   Note that the values of the radii a and b may be predetermined values, or may be automatically extracted by analyzing pixels around the in-video coordinates (Xi, Yi). This method will be described using an example in which a red laser pointer is used for the space pointing unit 140. In a circular area with a diameter c centered on the in-video coordinates (Xi, Yi) (the value of c is given in advance), only red information is extracted. As a result, it is assumed that a red intensity distribution is obtained as shown by a solid line in FIG. 21 (in the figure, the description is made in one dimension for simplicity, but the actual intensity distribution is two-dimensional).

この強度曲線を最小二乗法によりガウス曲線に近似すると(図中の点線)、ガウス曲線の分散値σが得られる。直径aをたとえば、σの6倍に設定する。すると、強度分布がガウス曲線で近似できる場合、空間ポインティング部140が生じる視覚的変化の約99.7%は直径aの領域に含まれることになる。直径bはa+固定値もしくは、a×固定値に設定すれば良い。   When this intensity curve is approximated to a Gaussian curve by the least square method (dotted line in the figure), a variance value σ of the Gaussian curve is obtained. For example, the diameter a is set to 6 times σ. Then, when the intensity distribution can be approximated by a Gaussian curve, about 99.7% of the visual change generated by the spatial pointing unit 140 is included in the region of the diameter a. The diameter b may be set to a + fixed value or a × fixed value.

このようにして得られた映像では、実際の空間と比較して、視覚的変化の度合いが少ないため、ユーザBは映像内のレーザポインタの像331などの遅延した視覚的フィードバックによる混乱を避けることができる。   In the video obtained in this way, since the degree of visual change is small compared to the actual space, user B avoids confusion due to delayed visual feedback such as the laser pointer image 331 in the video. Can do.

以降は先述の実施の形態と同様、映像は制御部110にて適当なエンコーダにより圧縮符号化、ネットワーク3を介して制御部210に送信され、制御部210で復号の上、表示部230に表示される。また、表示部230では、指示部子機250のスイッチが押下られている間は、撮影された映像内の映像内座標(Xi,Yi)に赤色レーザポインタの照射を連想させるカーソルを重畳して表示する。   Thereafter, as in the above-described embodiment, the video is compressed and encoded by an appropriate encoder by the control unit 110, transmitted to the control unit 210 via the network 3, decoded by the control unit 210, and displayed on the display unit 230. Is done. Further, in the display unit 230, while the switch of the instruction unit slave unit 250 is pressed, a cursor reminiscent of the irradiation of the red laser pointer is superimposed on the in-image coordinates (Xi, Yi) in the captured image. indicate.

以上説明したように、本実施形態のポインティングシステム1によれば、上記実施形態と同様な効果を奏することができる。   As described above, according to the pointing system 1 of the present embodiment, the same effects as those of the above-described embodiment can be achieved.

以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。   As mentioned above, although embodiment of this invention was described with reference to drawings, these are the illustrations of this invention, Various structures other than the above are also employable.

たとえば、上記実施形態では、空間ポインティング部140として、偏向方向を制御可能なレーザポインタの例を説明したが、プロジェクタなど他の空間ポインティング手段を用いることも可能である。   For example, in the above embodiment, an example of a laser pointer capable of controlling the deflection direction has been described as the space pointing unit 140, but other space pointing means such as a projector may be used.

また、上記実施形態では、制御部110が撮影部142および空間ポインティング部140の両方に対し、同じ制御信号を送信する制御方法を説明したが、他の方法として、たとえば、一方だけに制御信号を送り、それを受信した一方が他方向けの制御信号を生成するといった方法なども考えられる。なお、このような差異は、クロック信号を用いた同期制御技術の領域では周知のものであるので、細部が異なる構成についての説明は省略する。   In the above-described embodiment, the control method in which the control unit 110 transmits the same control signal to both the photographing unit 142 and the space pointing unit 140 has been described. A method is also conceivable in which one of the sending and receiving signals generates a control signal for the other. Such a difference is well known in the field of synchronous control technology using a clock signal, and therefore description of a configuration with different details is omitted.

さらに、上記実施形態では、一方の拠点に表示部230と指示部(指示部子機250および指示部親機280)が、他の拠点に撮影部142と空間ポインティング部140が設置されているシステム構成を示したが、これらが1セットずつ各拠点に設置され、双方向にポインティングが可能な構成も考えられる。また、指示部としては、リモコン状の位置指定装置の例を示したが、これ以外にもたとえば、表示部230に搭載されたタッチパネルを使用したり、タッチペン、マウス、トラックボールなどのコントローラを使用したりする方法なども利用できる。   Furthermore, in the above-described embodiment, the display unit 230 and the instruction unit (the instruction unit slave unit 250 and the instruction unit parent unit 280) are installed at one site, and the imaging unit 142 and the space pointing unit 140 are installed at the other site. Although the configuration is shown, a configuration is possible in which these are installed one by one at each base and can be pointed in both directions. In addition, an example of a remote-controlled position specifying device has been shown as the instruction unit. However, for example, a touch panel mounted on the display unit 230 or a controller such as a touch pen, a mouse, or a trackball is used. You can also use it.

以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。   While the present invention has been described with reference to the embodiments and examples, the present invention is not limited to the above embodiments and examples. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

1 ポインティングシステム
3 ネットワーク
100 第1処理装置
110 制御部
132 ホワイトボード
140 空間ポインティング部
142 撮影部
146 制御回路
148 レーザ
150 ミラー
152 ガルバノスキャナ
160 バネ
162 磁石
164 コイル
166 磁性体
170 光ビーム
172 ポインタ
200 第2処理装置
210 制御部
230 表示部
232 ホワイトボードの映像
240 赤外LED
242 カーソル
250 指示部子機
252 カメラモジュール
254 スイッチ
256 演算回路
258 無線モジュール
280 指示部親機
311 第1の映像
312 第2の映像
313 第3の映像
DESCRIPTION OF SYMBOLS 1 Pointing system 3 Network 100 1st processing apparatus 110 Control part 132 White board 140 Spatial pointing part 142 Image | photographing part 146 Control circuit 148 Laser 150 Mirror 152 Galvano scanner 160 Spring 162 Magnet 164 Coil 166 Magnetic body 170 Light beam 172 Pointer 200 Second Processing unit 210 Control unit 230 Display unit 232 Whiteboard image 240 Infrared LED
242 Cursor 250 Pointer unit 252 Camera module 254 Switch 256 Arithmetic circuit 258 Wireless module 280 Pointer unit 311 First image 312 Second image 313 Third image

Claims (17)

対象空間の撮影映像を画面上に表示する表示手段と、
前記対象空間の前記撮影映像を表示した前記画面上にて目標座標の指示を受け付ける指示受付手段と、
前記目標座標に対し、前記対象空間内の対応する位置に視覚的変化を発生させる空間ポインティング手段と、
前記指示の結果として前記対象空間内に生じる前記視覚的変化を抑制した映像を前記画面上に表示させる制御手段と、
を備えるポインティングシステム。
Display means for displaying the captured video of the target space on the screen;
Instruction accepting means for accepting an instruction of target coordinates on the screen displaying the captured video of the target space;
Spatial pointing means for generating a visual change at a corresponding position in the target space with respect to the target coordinates;
Control means for displaying an image on which the visual change occurring in the target space as a result of the instruction is suppressed is displayed on the screen;
A pointing system with
請求項1に記載のポインティングシステムにおいて、
前記対象空間を撮影する撮影手段をさらに備え、
前記制御手段は、
前記視覚的変化が生じる時間間隔と前記視覚的変化が生じない時間間隔が繰り返すように、前記空間ポインティング手段に、前記対象空間内の前記対応する位置に前記視覚的変化を発生させ、
前記空間ポインティング手段が前記視覚的変化を発生させない時間間隔に、前記撮影手段に前記対象空間を繰り返し撮影させることにより得られる一連の画像から構成される前記視覚的変化を抑制した映像を生成し、
生成された前記視覚的変化を抑制した映像を前記画面上に表示させるポインティングシステム。
The pointing system according to claim 1,
It further comprises a photographing means for photographing the target space,
The control means includes
Causing the spatial pointing means to generate the visual change at the corresponding position in the target space so that a time interval in which the visual change occurs and a time interval in which the visual change does not occur are repeated;
Generating a video that suppresses the visual change composed of a series of images obtained by causing the imaging unit to repeatedly capture the target space at a time interval in which the spatial pointing unit does not cause the visual change,
A pointing system that displays the generated video on which the visual change is suppressed on the screen.
請求項1に記載のポインティングシステムにおいて、
前記対象空間を撮影する撮影手段をさらに備え、
前記制御手段は、
前記視覚的変化が生じる時間間隔と前記視覚的変化が生じない時間間隔が繰り返すように、前記空間ポインティング手段に、前記対象空間内の前記対応する位置に前記視覚的変化を発生させ、
前記視覚的変化が生じる時間間隔に前記撮影手段が繰り返し撮影することにより得られる一連の画像から構成される第1の映像、および前記視覚的変化が生じない時間間隔に前記撮影手段に繰り返し撮影させることにより得られる一連の画像から構成される第2の映像を取得し、
前記第1の映像および前記第2の映像に基づいて、前記視覚的変化を抑制した映像を生成し、
生成された前記視覚的変化を抑制した映像を前記画面上に表示させるポインティングシステム。
The pointing system according to claim 1,
It further comprises a photographing means for photographing the target space,
The control means includes
Causing the spatial pointing means to generate the visual change at the corresponding position in the target space so that a time interval in which the visual change occurs and a time interval in which the visual change does not occur are repeated;
A first video composed of a series of images obtained by repeated shooting by the shooting unit at a time interval in which the visual change occurs, and the shooting unit repeatedly shot at a time interval in which the visual change does not occur. To obtain a second video composed of a series of images obtained by
Based on the first video and the second video, generating a video that suppresses the visual change,
A pointing system that displays the generated video on which the visual change is suppressed on the screen.
請求項3に記載のポインティングシステムにおいて、
前記制御手段は、
前記第1の映像と、前記第2の映像とを異なる重み付けで加算することにより前記視覚的変化を抑制した映像を生成するポインティングシステム。
The pointing system according to claim 3,
The control means includes
A pointing system for generating a video in which the visual change is suppressed by adding the first video and the second video with different weights.
請求項1に記載のポインティングシステムにおいて、
前記対象空間を撮影する撮影手段をさらに備え、
前記制御手段は、
前記撮影手段が撮影した映像に対し、前記視覚的変化が生じる位置近辺の画素の色情報を、その周辺の画素の色情報に近い値で置き換えることにより前記視覚的変化を抑制した映像を生成し、
生成された前記視覚的変化を抑制した映像を前記画面上に表示させるポインティングシステム。
The pointing system according to claim 1,
It further comprises a photographing means for photographing the target space,
The control means includes
A video in which the visual change is suppressed is generated by replacing the color information of the pixel in the vicinity of the position where the visual change occurs with a value close to the color information of the peripheral pixel with respect to the video shot by the shooting unit. ,
A pointing system that displays the generated video on which the visual change is suppressed on the screen.
請求項2乃至5いずれかに記載のポインティングシステムにおいて、
前記表示手段は、前記指示受付手段が受け付けた前記目標座標に対応する指示位置に、カーソルを、前記視覚的変化を抑制した映像と重畳して前記画面上に表示するポインティングシステム。
The pointing system according to any one of claims 2 to 5,
The pointing unit is a pointing system that displays a cursor on the screen in such a manner that a cursor is superimposed on an image in which the visual change is suppressed at an instruction position corresponding to the target coordinate received by the instruction receiving unit.
請求項2乃至6いずれかに記載のポインティングシステムにおいて、
前記撮影手段および前記空間ポインティング手段を含む第1処理装置と、
前記指示受付手段および前記表示手段を含む第2処理装置と、を有し、
前記第1処理装置と前記第2処理装置は、互いに離隔して設けられ、ネットワークを介して接続されるポインティングシステム。
The pointing system according to any one of claims 2 to 6,
A first processing device including the imaging unit and the space pointing unit;
A second processing device including the instruction receiving means and the display means,
The first processing apparatus and the second processing apparatus are provided separately from each other and are connected via a network.
請求項7に記載のポインティングシステムにおいて、
前記第2処理装置の前記指示受付手段が受け付けた前記目標座標は、前記第1処理装置に前記ネットワークを介して送信され、前記目標座標に対し、前記第1処理装置の前記空間ポインティング手段が前記対象空間内の対応する位置に視覚的変化を発生させ、
前記第1処理装置の前記生成手段が生成した前記映像は、前記第2処理装置に前記ネットワークを介して送信され、前記第2処理装置の前記表示手段の前記画面上に表示されるポインティングシステム。
The pointing system according to claim 7,
The target coordinates received by the instruction receiving unit of the second processing apparatus are transmitted to the first processing apparatus via the network, and the space pointing unit of the first processing apparatus is configured to transmit the target coordinates to the target coordinates. Causing a visual change in the corresponding position in the object space,
The pointing system in which the video generated by the generation unit of the first processing device is transmitted to the second processing device via the network and displayed on the screen of the display unit of the second processing device.
対象空間の撮影映像を表示した画面上にて指示される目標座標に対し、前記対象空間内の対応する位置に視覚的変化を発生させる空間ポインティング手段と、
前記指示の結果として前記対象空間内に生じる前記視覚的変化を抑制した映像を前記画面上に表示させる制御手段と、を備える処理装置。
Spatial pointing means for generating a visual change at a corresponding position in the target space with respect to target coordinates indicated on a screen displaying a captured image of the target space;
And a control unit configured to display on the screen an image in which the visual change generated in the target space as a result of the instruction is suppressed.
請求項9に記載の処理装置において、
前記対象空間を撮影する撮影手段をさらに備え、
前記制御手段は、
前記視覚的変化が生じる時間間隔と前記視覚的変化が生じない時間間隔が繰り返すように、前記空間ポインティング手段に、前記対象空間内の前記対応する位置に前記視覚的変化を発生させ、
前記空間ポインティング手段が前記視覚的変化を発生させない時間間隔に、前記撮影手段に前記対象空間を繰り返し撮影させることにより得られる一連の画像から構成される前記視覚的変化を抑制した映像を生成し、
生成された前記視覚的変化を抑制した映像を前記画面上に表示させる処理装置。
The processing apparatus according to claim 9, wherein
It further comprises a photographing means for photographing the target space,
The control means includes
Causing the spatial pointing means to generate the visual change at the corresponding position in the target space so that a time interval in which the visual change occurs and a time interval in which the visual change does not occur are repeated;
Generating a video that suppresses the visual change composed of a series of images obtained by causing the imaging unit to repeatedly capture the target space at a time interval in which the spatial pointing unit does not cause the visual change,
A processing apparatus for displaying the generated video on which the visual change is suppressed on the screen.
請求項9に記載の処理装置において、
前記対象空間を撮影する撮影手段をさらに備え、
前記制御手段は、
前記視覚的変化が生じる時間間隔と前記視覚的変化が生じない時間間隔が繰り返すように、前記空間ポインティング手段に、前記対象空間内の前記対応する位置に前記視覚的変化を発生させ、
前記視覚的変化が生じる時間間隔に前記撮影手段が繰り返し撮影することにより得られる一連の画像から構成される第1の映像、および前記視覚的変化が生じない時間間隔に前記撮影手段に繰り返し撮影させることにより得られる一連の画像から構成される第2の映像を取得し、
前記第1の映像および前記第2の映像に基づいて、前記視覚的変化を抑制した映像を生成し、
生成された前記視覚的変化を抑制した映像を前記画面上に表示させる処理装置。
The processing apparatus according to claim 9, wherein
It further comprises a photographing means for photographing the target space,
The control means includes
Causing the spatial pointing means to generate the visual change at the corresponding position in the target space so that a time interval in which the visual change occurs and a time interval in which the visual change does not occur are repeated;
A first video composed of a series of images obtained by repeated shooting by the shooting unit at a time interval in which the visual change occurs, and the shooting unit repeatedly shot at a time interval in which the visual change does not occur. To obtain a second video composed of a series of images obtained by
Based on the first video and the second video, generating a video that suppresses the visual change,
A processing apparatus for displaying the generated video on which the visual change is suppressed on the screen.
請求項11に記載の処理装置において、
前記制御手段は、
前記第1の映像と、前記第2の映像とを異なる重み付けで加算することにより前記視覚的変化を抑制した映像を生成する処理装置。
The processing apparatus according to claim 11, wherein
The control means includes
The processing apparatus which produces | generates the image | video which suppressed the said visual change by adding said 1st image | video and said 2nd image | video with different weighting.
請求項9に記載の処理装置において、
前記対象空間を撮影する撮影手段をさらに備え、
前記制御手段は、
前記撮影手段が撮影した映像に対し、前記視覚的変化が生じる位置近辺の画素の色情報を、その周辺の画素の色情報に近い値で置き換えることにより前記視覚的変化を抑制した映像を生成し、
生成された前記視覚的変化を抑制した映像を前記画面上に表示させる処理装置。
The processing apparatus according to claim 9, wherein
It further comprises a photographing means for photographing the target space,
The control means includes
A video in which the visual change is suppressed is generated by replacing the color information of the pixel in the vicinity of the position where the visual change occurs with a value close to the color information of the peripheral pixel with respect to the video shot by the shooting unit. ,
A processing apparatus for displaying the generated video on which the visual change is suppressed on the screen.
対象空間の撮影映像を画面上に表示する表示手段と、
前記対象空間の前記撮影映像を表示した前記画面上にて目標座標の指示を受け付ける指示受付手段と、
前記指示の結果として、前記目標座標に対し、前記対象空間内の対応する位置に発生させる視覚的変化を抑制した映像を前記画面上に表示させる制御手段と、を備える処理装置。
Display means for displaying the captured video of the target space on the screen;
Instruction accepting means for accepting an instruction of target coordinates on the screen displaying the captured video of the target space;
A processing apparatus comprising: control means for displaying, on the screen, an image in which a visual change generated at a corresponding position in the target space is suppressed with respect to the target coordinates as a result of the instruction.
請求項14に記載の処理装置において、
前記表示手段は、前記指示受付手段が受け付けた前記目標座標に対応する前記画面上の指示位置に、カーソルを表示する処理装置。
The processing apparatus according to claim 14, wherein
The processing device that displays a cursor at an instruction position on the screen corresponding to the target coordinates received by the instruction receiving unit.
対象空間の撮影映像を画面上に表示し、
前記対象空間の前記撮影映像を表示した前記画面上にて目標座標の指示を受け付け、
前記目標座標に対し、前記対象空間内の対応する位置に視覚的変化を発生させ、
前記指示の結果として前記対象空間内に生じる前記視覚的変化を抑制した映像を前記画面上に表示させる処理装置のデータ処理方法。
Display the video of the target space on the screen,
Receiving an instruction of target coordinates on the screen displaying the captured video of the target space;
Generating a visual change at a corresponding position in the target space with respect to the target coordinates;
A data processing method of a processing device for displaying on the screen an image in which the visual change that occurs in the target space as a result of the instruction is suppressed.
処理装置を実現するためのコンピュータプログラムであって、
対象空間の撮影映像を画面上に表示する表示手順と、
前記対象空間の前記撮影映像を表示した前記画面上にて目標座標の指示を受け付ける指示受付手順と、
前記目標座標に対し、前記対象空間内の対応する位置に視覚的変化を発生させる発生手順と、
前記指示の結果として前記対象空間内に生じる前記視覚的変化を抑制した映像を前記画面上に表示させる制御手順と、をコンピュータに実行させるためのコンピュータプログラム。
A computer program for realizing a processing device,
A display procedure for displaying the captured image of the target space on the screen;
An instruction receiving procedure for receiving an instruction of a target coordinate on the screen displaying the captured video of the target space;
A generation procedure for generating a visual change at a corresponding position in the target space with respect to the target coordinates;
The computer program for making a computer perform the control procedure which displays the image | video which suppressed the said visual change which arises in the said object space as a result of the said instruction | indication on the said screen.
JP2009267882A 2009-11-25 2009-11-25 Pointing system Pending JP2011113216A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009267882A JP2011113216A (en) 2009-11-25 2009-11-25 Pointing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009267882A JP2011113216A (en) 2009-11-25 2009-11-25 Pointing system

Publications (1)

Publication Number Publication Date
JP2011113216A true JP2011113216A (en) 2011-06-09

Family

ID=44235515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009267882A Pending JP2011113216A (en) 2009-11-25 2009-11-25 Pointing system

Country Status (1)

Country Link
JP (1) JP2011113216A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017141540A1 (en) * 2016-02-18 2017-08-24 ソニー株式会社 Information processing device, information processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017141540A1 (en) * 2016-02-18 2017-08-24 ソニー株式会社 Information processing device, information processing method, and program
JPWO2017141540A1 (en) * 2016-02-18 2018-12-20 ソニー株式会社 Information processing apparatus, information processing method, and program

Similar Documents

Publication Publication Date Title
US11184544B2 (en) Display control apparatus, imaging system, control method, and recording medium for displaying an image and an indicator in a screen including a first region and a second region
US20130021491A1 (en) Camera Device Systems and Methods
US20180169934A1 (en) 3d printing data generation method and device
WO2014208168A1 (en) Information processing device, control method, program, and storage medium
JPH1124839A (en) Information input device
US10079996B2 (en) Communication system, communication device, and communication method
JP2015105987A (en) Display system, display device, imaging apparatus, display method, and program
WO2014027567A1 (en) Image processing system, image processing method, and program
JP2015119277A (en) Display apparatus, display method, and display program
JP2016213677A (en) Remote communication system, and control method and program for the same
JP6866467B2 (en) Gesture recognition device, gesture recognition method, projector with gesture recognition device and video signal supply device
CN104244132A (en) Intelligent earphone system and control method thereof
JP6354385B2 (en) Display device, display method, and program
JP2015005823A (en) Image processing apparatus and digital mirror system
JP4960270B2 (en) Intercom device
JP2011113216A (en) Pointing system
CN102736378B (en) Projection apparatus and projection method
JP4712754B2 (en) Information processing apparatus and information processing method
US20200075015A1 (en) Information processing device, information processing method, and information processing system
JP2007025295A (en) Projection type display apparatus
JP2023099380A (en) Imaging apparatus and control method for the same, image processing apparatus, and image processing system
CN112822468A (en) Projection control method and device, projection equipment and laser controller
JP2010033604A (en) Information input device and information input method
JP2002251256A (en) Pointer for liquid crystal projector presentation and presentation system using the same and method for displaying its pointer
JP2008083861A (en) Image projector and image projection system