JP2006121290A - Camera control system - Google Patents
Camera control system Download PDFInfo
- Publication number
- JP2006121290A JP2006121290A JP2004305584A JP2004305584A JP2006121290A JP 2006121290 A JP2006121290 A JP 2006121290A JP 2004305584 A JP2004305584 A JP 2004305584A JP 2004305584 A JP2004305584 A JP 2004305584A JP 2006121290 A JP2006121290 A JP 2006121290A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- pointer
- interference pattern
- concentric
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明はテレビ会議や監視システム等で用いるカメラの撮影方向を制御することができるカメラ制御システムに係り、特にカメラの撮影方向をポインタを用いて直感的に制御することができるカメラ制御システムに関するものである。 The present invention relates to a camera control system capable of controlling the shooting direction of a camera used in a video conference or a surveillance system, and more particularly to a camera control system capable of intuitively controlling the shooting direction of a camera using a pointer. It is.
従来からテレビ会議には、ローカルおよびリモートのそれぞれの側に出席者や資料などを映し出すカメラが備えられている。通常、このようなテレビ会議や会議キャプチャに用いられるカメラは、いわゆるパンチルトズーム(PTZ)カメラである。従来、テレビ会議等では、例えば、PTZカメラによるカメラ画像をモニターで見ながらパーソナルコンピュータ(PC)経由のマウス(ローカル環境およびリモート環境)や独自のリモコン(ローカル環境)などを用いて、PTZカメラのパン、チルト、あるいはズームなどの制御を行っていた。 Traditionally, video conferencing has been equipped with cameras that show attendees and documents on both the local and remote sides. Usually, a camera used for such a video conference or conference capture is a so-called pan tilt zoom (PTZ) camera. 2. Description of the Related Art Conventionally, in video conferences and the like, for example, using a mouse (local environment and remote environment) via a personal computer (PC) or a unique remote controller (local environment) while viewing a camera image from the PTZ camera on a monitor, Controls such as pan, tilt, or zoom were performed.
この種のカメラの制御に関しては従来から各種の制御システムが提案されている。例えば、特開2000−32319号公報には、TV会議や遠隔監視などの際に、利用者の希望するカメラ姿勢等を簡単かつ瞬時に指示できるようにするカメラ制御システムが提案されている。また、特開2001−145094号公報には、カメラの所望の動作状態に迅速に制御できるようにするカメラ制御システムが提案されている。さらに、特開2004−064784号公報には、複数のユーザが、PTZカメラによって提供されるビューなどの個人用のカメラビューを選択することを可能とするビデオを提供するシステムが提案されている。
しかしながら、従来のカメラ制御システムは、テレビ会議などのディスプレイ上の画像を見ながらリモコンやPCの画面上のマウス操作などによりPTZカメラを操作するものであり、この種のカメラに対して直感的な操作ができないという問題があった。 However, conventional camera control systems operate a PTZ camera by operating a mouse on a remote control or a PC screen while viewing an image on a display such as a video conference, and are intuitive for this type of camera. There was a problem that operation was impossible.
従って本発明の目的は、PTZカメラなど撮影方向が制御可能なカメラを直感的に制御することができるカメラ制御システムを提供することにある。 Accordingly, an object of the present invention is to provide a camera control system capable of intuitively controlling a camera such as a PTZ camera that can control the photographing direction.
上記目的は、指示する対象物上の指示軸との交点座標が検出可能なポインタ(方向指示装置)と、撮影方向が制御可能なカメラとを備え、前記交点座標に前記カメラの撮影方向を向けるように前記カメラを制御するカメラ制御システムにより、達成される。また、上記目的は、対象物上に同心円状の模様を形成する手段を備えたポインタと、前記同心円状の模様を検出する検出装置と、撮影方向が制御可能なカメラとを備え、前記検出装置からの検出信号に基いて前記同心円状の干渉模様の中心座標を算出し、前記中心座標を前記ポインタの指示軸と前記対象物との交点座標とし、前記交点座標に前記カメラの撮影方向を向けるように前記カメラを制御するカメラ制御システムにより、達成される。前記同心円状の模様は例えば光などの干渉により形成することができる。前記ポインタは、レーザ光を放射する光源および異なる光路を通過する前記レーザ光により対象物上に同心円状の干渉模様を形成する光学レンズ系を備えることができる。 The object includes a pointer (direction indicating device) capable of detecting an intersection point coordinate with an indication axis on an object to be indicated, and a camera capable of controlling a photographing direction, and directs the photographing direction of the camera to the intersection point coordinate. This is achieved by a camera control system for controlling the camera. In addition, the object is provided with a pointer having means for forming a concentric pattern on an object, a detection device for detecting the concentric pattern, and a camera capable of controlling a photographing direction, and the detection device. The center coordinates of the concentric interference pattern are calculated based on the detection signal from the center, the center coordinates are set as the intersection coordinates of the pointer pointing axis and the object, and the photographing direction of the camera is directed to the intersection coordinates. This is achieved by a camera control system for controlling the camera. The concentric pattern can be formed by interference of light or the like, for example. The pointer may include a light source that emits laser light and an optical lens system that forms a concentric interference pattern on an object by the laser light passing through different optical paths.
ここで、前記ポインタから前記交点座標までの距離を記憶し、前記ポインタが別途向けられたポインタ光軸上の前記記憶した距離における距離座標を算出し、前記距離座標に前記カメラの撮影方向を向けるように前記カメラを制御することができる。また、前記カメラが複数備えられ、前記交点座標に前記複数のカメラの撮影方向を向けるように前記複数のカメラを制御することができる。さらに、前記カメラを2台備え、前記交点座標に前記2台のカメラの撮影方向を向けるように制御し、前記2台のカメラによる2つのカメラ画像からそれぞれ特徴点を抽出し、前記2つのカメラ画像で特徴点分布の近い領域を選択し、前記選択領域がカメラ画像の中心に来るように前記2台のカメラの撮影方向を調整することができる。前記カメラは、例えばパンチルトズーム(PTZ)カメラとすることができる。 Here, the distance from the pointer to the intersection coordinate is stored, the distance coordinate at the stored distance on the pointer optical axis to which the pointer is separately directed is calculated, and the shooting direction of the camera is directed to the distance coordinate. The camera can be controlled as described above. A plurality of the cameras are provided, and the plurality of cameras can be controlled so that the shooting directions of the plurality of cameras are directed to the intersection coordinates. Further, two cameras are provided, control is performed so that the shooting directions of the two cameras are directed to the intersection coordinates, and feature points are extracted from two camera images of the two cameras, respectively, and the two cameras It is possible to select an area having a feature point distribution close to the image and adjust the shooting directions of the two cameras so that the selected area is at the center of the camera image. The camera may be, for example, a pan / tilt / zoom (PTZ) camera.
また、本発明に係るカメラ制御システムは、レーザ光を放射する光源および異なる光路を通過する前記レーザ光により対象物上に同心円状の干渉模様を形成する光学レンズ系を備えたポインタと、前記干渉模様を検出する検出装置と、撮影方向が制御可能なカメラと、前記検出装置からの検出信号に基いて前記同心円状の干渉模様の中心座標を算出し、前記中心座標を前記ポインタの光軸と前記対象物との交点座標とし、前記交点座標に前記カメラの撮影方向を向けるための制御信号を前記カメラに出力する演算制御装置とを備えたものである。 The camera control system according to the present invention includes a pointer including a light source that emits laser light and an optical lens system that forms a concentric interference pattern on an object by the laser light passing through different optical paths, and the interference A detection device for detecting a pattern; a camera capable of controlling a shooting direction; and calculating center coordinates of the concentric interference pattern on the basis of a detection signal from the detection device; and the center coordinates as an optical axis of the pointer And an arithmetic control unit that outputs a control signal to the camera as an intersection coordinate with the object and directing the shooting direction of the camera to the intersection coordinate.
さらに、本発明に係るカメラ制御システムは、レーザ光を放射する光源および異なる光路を通過する前記レーザ光により対象物上に同心円状の干渉模様を形成する光学レンズ系を備えたポインタと、前記干渉模様を検出する検出装置と、撮影方向が制御可能なカメラと、前記検出装置からの検出信号に基いて前記同心円状の干渉模様の中心座標を算出し、前記中心座標を前記ポインタの光軸と前記対象物との交点座標とし、前記ポインタから前記交点座標までの距離を記憶し、前記交点座標に前記カメラの撮影方向を向けるための制御信号を前記カメラに出力し、その後前記ポインタが向けられたポインタ光軸上の前記記憶した距離における距離座標を算出し、前記距離座標に前記カメラの撮影方向を向けるための制御信号を前記カメラに出力する演算制御記憶装置とを備えたものである。 Furthermore, the camera control system according to the present invention includes a light source that emits laser light and a pointer including an optical lens system that forms a concentric interference pattern on an object by the laser light passing through different optical paths, and the interference A detection device for detecting a pattern; a camera capable of controlling a shooting direction; and calculating center coordinates of the concentric interference pattern on the basis of a detection signal from the detection device; and the center coordinates as an optical axis of the pointer Stores the distance from the pointer to the intersection coordinates as the intersection coordinates with the object, outputs a control signal to the camera to direct the shooting direction of the camera to the intersection coordinates, and then the pointer is directed The distance coordinate at the stored distance on the pointer optical axis is calculated, and a control signal for directing the shooting direction of the camera to the distance coordinate is output to the camera. It is obtained by an arithmetic control store for.
また、本発明に係るカメラ制御システムは、赤外線レーザ光を放射する第1光源、可視レーザ光を放射する第2光源、および異なる光路を通過する前記赤外線レーザ光により対象物上に同心円状の干渉模様を形成する光学レンズ系を備えたポインタと、前記干渉模様を検出する検出装置と、撮影方向が制御可能なカメラと、前記検出装置からの検出信号に基いて前記同心円状の干渉模様の中心座標を算出し、前記中心座標を前記ポインタの光軸と前記対象物との交点座標とし、前記ポインタから前記交点座標までの距離を記憶し、前記可視レーザ光により対象物上に形成された光点に前記カメラの撮影方向を向けるための制御信号を前記カメラに出力し、その後前記ポインタが向けられたポインタ光軸上の前記記憶した距離における距離座標を算出し、前記距離座標に前記カメラの撮影方向を向けるための制御信号を前記カメラに出力する演算制御記憶装置とを備えたものである。 The camera control system according to the present invention includes a first light source that emits infrared laser light, a second light source that emits visible laser light, and concentric interference on an object by the infrared laser light that passes through different optical paths. A pointer provided with an optical lens system for forming a pattern, a detection device for detecting the interference pattern, a camera capable of controlling the photographing direction, and the center of the concentric interference pattern based on a detection signal from the detection device The coordinates are calculated, the center coordinates are the intersection coordinates of the optical axis of the pointer and the object, the distance from the pointer to the intersection coordinates is stored, and the light formed on the object by the visible laser beam Distance coordinates at the stored distance on the pointer optical axis to which a control signal for directing the shooting direction of the camera to a point is output to the camera and then the pointer is directed Calculated, in which the control signals for directing the imaging direction of the camera on the distance coordinate and a calculation control store to be output to the camera.
さらに、本発明に係るカメラ制御システムは、レーザ光を放射する光源および異なる光路を通過する前記レーザ光により対象物上に同心円状の干渉模様を形成する光学レンズ系を備えたポインタと、前記干渉模様を検出する検出装置と、撮影方向が制御可能な2台のカメラと、前記検出装置からの検出信号に基いて前記同心円状の干渉模様の中心座標を算出し、前記中心座標を前記ポインタの光軸と前記対象物との交点座標とし、前記交点座標に前記2台のカメラの撮影方向を向けるための制御信号を前記2台のカメラに出力し、かつ前記2台のカメラによる2つのカメラ画像からそれぞれ特徴点を抽出し、前記2つのカメラ画像で特徴点分布の近い領域を選択し、前記選択領域がカメラ画像の中心に来るように前記2台のカメラの撮影方向を調整するための調整信号を前記2台のカメラに出力する演算制御装置とを備えたものである。 Furthermore, the camera control system according to the present invention includes a light source that emits laser light and a pointer including an optical lens system that forms a concentric interference pattern on an object by the laser light passing through different optical paths, and the interference A detection device for detecting a pattern, two cameras capable of controlling a shooting direction, and center coordinates of the concentric interference pattern based on a detection signal from the detection device; Two cameras, which are the intersection coordinates of the optical axis and the object, output a control signal for directing the photographing direction of the two cameras to the intersection coordinates, and the two cameras. Extract feature points from the images, select a region with a close distribution of feature points in the two camera images, and capture directions of the two cameras so that the selected region is at the center of the camera image An adjustment signal for adjusting is obtained and an arithmetic control unit for outputting to the two cameras.
上記カメラ制御システムに用いるポインタは、レーザ光を放射する光源および異なる光路を通過する前記レーザ光により対象物上に同心円状の干渉模様を形成する光学レンズ系を備えた干渉模様発生装置と、前記干渉模様発生装置を制御するための制御回路、前記制御回路からの信号を送信するための通信回路を具備することができる。ここで、前記通信回路からの信号を無線で送信するためのアンテナを備えることができる。また、前記制御回路に複数のスイッチを接続することができ、そのうち第1のスイッチが前記干渉模様発生装置を作動させるものであり、第2のスイッチがマウス左クリックボタンの役割を果たすものであり、第3のスイッチがマウス右クリックボタンの役割を果たすものである。
また、本発明に係るポインタ装置は、撮影方向が制御可能なカメラに対し、該カメラの撮影方向を対象物に向ける指示をするものであって、前記カメラの撮影方向を前記対象物に向けるために該対象物に対して指示を与えるポインタと、前記ポインタの指示方向に沿った前記対象物に対する指示軸と該対象物の指示面との交点座標を前記カメラの撮影方向を示す制御情報として提供する提供手段とを備える。前記ポインタは前記対象物上に同心円状の模様を形成する同心円状模様発生手段を含むことができる。前記提供手段は、前記同心円状の模様を検出する検出手段と、前記検出手段からの検出信号に基いて前記同心円状の模様の中心座標を前記交点座標として算出する算出手段とを含むことができる。前記同心円状の模様は例えば光などの干渉により形成することができる。前記同心円状模様発生手段は、レーザ光を放射する光源および異なる光路を通過する前記レーザ光により対象物上に同心円状の干渉模様を形成する光学レンズ系を備えることができる。
The pointer used in the camera control system includes a light source that emits laser light and an interference pattern generation device that includes an optical lens system that forms a concentric interference pattern on an object by the laser light passing through different optical paths; A control circuit for controlling the interference pattern generator and a communication circuit for transmitting a signal from the control circuit can be provided. Here, an antenna for wirelessly transmitting a signal from the communication circuit can be provided. In addition, a plurality of switches can be connected to the control circuit, of which the first switch operates the interference pattern generator and the second switch functions as a mouse left click button. The third switch serves as a mouse right click button.
In addition, the pointer device according to the present invention instructs a camera whose shooting direction is controllable to direct the shooting direction of the camera toward the object, and directs the shooting direction of the camera toward the object. A pointer for giving an instruction to the object, and an intersection coordinate between an indication axis for the object along the indication direction of the pointer and the indication surface of the object is provided as control information indicating the shooting direction of the camera Providing means. The pointer may include concentric pattern generating means for forming a concentric pattern on the object. The providing unit may include a detecting unit that detects the concentric pattern, and a calculating unit that calculates center coordinates of the concentric pattern as the intersection coordinates based on a detection signal from the detecting unit. . The concentric pattern can be formed by interference of light or the like, for example. The concentric pattern generating means may include a light source that emits laser light and an optical lens system that forms a concentric interference pattern on the object by the laser light passing through different optical paths.
本発明によれば、PTZカメラなど撮影方向が制御可能なカメラを直感的に制御することができるカメラ制御システムを得ることができる。すなわち、従来はPTZカメラの方向操作をリモコンやPCの画面上でマウス操作などにより操作することしか出来なかったが、本発明ではユーザーがポインタにより指し示す方向へPTZカメラの撮影方向が自動的に向くように制御されるのでカメラを直感的に操作できるようになる。この場合、ポインタにスイッチを設け、スイッチによる切り替えで普段はプレゼンテーションポインタとして使用し、好きなときだけPTZカメラの方向操作をすることが可能である。 ADVANTAGE OF THE INVENTION According to this invention, the camera control system which can control intuitively the camera which can control imaging | photography directions, such as a PTZ camera, can be obtained. That is, in the past, the direction operation of the PTZ camera could only be operated by a mouse operation or the like on the remote control or the PC screen. However, in the present invention, the shooting direction of the PTZ camera is automatically directed in the direction indicated by the pointer. Thus, the camera can be operated intuitively. In this case, a switch is provided on the pointer, and it is usually used as a presentation pointer by switching with the switch, and the direction operation of the PTZ camera can be operated only when desired.
(実施例1)
図1(a)、(b)は、本発明に係るカメラ制御システムの一実施例を示す図である。本実施例は、後述するポインタでカメラを指示し、その後このポインタを対象物(ターゲット)に向けて指示し、これによりカメラの撮影方向を対象物の方向(座標)に動かすように制御するものである。本システムは、図示のように、レーザ光を放射する光源および異なる光路を通過するレーザ光により対象物5上に同心円状の干渉模様を形成する光学レンズ系を備えたポインタ1と、干渉模様を検出する検出装置2と、撮影方向が制御可能なカメラ3と、検出装置2からの検出信号に基いてカメラ3を制御するPC(パソコン)4とを備える。
Example 1
FIGS. 1A and 1B are diagrams showing an embodiment of a camera control system according to the present invention. In this embodiment, the camera is pointed to with a pointer described later, and then the pointer is pointed toward the target (target), thereby controlling the shooting direction of the camera to the direction (coordinate) of the target. It is. As shown in the figure, this system includes a
ポインタ1は、例えば赤外線レーザ光源および同心円状の干渉模様を生成するためのレンズを有するものであり、例えば特開2004−28977号公報に記載の技術を用いることができるが、詳細については後述する。ここで、同心円状の干渉模様とは、多重同心円だけでなく多重楕円の干渉模様も含むものである。検出装置2は、例えば会議室などのスクリーン脇に設けられる結像系を持たないCCDなどの2次元受光センサ(2個で1セット)である。受光センサセットは室内各壁面に設置されることが望ましい。カメラ3は、会議の様子をモニタ撮影する例えばPTZ(パン、チルト、ズーム)カメラであり、市販のものを使用することができる。PC4は、受光センサ(検出装置)の画像をモニタし画像処理を行うものであるが、具体的には、検出装置2からの検出信号に基いて同心円状の干渉模様の中心座標を算出し、この中心座標をポインタ1の光軸と対象物5との交点座標とし、この交点座標にPTZカメラ3の撮影方向を向けるための制御信号をPTZカメラ3に出力する。対象物5は例えばテレビ会議やプレゼンテーション用のスクリーンあるいはディスプレイなどとすることができる。図1におけるポインタ1の操作については後述する。
The
図2は本発明で用いるポインタの一例を示す図であり、(a)は概略構成図、(b)はブロック構成図である。図示のように、ポインタ1は干渉模様発生装置22を有し、干渉模様発生装置22はレーザ光を放射する光源20および異なる光路を通過するレーザ光により前方に同心円状の干渉模様を形成する光学レンズ系21を備える。ここで、光学レンズ系21は、単体レンズ、複合レンズ、またはこれらとミラーとの組み合わせ等で構成することができる。その具体例については後述する。ポインタ1は、さらに干渉模様発生装置22を制御するための制御回路23、制御回路23からの信号をアンテナ24を介してPC4に送信するための通信回路25、およびこれらの構成部品に電力を供給する電源26を備える。本例の通信回路25はBluetoothなど無線で行うものであるが、これに限定されず、例えばUSBなど有線でPC4と接続することができる。
2A and 2B are diagrams showing an example of a pointer used in the present invention. FIG. 2A is a schematic configuration diagram, and FIG. 2B is a block configuration diagram. As shown in the figure, the
また、ポインタ1にはPCのマウスボタンと同等の機能が付加される。本例では、制御回路23に3つのスイッチSW1,SW2,SW3が接続されている。SW1はレーザ光源20のON/OFFボタン、SW2はマウス左クリックボタン、SW3はマウス右クリックボタンの役割を果たす。SW2とSW3の状態は有線または無線でPC4に伝送される。すなわち、SW1がONになると干渉模様発生装置22を作動させ、SW1がOFFになると干渉模様発生装置22の作動を止める。また、SW2がONの間、マウス左クリック状態であることを通信回路25へ通知し、SW3がONの間、マウス右クリック状態であることを通信回路25へ通知する。
The
ポインタ1のSW1をONにしてレーザを発光させ、受光部(検出装置)方向に向けるとポインタにあるレンズによって生成される円状の干渉模様が照射される。受光部のCCDは円または楕円となった干渉模様の一部をモニタし、その画像をPCで処理すると干渉模様の円または楕円の中心座標が算出される。この算出処理に関しては後述する。この中心座標はポインタの光軸と対象物との交点座標であり、ポインタの指示する位置となる。またポインタの光軸方向も同時に算出可能である。ポインタの光軸算出に関しては、ポインタの指示座標のみを上記のように算出し、ポインタに発光手段などを設けて、その発光点の座標を他の位置検出手段でモニターしておき、2点からもとめても良い。
When the
次に、同心円または多重楕円の干渉模様の中心座標の算出方法について述べる。まず、図3〜図5を用いて同心円の干渉模様の中心座標の算出方法について述べ、続いて図6、図7を用いて多重楕円の干渉模様の中心座標の算出方法について述べる。
図3は、ディスプレイ上に干渉模様を形成し、ポインタの指示個所を検出する一例を示す図である。本例では、図示のように、CCD受光素子3−5aと3−5bと3−5cと3−5dを0.9m角のディスプレイ16の四隅に取り付けた。光源20には波長780nmの半導体レーザを使用した。干渉模様を形成する光学レンズ系21には、図4(b)に示すような屈折率1.6の円錐レンズ2cを用いた。円錐レンズ2cの円錐部の高さ2c−hは1.1mm、円柱部2c−dの厚さは1.9mmとした。したがって、最大厚さは3mmとなった。裏面は平面である。円錐レンズ2cの屈折率は1.6で、直径Φ4mmとした。円錐レンズを用いた場合の干渉模様は図4(a)に示す光線軌跡から形成される。円錐レンズ21の高さを工夫することで、レンズの上半分を通過した光と下半分を通過した光を図4(a)のように重ね合わせることができ、干渉模様を形成することができる。本例では光学レンズ系21として円錐レンズを用いているが、これ以外のレンズを用いることもできる。
Next, a method for calculating the center coordinates of a concentric circle or multiple ellipse interference pattern will be described. First, the calculation method of the center coordinates of the concentric interference pattern will be described with reference to FIGS. 3 to 5, and the calculation method of the center coordinates of the interference pattern of the multiple ellipse will be described with reference to FIGS. 6 and 7.
FIG. 3 is a diagram illustrating an example in which an interference pattern is formed on the display and a pointer indication point is detected. In this example, as shown in the figure, CCD light receiving elements 3-5a, 3-5b, 3-5c, and 3-5d are attached to the four corners of a
図4において、光源(半導体レーザ)20からレンズ前面(円錐の頂点)までの距離は10mmとし、これを一体のケースに設置しポインタ1とした。ポインタ1から3m離れたディスプレイ16に垂直にレーザ光を照射した場合に形成された干渉縞5−5は整然とした同心円であった。この同心円の最外周の直径は約Φ1.0mであった。この中心付近の干渉模様を図5に示す。図5(a)は同心円の中心付近の干渉模様を示し、図5(b)は最外周付近の干渉模様を示している。図5(a)の干渉模様のピッチは約0.67mmであり、図5(b)のピッチは約0.63mmであった。ディスプレイ16のサイズは0.9m×0.9mであるので、ポインタ1でディスプレイ16内の位置をポイントしている場合には、CCD受光素子3−5は必ず同心円の干渉縞の一部分を検出することができる。
In FIG. 4, the distance from the light source (semiconductor laser) 20 to the front surface of the lens (the apex of the cone) is 10 mm, and this is installed in an integrated case to be the
同心円の円弧の法線は必ず同心円の中心を通るので、2つ以上の円弧の法線から同心円の中心位置を算出することができる。円弧が1つの場合はこれを2分割して2つの円弧とし、この法線から同心円の中心位置を算出することができる。また、干渉縞がディスプレイに対して斜めから照射された場合には、干渉縞の円弧の変形状態から斜めの角度を算出することで、同様に干渉縞の中心位置を算出することができる。 Since the normal line of the arc of the concentric circle always passes through the center of the concentric circle, the center position of the concentric circle can be calculated from the normal lines of two or more arcs. When there is one arc, it is divided into two arcs, and the center position of the concentric circle can be calculated from this normal. In addition, when the interference fringes are obliquely applied to the display, the center position of the interference fringes can be similarly calculated by calculating the oblique angle from the deformation state of the arc of the interference fringes.
図6は、ディスプレイ上に干渉模様を形成し、ポインタの指示個所を検出する他の例を示す図である。本図は同心円光干渉模様がディスプレイ11−8aや11−8bなどの対象物に投影されている様子を示す。同心円光干渉模様はこれを形成する光学レンズを頂点にした多重円錐(光強度のピークの空間領域を線で表すと円錐になる)とこれが投影された平面との交線で形成される。円錐と平面の交線は常に楕円であるので、平面に投影される干渉模様は多重楕円となる。平面が光源の光軸に対して垂直な場合には正円となる。楕円の長軸と短軸をX軸、Y軸とする座標系に対しては、楕円は次式(1)で表される。 FIG. 6 is a diagram illustrating another example in which an interference pattern is formed on the display and a pointer pointing portion is detected. This figure shows a state in which the concentric light interference pattern is projected onto an object such as the display 11-8a or 11-8b. The concentric light interference pattern is formed by a line of intersection between a multiple cone having the optical lens forming the apex as a vertex (a space area of a light intensity peak becomes a cone when represented by a line) and a plane on which the cone is projected. Since the intersection line between the cone and the plane is always an ellipse, the interference pattern projected onto the plane is a multiple ellipse. When the plane is perpendicular to the optical axis of the light source, it is a perfect circle. For a coordinate system in which the major and minor axes of the ellipse are the X axis and the Y axis, the ellipse is expressed by the following equation (1).
次に楕円を基準にしたこの座標系を、投影された平面の固定座標系x−yに変換する。この2つの座標系は同一平面内に存在するので、平行移動(p,q)と回転θの座標変換を行えば対応づけることができる。 Next, this coordinate system based on the ellipse is converted into a fixed coordinate system xy of the projected plane. Since these two coordinate systems exist in the same plane, they can be associated by performing coordinate transformation of translation (p, q) and rotation θ.
関係式(2)を(1)に代入すると、次式が得られる。 Substituting relational expression (2) into (1) gives the following expression.
光干渉模様が投影される平面内にCCDセンサ3−8aや3−8bを設置し、ある一つの同心円の座標(x、y)を5点読みとり、式(3)に代入する。未知数はa、b、p、q、θの5個なので、座標を5点読みとることで未知数を求めることができる。CCDセンサには複数の同心円が投影されるので、異なる楕円の式を導き出すことで多重楕円の収束点を算出することができる。この収束点が光源の光軸と投影される平面との交点20−8となり、レーザポインタとして使用する場合にはレーザポインタの指示点となる。 The CCD sensors 3-8a and 3-8b are installed in the plane on which the light interference pattern is projected, and five coordinates (x, y) of a certain concentric circle are read and substituted into Expression (3). Since there are five unknowns, a, b, p, q, and θ, the unknown can be obtained by reading the coordinates at five points. Since a plurality of concentric circles are projected onto the CCD sensor, the convergence point of the multiple ellipse can be calculated by deriving different ellipse equations. This convergence point becomes the intersection 20-8 between the optical axis of the light source and the projected plane, and when used as a laser pointer, it becomes the indication point of the laser pointer.
楕円上の5点を式(3)に代入して未知数を算出するのは計算が大変面倒であり、CCDセンサが捉えた画像のリアルタイム処理には適さない。より簡易な方法により多重楕円の収束点を見つける方法が望まれる。図7は、楕円の中心点を簡易に求める方法を示す図である。先ず、楕円の中心点をOとし、楕円上の点Qと点Rの接線の交点をPとする。線分OPが線分QRと交わる点をS、楕円曲線と交わる点をTとすると、
QS=SR (4)
OS・OP=OT2 (5)
という関係式が成立する(補助円を考えると簡易に導かれる)。
OP=OS+SP、OT=OS+STを式(5)に代入すると、
OS=ST2/(SP−2・ST) (6)
が得られる。線分OSの長さが分かれば、直線PSの式から中心点Oを算出することができる。以上の手順を整理すると、[1]1個の楕円曲線を抽出し、楕円上の2点Q、Rの接線を算出する、[2]接線の交点Pと線分QRの中点Sと直線PSと楕円曲線との交点Tを算出する、[3]式(6)より線分OSの長さが分かり、楕円の中心点Oが算出できる。
Substituting the five points on the ellipse into Equation (3) to calculate the unknown is very cumbersome and is not suitable for real-time processing of the image captured by the CCD sensor. A method of finding a convergence point of multiple ellipses by a simpler method is desired. FIG. 7 is a diagram showing a method for easily obtaining the center point of an ellipse. First, let O be the center point of the ellipse, and P be the intersection of the tangent line between point Q and point R on the ellipse. If the point where the line OP intersects the line QR is S, and the point where the line OP intersects the elliptic curve is T,
QS = SR (4)
OS · OP = OT 2 (5)
The following relational expression holds (it is easily derived when considering the auxiliary circle).
Substituting OP = OS + SP and OT = OS + ST into equation (5),
OS = ST 2 / (SP-2 · ST) (6)
Is obtained. If the length of the line segment OS is known, the center point O can be calculated from the equation of the straight line PS. When the above procedure is arranged, [1] one elliptic curve is extracted, and the tangent of two points Q and R on the ellipse is calculated. The intersection point T of the PS and the elliptic curve is calculated. [3] The length of the line segment OS can be found from the equation (6), and the center point O of the ellipse can be calculated.
ここでは、楕円上の2点の接線を求めて楕円中心を算出したが、楕円上の3点の接線を求めて楕円中心を計算することもできる。[1]1個の楕円曲線を抽出し、楕円上の3点Q、R、Q’の接線を算出する、[2]接線の交点P、P’と線分QR、RQ’の中点S、S’を算出する、[3]直線PS、P’S’を求め、その交点である楕円の中心点Oを算出する。以上、楕円中心の算出方法を2通り述べたが、どちらの方法を採用しても構わない。 Here, the ellipse center is calculated by obtaining the tangent of two points on the ellipse, but the ellipse center can also be calculated by obtaining the tangent of three points on the ellipse. [1] Extract one elliptic curve and calculate tangents of three points Q, R and Q ′ on the ellipse. [2] Intersections P and P ′ of tangents and midpoint S of line segments QR and RQ ′ , S ′ is calculated. [3] The straight lines PS and P ′S ′ are obtained, and the center point O of the ellipse which is the intersection is calculated. In the above, two methods for calculating the center of the ellipse have been described, but either method may be adopted.
楕円の扁平率が低い場合や精度を必要としない場合には、楕円の中心点を多重楕円の収束点と見なすことができる。高い精度が必要な場合には、3個以上の楕円の中心点を算出し、その位置座標の変化率から収束点を求めたり、あるいは、式(3)に楕円の中心点(p、q)と楕円上の3点を代入して、未知数a,b,θを求め、扁平率b/aから光軸に対する平面の傾きを算出し、多重楕円の収束点を導くこともできる。 When the ellipticity of the ellipse is low or when accuracy is not required, the center point of the ellipse can be regarded as the convergence point of the multiple ellipse. When high accuracy is required, the center point of three or more ellipses is calculated and the convergence point is obtained from the rate of change of the position coordinates, or the center point (p, q) of the ellipse is expressed by Equation (3). And the three points on the ellipse are substituted to find the unknowns a, b, and θ, the inclination of the plane with respect to the optical axis is calculated from the flatness ratio b / a, and the convergence point of the multiple ellipse can be derived.
通常投影される平面はディスプレイや映写面であり、一般に床に垂直に設置されていることが多い。光源が平面から離れている場合には光源の光軸が投影される平面に対してほぼ垂直になることがよくある。この場合、楕円は正円と扱うことができ上式(3)は次のように簡略化される。 Usually, the projected plane is a display or a projection surface, and is generally installed vertically on the floor. When the light source is far from the plane, the optical axis of the light source is often almost perpendicular to the projected plane. In this case, the ellipse can be treated as a perfect circle, and the above equation (3) is simplified as follows.
未知数はp、q、rの3点であるので、CCDセンサによりある正円の3点を読み込めば解を得ることができる。
以上のような方法で、ポインタにより対象物上に形成された同心円または多重楕円の干渉模様の中心座標を算出することができる。
Since the unknowns are three points p, q, and r, a solution can be obtained by reading three points of a certain perfect circle by the CCD sensor.
By the method as described above, the center coordinates of the interference pattern of concentric circles or multiple ellipses formed on the object by the pointer can be calculated.
本システムの動作にはあらかじめ使用環境の3次元位置がわかっていることが必要である。例えばスクリーンの対角2点やPTZカメラを囲むような直方体の対角3点、さらに机や椅子や机上のPCモニタなどのオブジェクトの座標をPC4に入力し、バーチャルな環境を構築しておく。
For the operation of this system, it is necessary to know the three-dimensional position of the usage environment in advance. For example, a virtual environment is constructed by inputting, to the
バーチャルな環境構築には、例えば光源の3次元位置を簡易に計測する方式などが利用できる。図13はバーチャルな環境を構築するための方法の一例を示す図であり、(a)は実空間室内を、(b)はPC内バーチャル空間を示すものである。図示のように机131の例えば3箇所にLED光源132a,b,cを置き、これを部屋133内での配置が既知の特殊カメラ134で撮影することでLED光源132の3次元座標の検出が可能である。この座標を特殊カメラ134の配置座標を基準として部屋133全体の座標系に変換すると机131の位置がPCに入力できる。ここでの特殊カメラ134は、公知の技術、例えば特開2004−212328号公報に記載の位置計測システムの技術を用いることができる。これはCCDに球面収差の大きい半球レンズを取り付けたもので、収差により点光源がCCD面上ではリング状の像となる。このリング像は点光源の距離によって半径が決まり、CCD面と平行な座標系での位置はCCD面上のリング像の中心位置として反映されるので位置計測が可能である。本例ではLED光源132を3個配置しているが、それよりも多くても少なくてもよい。また、1個のLED光源132を順次置き直して座標取得してもよい。 For example, a method of simply measuring the three-dimensional position of a light source can be used for constructing a virtual environment. FIG. 13 is a diagram showing an example of a method for constructing a virtual environment, where (a) shows a real space room and (b) shows a virtual space in a PC. As shown in the figure, the LED light sources 132a, b, and c are placed at, for example, three places on the desk 131, and the three-dimensional coordinates of the LED light source 132 are detected by photographing them with a special camera 134 whose arrangement in the room 133 is known. Is possible. If this coordinate is converted into the coordinate system of the entire room 133 with reference to the arrangement coordinate of the special camera 134, the position of the desk 131 can be input to the PC. The special camera 134 here can use a known technique, for example, a technique of a position measurement system described in Japanese Patent Application Laid-Open No. 2004-212328. This is a CCD in which a hemispherical lens having a large spherical aberration is attached, and the point light source becomes a ring-shaped image on the CCD surface due to the aberration. The radius of this ring image is determined by the distance of the point light source, and the position in the coordinate system parallel to the CCD surface is reflected as the center position of the ring image on the CCD surface, so that the position can be measured. In this example, three LED light sources 132 are arranged, but the number may be more or less. Further, coordinates may be obtained by sequentially replacing one LED light source 132.
図13(a)において、部屋133の左下奥角の座標を(0,0,0)とすると、LED光源132aのカメラを基準とした座標は(x1,y1,z1)、カメラの室内座標が(A,B,0)なので、図13(b)に示すように、取得座標は(A−x1,B−y1,−z1)となって、PC内のバーチャル空間にマッピングすることができる。バーチャル空間内の机は、例えば直方体のような単純な図形として表現することができる。LED光源132b,cの座標(x2,y2,z2)、(x3,y3,z3)も同様にしてPC内のバーチャル空間にマッピングすることができる。他のオブジェクトの座標も同様にしてPCに入力することができる。そのほかにもLED光源やマーカーを2台以上のカメラで撮影し、2枚の撮影画像上のマーカー位置から三角測量により位置を算出する方式なども有効である。
In FIG. 13A, assuming that the coordinates of the lower left corner of the room 133 are (0, 0, 0), the coordinates of the LED light source 132a with respect to the camera are (x1, y1, z1), and the room coordinates of the camera are Since it is (A, B, 0), as shown in FIG. 13B, the acquired coordinates are (A-x1, By-y1, -z1) and can be mapped to the virtual space in the PC. A desk in the virtual space can be expressed as a simple figure such as a rectangular parallelepiped. Similarly, the coordinates (x2, y2, z2) and (x3, y3, z3) of the
また会議参加者はその位置が一定でないので、会議参加者の胸や肩などに上記のようなLED光源やマーカーをつけておき、その位置がわかるようにしておく。図14は人物の位置をわかるようにするための方法の一例を示す図であり、(a)は実空間室内を、(b)はPC内バーチャル空間を示すものである。LED光源の場合は特殊カメラで、マーカーの場合は2台以上のカメラで撮影すると、その点の位置が算出される。その点から大人の人間の幅や高さ分の立体を仮想的に設定すると、バーチャルな環境内で会議参加者の位置を設定できる。図14(a)において、部屋143の左下奥角の座標を(0,0,0)とすると、人物141につけたLED光源142のカメラを基準とした座標は(x0,y0,z0)、上述のような特殊カメラ144の室内座標が(A,B,0)なので、図13(b)に示すように、取得座標は(A−x0,B−y0,−z0)となって、PC内のバーチャル空間にマッピングすることができる。人物は例えば楕円や長方形や直方体のような単純な図形として表現することができる。
Further, since the positions of the conference participants are not constant, the LED light sources and markers as described above are attached to the chest and shoulders of the conference participants so that the positions can be understood. FIG. 14 is a diagram showing an example of a method for making the position of a person known. FIG. 14A shows a real space room, and FIG. 14B shows a virtual space in the PC. In the case of an LED light source, when shooting with a special camera and in the case of a marker with two or more cameras, the position of the point is calculated. From this point, if the three-dimensional shape of an adult human being is virtually set, the positions of the conference participants can be set in a virtual environment. In FIG. 14A, assuming that the coordinates of the lower left back corner of the room 143 are (0, 0, 0), the coordinates based on the camera of the LED
以下、実施例1の動作について図1および図2を参照しながら図8のフローチャートに沿って説明する。まず、ポインタ1のSW1をON状態にする。ステップ81にて、ポインタ1のSW2を押しながらPTZカメラ3にポインタ1を向ける。PTZカメラ3の位置はあらかじめ入力してあるので、その位置情報は既知である。ステップ82にて、ポインタ1の光軸とPTZカメラ3の位置領域が交差しているか否か判別する。否の場合はポインタ1の指示方向を調整してステップ82を繰り返す。交差していると判別したときは次のステップに進む。ここで、ポインタ1の光軸とPTZカメラ3の位置領域が交差することを検知する処理は簡単な幾何処理で可能である。光軸が交差すると判別できる手段(例えば、ポインタ内にバイブレータを設けバイブレーションを与える、カメラに赤色灯などを設け発光させるなどの手段)により、ポインタ使用者はPTZカメラ3の方向操作が可能であることを認識する。
Hereinafter, the operation of the first embodiment will be described with reference to FIGS. 1 and 2 along the flowchart of FIG. First, SW1 of the
ポインタ1の光軸とカメラ3の位置領域が交差しているか否かの判別については、カメラの位置領域を簡単のために有限な平面として、ポインタの光軸は直線なので、平面と直線の交点を算出し、その座標値が有限な領域にあれば交差していると判定できる。図15は、ポインタの光軸とカメラの位置領域が交差することを判定する方法の一例を示す図である。まず、カメラ1を囲む直方体151を想定し、その領域から平面152を規定する。平面の式は一般に、
lx+my+nz=f
と表すことができる。ここでは面と辺が床や壁に平行または垂直と仮定し、
a≦x≦b,c≦y≦d,z=e
とする。一方、ポインタ1の指し示す直線は、
A(x−s)=B(y−t)=C(z−u)
と表すことができる。この式とz=eとから平面152との交点のx座標とy座標が求められる。このx座標とy座標とが上記不等式を満足していればポインタ1の光軸とカメラ3の位置領域が交差していると判定することができる。
For determining whether or not the optical axis of the
lx + my + nz = f
It can be expressed as. Here we assume that the faces and sides are parallel or perpendicular to the floor or wall,
a ≦ x ≦ b, c ≦ y ≦ d, z = e
And On the other hand, the straight line indicated by the
A (x−s) = B (y−t) = C (z−u)
It can be expressed as. From this equation and z = e, the x coordinate and the y coordinate of the intersection with the plane 152 are obtained. If the x-coordinate and y-coordinate satisfy the above inequality, it can be determined that the optical axis of the
この交差したという判別時点からはカメラは制御権がポインタ(利用者)に占有される。ポインタ利用者の指示動作は空間操作なので、ポインタを向けただけでは指示方向がカメラにあたっているかどうかは判別しにくい。そこで上述のように音や光、振動などの感覚に訴える手段を付加することで、ポインタ利用者自身に「カメラを指示した、そしてカメラの方向制御が可能になった」という認識を容易に与えることができる。 From the point of determination that the crossing has occurred, the control right of the camera is occupied by the pointer (user). Since the pointing operation of the pointer user is a spatial operation, it is difficult to determine whether the pointing direction is on the camera simply by pointing the pointer. Therefore, by adding means to appeal to the sense of sound, light, vibration, etc., as described above, the pointer user himself can easily recognize that “the camera has been instructed and camera direction control has become possible” be able to.
続いて、ステップ83にて、ポインタ1をターゲットである対象物5へ向けてSW2を離す。このときのポインタ指示座標はポインタ光軸と対象物5との交点座標となる。ステップ84にて、ポインタ光軸と対象物5との交点座標を算出する。この交点座標は、上述した方法で干渉模様の中心座標を算出することにより得られる。ステップ85にて、この交点座標にPTZカメラ3を向けるコマンドをPC4からPTZカメラ3に送出する。以上の操作により、ポインタ1を振るだけでカメラ3の方向を制御可能となる。SW2の操作に関しては、PTZカメラへ向けてSW2を押すようにする。ターゲットへ向けたときに再度SW2を押すというような操作でもよく、SW3を併用することも可能である。
Subsequently, in
このように構成することにより、例えばテレビ会議において、ローカル側の画像をリモートへ提供するPTZカメラの制御をローカル側の参加者が直感的にポインタデバイスを振ることで操作することができる。また、ポインタにスイッチを設け、スイッチによる切り替えで普段はプレゼンテーションポインタとして使用し、好きなときだけPTZカメラの方向操作をすることが可能である。本実施例では、複数のPTZカメラの使い分けも可能である。 With this configuration, for example, in a video conference, control of the PTZ camera that provides local images to the remote can be operated by a participant on the local side intuitively shaking the pointer device. Also, a switch is provided on the pointer, and it is usually used as a presentation pointer by switching with the switch, and the direction operation of the PTZ camera can be operated only when desired. In this embodiment, a plurality of PTZ cameras can be used properly.
(実施例2)
図9(a)〜(f)は、本発明に係るカメラ制御システムの他の実施例を示す図である。本実施例は、実施例1と同様のポインタを用い、このポインタの指示方向とカメラの光軸をロックさせてポインタの動作でカメラを追随制御するものである。本システムは、図示のように、レーザ光を放射する光源および異なる光路を通過するレーザ光により対象物5上に同心円状の干渉模様を形成する光学レンズ系を備えたポインタ1と、干渉模様を検出する検出装置2と、撮影方向が制御可能なカメラ3と、検出装置2からの検出信号に基いてカメラ3を制御するPC(パソコン)4とを備える。本実施例では、ポインタ1、検出装置2、カメラ3および対象物5は実施例1のものと同じものを用いることができる。
(Example 2)
FIGS. 9A to 9F are diagrams showing another embodiment of the camera control system according to the present invention. In this embodiment, the same pointer as that of the first embodiment is used, and the camera is controlled by the operation of the pointer by locking the pointing direction of the pointer and the optical axis of the camera. As shown in the figure, this system includes a
本実施例のPC4は、実施例1のものと同様に受光センサ(検出装置)の画像をモニタし画像処理を行うものであるが、具体的には、検出装置2からの検出信号に基いて上述のような方法で同心円状の干渉模様の中心座標を算出し、この中心座標をポインタ1の光軸と対象物5との交点座標とし、ポインタ1からこの交点座標までの距離を記憶し、この交点座標にカメラ3の撮影方向を向けるための初期化の制御信号をカメラ3に出力し、その後ポインタ1が向けられたポインタ光軸上の前記記憶した距離における距離座標を算出し、この距離座標にカメラ3の撮影方向を向けるための制御信号をカメラ3に出力するものである。
The
なお、上記PC4の処理において、カメラ3の撮影方向を交点座標に向けるための初期化の制御は別の方法でも行うことができる。例えば、ポインタ1に可視レーザ光を放射する光源を設け、ポインタ1から可視レーザ光を対象物5に照射し、この可視レーザ光の対象物5上の光点(輝点)がすなわち交点座標と同じであるので、この光点がPTZカメラ3の画像中心にくるように公知のアルゴリズムを用いてPC4からPTZカメラ3に制御信号を出力するようにしてもよい。
In the processing of the
以下、実施例2の動作について図2および図9を参照しながら図10のフローチャートに沿って説明する。まず、ポインタ1のSW1をON状態にする。ステップ101にて、ポインタのSW2を押しながら位置情報が既知の任意の物体、本例では図9(a)に示すように対象物5の右下隅にポインタを向けてSW2を離す。この場合、対象物5の右下隅がポインタ光軸と物体領域との交点座標となる。このとき、PTZカメラ3のカメラ画像は例えば図9(b)に示すとおり交点座標が画面右下方向にずれている。ステップ102にて、ポインタ光軸と物体領域との交点座標を上述した方法により算出しポインタからこの交点までの距離Lをメモリ(記憶)しておく。なお、この距離の算出は公知の方法を用いることができ、例えば特開2004−28977号公報に記載の技術を用いることができる。すなわち、ポインタ1により形成した干渉模様と対象物5の距離は一対一対応で決定され、同じ干渉模様が異なる距離の対象物に形成されることはないので、干渉模様を観察することで対象物の距離を決定することができる。対象物の位置は、干渉模様を検出したCCD素子からの信号に基いて演算することができる。
Hereinafter, the operation of the second embodiment will be described along the flowchart of FIG. 10 with reference to FIGS. 2 and 9. First, SW1 of the
次に、ステップ103にて、この交点座標の方向へPTZカメラ3を向けるコマンドをPC4より送出し、PTZカメラ3の撮影方向を交点座標へ向ける。この状態を図9(c)に示す。これにより、PTZカメラ3のカメラ画像は図9(d)に示すとおり交点座標が画面中心にくる。なお、ここまでの処理は、上述のようにポインタ1から可視レーザ光も照射し、その光点(輝点)がPTZカメラの画像中心にくるようにPTZカメラを制御してもよい。この制御も公知のアルゴリズムを用いることができる。
Next, in
続いて、ステップ104にて、ポインタ1のSW3を押しながらポインタ1をターゲットへ向ける。本例のターゲットは図9(e)に示すように対象物5の前にいる人物6である。この操作の間、ステップ105にて、ポインタ光軸上で距離Lの点を算出し、この座標へPTZカメラを向けるコマンドを送出する。すなわち、ポインタ光軸はリアルタイムで算出され、その光軸上で先に記憶した距離Lの点を算出し、この点の座標(距離座標)へPTZカメラ3の撮影方向を向ける制御を継続する。これによりポインタ1の指示方向とPTZカメラ3の撮影方向は連動することとなり、ポインタ1の指示方向にカメラの撮影方向が連続的に追随する。その結果、PTZカメラ3は、図9(f)に示すように、ターゲットである人物6が画面中心にくるように制御される。
Subsequently, in
ステップ106にて、SW3を離すとPTZカメラ3は固定される。再びSW3を押すとカメラ制御モードとなる。このように本実施例では、ポインタの指示方向とPTZカメラの光軸をロックさせてポインタでPTZカメラを制御することができる。これにより、ユーザーがポインタにより指し示す方向へPTZカメラが向くというように直感的な操作が可能となる。本実施例では、ポインタの指示方向を変える間もPTZカメラが追随するのでより直感的な操作となる。また、複数のPTZカメラを同じ被写体に同時に向けることも可能である。
In
(実施例3)
図11(a)〜(e)は、本発明に係るカメラ制御システムの他の実施例を示す図である。本実施例は、実施例1と同様のポインタを用い、人物などの位置座標があらかじめわかっていないような場合でもPTZカメラの方向制御を可能とするものである。本システムは、図示のように、レーザ光を放射する光源および異なる光路を通過するレーザ光により対象物5上に同心円状の干渉模様を形成する光学レンズ系を備えたポインタ1と、干渉模様を検出する検出装置2と、撮影方向が制御可能な2台のカメラ3a、3bと、検出装置2からの検出信号に基いてカメラ3a、3bを制御するPC(パソコン)4とを備える。本実施例では、ポインタ1、検出装置2、カメラ3a、3bおよび対象物5は実施例1のものと同じものを用いることができる。
(Example 3)
FIGS. 11A to 11E are diagrams showing another embodiment of the camera control system according to the present invention. The present embodiment uses the same pointer as in the first embodiment, and enables the direction control of the PTZ camera even when the position coordinates of a person or the like are not known in advance. As shown in the figure, this system includes a
本実施例のPC4は、実施例1のものと同様に受光センサ(検出装置)の画像をモニタし画像処理を行うものであるが、具体的には、検出装置2からの検出信号に基いて上述の同心円状の干渉模様の中心座標を算出し、この中心座標をポインタ1の光軸と対象物5との交点座標とし、この交点座標に2台のカメラ3a、3bの撮影方向を向けるための制御信号を2台のカメラに出力し、かつ2台のカメラ3a、3bによる2つのカメラ画像からそれぞれ特徴点を抽出し、2つのカメラ画像で特徴点分布の近い領域を選択し、この選択領域がカメラ画像の中心に来るように2台のカメラの撮影方向を調整するための調整信号を2台のカメラ3a、3bに出力するものである。
The
以下、実施例3の動作について図2および図11を参照しながら図12のフローチャートに沿って説明する。まず、ポインタ1のSW1をON状態にする。ステップ121にて、ポインタ1のSW2を押すとシステムはカメラ制御モードとなる。ステップ122にて、ポインタをターゲットへ向けてSW3を押す。ステップ123にて、ポインタ光軸と対象物との交点座標を上述した方法で算出する。すなわち、検出装置2が設置される対象物5上のポインタ光軸の交点座標が算出される。図示のように対象物5の前に人物6がいるが、人物6の位置座標は不明なものでもよい。ステップ124にて、この交点座標へ撮影方向を向けるようにPC4から2台のカメラ3a、3bへ制御コマンドが送出される。これにより、ステップ125にて、2台のカメラ3a、3bはズームが広角側で上記交点座標へパンおよびチルトされる。
Hereinafter, the operation of the third embodiment will be described along the flowchart of FIG. 12 with reference to FIG. 2 and FIG. First, SW1 of the
次に、ステップ126にて、PC4は2台のカメラ3a、3bの各カメラ画像からそれぞれ特徴点抽出を行う。これは画像をある閾値で2値化したり、輪郭抽出を行うことで抽出が可能となる。ステップ127にて、2台のカメラによる両カメラ画像で特徴点の分布が近い領域を選択(抽出)する。ステップ128にて、PC4は各々のカメラ画像中でその選択領域が画面の中心にくるように2台のカメラ3a、3bに対し制御コマンドを送出する。これらの特徴点分布の近い領域の抽出と一致部を検出する処理は、2台のカメラで撮った画像から3次元画像を導き出す処理と同様であり、いくつかの公知アルゴリズムの適用が可能である。これにより、カメラ2台でポインタの指示する対象物をステレオ推定して撮影し、ポインタで印をつけた領域にズームすることができる。本実施例では、人物などのようにターゲットの位置座標があらかじめわかっていないような場合でもPTZカメラの方向制御が可能である。
Next, in
以上、本発明の実施例を説明してきたが、本発明はこれらの実施例に限定されない。これらの実施例の変形例として、例えば、PTZカメラの方向制御のためにターゲットを指したあと、SW2(もしくはSW3)を再び押しながらターゲット近辺のズームアップしたい領域の対角線をなぞる動作を行う。あらかじめPTZカメラは受光部が設置される面上においてキャリブレーション処理が行われており、上記面上での対角線の対角座標が含まれるような撮影領域が算出され、この領域を撮影するためにPTZカメラへズーミングの制御コマンドが送出されるようにすることができる。 As mentioned above, although the Example of this invention has been described, this invention is not limited to these Examples. As a modified example of these embodiments, for example, after pointing to the target for controlling the direction of the PTZ camera, the operation of tracing the diagonal line of the region to be zoomed up near the target is performed while pressing SW2 (or SW3) again. The PTZ camera has been previously calibrated on the surface where the light receiving unit is installed, and an imaging area is calculated that includes the diagonal coordinates of the diagonal line on the surface. A zooming control command can be sent to the PTZ camera.
本発明はテレビ会議等で用いるカメラの撮影方向を制御することができるカメラ制御システムに係り、特にカメラの撮影方向をポインタを用いて直感的に制御することができるカメラ制御システムに関するものであり、産業上の利用可能性がある。 The present invention relates to a camera control system capable of controlling the shooting direction of a camera used in a video conference and the like, and more particularly to a camera control system capable of intuitively controlling the shooting direction of a camera using a pointer. There is industrial applicability.
1 ポインタ
2 検出装置
3 カメラ
4 PC(パソコン)
5 対象物
6 人物
20 光源
21 光学レンズ系
22 干渉模様発生装置
23 制御回路
24 アンテナ
25 通信回路
26 電源
1
DESCRIPTION OF
Claims (20)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004305584A JP2006121290A (en) | 2004-10-20 | 2004-10-20 | Camera control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004305584A JP2006121290A (en) | 2004-10-20 | 2004-10-20 | Camera control system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006121290A true JP2006121290A (en) | 2006-05-11 |
Family
ID=36538777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004305584A Withdrawn JP2006121290A (en) | 2004-10-20 | 2004-10-20 | Camera control system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006121290A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007327750A (en) * | 2006-06-06 | 2007-12-20 | National Institute Of Advanced Industrial & Technology | Camera position detecting method |
KR20170003747U (en) * | 2016-04-21 | 2017-10-31 | 한국전자통신연구원 | Clip-on input device for position sensing |
US11259013B2 (en) | 2018-09-10 | 2022-02-22 | Mitsubishi Electric Corporation | Camera installation assistance device and method, and installation angle calculation method, and program and recording medium |
CN114339038A (en) * | 2021-12-24 | 2022-04-12 | 珠海格力电器股份有限公司 | Target object monitoring method, device and system |
-
2004
- 2004-10-20 JP JP2004305584A patent/JP2006121290A/en not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007327750A (en) * | 2006-06-06 | 2007-12-20 | National Institute Of Advanced Industrial & Technology | Camera position detecting method |
KR20170003747U (en) * | 2016-04-21 | 2017-10-31 | 한국전자통신연구원 | Clip-on input device for position sensing |
KR200492987Y1 (en) | 2016-04-21 | 2021-01-13 | 한국전자통신연구원 | Clip-on input device for position sensing |
US11259013B2 (en) | 2018-09-10 | 2022-02-22 | Mitsubishi Electric Corporation | Camera installation assistance device and method, and installation angle calculation method, and program and recording medium |
CN114339038A (en) * | 2021-12-24 | 2022-04-12 | 珠海格力电器股份有限公司 | Target object monitoring method, device and system |
CN114339038B (en) * | 2021-12-24 | 2023-04-18 | 珠海格力电器股份有限公司 | Target object monitoring method, device and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11416084B2 (en) | Multi-sensor device with an accelerometer for enabling user interaction through sound or image | |
US20070229850A1 (en) | System and method for three-dimensional image capture | |
US8913003B2 (en) | Free-space multi-dimensional absolute pointer using a projection marker system | |
US9465484B1 (en) | Forward and backward looking vision system | |
US20080316203A1 (en) | Information processing method and apparatus for specifying point in three-dimensional space | |
KR20140024895A (en) | Object tracking with projected reference patterns | |
JP2005128611A (en) | Projector, electronic blackboard system using the same and method for acquiring pointed position | |
US9304582B1 (en) | Object-based color detection and correction | |
JP7294350B2 (en) | Information processing device, information processing method, and program | |
JP3690581B2 (en) | POSITION DETECTION DEVICE AND METHOD THEREFOR, PLAIN POSITION DETECTION DEVICE AND METHOD THEREOF | |
JP2017527812A (en) | Method for optical measurement of three-dimensional coordinates and calibration of a three-dimensional measuring device | |
JP5308765B2 (en) | Lighting device | |
JP2005341060A (en) | Camera control apparatus | |
JP2006268582A (en) | Method and system for controlling information appliance based on gesture | |
JP2001166881A (en) | Pointing device and its method | |
TW578031B (en) | Projection system with an image capturing device | |
JP2006121290A (en) | Camera control system | |
JP4114637B2 (en) | Position measurement system | |
JP2006260487A (en) | Pointer system | |
US20210006930A1 (en) | Information processing apparatus, information processing method, information processing system and program | |
WO2017054115A1 (en) | Projection method and system with augmented reality effect | |
JP2003023562A (en) | Image photographic system and camera system | |
JP2009187412A (en) | Marker detecting and identifying device and program thereof | |
JP7189484B2 (en) | REGISTRATION SYSTEM, HVAC SYSTEM AND REGISTRATION PROGRAM | |
JP2007213197A (en) | Coordinate designation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070913 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20091210 |