JP2003158664A - Camera controller - Google Patents

Camera controller

Info

Publication number
JP2003158664A
JP2003158664A JP2001356764A JP2001356764A JP2003158664A JP 2003158664 A JP2003158664 A JP 2003158664A JP 2001356764 A JP2001356764 A JP 2001356764A JP 2001356764 A JP2001356764 A JP 2001356764A JP 2003158664 A JP2003158664 A JP 2003158664A
Authority
JP
Japan
Prior art keywords
camera
control command
unit
shooting
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001356764A
Other languages
Japanese (ja)
Other versions
JP2003158664A5 (en
Inventor
Susumu Okada
晋 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001356764A priority Critical patent/JP2003158664A/en
Publication of JP2003158664A publication Critical patent/JP2003158664A/en
Publication of JP2003158664A5 publication Critical patent/JP2003158664A5/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system where a video receiver receives and reproduces video data from a camera and the video receiver can quickly and simply operate a plurality of cameras when the video receiver controls a plurality of the cameras. SOLUTION: When the video receiver issues a camera control command to one camera, the camera receiving the control command issues a camera control command to a plurality of the other cameras to control the cameras not operated by a user. Since it is not required for the user to operate a plurality of the cameras, the operation is simplified and the operation time can be reduced. Further, since it is not required to issue the control command to all the cameras, the camera operation time can be reduced and a position or an object can quickly and simply be photographed in a plurality of directions.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】撮影方向が制御可能な複数の
カメラにより撮影した映像を送信する映像送信側と、ネ
ットワークを介して映像を受信し、複数のカメラ映像を
表示する映像受信側で構成され、映像受信側から映像送
信側に接続されているカメラの撮影方向が制御可能なシ
ステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention comprises a video transmission side that transmits video images captured by a plurality of cameras whose shooting directions are controllable, and a video reception side that receives video images via a network and displays the video images from a plurality of cameras. , A system capable of controlling the shooting direction of a camera connected from a video receiving side to a video transmitting side.

【0002】[0002]

【従来の技術】近年ネットワーク技術の進展とともに、
カメラで撮影した映像をネットワークを介して送信し、
映像を受け取る側で映像を再生するシステムが多数出現
している。このシステムの中でも、カメラの撮影方向を
変更可能な駆動装置がついており、映像を受け取って再
生する側から、映像を送信する側に接続されているカメ
ラの撮影方向を制御することができるものも多い。カメ
ラから遠く離れた場所にいるユーザはカメラの撮影方向
を制御できることによりカメラが設置された周囲の状況
をより適切に把握することができる。
2. Description of the Related Art With the progress of network technology in recent years,
Send the video taken by the camera via the network,
Many systems that reproduce the image on the receiving side have appeared. Among these systems, there is a drive device that can change the shooting direction of the camera, and some can control the shooting direction of the camera connected from the side that receives and plays back the video to the side that sends the video. Many. By being able to control the shooting direction of the camera, the user who is far away from the camera can more appropriately understand the surrounding situation where the camera is installed.

【0003】このカメラ制御装置は監視、モニタリン
グ、テレビ会議といった幅広い用途で使用される。例え
ばカメラ制御装置を監視に用いる場合、遠隔からカメラ
を制御することにより、移動する不審人物を見失わずに
撮影することが可能になる。
This camera control device is used in a wide variety of applications such as surveillance, monitoring, and video conferencing. For example, when the camera control device is used for monitoring, by controlling the camera remotely, it is possible to capture an image of a moving suspicious person without losing sight.

【0004】一般的に映像を受信している端末から映像
を送信しているカメラの撮影方向を制御する従来のカメ
ラ制御装置の構成としては例えば図16に示すものがあ
る。図16を用いて、映像を受信、表示している端末か
らカメラの撮影方向を制御する方法について述べる。
FIG. 16 shows an example of the configuration of a conventional camera control device that controls the shooting direction of a camera that is transmitting a video from a terminal that is generally receiving the video. A method of controlling the shooting direction of the camera from the terminal receiving and displaying the image will be described with reference to FIG.

【0005】このカメラ制御装置は複数のカメラ1610と
ネットワークを介して映像を受信する映像受信装置1620
と受信した映像を表示する画面1630とカメラ操作のため
に制御コマンドを入力する入力装置1640から構成され
る。
This camera control device is a video receiving device 1620 which receives video through a plurality of cameras 1610 and a network.
And a screen 1630 for displaying the received video and an input device 1640 for inputting control commands for operating the camera.

【0006】複数のカメラ1610は、撮影した映像をネッ
トワークに送信する映像送信部1611と、カメラの撮影方
向を変更するカメラ駆動部1612と、映像受信装置からカ
メラ制御コマンドを受信する制御コマンド受信部1614
と、制御コマンドを参照してカメラの撮影方向を変更を
指示するカメラ制御部1613から構成される。またカメラ
によってはカメラが撮影している方向やカメラのフォー
カス位置などを記録する撮影位置記録部1615を持つ。
The plurality of cameras 1610 include a video transmission unit 1611 that transmits captured images to a network, a camera drive unit 1612 that changes the camera shooting direction, and a control command reception unit that receives a camera control command from a video reception device. 1614
And a camera control unit 1613 for instructing to change the shooting direction of the camera by referring to the control command. Some cameras have a shooting position recording unit 1615 that records the shooting direction of the camera, the focus position of the camera, and the like.

【0007】映像受信装置1620は、カメラが送信した映
像を受信する映像受信部1621と、受信した複数のカメラ
1610の映像を画面1630に表示する映像再生部1622と、ユ
ーザが入力装置1640を使用して入力したカメラ制御コマ
ンドをカメラに送信する制御コマンド送信部1623から構
成される。
The image receiving device 1620 includes an image receiving unit 1621 for receiving an image transmitted by the camera and a plurality of received cameras.
A video reproduction unit 1622 for displaying the video of 1610 on the screen 1630 and a control command transmission unit 1623 for transmitting a camera control command input by the user using the input device 1640 to the camera.

【0008】ユーザが映像受信装置1620に接続された入
力装置1640を使って複数のカメラ1610の撮影方向を制御
する処理の流れを説明する。
The flow of processing in which the user controls the shooting directions of the plurality of cameras 1610 using the input device 1640 connected to the video receiving device 1620 will be described.

【0009】ユーザが入力装置1640を使用して、複数あ
るカメラ1610のうち操作するカメラ1台を選択し、上下
左右といったコマンドを入力する。映像受信装置1620の
制御コマンド送信部1623はユーザが入力したコマンド
を、ユーザが指定したカメラに送信する。ユーザが送信
したカメラ制御コマンドを受信するカメラ1610は制御コ
マンド受信部1614でカメラ制御コマンドを受信する。制
御コマンド受信部1614は受信したカメラ制御コマンドを
カメラ制御部1613に送信し、カメラ制御部1613はカメラ
制御コマンドに従ってカメラの撮影方向の変更をカメラ
駆動部1612に指示し、カメラ駆動部1612はカメラの撮影
方向を変える。
The user uses the input device 1640 to select one camera to be operated from among the plurality of cameras 1610, and inputs commands such as up, down, left and right. The control command transmission unit 1623 of the video reception device 1620 transmits the command input by the user to the camera designated by the user. The camera 1610 that receives the camera control command transmitted by the user receives the camera control command at the control command receiving unit 1614. The control command receiving unit 1614 transmits the received camera control command to the camera control unit 1613, the camera control unit 1613 instructs the camera driving unit 1612 to change the shooting direction of the camera according to the camera control command, and the camera driving unit 1612 Change the shooting direction of.

【0010】[0010]

【発明が解決しようとする課題】しかしながら従来の技
術では、1番目に、ある撮影位置または物体の様子を複
数の方向から撮影してより多くの情報を取得したい場
合、ユーザはそれぞれのカメラに対してカメラ制御コマ
ンドを瞬時に発行する必要があるため操作に時間を要
し、かつ複雑な操作が要求されるという課題がある。特
に移動する物体を複数のカメラで追尾する場合、従来の
技術では俊敏かつ正確なカメラ操作を必要としてしま
う。
However, in the prior art, firstly, when the user wants to acquire more information by shooting a certain shooting position or the state of an object from a plurality of directions, the user needs to use each camera. Since it is necessary to issue a camera control command instantaneously, it takes a long time to operate, and a complicated operation is required. In particular, when a moving object is tracked by a plurality of cameras, the conventional technique requires agile and accurate camera operation.

【0011】2番目に、ユーザが複数のカメラを操作し
て物体を撮影できる方向を向かせても、ズーム倍率が物
体を撮影するのに適当でなく、複数のカメラにそれぞれ
ズーム制御コマンドを送信するために操作が複雑になる
という課題がある。
Secondly, even if the user operates a plurality of cameras to face in a direction in which an object can be photographed, the zoom magnification is not suitable for photographing an object, and a zoom control command is transmitted to each of the cameras. Therefore, there is a problem that the operation becomes complicated.

【0012】3番目に、ユーザが複数のカメラを操作し
て物体を撮影できる方向を向くよう指示を出した後、物
体が移動した場合に、ユーザが再度それぞれのカメラに
カメラ制御コマンドを発行する必要があるという課題が
ある。
Thirdly, when the object moves after the user operates the plurality of cameras to instruct the camera to face the direction in which the object can be photographed, the user again issues a camera control command to each camera. There is a need to do it.

【0013】4番目に、ユーザがカメラを操作するとき
に、操作しているカメラの死角をユーザが把握できず、
撮影すべき物体が移動して一台のカメラの死角に入った
ときに、ユーザは他の複数のカメラを操作して物体を探
さねばならず、一度移動する物体を見失うと再度映像で
捕えるまでに多くのカメラ操作と時間が要求されるとい
う課題がある。
Fourth, when the user operates the camera, the user cannot grasp the blind spot of the operating camera,
When the object to be photographed moves into the blind spot of one camera, the user has to search for the object by operating the other cameras, and if the user loses sight of the moving object, he will capture it again in the image. However, there is a problem that many camera operations and time are required.

【0014】[0014]

【課題を解決するための手段】この課題を解決するため
に、本発明は第1に、複数あるカメラのうちユーザが遠
隔から操作しているカメラが現在撮影している位置を他
のカメラに通知することで、ユーザが操作していないカ
メラを制御するようにしたものである。
In order to solve this problem, the present invention firstly proposes, among other cameras, the position at which the camera operated by the user from a remote location is currently taken by another camera. By giving the notification, the camera not operated by the user is controlled.

【0015】これにより、ユーザがある位置または物体
を撮影するためのカメラ制御コマンドを複数存在するカ
メラすべて発行せずに、複数のカメラを操作することが
でき、さらにカメラすべてに制御コマンドを発行せずに
済むためにカメラ操作時間が短縮でき、ある地点または
物体を複数の方向からすばやく、簡単に撮影することが
できるという効果が得られるものである。
Thus, the user can operate a plurality of cameras without issuing a camera control command for photographing a position or an object to all the existing cameras, and issue a control command to all the cameras. Therefore, the operation time of the camera can be shortened, and a certain point or an object can be quickly and easily photographed from a plurality of directions.

【0016】また第2に、ユーザが操作しているカメラ
のズーム倍率を記録しておき、カメラと撮影地点との距
離およびズーム倍率を他のカメラに送信するとしたもの
である。
Secondly, the zoom magnification of the camera operated by the user is recorded, and the distance between the camera and the photographing point and the zoom magnification are transmitted to another camera.

【0017】これによりユーザが複数のカメラのうち、
一台のカメラのズーム倍率を操作するだけで複数のカメ
ラのズーム倍率を制御でき、複数の方向から撮影したい
位置または物体を同じ大きさで画面に捕えることができ
るという効果が得られるものである。
As a result, the user can
The zoom magnification of multiple cameras can be controlled simply by operating the zoom magnification of one camera, and it is possible to obtain the effect that the positions or objects desired to be photographed can be captured in the same size from multiple directions on the screen. .

【0018】また第3に、撮影している物体が移動した
ときに、映像から物体の移動を認識して移動方向情報を
他の複数のカメラに送信するとしたものである。
Thirdly, when the object being photographed moves, the movement of the object is recognized from the image and the movement direction information is transmitted to the other plurality of cameras.

【0019】これにより、ユーザがカメラを操作して移
動する物体を追尾して撮影するときに操作ミスまたは物
体の予測できない移動などにより見失いそうになって
も、他のカメラが自動的に移動物体を撮影できるという
効果が得られるものである。
As a result, when the user operates the camera to take a picture of a moving object and shoots the moving object, another camera automatically moves the moving object even if it is likely to be lost due to an operation error or unpredictable movement of the object. The effect of being able to shoot is obtained.

【0020】また第4に、ユーザが操作しているカメラ
が撮影不可能な領域を計算しておき、その結果を元にユ
ーザが操作していないカメラにカメラ制御コマンドを発
行するとしたものである。
Fourthly, the area in which the camera operated by the user cannot photograph is calculated, and based on the result, a camera control command is issued to the camera not operated by the user. .

【0021】これにより、撮影すべき物体が移動して一
台のカメラの死角に入っても、ユーザの操作なく他の複
数のカメラが動作して、移動する物体をすばやく簡単に
捕えることができるという効果が得られるものである。
Thus, even if the object to be photographed moves into the blind spot of one camera, the other cameras operate without user's operation, and the moving object can be caught quickly and easily. That is the effect that can be obtained.

【0022】[0022]

【発明の実施の形態】以下に本発明の実施の形態につい
て、図1から図15を用いて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to FIGS. 1 to 15.

【0023】(実施の形態1)本実施の形態では、複数
のカメラで撮影した映像を送信する映像送信装置と、ネ
ットワークを介して複数のカメラで撮影した映像を受信
し、複数のカメラ映像を表示する映像受信装置で構成さ
れ、映像受信装置側から映像送信装置側に接続されてい
るカメラの撮影方向が制御可能なシステムにおいて、映
像受信装置に接続されている入力装置でユーザが複数存
在するうちの一台のカメラを操作すると、複数存在する
カメラすべてが、ユーザが操作しているカメラが撮影し
ている方向に回転することで、複数方向からひとつの地
点または物体を撮影するカメラ制御方法について説明す
る。本方法の構成図を図1に示す。また図2にカメラの
配置と撮影方向、および本方法でカメラを制御するとき
の映像受信装置に接続したディスプレイの画面の構成例
を示す。
(Embodiment 1) In the present embodiment, an image transmitting apparatus for transmitting images photographed by a plurality of cameras and an image photographed by a plurality of cameras via a network are received, and images of a plurality of cameras are received. In a system that is configured by a video receiving device to be displayed and in which the shooting direction of the camera connected from the video receiving device side to the video transmitting device side can be controlled, there are multiple users with the input device connected to the video receiving device. When one of the cameras is operated, all of the existing cameras rotate in the direction in which the camera operated by the user is shooting, thereby capturing a single point or object from multiple directions. Will be described. The block diagram of this method is shown in FIG. Further, FIG. 2 shows an arrangement example of a camera, a shooting direction, and a configuration example of a screen of a display connected to a video receiving device when controlling the camera by this method.

【0024】図1において110はカメラ、120は映像受信
装置、130はディスプレイなど複数のカメラで撮影した
映像を表示する画面、140は複数カメラのうちひとつを
操作するジョイスティックなどの入力装置である。また
図2において、210は複数のカメラが設置された撮影領
域、211、212は監視領域に設置したカメラ、213は撮影
領域210に入った人物、220は映像受信装置が表示する画
面、221、222はそれぞれカメラ211、212で撮影している
映像、223はカメラを制御するコントロールパネルを表
す。
In FIG. 1, 110 is a camera, 120 is an image receiving device, 130 is a screen for displaying images taken by a plurality of cameras such as a display, and 140 is an input device such as a joystick for operating one of the plurality of cameras. Further, in FIG. 2, 210 is a shooting area in which a plurality of cameras are installed, 211 and 212 are cameras installed in a monitoring area, 213 is a person in the shooting area 210, 220 is a screen displayed by the video receiving device, 221, Reference numeral 222 represents images captured by the cameras 211 and 212, respectively, and 223 represents a control panel for controlling the cameras.

【0025】図1のカメラ110は、撮影した映像をネッ
トワークに送信する映像送信部111と、カメラの撮影方
向を変更するカメラ駆動部112と、カメラ駆動部112にカ
メラの撮影方向の制御を指示するカメラ制御部113と、
遠隔からのカメラ制御指示を受信する制御コマンド受信
部114と、現在撮影している場所を記録する撮影位置記
録部115と、撮影位置記録部115が記録している撮影位置
をネットワークに送信する制御コマンド送信部116から
構成される。また、映像受信装置120は、ネットワーク
から映像を受信する映像受信部121と、受信した映像を
画面上に表示する映像再生部122と、ユーザが入力した
カメラ制御コマンドをネットワーク上で接続したカメラ
に送信する制御コマンド送信部123から構成される。
The camera 110 shown in FIG. 1 transmits a captured image to a network, an image transmitting unit 111, a camera driving unit 112 that changes the photographing direction of the camera, and an instruction to the camera driving unit 112 to control the photographing direction of the camera. A camera control unit 113 for
A control command receiving unit 114 that receives a camera control instruction from a remote location, a shooting position recording unit 115 that records the current shooting position, and a control that sends the shooting position recorded by the shooting position recording unit 115 to the network. It is composed of the command transmission unit 116. The video receiving device 120 also includes a video receiving unit 121 that receives video from a network, a video playback unit 122 that displays the received video on the screen, and a camera control command input by the user to a camera connected on the network. It is composed of a control command transmitting unit 123 for transmitting.

【0026】図3は一台のカメラがユーザから制御コマ
ンドを受信して回転してから、別に設置されたカメラに
撮影位置を伝え、ユーザが制御したカメラと同じ位置を
撮影するように上記別に設置したカメラを制御する処理
の流れを説明するフロー図である。図2における撮影領
域210に設置されたカメラすべてが一つの地点213を撮影
する方法について、図3を使って説明する。
In FIG. 3, one camera receives a control command from a user, rotates, and then transmits a shooting position to a camera installed separately, so that the same position as the camera controlled by the user is taken. It is a flowchart explaining the flow of the process which controls the installed camera. A method in which all the cameras installed in the photographing area 210 in FIG. 2 photograph one point 213 will be described with reference to FIG.

【0027】これ以降の説明で、ユーザが遠隔から操作
するカメラを操作カメラと呼ぶ。また操作カメラから撮
影位置情報を受信して回転するカメラを連携カメラと呼
ぶ。
In the following description, a camera remotely operated by the user is referred to as an operation camera. A camera that rotates by receiving shooting position information from the operation camera is called a cooperative camera.

【0028】図2において操作カメラを212、連携カメ
ラを211とする。操作カメラ212のコマンド受信部114は
受信したカメラ制御コマンドをカメラ制御部113に渡
し、カメラ制御部113は受信したカメラ制御コマンドか
らカメラの撮影方向を変更する(301)。撮影位置記録部1
15は、カメラ制御部113が変更したカメラの撮影方向か
らカメラが撮影している地点を計算し、その結果を制御
コマンド送信部116に渡す(302)。
In FIG. 2, the operating camera is 212 and the cooperative camera is 211. The command receiving unit 114 of the operation camera 212 passes the received camera control command to the camera control unit 113, and the camera control unit 113 changes the shooting direction of the camera from the received camera control command (301). Shooting position recording unit 1
15 calculates the point where the camera is shooting from the shooting direction of the camera changed by the camera control unit 113, and passes the result to the control command transmission unit 116 (302).

【0029】図4は図2における撮影領域210に設置し
た操作カメラ212、連携カメラ211が同一の位置213を撮
影していることを表した図であり、411は連携カメラ211
の回転角度、412は操作カメラ212の回転角度を表す。図
4を使ってカメラから撮影位置を計算する方法について
説明する。
FIG. 4 is a view showing that the operation camera 212 and the cooperative camera 211 installed in the photographing area 210 in FIG. 2 are photographing the same position 213, and 411 is the cooperative camera 211.
And a rotation angle 412 of the operation camera 212. A method of calculating the shooting position from the camera will be described with reference to FIG.

【0030】操作カメラ212は撮影している位置を計算
する。操作カメラ212の座標を(0,0)とし、適当に
x,y軸を定め、撮影位置を(x,y)とし、操作カメ
ラから撮影位置までの距離をrとし、操作カメラの回転
角度412の大きさをθとしたときに、上記撮影位置
(x,y)を計算する一例として x=r・cosθ …(1) y=r・sinθ …(2) をあげるが、その計算方法はほかの方法でも構わない。
The operation camera 212 calculates a shooting position. The coordinates of the operation camera 212 are (0, 0), the x and y axes are appropriately determined, the photographing position is (x, y), the distance from the operation camera to the photographing position is r, and the rotation angle 412 of the operation camera is 412. Assuming the size of θ is θ, an example of calculating the imaging position (x, y) is x = r · cos θ (1) y = r · sin θ (2). Method is also acceptable.

【0031】上記の式においては撮影位置に操作カメラ
212のフォーカスを合わせて、カメラのフォーカス位置
を取得する方法や、あるいは距離センサーを使用して操
作カメラ212と撮影位置間の距離を取得する方法で得ら
れるが、rの取得方法はどのような方法でも構わない。
またθもカメラから回転角度を取得するか、操作カメラ
212のホームポジションからどの程度回転したかを記憶
しておくことによって得られるが、θの取得方法はどの
ような方法でも構わない。
In the above equation, the operation camera is set at the photographing position.
It can be obtained by adjusting the focus of 212 and acquiring the focus position of the camera, or by using the distance sensor to acquire the distance between the operation camera 212 and the shooting position. What is the acquisition method of r? The method does not matter.
In addition, θ also acquires the rotation angle from the camera, or the operation camera
It can be obtained by storing how much the home position 212 has rotated, but any method may be used to obtain θ.

【0032】制御コマンド送信部116は撮影位置記録部1
15から受信した撮影位置情報を連携カメラ211の制御コ
マンド受信部に送信する(303)。連携カメラ211の制御コ
マンド受信部114は撮影位置情報を受信したら撮影位置
情報をカメラ制御部113に渡し、カメラ制御部113は撮影
位置情報とカメラの設置位置から回転すべき角度を計算
し(304)、計算結果の角度だけカメラを回転するように
カメラ駆動部112に指示する(305)。
The control command transmitting unit 116 is the photographing position recording unit 1
The shooting position information received from 15 is transmitted to the control command receiving unit of the cooperative camera 211 (303). Upon receiving the shooting position information, the control command receiving unit 114 of the cooperative camera 211 passes the shooting position information to the camera control unit 113, and the camera control unit 113 calculates an angle to rotate from the shooting position information and the installation position of the camera (304 ), And instructs the camera drive unit 112 to rotate the camera by the calculated angle (305).

【0033】カメラ制御部113が撮影位置情報から連携
カメラの設置位置と座標から回転すべき角度を計算する
方法について図4を用いて説明する。連携カメラ211の
座標を(x1 ,y1 )とすると、回転すべき角度411を
計算する一例として、
A method for the camera control unit 113 to calculate the installation position of the cooperative camera from the photographing position information and the angle to rotate from the coordinates will be described with reference to FIG. Assuming that the coordinate of the cooperative camera 211 is (x 1 , y 1 ), as an example of calculating the angle 411 to rotate,

【数1】 ...(3) をあげるが、他の方法で計算しても構わない。[Equation 1] ... (3) is given, but other methods may be used.

【0034】カメラ制御部113は以上のようにして計算
された角度に連携カメラの撮影方向を制御する。なお、
(x1 ,y1 )は上記に定めたx軸y軸を元に測定するこ
とができる。測定の方法の一例として、メジャーなどを
使用して操作カメラと連携カメラの距離を実測する方法
や、ユーザが遠隔から操作カメラを操作して撮影位置を
送る連携カメラを撮影し、その距離と角度から計算して
取得する方法など使えばよいが、どのような方法を使っ
ても構わない。以上の流れでひとつの撮影地点を複数の
カメラで撮影することができる。
The camera control unit 113 controls the shooting direction of the cooperative camera to the angle calculated as described above. In addition,
(X 1 , y 1 ) can be measured based on the x-axis and y-axis defined above. As an example of the measurement method, a method of actually measuring the distance between the operation camera and the cooperation camera using a measure, or the user operating the operation camera from a remote location to shoot the cooperation camera and shooting the distance and angle You can use the method of calculating and getting from, but you can use any method. With the above flow, one shooting point can be shot by a plurality of cameras.

【0035】なお、本実施の形態では複数のカメラが設
置してある地域を地面に対し垂直に見た例でパン(水
平)角度から撮影位置の2次元座標を計算する方法を説
明したが、カメラのチルト(垂直)角度も考慮して、撮
影位置の3次元座標を計算して通知することも可能であ
り、3次元の撮影位置を複数のカメラで撮影することも
同様の方法で行うことができる。
In this embodiment, the method of calculating the two-dimensional coordinates of the photographing position from the pan (horizontal) angle has been described in the example in which the area where a plurality of cameras are installed is viewed perpendicular to the ground. It is also possible to calculate and notify the 3D coordinates of the shooting position in consideration of the tilt (vertical) angle of the camera, and to shoot the 3D shooting position with multiple cameras in the same way. You can

【0036】さらに、本実施の形態で連携カメラが一つ
だけ存在する例を示したが、1台の連携カメラに対して
複数の連携カメラが存在しても構わない。連携カメラの
台数が多ければ多いほど、映像受信装置では撮影位置あ
るいは物体をより多くの撮影方向で撮影した映像を同時
に閲覧することが可能になる。
Furthermore, although an example in which only one cooperative camera exists is shown in the present embodiment, a plurality of cooperative cameras may exist for one cooperative camera. The greater the number of linked cameras, the more the image receiving device can simultaneously view the images captured at the shooting position or in the more shooting directions of the object.

【0037】以上のように、本実施の形態では、ユーザ
が端末からカメラ制御コマンドを発行して遠隔にあるカ
メラを操作してある対象を撮影すると、ユーザが操作し
ていない別のカメラが連動して動作することにより、ユ
ーザがある位置または物体を撮影するためのカメラ制御
コマンドを複数存在するカメラすべて発行せずに、複数
のカメラを操作することができ、さらにカメラすべてに
制御コマンドを発行せずに済むためにカメラ操作時間が
短縮でき、ある地点または物体を複数の方向からすばや
く、簡単に撮影することができる
As described above, in the present embodiment, when the user issues a camera control command from the terminal to photograph a target operating a remote camera, another camera not operated by the user interlocks. This allows the user to operate multiple cameras without issuing multiple camera control commands for shooting a certain position or object, and issue control commands to all cameras. This saves time for camera operation and allows you to quickly and easily capture a point or object from multiple directions.

【0038】(実施の形態2)実施の形態1ではユーザ
が操作しているカメラの撮影位置を別のカメラに通知す
ることである地点を複数の方向から撮影する方法につい
て述べた。ここではユーザが操作しているカメラの撮影
位置のほかに、カメラのズーム倍率も別のカメラに通知
することで、ユーザが撮影している位置を複数の方向か
ら、同じ倍率で撮影する方法について説明する。本方法
の構成図を図5に示す。また図6はユーザが操作してい
ないカメラが、ユーザが操作しているカメラから撮影位
置とズーム倍率を受信して、撮影位置方向を向きかつズ
ーム倍率を調整したときの映像受信装置の画面である。
(Embodiment 2) In Embodiment 1, the method of notifying another camera of the photographing position of the camera operated by the user and photographing the point from a plurality of directions has been described. Here, in addition to the shooting position of the camera operated by the user, the zoom magnification of the camera is notified to another camera, so that the position where the user is shooting can be shot from a plurality of directions at the same magnification. explain. The block diagram of this method is shown in FIG. Further, FIG. 6 shows a screen of the image receiving device when the camera not operated by the user receives the shooting position and the zoom magnification from the camera operated by the user, faces the shooting position and adjusts the zoom magnification. is there.

【0039】図5において110はカメラ、120は映像受信
装置、130はディスプレイなど複数のカメラで撮影した
映像を表示する画面、140は複数カメラのうちひとつを
操作するジョイスティックなどの入力装置である。
In FIG. 5, 110 is a camera, 120 is an image receiving device, 130 is a screen for displaying images taken by a plurality of cameras such as a display, and 140 is an input device such as a joystick for operating one of the plurality of cameras.

【0040】図5のカメラ110は、実施の形態1の構成
に、ユーザおよびカメラから受信した制御コマンドに従
ってズーム倍率を制御するズーム倍率制御部511とカメ
ラのズーム倍率を記録するズーム倍率記録部512を追加
したものである。カメラ110は撮影位置情報の他にズー
ム倍率記録部512に記録されたカメラ110のズーム倍率を
別のカメラに送信し、撮影位置情報とズーム倍率を受信
したカメラは、撮影位置方向とともにズーム倍率を調整
することで、複数のカメラが同じ地点を同じ画面サイズ
で撮影する。その他の構成は図1に示す実施の形態1の
構成と同じである。
The camera 110 shown in FIG. 5 has the same structure as that of the first embodiment except that the zoom magnification controller 511 for controlling the zoom magnification according to the control command received from the user and the camera and the zoom magnification recorder 512 for recording the zoom magnification of the camera. Is added. In addition to the shooting position information, the camera 110 transmits the zoom ratio of the camera 110 recorded in the zoom ratio recording unit 512 to another camera, and the camera receiving the shooting position information and the zoom ratio determines the zoom ratio along with the shooting position direction. By adjusting, multiple cameras shoot the same spot with the same screen size. Other configurations are the same as those of the first embodiment shown in FIG.

【0041】実施の形態1では、ユーザが操作している
カメラが撮影している位置情報を他のカメラに送信する
ことで複数のカメラが同じ地点を複数の方向から撮影す
る。
In the first embodiment, the plurality of cameras photograph the same point from a plurality of directions by transmitting the position information photographed by the camera operated by the user to another camera.

【0042】しかし、ある一つの地点または物体を撮影
するとき、複数のカメラに位置情報のみを伝える場合カ
メラによって設置位置と撮影位置との距離が大きすぎて
しまうために撮影位置の状況を映像上で微小に捕えるこ
としかできなかったり、逆に設置位置と撮影位置との距
離が小さすぎてしまうために撮影位置の状況を必要以上
に拡大して撮影してしまう。そこで、本実施の形態では
ユーザが操作しているカメラが撮影位置情報のほかにカ
メラのズーム倍率を他のカメラに送信することで、撮影
位置とズーム倍率を受信したカメラが、ユーザが操作し
ているカメラが撮影している映像と同サイズで撮影する
方法について説明する。 図7は図6における操作カメ
ラ212がズーム倍率を送信してから連携カメラ211が受信
してズーム倍率を制御するまでの処理の流れを説明する
フロー図である。以下図7を使用して連携カメラ211の
ズーム倍率を制御する方法を説明する。
However, when only a position information is transmitted to a plurality of cameras when a certain point or object is photographed, the condition of the photographing position is displayed on the image because the distance between the installation position and the photographing position is too large depending on the cameras. However, since the distance between the installation position and the shooting position is too small, the situation at the shooting position is enlarged more than necessary. Therefore, in the present embodiment, the camera operated by the user transmits the zoom magnification of the camera to the other camera in addition to the photographing position information, so that the camera receiving the photographing position and the zoom magnification operates the user. A method of taking a picture with the same size as the video taken by the camera will be described. FIG. 7 is a flowchart illustrating the flow of processing from the operation camera 212 in FIG. 6 transmitting the zoom magnification to the reception by the cooperative camera 211 and controlling the zoom magnification. A method of controlling the zoom magnification of the cooperative camera 211 will be described below with reference to FIG. 7.

【0043】操作カメラ212は、ズーム倍率記憶部512か
ら操作カメラ212のズーム倍率を取得して、撮影位置と
ズーム倍率を連携カメラ211に送信する(701)。撮影位置
の取得方法は実施の形態1で説明した方法と同様であ
る。連携カメラ211は受信した撮影位置とズーム倍率を
元に連携カメラ211のズーム倍率を計算する(702)。連携
カメラのズーム倍率は操作カメラの設置位置と、操作カ
メラの撮影位置と、操作カメラのズーム倍率と、連携カ
メラの設置位置から求めることが可能である。カメラと
撮影位置との距離とズーム倍率の関係はカメラによって
異なるが、本実施の形態では一例としてカメラと撮影位
置との距離とズーム倍率が線形に比例するとし、操作カ
メラの座標を(x2 ,y2 )、撮影位置を(x,y)、
操作カメラのズーム倍率をA、連携カメラの座標を(x
3 ,y3 )とする。連携カメラのズーム倍率Bは次のよ
うにして求められる。
The operation camera 212 acquires the zoom magnification of the operation camera 212 from the zoom magnification storage unit 512 and transmits the photographing position and the zoom magnification to the cooperative camera 211 (701). The method of acquiring the shooting position is the same as the method described in the first embodiment. The cooperative camera 211 calculates the zoom magnification of the cooperative camera 211 based on the received shooting position and zoom magnification (702). The zoom magnification of the cooperation camera can be obtained from the installation position of the operation camera, the shooting position of the operation camera, the zoom magnification of the operation camera, and the installation position of the cooperation camera. The relationship between the distance between the camera and the shooting position and the zoom magnification differs depending on the camera, but in the present embodiment, as an example, the distance between the camera and the shooting position is linearly proportional to the zoom magnification, and the coordinates of the operating camera are (x 2 , Y 2 ), the shooting position is (x, y),
The zoom magnification of the operating camera is A, and the coordinate of the cooperative camera is (x
3 , y 3 ). The zoom magnification B of the linked camera is obtained as follows.

【数2】 ...(4)[Equation 2] ...(Four)

【0044】制御コマンド受信部114は上式(4)で求めた
ズーム倍率をズーム倍率制御部511に送信する。またズ
ーム倍率とは別に受信した撮影位置情報からカメラを制
御する方法は実施の形態1と同様である。以上のように
して、撮影位置とズーム倍率を受信した連携カメラが、
ユーザが操作している操作カメラが撮影している映像と
同サイズで撮影することができる。
The control command receiving unit 114 transmits the zoom magnification obtained by the above equation (4) to the zoom magnification control unit 511. The method of controlling the camera based on the shooting position information received separately from the zoom magnification is the same as in the first embodiment. As described above, the cooperative camera that receives the shooting position and the zoom magnification,
It is possible to take a picture with the same size as the video taken by the operation camera operated by the user.

【0045】なお、本実施の形態では複数のカメラが設
置してある地域を地面に対し垂直に見た例でパン角度か
ら撮影位置の2次元座標を計算する方法を説明したが、
カメラのチルト角度も考慮して、撮影位置の3次元座標
を計算して通知することも可能であり、3次元の撮影位
置を複数のカメラで撮影することも同様の方法で行うこ
とができる。
In this embodiment, the method of calculating the two-dimensional coordinates of the photographing position from the pan angle has been described in the example in which the area where a plurality of cameras are installed is viewed perpendicular to the ground.
It is also possible to calculate and notify the three-dimensional coordinates of the photographing position in consideration of the tilt angle of the camera, and the three-dimensional photographing position can be photographed by a plurality of cameras by the same method.

【0046】さらに、本実施の形態で連携カメラがひと
つだけ存在する例を示したが、1台の連携カメラに対し
て複数の連携カメラが存在しても構わない。連携カメラ
の台数が多ければ多いほど、映像受信装置では撮影位置
あるいは物体をより多くの撮影方向で撮影した映像を同
時に閲覧することが可能になる。
Furthermore, although an example in which only one cooperative camera exists is shown in the present embodiment, a plurality of cooperative cameras may exist for one cooperative camera. The greater the number of linked cameras, the more the image receiving device can simultaneously view the images captured at the shooting position or in the more shooting directions of the object.

【0047】また、本実施の形態では操作カメラと連携
カメラが同じ領域を撮影するように連携カメラのズーム
倍率を制御したが、例えばユーザが操作カメラを使って
不審人物を追尾するような場合、連携カメラの倍率を操
作カメラに比べて小さくすることで、不審人物の周囲の
状況を映像で認識することが可能になる。このようなズ
ーム倍率の制御は、ユーザが操作カメラのカメラ操作コ
マンドとは別に、連携カメラの倍率を制御するコマンド
を映像受信装置から発行することで実現できることは、
容易に類推可能である。
Further, in the present embodiment, the zoom magnification of the cooperation camera is controlled so that the operation camera and the cooperation camera shoot the same area. However, for example, when the user uses the operation camera to track a suspicious person, By making the magnification of the cooperative camera smaller than that of the operation camera, it is possible to recognize the surrounding situation of the suspicious person in the image. Such control of the zoom magnification can be realized by the user issuing a command for controlling the magnification of the cooperative camera from the video receiving device, in addition to the camera operation command of the operation camera.
It can be easily analogized.

【0048】以上のように、本実施の形態では、ユーザ
が遠隔から操作しているカメラが、カメラが撮影してい
る位置を別のカメラに送信することにより、ひとつの撮
影地点を複数方向から撮影し、かつユーザが操作してい
るカメラが撮影している映像と同サイズの領域を、連携
カメラが撮影することができる。
As described above, in this embodiment, a camera operated remotely by the user transmits the position taken by the camera to another camera so that one shooting point can be viewed from a plurality of directions. An area having the same size as the image captured by the camera operated by the user can be captured by the cooperative camera.

【0049】(実施の形態3)実施の形態1ではユーザ
が操作しているカメラの撮影位置を別のカメラに通知す
ることである地点を複数の方向から撮影する方法につい
て述べた。本実施の形態ではユーザが操作している操作
カメラで人物など動く物体を撮影している際に、物体の
移動情報を映像上で感知して物体の移動方向を認識し、
移動方向を連動カメラに送信して連動カメラの撮影方向
を制御する方法について説明する。本方法の構成図を図
8に示す。また図9はユーザが操作していない連携カメ
ラが、ユーザが操作している操作カメラから物体の移動
方向を受信して、撮影方向を制御したときの映像受信装
置の画面である。
(Third Embodiment) In the first embodiment, the method of notifying another camera of the photographing position of the camera operated by the user and photographing the point from a plurality of directions has been described. In this embodiment, when a moving object such as a person is photographed by the operation camera operated by the user, the movement information of the object is sensed on the image to recognize the moving direction of the object,
A method for controlling the shooting direction of the linked camera by transmitting the moving direction to the linked camera will be described. The block diagram of this method is shown in FIG. Further, FIG. 9 is a screen of the video reception device when the linked camera which is not operated by the user receives the moving direction of the object from the operation camera which is operated by the user and controls the shooting direction.

【0050】図8において110はカメラ、120は映像受信
装置、130はディスプレイなど複数のカメラで撮影した
映像を表示する画面、140は複数カメラのうちひとつを
操作するジョイスティックなどの入力装置である。
In FIG. 8, 110 is a camera, 120 is an image receiving device, 130 is a screen for displaying images taken by a plurality of cameras such as a display, and 140 is an input device such as a joystick for operating one of the plurality of cameras.

【0051】図8のカメラ110は、実施の形態1の構成
に、物体の移動方向を検出する物体移動方向検出部811
を追加したものである。物体移動方向検出部811はカメ
ラ110が撮影している映像から人物などの物体を抽出し
て、それが画面のどちらの方向に動くか判断し、その結
果を制御コマンド送出部116に送信する。その他の構成
は図1に示す実施の形態1の構成と同じである。
The camera 110 of FIG. 8 has the same structure as that of the first embodiment except that the object moving direction detecting unit 811 for detecting the moving direction of the object.
Is added. The object movement direction detection unit 811 extracts an object such as a person from the image captured by the camera 110, determines in which direction on the screen it moves, and transmits the result to the control command transmission unit 116. Other configurations are the same as those of the first embodiment shown in FIG.

【0052】ユーザが操作カメラを操作して人物など動
く物体を追尾する際、物体の動きにユーザの操作がつい
ていかないか、あるいはユーザの操作ミスにより操作カ
メラの映像上から人物などの動く物体が捕捉できなくな
ってしまうことがある。このとき、ユーザが操作カメラ
を操作しなくても、操作カメラが物体の移動方向を認識
して連携カメラに送信することで、連携カメラによる人
物など動く物体の映像での捕捉が可能になる。
When the user operates the operation camera to track a moving object such as a person, the movement of the object does not follow the operation of the user, or a moving object such as a person appears on the image of the operation camera due to an operation error of the user. May not be captured. At this time, even if the user does not operate the operation camera, the operation camera recognizes the moving direction of the object and transmits it to the cooperation camera, so that the cooperation camera can capture a moving object such as a person in an image.

【0053】図10は操作カメラが物体の移動を認識し
たときに移動方向を連携カメラに送信し、連携カメラを
物体の動きに追従させるときの処理の流れを説明するフ
ロー図である。また、図11は物体が移動したときに操
作カメラが認識する移動ベクトルおよび連携カメラが移
動すべき方向を表した図である。図10、11を使って
連携カメラを物体の動きに追従させる方法について説明
する。
FIG. 10 is a flowchart for explaining the flow of processing when the operation camera recognizes the movement of an object, transmits the moving direction to the cooperation camera, and causes the cooperation camera to follow the movement of the object. Further, FIG. 11 is a diagram showing a movement vector recognized by the operation camera and a direction in which the cooperative camera should move when the object moves. A method for causing the cooperative camera to follow the movement of the object will be described with reference to FIGS.

【0054】実施の形態1に示すような方法で、操作カ
メラと連携カメラが同じ物体を見ているとき、物体が操
作カメラは物体の移動を認識したら、物体移動方向検出
部811は物体の移動方向を抽出して連携カメラに送信す
る(1001)。物体の移動方向が図11に示すようなベクト
ル1111として抽出するとする。このとき操作カメラ212
の制御コマンド送信部116は物体の動き情報であるベク
トル1111を連携カメラ211に送信する。連携カメラ211の
制御コマンド受信部114は、ベクトル1111と連携カメラ2
11が撮影している位置から連携カメラが移動する物体を
捕捉できるように回転するカメラ制御コマンドを生成す
る(1002)。
When the operation camera recognizes the movement of the object when the operation camera and the cooperative camera are looking at the same object by the method as shown in the first embodiment, the object movement direction detection unit 811 moves the object. The direction is extracted and transmitted to the linked camera (1001). It is assumed that the moving direction of the object is extracted as a vector 1111 as shown in FIG. At this time, the operation camera 212
The control command transmitting unit 116 transmits the vector 1111 that is the motion information of the object to the cooperative camera 211. The control command receiving unit 114 of the cooperative camera 211, the vector 1111 and the cooperative camera 2
A camera control command that rotates so that the cooperative camera can capture a moving object from the position where 11 is shooting is generated (1002).

【0055】物体の移動ベクトル1111と連携カメラ211
の撮影位置から連携カメラが回転するカメラ制御コマン
ドを生成する一例として、(xa ,ya )を連携カメラ
が撮影している位置、(xv ,yv )を操作カメラから
受信したベクトルとしたときに物体が移動したベクトル
だけ移動した後にいる地点の座標(x,y)を x=(xa +xv ) ...(5) y=(ya +yv ) ...(6) と求めて、実施の形態1に示すような方法で連携カメラ
が回転する角度して制御コマンドに変換する方法を挙げ
るが、移動する物体を捕捉できるカメラ制御コマンドを
生成できれば、他の方法でも構わない。
Object movement vector 1111 and cooperative camera 211
As an example of generating the camera control command in which the linked camera rotates from the shooting position of (1), (x a , y a ) is the position where the linked camera is shooting, and (x v , y v ) is the vector received from the operating camera. point coordinates object when is in after moving only vector that has moved (x, y) and x = (x a + x v ) ... (5) y = (y a + y v) ... (6) Then, a method of converting the rotation angle of the cooperative camera into a control command by the method as described in the first embodiment is given, but another method may be used as long as a camera control command capable of capturing a moving object can be generated. Absent.

【0056】制御コマンド受信部114は上記のようにし
て求めたカメラ制御コマンドをカメラ制御部113に送信
し、カメラは移動する物体を捕捉することが可能にな
る。なお、本実施の形態では複数のカメラが設置してあ
る地域を地面に対し垂直に見た例でパン角度から撮影位
置の2次元座標を計算する方法を説明したが、カメラの
チルト角度も考慮して、撮影位置の3次元座標を計算し
て通知することも可能であり、3次元の撮影位置を複数
のカメラで撮影することも同様の方法で行うことができ
る。
The control command receiving unit 114 transmits the camera control command obtained as described above to the camera control unit 113 so that the camera can capture a moving object. In the present embodiment, the method of calculating the two-dimensional coordinates of the shooting position from the pan angle has been described in the example in which the area where a plurality of cameras are installed is viewed perpendicular to the ground, but the tilt angle of the camera is also taken into consideration. Then, the three-dimensional coordinates of the photographing position can be calculated and notified, and the three-dimensional photographing position can be photographed by a plurality of cameras by the same method.

【0057】さらに、本実施の形態で連携カメラがひと
つだけ存在する例を示したが、1台の連携カメラに対し
て複数の連携カメラが存在しても構わない。連携カメラ
の台数が多ければ多いほど、映像受信装置では撮影位置
あるいは物体をより多くの撮影方向で撮影した映像を同
時に閲覧することが可能になる。
Further, although an example in which only one cooperative camera exists is shown in the present embodiment, a plurality of cooperative cameras may exist for one cooperative camera. The greater the number of linked cameras, the more the image receiving device can simultaneously view the images captured at the shooting position or in the more shooting directions of the object.

【0058】以上のように、本実施の形態では、ユーザ
が遠隔から操作している操作カメラが、操作カメラが撮
影している物体の移動方向を抽出して連携カメラに送信
することで、操作カメラが物体を一度撮影すれば、その
後ユーザが物体の移動に追従して操作できなくても、連
携カメラが動く物体を捕捉できる。
As described above, in the present embodiment, the operation camera operated by the user remotely extracts the moving direction of the object photographed by the operation camera and transmits it to the cooperation camera, whereby the operation is performed. Once the camera captures the object, the linked camera can capture the moving object even if the user cannot operate following the movement of the object.

【0059】(実施の形態4)実施の形態1ではユーザ
が操作しているカメラの撮影位置を別のカメラに通知す
ることである地点を複数の方向から撮影する方法につい
て述べた。本実施の形態では、ユーザが操作しているカ
メラに連携して他のカメラがユーザが操作しているカメ
ラの死角を補う方法について説明する。本実施の形態の
構成図を図12に示す。また図13はユーザが操作して
いない連携カメラが、ユーザが操作している操作カメラ
の死角を補うように動作したときのカメラの撮影方向と
映像受信装置の画面を示したものである。
(Fourth Embodiment) In the first embodiment, the method of notifying another camera of the photographing position of the camera operated by the user and photographing the point from a plurality of directions has been described. In the present embodiment, a method of supplementing a blind spot of a camera operated by a user by another camera in cooperation with a camera operated by the user will be described. FIG. 12 shows a configuration diagram of this embodiment. Further, FIG. 13 shows the shooting direction of the camera and the screen of the video receiving device when the linked camera which is not operated by the user operates so as to compensate for the blind spot of the operation camera which is operated by the user.

【0060】図12において110はカメラ、120は映像受
信装置、130はディスプレイなど複数のカメラで撮影し
た映像を表示する画面、140は複数カメラのうちひとつ
を操作するジョイスティックなどの入力装置である。
In FIG. 12, 110 is a camera, 120 is an image receiving device, 130 is a screen for displaying images taken by a plurality of cameras such as a display, and 140 is an input device such as a joystick for operating one of the plurality of cameras.

【0061】図12のカメラ110は、実施の形態1の構成
に、ユーザが操作しているカメラが撮影できない領域を
検出する撮影不可領域検出部1211とユーザが操作してい
るカメラが撮影できない領域を他のカメラで撮影するた
めに他のカメラの撮影方向を制御するコマンドを生成す
る制御コマンド生成部1212を追加したものである。その
他の構成は図1に示す実施の形態1の構成と同じであ
る。
The camera 110 shown in FIG. 12 has the same structure as that of the first embodiment except that the non-photographable area detection unit 1211 for detecting the non-photographable area by the user's camera and the non-photographable area by the user's operating camera. A control command generation unit 1212 for generating a command for controlling the shooting direction of another camera in order to shoot the image with another camera is added. Other configurations are the same as those of the first embodiment shown in FIG.

【0062】また図13において、1311、1312はカメラ
212が撮影できない領域、1313はカメラ、1314は金庫な
どの貴重品、1315は部屋の入り口、1323,1324,1325はそ
れぞれ映像受信装置120が受信したカメラ1313の映像、
連携カメラ211が撮影した金庫の映像、連携カメラ1313
が撮影したドアの映像を表している。
In FIG. 13, reference numerals 1311, 1312 denote cameras.
212 is a non-photographable area, 1313 is a camera, 1314 is a valuable such as a safe, 1315 is a room entrance, 1323, 1324, 1325 are images of the camera 1313 received by the image receiving device 120, respectively.
Video of the safe taken by linked camera 211, linked camera 1313
Shows the video of the door taken by.

【0063】図14は図12の撮影不可領域検出部1211
が操作カメラ212の撮影できない領域を検出してから制
御コマンド生成部1212が連携カメラを制御する制御コマ
ンドを生成して、連携カメラ211、1313を制御するまで
の処理の流れを説明するフロー図である。また、図15
は撮影領域210に操作カメラ212と連携カメラ211、1313
があるときに操作カメラ212の死角1514、1515を連携カ
メラ211、1313を使って撮影している図である。図14
と図15を使用して、操作カメラ212の撮影できない領
域を連携カメラ211、1313で撮影する流れを説明する。
FIG. 14 is a non-photographable area detection unit 1211 of FIG.
Is a flow diagram for explaining the flow of processing from when the control command generation unit 1212 generates a control command for controlling the cooperative camera until it detects an area in which the operation camera 212 cannot capture, and controls the cooperative cameras 211 and 1313. is there. In addition, FIG.
In the shooting area 210 is the operation camera 212 and the cooperation cameras 211 and 1313.
FIG. 15 is a diagram in which blind spots 1514 and 1515 of the operation camera 212 are photographed by using the linked cameras 211 and 1313 when there is. 14
15 and FIG. 15, a flow in which the cooperation camera 211 or 1313 shoots an area in which the operation camera 212 cannot shoot will be described.

【0064】まず、撮影不可領域検出部1211は、操作カ
メラ212の撮影方向1516と、操作カメラ212のズーム倍率
から求められる操作カメラ212の撮影方向1516から撮影
が可能な領域までの角度1518から、撮影領域210のうち
操作カメラが撮影できない領域を計算する(1401)。
First, the non-photographable region detection section 1211 detects the photographing direction 1516 of the operation camera 212 and the angle 1518 from the photographing direction 1516 of the operation camera 212 obtained from the zoom magnification of the operation camera 212 to the photographable region. An area of the shooting area 210 that cannot be shot by the operation camera is calculated (1401).

【0065】撮影方向1516をθ、操作カメラ212の撮影
方向1516から撮影が可能な領域までの角度1518をω、操
作カメラ212の座標を(xcnt ,0)、連携カメラ1313
の座標を(0,0)として、撮影領域210のうち操作カ
メラ210が撮影できる領域と撮影できない領域の境界点1
513の座標を(0,xcnt tan(π−θ−ω))と表せる
とする。
The shooting direction 1516 is θ, the angle 1518 from the shooting direction 1516 of the operation camera 212 to the area where shooting is possible is ω, the coordinates of the operation camera 212 are (x cnt , 0), and the cooperative camera 1313.
Is set as (0, 0), and the boundary point 1 between the area that can be captured by the operation camera 210 and the area that cannot be captured in the capturing area 210 is 1
The coordinates of 513 can be represented as (0, x cnt tan (π−θ−ω)).

【0066】次に制御コマンド生成部1212は、操作カメ
ラ212で撮影できない領域1514をどの連携カメラで撮影
するかを決定する(1402)。撮影するカメラはどのように
決定しても構わないが、死角が残ってしまうため、操作
カメラで撮影できない領域をその領域内に設置されたカ
メラで撮影することは避ける。図15の場合では、1514
内に設置されている連携カメラ1313で領域1514を撮影し
ようとしても、連携カメラ1313の周辺に死角が残ってし
まうので、領域1514は連携カメラ211で撮影するように
する。
Next, the control command generation unit 1212 determines which cooperative camera will photograph the region 1514 that cannot be photographed by the operation camera 212 (1402). It does not matter which camera is used for shooting, but a blind spot remains, so avoid shooting an area that cannot be shot by the operating camera with a camera installed in that area. In the case of FIG. 15, 1514
Even if an attempt is made to shoot an area 1514 with the cooperative camera 1313 installed therein, a blind spot remains around the cooperative camera 1313, and therefore the area 1514 is taken with the cooperative camera 211.

【0067】次に、制御コマンド生成部1212は連携カメ
ラの撮影方向、ズーム倍率を計算してカメラの制御コマ
ンドを生成する(1403)。領域1514を撮影するためには、
撮影できる領域と撮影できない領域の境界点である1513
と212を撮影できるように連携カメラ211の回転角度とズ
ーム倍率を調整すればよい。回転角度1519は連携カメラ
212と境界点1513、212を結ぶ直線1520、1521がなす角の
2等分線1522を引くことで得られる。またズーム倍率は
1520と1522がなす角から求める。
Next, the control command generator 1212 calculates the shooting direction and zoom magnification of the cooperative camera and generates a camera control command (1403). To capture area 1514,
1513, which is the boundary point between the areas that can and cannot be photographed
The rotation angle and zoom magnification of the cooperative camera 211 may be adjusted so as to capture images 212 and 212. Rotation angle 1519 is a linked camera
It is obtained by drawing a bisector 1522 of an angle formed by straight lines 1520 and 1521 connecting 212 and the boundary points 1513 and 212. The zoom factor is
Calculated from the angle formed by 1520 and 1522.

【0068】連携カメラ212の設置座標を(0,
cnb )とすると、直線1520および1521はそれぞれ x=0 …(7)
The installation coordinates of the cooperative camera 212 are (0,
y cnb ), the straight lines 1520 and 1521 are respectively x = 0 (7)

【数3】 …(8) と表すことができる。[Equation 3] It can be expressed as (8).

【0069】また図15から、連携カメラ211が回転す
る角度1519をλとするとλは、
Further, from FIG. 15, when the angle 1519 at which the linked camera 211 rotates is λ, λ is

【数4】 …(9) と表すことができる。[Equation 4] It can be expressed as (9).

【0070】角度1519から連携カメラ211が撮影すると
きのズーム倍率も、直線1520と角の2等分線1522がなす
角度から求めることが可能である。ここでは直線1520と
角の2等分線1522がなす角度μは、λを使って、 μ=2π−λ …(10) と表すことができる。
The zoom magnification when the linked camera 211 shoots from the angle 1519 can also be obtained from the angle formed by the straight line 1520 and the angle bisector 1522. Here, the angle μ formed by the straight line 1520 and the angle bisector 1522 can be expressed as μ = 2π−λ (10) by using λ.

【0071】この角度μから連携カメラ211のズーム倍
率を求め、カメラの制御コマンドを生成する。連携カメ
ラ211の制御コマンド受信部は上記の処理の流れで作成
されたカメラ制御コマンドを受信して(1404)、カメラ制
御部113に渡すことでカメラの撮影方向を制御する。
The zoom magnification of the cooperative camera 211 is obtained from this angle μ and a camera control command is generated. The control command receiving unit of the cooperative camera 211 receives the camera control command created in the above process flow (1404) and transfers it to the camera control unit 113 to control the shooting direction of the camera.

【0072】図15における、操作カメラ212の死角で
ある領域1515も、上記の流れと同様にして連携カメラ13
13に死角を捕らえるようにカメラを制御する。以上の処
理で、複数のカメラで領域を死角なく撮影することが可
能となる。
The area 1515 which is the blind spot of the operation camera 212 in FIG.
Control the camera to capture the blind spot at 13. With the above processing, it is possible to capture an area with a plurality of cameras without blind spots.

【0073】以上のように本実施の形態では、ユーザが
操作しているカメラが撮影不可能な領域を計算してお
き、その結果を元にユーザが操作していないカメラにカ
メラ制御コマンドを発行することにより、撮影すべき物
体が移動して一台のカメラの死角に入っても、ユーザの
操作なく他の複数のカメラが動作して、移動する物体を
すばやく簡単に捕えることができる。なお、本実施の形
態では複数のカメラが設置してある地域を地面に対し垂
直に見た例でパン角度から撮影位置の2次元座標を計算
する方法を説明したが、カメラのチルト角度も考慮し
て、撮影位置の3次元座標を計算して通知することも可
能であり、3次元の撮影位置を複数のカメラで撮影する
ことも同様の方法で行うことができる。
As described above, in the present embodiment, the area in which the camera operated by the user cannot photograph is calculated, and based on the result, the camera control command is issued to the camera not operated by the user. By doing so, even if the object to be photographed moves into the blind spot of one camera, the other cameras operate without user's operation, and the moving object can be caught quickly and easily. In the present embodiment, the method of calculating the two-dimensional coordinates of the shooting position from the pan angle has been described in the example in which the area where a plurality of cameras are installed is viewed perpendicular to the ground, but the tilt angle of the camera is also taken into consideration. Then, the three-dimensional coordinates of the photographing position can be calculated and notified, and the three-dimensional photographing position can be photographed by a plurality of cameras by the same method.

【0074】[0074]

【発明の効果】以上のように、本発明によれば、下記の
ような効果が得られる。
As described above, according to the present invention, the following effects can be obtained.

【0075】第1に、ユーザが端末からカメラ制御コマ
ンドを発行して遠隔にあるカメラを操作してある対象を
撮影すると、ユーザが操作していない別のカメラが連動
して動作することにより、ユーザがある位置または物体
を撮影するためのカメラ制御コマンドを複数存在するカ
メラすべて発行せずに、複数のカメラを操作することが
でき、さらにカメラすべてに制御コマンドを発行せずに
済むためにカメラ操作時間が短縮でき、ある地点または
物体を複数の方向からすばやく、簡単に撮影することが
できる。
First, when a user issues a camera control command from a terminal to operate a remote camera and shoots an object, another camera not operated by the user operates in conjunction, The camera allows the user to operate multiple cameras without issuing multiple camera control commands to capture an image of a position or object, and to avoid issuing control commands to all cameras. The operation time can be shortened, and a certain point or object can be quickly and easily photographed from multiple directions.

【0076】第2に、ユーザが遠隔から操作しているカ
メラが、カメラが撮影している位置を別のカメラに送信
することにより、ひとつの撮影地点を複数方向から撮影
し、かつユーザが操作しているカメラが撮影している映
像と同サイズの領域を、連携カメラが撮影することがで
きるという効果が得られる。
Secondly, the camera operated remotely by the user transmits the position taken by the camera to another camera, so that one shooting point is taken from a plurality of directions and the user operates it. The effect that the linked camera can shoot an area of the same size as the image taken by the running camera is obtained.

【0077】第3に、ユーザが遠隔から操作している操
作カメラが、操作カメラが撮影している物体の移動方向
を抽出して連携カメラに送信することで、操作カメラが
物体を一度撮影すれば、その後ユーザが物体の移動に追
従して操作できなくても、連携カメラが動く物体を捕捉
できるという効果が得られる。
Thirdly, the operation camera operated remotely by the user extracts the moving direction of the object photographed by the operation camera and transmits it to the cooperative camera, so that the operation camera can photograph the object once. For example, even if the user cannot operate the object following the movement of the object, the linked camera can capture the moving object.

【0078】第4に、撮影すべき物体が移動して一台の
カメラの死角に入っても、ユーザの操作なく他の複数の
カメラが動作して、移動する物体をすばやく簡単に捕え
ることができるという効果が得られる。
Fourth, even if an object to be photographed moves and enters a blind spot of one camera, a plurality of other cameras operate without user's operation, and a moving object can be quickly and easily caught. The effect that it can be obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態1におけるカメラ制御装置
の構成を示すブロック図
FIG. 1 is a block diagram showing a configuration of a camera control device according to a first embodiment of the present invention.

【図2】本発明の実施の形態1におけるカメラ配置およ
び画面表示例を示す図
FIG. 2 is a diagram showing an example of camera arrangement and screen display according to the first embodiment of the present invention.

【図3】本発明の実施の形態1におけるカメラの撮影位
置通知処理の流れを説明するフロー図
FIG. 3 is a flow diagram illustrating a flow of a camera photographing position notification process according to the first embodiment of the present invention.

【図4】本発明の実施の形態1におけるカメラ配置およ
び撮影位置およびカメラ回転角度例を示す図
FIG. 4 is a diagram showing an example of camera arrangement, photographing position, and camera rotation angle in the first embodiment of the present invention.

【図5】本発明の実施の形態2におけるカメラ制御装置
の構成図
FIG. 5 is a configuration diagram of a camera control device according to a second embodiment of the present invention.

【図6】本発明の実施の形態2におけるカメラ制御装置
のカメラ配置例および画面表示例を示す図
FIG. 6 is a diagram showing a camera arrangement example and a screen display example of the camera control device according to the second embodiment of the present invention.

【図7】本発明の実施の形態2におけるズーム倍率通知
処理の流れを説明するフロー図
FIG. 7 is a flowchart illustrating a flow of zoom magnification notification processing according to the second embodiment of the present invention.

【図8】本発明の実施の形態3におけるカメラ制御装置
の構成図
FIG. 8 is a configuration diagram of a camera control device according to a third embodiment of the present invention.

【図9】本発明の実施の形態3におけるカメラ配置およ
び物体移動および画面表示例を示す図
FIG. 9 is a diagram showing an example of camera arrangement, object movement, and screen display according to the third embodiment of the present invention.

【図10】本発明の実施の形態3における移動方向通知
処理の流れを説明するフロー図
FIG. 10 is a flowchart illustrating the flow of a moving direction notification process according to the third embodiment of the present invention.

【図11】本発明の実施の形態3におけるカメラ配置お
よび物体移動ベクトルの例を示す図
FIG. 11 is a diagram showing an example of camera arrangement and object movement vector according to the third embodiment of the present invention.

【図12】本発明の実施の形態4におけるカメラ制御装
置の構成図
FIG. 12 is a configuration diagram of a camera control device according to a fourth embodiment of the present invention.

【図13】本発明の実施の形態4におけるカメラ配置お
よびカメラ撮影方向および画面表示例を示す図
FIG. 13 is a diagram showing a camera arrangement, camera shooting directions, and a screen display example according to the fourth embodiment of the present invention.

【図14】本発明の実施の形態4におけるカメラ死角領
域通知処理の流れを説明するフロー図
FIG. 14 is a flowchart illustrating the flow of camera blind spot area notification processing according to the fourth embodiment of the present invention.

【図15】本発明の実施の形態4におけるカメラ死角領
域の別のカメラでの撮影例を示す図
FIG. 15 is a diagram showing an example of shooting with another camera in a camera blind spot area according to the fourth embodiment of the present invention.

【図16】従来のカメラ制御装置の構成を示すブロック
FIG. 16 is a block diagram showing a configuration of a conventional camera control device.

【符号の説明】[Explanation of symbols]

110 カメラ 111 映像送信部 112 カメラ駆動部 113 カメラ制御部 114 制御コマンド受信部 115 撮影位置記録部 116 制御コマンド送信部 120 映像受信装置 121 映像受信部 122 映像再生部 123 制御コマンド送信部 130 画面 140 入力装置 210 撮影領域 211 連携カメラ 212 操作カメラ 213 撮影物体 220 画面 221 連携カメラ映像 222 操作カメラ映像 223 カメラ制御ボタン 231 連携カメラの撮影物体 232 操作カメラの撮影物体 511 ズーム倍率制御部 512 ズーム倍率記録部 811 物体移動方向検出部 1211 撮影不可領域検出部 1212 制御コマンド生成部 1311 撮影不可領域 1312 撮影不可領域 1313 連携カメラ 1314 貴重品 1315 出入口 1323 連携カメラ映像 1324 連携カメラの貴重品撮影映像 1325 連携カメラの出入口撮影映像 1610 カメラ 1611 映像送信部 1612 カメラ駆動部 1613 カメラ制御部 1614 制御コマンド受信部 1615 撮影位置記録部 1620 映像受信装置 1621 映像受信部 1622 映像再生部 1623 制御コマンド送信部 1630 画面 1640 入力装置 110 cameras 111 Video transmitter 112 camera drive 113 camera control unit 114 Control command receiver 115 Shooting position recording unit 116 Control command transmitter 120 Video receiver 121 Video receiver 122 Video playback unit 123 Control command transmitter 130 screens 140 input device 210 shooting area 211 Cooperation camera 212 Operation camera 213 Shooting object 220 screen 221 Cooperation camera image 222 Operation camera image 223 Camera control button 231 Object photographed by the cooperative camera 232 Object shot by operation camera 511 Zoom magnification control unit 512 Zoom magnification recording section 811 Object moving direction detection unit 1211 non-photographable area detection unit 1212 control command generator 1311 Non-photographable area 1312 Non-photographable area 1313 Cooperation camera 1314 Valuables 1315 doorway 1323 Linked camera image 1324 Valuables taken by the cooperative camera 1325 Video of the entrance and exit of the cooperative camera 1610 camera 1611 Video transmitter 1612 camera driver 1613 camera control unit 1614 control command receiver 1615 Shooting position recording unit 1620 video receiver 1621 Video receiver 1622 Video playback unit 1623 Control command transmitter 1630 screen 1640 input device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/18 H04N 7/18 E F Fターム(参考) 5C022 AA01 AB61 AB62 AB63 AB65 AB66 AC27 AC31 5C054 AA01 CA04 CE15 CE16 CF06 DA06 EA01 EA03 EA05 EA07 FA09 FC11 GB11 HA19 HA31 5C084 AA02 AA07 AA14 BB01 CC17 DD12 EE02 EE05 FF03 GG17 GG78 5C087 AA03 AA08 AA24 BB03 BB65 BB74 DD05 DD27 EE06 FF01 FF02 FF04 GG02 GG59 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 7/18 H04N 7/18 EF F term (reference) 5C022 AA01 AB61 AB62 AB63 AB65 AB66 AC27 AC31 5C054 AA01 CA04 CE15 CE16 CF06 DA06 EA01 EA03 EA05 EA07 FA09 FC11 GB11 HA19 HA31 5C084 AA02 AA07 AA14 BB01 CC17 DD12 EE02 EE05 FF03 GG17 GG78 5C087 AA03 AA08 AA24 BB03 BB65 BB74 DD05 DD27 FF02 FF06 FF06 FF02

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 撮影した映像をネットワークに送信する
映像送信部と、カメラの撮影方向を変更するカメラ駆動
部と、カメラ駆動部にカメラの撮影変更を指示するカメ
ラ制御部と、遠隔からのカメラ制御指示を受信する制御
コマンド受信部と、現在撮影している場所を記録する撮
影位置記録部と、撮影位置記録部が記録している撮影位
置またはカメラ制御コマンドをネットワークに送信する
制御コマンド送信部とを備えたカメラ制御装置。
1. A video transmission unit for transmitting a captured video to a network, a camera drive unit for changing the shooting direction of the camera, a camera control unit for instructing the camera drive unit to change the shooting of the camera, and a camera from a remote location. A control command receiving unit that receives a control instruction, a shooting position recording unit that records the current shooting location, and a control command transmitting unit that sends the shooting position or the camera control command recorded by the shooting position recording unit to the network. And a camera control device.
【請求項2】 端末からカメラ制御コマンドを発行する
ことで遠隔にあるカメラを操作すると、前記制御コマン
ド送信部が別のカメラに制御コマンドまたはカメラの撮
影位置を通知することで、端末から操作していないカメ
ラの撮影方向を制御する請求項1に記載のカメラ制御装
置。
2. When a remote camera is operated by issuing a camera control command from the terminal, the control command transmission unit notifies another camera of the control command or the photographing position of the camera, thereby operating from the terminal. The camera control device according to claim 1, which controls a shooting direction of a camera that is not installed.
【請求項3】 前記制御コマンド受信部が、前記制御コ
マンド送信部が送信したカメラの撮影位置を受信して、
前記カメラ制御部が撮影位置を基にカメラの撮影方向を
制御することを特徴とする請求項1または2に記載のカ
メラ制御装置。
3. The control command receiving unit receives the photographing position of the camera transmitted by the control command transmitting unit,
The camera control device according to claim 1, wherein the camera control unit controls a shooting direction of the camera based on a shooting position.
【請求項4】 カメラのズーム倍率を変更するズーム倍
率制御部と、カメラのズーム倍率を記憶するズーム倍率
記憶部とを備えた、請求項1に記載のカメラ制御装置。
4. The camera control device according to claim 1, further comprising a zoom magnification control unit that changes the zoom magnification of the camera, and a zoom magnification storage unit that stores the zoom magnification of the camera.
【請求項5】 前記制御コマンド受信部が前記制御コマ
ンド送信部から送信したカメラのズーム倍率を受信して
前記ズーム倍率制御部にズーム倍率を渡し、ズーム倍率
を制御することを特徴とする請求項2または4に記載の
カメラ制御装置。
5. The control command receiving unit receives the zoom magnification of the camera transmitted from the control command transmitting unit, passes the zoom magnification to the zoom magnification control unit, and controls the zoom magnification. 2. The camera control device described in 2 or 4.
【請求項6】 映像の中から物体を切り出し、移動する
方向を抽出して移動後の物体の位置を計算する物体移動
方向検出部を備えた、請求項1に記載のカメラ制御装
置。
6. The camera control device according to claim 1, further comprising an object moving direction detection unit that cuts out an object from an image, extracts a moving direction, and calculates a position of the moved object.
【請求項7】 カメラを操作して撮影している対象が移
動するとき、前記物体移動方向検出部から取得した移動
情報を別のカメラに送信することで、別のカメラが対象
を追尾することを特徴とする請求項2または6に記載の
カメラ制御装置。
7. When the object being photographed moves by operating the camera, another camera can track the object by transmitting the movement information acquired from the object movement direction detection unit to the other camera. 7. The camera control device according to claim 2 or 6, wherein:
【請求項8】 遠隔から操作しているカメラが撮影でき
ない区域を検出する撮影不可領域検出部と、カメラの設
置状況と前記撮影不可領域検出部が検出した当該カメラ
が撮影できない領域から、他のカメラの撮影方向を制御
するカメラ制御コマンドを生成する制御コマンド生成部
とを備えた請求項1に記載のカメラ制御装置。
8. A non-photographable area detection unit that detects a non-photographable area of a camera that is operated remotely, and an installation state of the camera and a non-photographable area detected by the non-photographable area detection unit, The camera control device according to claim 1, further comprising a control command generation unit that generates a camera control command that controls a shooting direction of the camera.
【請求項9】 前記制御コマンド生成部がカメラを操作
しているカメラの死角を撮影できるようなカメラ制御コ
マンドを別のカメラに送信することで、監視領域をすべ
て撮影することを特徴とする請求項2または8に記載の
カメラ制御装置。
9. The entire control area is imaged by transmitting a camera control command to the another camera, in which the control command generation unit can image the blind spot of the camera operating the camera. Item 9. The camera control device according to item 2 or 8.
JP2001356764A 2001-11-21 2001-11-21 Camera controller Withdrawn JP2003158664A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001356764A JP2003158664A (en) 2001-11-21 2001-11-21 Camera controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001356764A JP2003158664A (en) 2001-11-21 2001-11-21 Camera controller

Publications (2)

Publication Number Publication Date
JP2003158664A true JP2003158664A (en) 2003-05-30
JP2003158664A5 JP2003158664A5 (en) 2005-06-23

Family

ID=19168224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001356764A Withdrawn JP2003158664A (en) 2001-11-21 2001-11-21 Camera controller

Country Status (1)

Country Link
JP (1) JP2003158664A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006041611A (en) * 2004-07-22 2006-02-09 Matsushita Electric Ind Co Ltd Camera link system, camera device and camera link control method
WO2006028247A1 (en) * 2004-09-10 2006-03-16 Pioneer Corporation Video shooting system, video shooting device and video shooting method
JP2009049798A (en) * 2007-08-21 2009-03-05 Sony Corp Camera control method, camera control device, camera control program, and camera system
JP2009055180A (en) * 2007-08-24 2009-03-12 Hitachi Kokusai Electric Inc Surveillance camera system
JP2011091607A (en) * 2009-10-22 2011-05-06 Olympus Corp Imaging device, imaging method and imaging system
JP2015126402A (en) * 2013-12-26 2015-07-06 日本放送協会 Robot camera control device, program for the same, and multi-viewpoint robot camera system
WO2016067765A1 (en) * 2014-10-27 2016-05-06 ソニー株式会社 Information processing device, information processing method, and computer program
JP2019062293A (en) * 2017-09-25 2019-04-18 富士ゼロックス株式会社 Camera device, camera device control system, and program
WO2022168481A1 (en) * 2021-02-02 2022-08-11 ソニーグループ株式会社 Image processing device and image processing system
CN115134519A (en) * 2021-03-24 2022-09-30 丰田自动车株式会社 Remote operation system, remote operation moving body, remote operation method, and computer-readable medium
WO2023285169A1 (en) * 2021-07-16 2023-01-19 Robert Bosch Gmbh Monitoring device having a plurality of cameras, method and computer program for monitoring
WO2023106107A1 (en) * 2021-12-08 2023-06-15 株式会社ニコン Imaging control device, imaging device, program, and imaging system

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006041611A (en) * 2004-07-22 2006-02-09 Matsushita Electric Ind Co Ltd Camera link system, camera device and camera link control method
JP4516791B2 (en) * 2004-07-22 2010-08-04 パナソニック株式会社 Camera interlocking system, camera device, and camera interlocking control method
WO2006028247A1 (en) * 2004-09-10 2006-03-16 Pioneer Corporation Video shooting system, video shooting device and video shooting method
JP2009049798A (en) * 2007-08-21 2009-03-05 Sony Corp Camera control method, camera control device, camera control program, and camera system
JP2009055180A (en) * 2007-08-24 2009-03-12 Hitachi Kokusai Electric Inc Surveillance camera system
JP2011091607A (en) * 2009-10-22 2011-05-06 Olympus Corp Imaging device, imaging method and imaging system
US8581960B2 (en) 2009-10-22 2013-11-12 Olympus Corporation Imaging device, imaging method, and imaging system
JP2015126402A (en) * 2013-12-26 2015-07-06 日本放送協会 Robot camera control device, program for the same, and multi-viewpoint robot camera system
WO2016067765A1 (en) * 2014-10-27 2016-05-06 ソニー株式会社 Information processing device, information processing method, and computer program
JPWO2016067765A1 (en) * 2014-10-27 2017-08-31 ソニー株式会社 Information processing apparatus, information processing method, and computer program
US9936355B2 (en) 2014-10-27 2018-04-03 Sony Corporation Information processing apparatus, information processing method, and computer program
JP2019062293A (en) * 2017-09-25 2019-04-18 富士ゼロックス株式会社 Camera device, camera device control system, and program
JP7187768B2 (en) 2017-09-25 2022-12-13 富士フイルムビジネスイノベーション株式会社 Camera device, camera device control system, and program
WO2022168481A1 (en) * 2021-02-02 2022-08-11 ソニーグループ株式会社 Image processing device and image processing system
CN115134519A (en) * 2021-03-24 2022-09-30 丰田自动车株式会社 Remote operation system, remote operation moving body, remote operation method, and computer-readable medium
US11856332B2 (en) 2021-03-24 2023-12-26 Toyota Jidosha Kabushiki Kaisha Remote operation system, remote operation mobile body, remote operation method, and program
CN115134519B (en) * 2021-03-24 2024-02-20 丰田自动车株式会社 Remote operation system, remote operation mobile body, remote operation method, and computer-readable medium
WO2023285169A1 (en) * 2021-07-16 2023-01-19 Robert Bosch Gmbh Monitoring device having a plurality of cameras, method and computer program for monitoring
WO2023106107A1 (en) * 2021-12-08 2023-06-15 株式会社ニコン Imaging control device, imaging device, program, and imaging system

Similar Documents

Publication Publication Date Title
JP4209535B2 (en) Camera control device
JP4451122B2 (en) Video tracking system and method
TWI311286B (en)
EP0714081B1 (en) Video surveillance system
US7385626B2 (en) Method and system for performing surveillance
CN101010942A (en) Capturing a sequence of images
JP4378636B2 (en) Information processing system, information processing apparatus, information processing method, program, and recording medium
JP2007158860A (en) Photographing system, photographing device, image switching device, and data storage device
JP2006229322A (en) Automatic tracking controller and automatic tracking control method, program, and automatic tracking system
JP2006229321A (en) Apparatus and method for automatic image tracking method, and program
WO2009066988A2 (en) Device and method for a surveillance system
JP2003158664A (en) Camera controller
KR101096157B1 (en) watching apparatus using dual camera
KR20140100525A (en) System for filming a video movie
KR20100129125A (en) Intelligent panorama camera, circuit and method for controlling thereof, and video monitoring system
JP2004128997A (en) Device, method and program for video remote control, and recording medium with the program recorded thereon
JP2006303989A (en) Monitor device
JP2019211337A (en) Information processor, system, method for processing information, and program
JP2005142683A (en) Apparatus and method for camera control
JP2003274257A (en) Automatic dynamic-image filming system, automatic dynamic-image filming method, and automatic dynamic- image camera
KR100585822B1 (en) Monitor system use panorama image and control method the system
KR101630290B1 (en) Photographing Method For Producing Image Of Traced Moving Path And Apparatus Using The Same
JP2006086671A (en) Imaging apparatus having automatic tracking function
JP2007134845A (en) Camera controller and control program
KR20150019230A (en) Method and apparatus for tracking object using multiple camera

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040930

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060613

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20060807