JP2007060260A - Camera control system - Google Patents

Camera control system Download PDF

Info

Publication number
JP2007060260A
JP2007060260A JP2005242810A JP2005242810A JP2007060260A JP 2007060260 A JP2007060260 A JP 2007060260A JP 2005242810 A JP2005242810 A JP 2005242810A JP 2005242810 A JP2005242810 A JP 2005242810A JP 2007060260 A JP2007060260 A JP 2007060260A
Authority
JP
Japan
Prior art keywords
camera
image
user terminal
pixels
outer peripheral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005242810A
Other languages
Japanese (ja)
Inventor
Noriyuki Kikukawa
則幸 菊川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005242810A priority Critical patent/JP2007060260A/en
Publication of JP2007060260A publication Critical patent/JP2007060260A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera control system which allows a plurality of users to control the camera parameters simultaneously by using one camera only and which is capable of wide-angle shot. <P>SOLUTION: Optical PT is automatically performed so that the periphery of a distributed image may come to the center of an imaging region to prevent the distributed image from hanging out of the imaging region. When the periphery of the distributed image comes out of the imaging region, the zoom magnification is changed to fit the distributed image inside the imaging region. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明はカメラ制御システムに関し、特にユーザが遠隔のカメラのパラメータを制御し、該カメラからの画像を切り替え可能に表示するカメラ制御システムに最適なものである。   The present invention relates to a camera control system, and is particularly suitable for a camera control system in which a user controls parameters of a remote camera and displays images from the camera in a switchable manner.

従来、カメラの撮影画像を遠隔の複数ユーザに配信するシステムにおいて、各ユーザがパン/チルト角、ズーム倍率等のカメラのパラメータを制御し、自己の表示画像を切り替えるカメラ制御システムが知られている。しかし、このような従来システムではカメラのパラメータを制御出来るのは一度に一人のユーザであり、他のユーザは順番待ちとなる問題があった。   2. Description of the Related Art Conventionally, in a system for distributing captured images of a camera to a plurality of remote users, a camera control system is known in which each user controls camera parameters such as pan / tilt angle and zoom magnification, and switches its own display image. . However, in such a conventional system, only one user can control the camera parameters at a time, and other users have a problem of waiting in turn.

このような問題を解決するため、1台の固定カメラの画像を画像生成サーバに記録し、記録された画像に対して仮想的にパン、チルト、ズームの操作を行うことで、複数ユーザによるカメラのパラメータの同時制御を実現する方法が特許文献1に開示されている。
特開2003−319364号公報
In order to solve such a problem, an image of a single fixed camera is recorded on an image generation server, and a panning, tilting, and zooming operation is virtually performed on the recorded image, so that a camera by a plurality of users Patent Document 1 discloses a method for realizing simultaneous control of these parameters.
JP 2003-319364 A

しかしながらこの種の従来型システムでは、まずカメラのパラメータを一度に一人しか制御出来ないという問題があった。またこの問題に対応した[特許文献1]でも、1台の固定カメラで撮影対象をすべてカバーするということには難がある。広角カメラの画像が歪むことはよく知られてことであるし、カメラを引いて(遠くに配置して)撮影対象をすべてカバーすると、撮影画素があらくなってしまう。また、風景や観光地の撮影などで180゜以上の範囲を撮影したい場合にはまったく対応出来ない。   However, this type of conventional system has a problem that only one camera parameter can be controlled at a time. Further, even [Patent Document 1] corresponding to this problem, it is difficult to cover all shooting targets with one fixed camera. It is well known that the image of the wide-angle camera is distorted, and if the camera is pulled (disposed far away) to cover all the objects to be photographed, the photographing pixels will become large. Also, if you want to shoot a range of 180 ° or more when shooting landscapes or sightseeing spots, you can't handle it at all.

本発明の目的は、1台のカメラのみで複数ユーザが同時にカメラのパラメータを制御可能であり、かつ広角撮影の可能なカメラ制御システムを提供することである。   An object of the present invention is to provide a camera control system in which a plurality of users can control camera parameters simultaneously with only one camera and can perform wide-angle shooting.

本発明のカメラ制御システムは、カメラサーバとユーザ端末とからなるカメラ制御システムであって、ネットワークを介してカメラサーバにカメラ制御コマンドを送信する手段を備えたユーザ端末と、ネットワークを介してユーザ端末に画像を配信する手段とカメラの幾何学的パラメータを制御する制御手段と前記カメラ制御コマンドを受け配信画像を変更する手段と前記配信画像の外周領域を求める手段と前記制御手段により前記外周領域を撮像領域の中心に位置させる手段とを備えたカメラサーバとで構成されることを特徴とする。   The camera control system of the present invention is a camera control system including a camera server and a user terminal, and includes a user terminal having means for transmitting a camera control command to the camera server via a network, and a user terminal via the network. Means for distributing the image to the image, control means for controlling the geometric parameters of the camera, means for changing the distribution image in response to the camera control command, means for determining the outer peripheral area of the distribution image, and the control means And a camera server having means for positioning at the center of the imaging region.

本発明の他の様態では、カメラサーバとユーザ端末とからなるカメラ制御システムであって、ネットワークを介してカメラサーバにカメラ制御コマンドを送信する手段を備えたユーザ端末と、ネットワークを介してユーザ端末に画像を配信する手段とカメラの幾何学的パラメータを制御する制御手段と前記カメラ制御コマンドを受け配信画像を変更する手段と前記配信画像の外周領域を求める手段と前記制御手段により前記外周領域を撮像領域の中心に位置させる手段と前記外周領域と前記撮像領域とを比較する比較手段とを備えたカメラサーバとで構成され、前記外周領域が前記撮像領域よりはみ出る場合には前記制御手段により撮像のズーム率を変更することを特徴とする。   In another aspect of the present invention, a camera control system including a camera server and a user terminal, the user terminal including means for transmitting a camera control command to the camera server via the network, and the user terminal via the network Means for distributing the image to the image, control means for controlling the geometric parameters of the camera, means for changing the distribution image in response to the camera control command, means for determining the outer peripheral area of the distribution image, and the control means The camera server includes means for positioning at the center of the imaging area and comparison means for comparing the outer peripheral area and the imaging area. When the outer peripheral area protrudes from the imaging area, imaging is performed by the control means. The zoom ratio is changed.

本発明のカメラ制御システムは、1台のカメラのみで複数ユーザが同時にカメラのパラメータを制御することが出来、かつ広い範囲の撮影を行うことが出来る。   The camera control system of the present invention allows a plurality of users to control camera parameters at the same time with only one camera, and can take a wide range of images.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図2は本発明の実施形態におけるカメラ制御システムの構成を示す図である。図中1はカメラサーバであり、2000×1500画素の撮影が出来る撮像素子と光学的にパン、チルト、ズームの出来る機構を持ったカメラとを備え、撮影した画像を配信する機能を有している。   FIG. 2 is a diagram showing the configuration of the camera control system in the embodiment of the present invention. In the figure, reference numeral 1 denotes a camera server, which has an image sensor capable of photographing 2000 × 1500 pixels and a camera having a mechanism capable of optically panning, tilting, and zooming, and has a function of distributing photographed images. Yes.

また、2、3、4はユーザ端末であり、前記カメラサーバ1とネットワーク5を介して接続されて、パン/チルト角およびズーム倍率等のカメラのパラメータを制御可能である他、カメラサーバから配信された画像を表示する機能を有している。   Reference numerals 2, 3 and 4 denote user terminals which are connected to the camera server 1 via the network 5 and can control camera parameters such as pan / tilt angle and zoom magnification. Has a function of displaying the generated image.

各ユーザ端末はコンピュータ端末、PDA、携帯電話など表示手段、入力手段、およびネットワーク手段を備える端末に適用可能であり、その表示手段には例えば図8のようなGUI画面が表示される。この図8において、501は配信画像であり、ユーザ端末によって多様な解像度となる。以下の説明では、前述のユーザ端末1、2が640×480、ユーザ端末3が320×240の解像度を持つ場合を例にあげる。   Each user terminal can be applied to a terminal provided with display means such as a computer terminal, PDA, mobile phone, input means, and network means, and a GUI screen as shown in FIG. 8, for example, is displayed on the display means. In FIG. 8, reference numeral 501 denotes a distribution image, which has various resolutions depending on the user terminal. In the following description, a case where the user terminals 1 and 2 described above have a resolution of 640 × 480 and the user terminal 3 has a resolution of 320 × 240 is taken as an example.

また、502、503、504はスクロールバーであり、それぞれパン角度、チルト角度、ズーム倍率の設定用である。ユーザはスクロールバー502、503、504を用いてパン角度、チルト角度、ズーム倍率のパラメータを設定し、所望の画像を得ることが出来る。このスクロールバーは、携帯電話など画面の解像度が低い場合にはキー入力手段に割り振っても良い。この場合、表示手段全体に配信画像501を表示することも可能である。   Reference numerals 502, 503, and 504 denote scroll bars for setting the pan angle, tilt angle, and zoom magnification, respectively. The user can set the pan angle, tilt angle, and zoom magnification parameters using the scroll bars 502, 503, and 504, and obtain a desired image. This scroll bar may be allocated to the key input means when the screen resolution is low, such as a mobile phone. In this case, the distribution image 501 can be displayed on the entire display unit.

図1は本発明の実施形態におけるカメラ制御システムのより詳細な構成を示すブロック図である。図中、1はカメラサーバであり、101から111の各ブロックで構成される、また、2はユーザ端末であり、201から209の各ブロックで構成される。3、4もユーザ端末であるが、その構成は端末2と同様のため、詳細の説明は省略する。   FIG. 1 is a block diagram showing a more detailed configuration of the camera control system in the embodiment of the present invention. In the figure, 1 is a camera server, which is composed of blocks 101 to 111, and 2 is a user terminal, which is composed of blocks 201 to 209. Although 3 and 4 are user terminals, the configuration thereof is the same as that of the terminal 2, and thus detailed description thereof is omitted.

カメラサーバ1の構成で、画像入力部102はズーム倍率を変更するためのズームレンズ、合焦のためのフォーカスレンズ、光量を調節する絞り、これらを介して入射した光学像を電気信号に変換する2000×1500画素の撮像素子などからなる。また、画像入力部102からの画像信号を受けた画像処理部103は、ユーザ端末へ配信用の画像の切り出し、リサイズ等の処理を行う。   With the configuration of the camera server 1, the image input unit 102 converts a zoom lens for changing the zoom magnification, a focus lens for focusing, a diaphragm for adjusting the amount of light, and an optical image incident through these into an electrical signal. It consists of an image sensor with 2000 × 1500 pixels. In addition, the image processing unit 103 that has received the image signal from the image input unit 102 performs processing such as extraction and resizing of an image for distribution to the user terminal.

画像送信部104は、画像処理部103からの画像データを圧縮したり、通信ヘッダを付けたりして110のI/F部よりネットワーク5を経由してユーザ端末2、3、4に送信する。コマンド通信部109は、やはりI/F部110経由でカメラサーバ1とユーザ端末2、3、4との間でコマンドの送受信を行う。ユーザ端末からカメラサーバへの、パン/チルト角およびズーム倍率制御はこのコマンド通信のひとつである。   The image transmission unit 104 compresses the image data from the image processing unit 103 or attaches a communication header, and transmits the compressed data to the user terminals 2, 3, 4 via the network 5 from the I / F unit 110. The command communication unit 109 also transmits and receives commands between the camera server 1 and the user terminals 2, 3, and 4 via the I / F unit 110. Pan / tilt angle and zoom magnification control from the user terminal to the camera server is one of the command communications.

演算部108は、ユーザ端末2、3、4への配信画像からその外周を計算したり、撮像領域内で該外周領域をセンタリングするための演算を行う部分である。この詳細は後述する。   The calculation unit 108 is a part that calculates the outer periphery from the distribution image to the user terminals 2, 3, and 4 and performs a calculation for centering the outer peripheral region in the imaging region. Details of this will be described later.

制御部107は、カメラの雲台およびそれを駆動するモータ類、すなわちパン/チルト機構並びにパンモータ、チルトモータ、さらに画像入力部102のズームレンズを駆動するモータ、およびそれらを駆動するモータドライバ等を制御する部分であり、カメラの幾何学的、光学的パラメータを制御する。   The control unit 107 includes a camera platform and motors for driving the camera, that is, a pan / tilt mechanism, a pan motor and a tilt motor, a motor for driving the zoom lens of the image input unit 102, a motor driver for driving them, and the like. This is the part that controls, and controls the geometric and optical parameters of the camera.

CPU101は、カメラサーバ1全体の制御を司る部分であり、ROM105に格納されているプログラムをRAM106にロードして実行する。また、CPU101はシステムバス111を有しており、ここまで説明した各部がシステムバス111に接続され、これを介してCPU101が全体制御を行っている。   The CPU 101 is a part that controls the entire camera server 1, and loads a program stored in the ROM 105 into the RAM 106 and executes it. Further, the CPU 101 has a system bus 111, and each unit described so far is connected to the system bus 111, and the CPU 101 performs overall control via this.

次に、ユーザ端末2の構成について説明する。画像受信部207はカメラサーバ1からネットワーク5を介して送られてくる画像データをI/F部208を経由して受信し、圧縮データの伸長、通信ヘッダの除去等を行う。コマンド通信部204は、やはりI/F部208経由でカメラサーバ1との間でコマンドの送受信を行う。カメラサーバへの、パン/チルト角およびズーム倍率制御はこのコマンド通信のひとつである。   Next, the configuration of the user terminal 2 will be described. The image receiving unit 207 receives image data sent from the camera server 1 via the network 5 via the I / F unit 208, and decompresses compressed data, removes a communication header, and the like. The command communication unit 204 also transmits / receives commands to / from the camera server 1 via the I / F unit 208. Pan / tilt angle and zoom magnification control to the camera server is one of the command communications.

表示部203は、CRTあるいはLCDなどの表示器とその制御部で構成され、画像受信部207で受信した画像データの表示や、前述のスクロールバー502、503、504等を表示する。すなわち、図8で示したようなGUI画面の表示制御を行う。   The display unit 203 includes a display such as a CRT or LCD and its control unit, and displays the image data received by the image receiving unit 207, the scroll bars 502, 503, 504, and the like. That is, display control of the GUI screen as shown in FIG. 8 is performed.

入力部202は、キーボード、マウス、タッチパッドなどで構成され、種々のキャラクタやコードの入力の他、前述のスクロールバー502、503、504のアップ、ダウンにも用いられる。   The input unit 202 includes a keyboard, a mouse, a touch pad, and the like, and is used for input and input of various characters and codes as well as for the scroll bars 502, 503, and 504 described above.

CPU201は、ユーザ端末2全体の制御を司る部分であり、ROM205に格納されているプログラムをRAM206にロードして実行する。また、CPU201はシステムバス209を有しており、ここまで説明した各部がシステムバス209に接続され、これを介してCPU201が全体制御を行っている。   The CPU 201 is a part that controls the entire user terminal 2, and loads a program stored in the ROM 205 into the RAM 206 and executes it. The CPU 201 has a system bus 209, and each unit described so far is connected to the system bus 209, and the CPU 201 performs overall control via this.

次に本発明実施形態におけるカメラ制御システムの動作を説明する。図6はユーザ端末2における本発明実施形態に関わる部分のフォローチャートであり、入力部202にてスクロールバー502、503あるいは504の操作を検知した場合に起動される。本プログラムが起動されると、ステップS201でスクロールバー502の操作によるパン指示であるかどうかのチェックを行う。パン指示でなければステップS203へ進み、パン指示であればステップS202にてその移動方向(この場合右か左)と移動量をコマンド化してステップS203へ進む。   Next, the operation of the camera control system in the embodiment of the present invention will be described. FIG. 6 is a follow chart of a portion related to the embodiment of the present invention in the user terminal 2 and is activated when an operation of the scroll bar 502, 503 or 504 is detected by the input unit 202. When this program is activated, it is checked in step S201 whether or not it is a pan instruction by operating the scroll bar 502. If it is not a pan instruction, the process proceeds to step S203. If it is a pan instruction, the movement direction (in this case, right or left) and the movement amount are converted into commands in step S202, and the process proceeds to step S203.

ステップS203では、スクロールバー503の操作によるチルト指示であるかどうかのチェックを行う。チルト指示でなければステップS205へ進み、チルト指示であればステップS204にてその移動方向(この場合上か下)と移動量をコマンド化してステップS205へ進む。   In step S203, it is checked whether or not a tilt instruction is issued by operating the scroll bar 503. If it is not a tilt instruction, the process proceeds to step S205. If it is a tilt instruction, the movement direction (in this case, up or down) and the movement amount are converted into commands in step S204, and the process proceeds to step S205.

ステップS205では、スクロールバー504の操作によるズーム指示であるかどうかのチェックを行う。ズーム指示でなければステップS207へ進み、ズーム指示であればステップS206にてその倍率をコマンド化してステップS207へ進む。   In step S <b> 205, it is checked whether or not the zoom instruction is made by operating the scroll bar 504. If it is not a zoom instruction, the process proceeds to step S207. If it is a zoom instruction, the magnification is converted into a command in step S206, and the process proceeds to step S207.

ステップS207では、ステップS202、S204あるいはS206で作成したコマンドを、コマンド通信部204よりI/F部208を経由してカメラサーバ1へ送信して、本プログラムを終了する。   In step S207, the command created in step S202, S204 or S206 is transmitted from the command communication unit 204 to the camera server 1 via the I / F unit 208, and this program ends.

図7はカメラサーバ1における本発明実施形態に関わる部分のフォローチャートであり、ユーザ端末からパン、チルトあるいはズームコマンドを受けたときに起動される。本プログラムが起動されると、ステップS101でコマンドに応じた配信領域の移動量、あるいはズーム量より新配信領域の位置を演算部108を用いて算出し、さらに新配信領域を含んだ全配信領域の外周を算出する。次にステップS102では、ステップS101で算出した外周領域を撮像領域にてセンタリングを実施しステップS103へ進む。このセンタリングに関しては詳しく後述する。ステップS103では、ステップS101で算出した外周領域が撮像領域内に収まるかどうかのチェックを行い、収まればステップS105へ、収まらなければステップS104へ進む。ステップS104では、撮像領域内に外周領域を収めるために必要なズーム率を演算部108を用いて算出し、制御部107を用いて実際のズーム率を変更する(ここではズームアウトとなる)。ただし、ここでズームアウトすると配信画像サイズが小さくなってしまうので、画像処理部103を用いて元のサイズまで拡大する。次のステップS105では、ステップS102でセンタリングされた結果、あるいはステップS104でズームアウトした結果を受けて新配信領域で画像配信を開始し、本プログラムを終了する。   FIG. 7 is a follow chart of the part related to the embodiment of the present invention in the camera server 1, and is activated when a pan, tilt or zoom command is received from the user terminal. When this program is activated, the position of the new distribution area is calculated using the calculation unit 108 from the movement amount or zoom amount of the distribution area according to the command in step S101, and all distribution areas including the new distribution area are calculated. Is calculated. In step S102, the outer peripheral area calculated in step S101 is centered in the imaging area, and the process proceeds to step S103. This centering will be described later in detail. In step S103, it is checked whether or not the outer peripheral area calculated in step S101 fits within the imaging area. If so, the process proceeds to step S105, and if not, the process proceeds to step S104. In step S104, the zoom ratio required to fit the outer peripheral area within the imaging area is calculated using the calculation unit 108, and the actual zoom ratio is changed using the control unit 107 (in this case, the zoom-out is performed). However, since the distribution image size is reduced when zooming out here, the image processing unit 103 is used to enlarge the original image size. In the next step S105, image distribution is started in the new distribution area in response to the result of centering in step S102 or the result of zooming out in step S104, and this program is terminated.

以下図3および図4を用いて、配信画像作成の過程を説明する。図3(a)において、1101は撮像素子によって一度に撮像可能な領域を示し、前述のようにその解像度は2000×1500画素である。2101、3101、4101はそれぞれ各ユーザ端末2、3、4への配信画像であり、その解像度は前述したようにそれぞれ640×480、640×480、320×240である。1501は配信画像2101、3101、4101の外周を結んだ領域であり、この場合、上辺は2101の上辺、左辺は2101の左辺、下辺は4101の下辺、右辺は3101の右辺で決定しており、この場合のサイズは1200×900画素である。また、図中の矢印で示した数字は各辺と撮像領域1101の外周との間の画素数を示している。この状態で、領域1501は撮像領域1101の中で上下、左右ともにセンタリングされており、上下に各300画素、左右に各400画素の空き領域がある。   Hereinafter, the process of creating a distribution image will be described with reference to FIGS. In FIG. 3A, reference numeral 1101 denotes an area that can be imaged at one time by the image sensor, and the resolution is 2000 × 1500 pixels as described above. Reference numerals 2101, 3101, and 4101 denote distribution images to the user terminals 2, 3, and 4, respectively, and the resolutions are 640 × 480, 640 × 480, and 320 × 240, respectively, as described above. Reference numeral 1501 denotes an area connecting the outer peripheries of the distribution images 2101, 3101, and 4101. In this case, the upper side is determined by the upper side of 2101, the left side is the left side of 2101, the lower side is the lower side of 4101, and the right side is determined by the right side of 3101. The size in this case is 1200 × 900 pixels. The numbers indicated by arrows in the figure indicate the number of pixels between each side and the outer periphery of the imaging region 1101. In this state, the area 1501 is centered both vertically and horizontally within the imaging area 1101, and there are 300 pixels above and below and 400 pixels each left and right.

ここで、ユーザが端末3のスクロールバー502、503を操作して、配信画像が3101から右へ200画素、下へ300画素移動する場合を考える(図3(b)の3102の位置)。領域2101、3102、4101の外周を結んだ領域1502は、上へ300画素、下へ100画素、左へ400画素、右へ200画素の空き領域が存在する位置にある。この領域1502を撮像素子領域内でセンタリングするため、まず光学的パン、チルト機構を用いることで撮像素子を右へ100画素分、下へ100画素分移動させる(回転させる)。この位置が図3(c)の1102である。次に、撮像領域1102上での配信画像領域を図3(b)の2101、3102、4101の位置から上へ100画素、左へ100画素移動して切り出すように変更することで、図3(c)の2102、3103、4102が配信画像となり、その外周領域1503は撮像領域1503内に収まり、かつセンタリングされる。   Here, consider a case where the user operates the scroll bars 502 and 503 of the terminal 3 to move the distribution image 200 pixels to the right and 300 pixels downward from the position 3101 (position 3102 in FIG. 3B). A region 1502 connecting the outer peripheries of the regions 2101, 3102, and 4101 is at a position where there is an empty region of 300 pixels upward, 100 pixels downward, 400 pixels left, and 200 pixels right. In order to center this region 1502 within the image sensor region, the image sensor is first moved 100 pixels to the right and 100 pixels downward (rotated) by using an optical pan and tilt mechanism. This position is 1102 in FIG. Next, the distribution image area on the imaging area 1102 is changed by moving 100 pixels upward from the positions 2101, 3102, and 4101 in FIG. c) 2102, 3103, and 4102 are distribution images, and the outer peripheral area 1503 falls within the imaging area 1503 and is centered.

この結果、配信画像2102は2101と、4102は4101と等しく変化なく、かつ配信画像3101はユーザの指示通り、3101から右へ200画素、下へ300画素移動した3103として配信され、それらの外周1503は撮像領域1102内でセンタリングされている。外周領域をセンタリングする目的は、周囲の空き領域を均一化することで、どの方向へ来るか分からない、ユーザ端末からのカメラ制御に平均的に対処するためである。   As a result, the distribution image 2102 is the same as 2101 and 4102 is not equal to 4101, and the distribution image 3101 is distributed as 3103 moved from 3101 to the right by 200 pixels and down by 300 pixels as instructed by the user. Are centered within the imaging area 1102. The purpose of centering the outer peripheral area is to averagely deal with camera control from the user terminal, which is unknown in which direction, by making the surrounding empty areas uniform.

図4(a)は図3(a)と全く等価な図であり、1201は撮像素子によって一度に撮像可能な領域を示し、その解像度は2000×1500画素、2201、3201、4201はそれぞれ各ユーザ端末2、3、4への配信画像であり、その解像度はそれぞれ640×480画素、640×480画素、320×240画素、1601は配信画像2201、3201、4201の外周を結んだ領域であり、この場合のサイズは1200×900画素である。   FIG. 4A is a diagram completely equivalent to FIG. 3A, in which 1201 indicates an area that can be imaged at once by the image sensor, and the resolution is 2000 × 1500 pixels, 2201, 3201, and 4201 each for each user. The distribution images to the terminals 2, 3, and 4 have resolutions of 640 × 480 pixels, 640 × 480 pixels, 320 × 240 pixels, and 1601, respectively, that are regions connecting the outer periphery of the distribution images 2201, 3201, and 4201. The size in this case is 1200 × 900 pixels.

ここで、ユーザが端末3のスクロールバー502を操作して、配信画像が3101から右へ1000画素移動する場合を考える(図3(a)の矢印3301)。図3で説明したように、配信領域3201の移動後の領域を含む配信領域の外周は、図4(b)のような位置関係となり、撮像領域1602内に収まらなくなってしまう。よって、図6で説明したように、撮像領域内に外周領域を収めるために必要なズーム率を演算部108を用いて算出し、制御部107を用いて実際のズーム率を変更する。ここでは、ズーム率を0.8倍として縮小した結果が図4(c)である。図中、1203は撮像領域、1603は配信画像の外周領域でそのサイズは1720×720画素、ユーザ端末2、3、4への配信画像である2202、3203、4202はそれぞれ512×384画素、512×384画素、256×192画素となっている。また1603の周辺には上下に各390画素、左右に各120画素の空き領域がある。このように、2202、3203、4202の配信領域まで縮小されてしまうので、画像処理部103を用いて拡大処理を行い、それぞれ640×480画素、640×480画素、320×240画素に戻した後に、各ユーザ端末に配信する。   Here, consider a case where the user operates the scroll bar 502 of the terminal 3 and the distribution image moves 1000 pixels to the right from 3101 (arrow 3301 in FIG. 3A). As described with reference to FIG. 3, the outer periphery of the distribution area including the moved area of the distribution area 3201 has a positional relationship as illustrated in FIG. 4B, and does not fit in the imaging area 1602. Therefore, as described with reference to FIG. 6, the zoom ratio necessary to fit the outer peripheral area within the imaging area is calculated using the calculation unit 108, and the actual zoom ratio is changed using the control unit 107. Here, FIG. 4C shows a result obtained by reducing the zoom ratio to 0.8. In the figure, reference numeral 1203 denotes an imaging area, reference numeral 1603 denotes an outer peripheral area of a distribution image, the size of which is 1720 × 720 pixels, and distribution images 2202, 3203, and 4202 to user terminals 2, 3, and 4 are 512 × 384 pixels and 512, respectively. × 384 pixels, 256 × 192 pixels. In the periphery of 1603, there are empty areas of 390 pixels on the top and bottom and 120 pixels on the left and right. In this way, since the distribution area is reduced to 2202, 3203, and 4202, the enlargement process is performed using the image processing unit 103, and after returning to 640 × 480 pixels, 640 × 480 pixels, and 320 × 240 pixels, respectively. , Distributed to each user terminal.

図3の説明の中で、光学的パン、チルト機構を用いることで撮像素子を右へ100画素分、下へ100画素分移動させると説明した。しかし、実際にはパン、チルト機構はそれぞれの駆動モータによる回転運動なので、以下に、図5を用いて移動画素数より回転角を求める方法を述べる。ただし、ここではパン機構を用いた左右方向の移動のみ説明する。チルト機構を用いた上下方向の移動については、全く同様の考え方を適用できるのでここでの説明は省略する。図中、1801はカメラの視点、X0は横方向の撮像画素数でありここでは2000画素、xは移動画素数、Pは撮影画角、αはxに対する中心角であり、ここで求めたい角度である。これらの関係を数式で表すと、
(X0/2)/tan(P/2)=x/tanα
これより、
tanα=(2x/X0)・tan(P/2)
α=arctan((2x/X0)・tan(P/2))
P=2000なので、撮影画角Pを80゜として100画素移動したい場合を計算してみると、
α=4.80゜
すなわち、図3の例では4.80゜分右へパンさせれば100画素分の移動となる。
In the description of FIG. 3, it has been described that the image pickup element is moved 100 pixels to the right and 100 pixels downward by using the optical pan / tilt mechanism. However, since the pan and tilt mechanisms are actually rotational movements by the respective drive motors, a method for obtaining the rotational angle from the number of moving pixels will be described below using FIG. However, here, only the horizontal movement using the pan mechanism will be described. Since the same concept can be applied to the vertical movement using the tilt mechanism, description thereof is omitted here. In the figure, 1801 is the viewpoint of the camera, X0 is the number of imaging pixels in the horizontal direction, here 2000 pixels, x is the number of moving pixels, P is the angle of view, α is the central angle with respect to x, and the angle to be obtained here It is. When these relationships are expressed by mathematical formulas,
(X0 / 2) / tan (P / 2) = x / tanα
Than this,
tan α = (2x / X0) · tan (P / 2)
α = arctan ((2x / X0) · tan (P / 2))
Since P = 2000, when calculating the case where it is desired to move 100 pixels by setting the shooting angle of view P to 80 °,
α = 4.80 ° In other words, in the example shown in FIG. 3, if the pan is moved to the right by 4.80 °, the movement is 100 pixels.

以上、演算にて回転角を求める方法を説明したが、これらをテーブル化してROM105内に記憶しておいても良い。   Although the method for obtaining the rotation angle by calculation has been described above, these may be tabulated and stored in the ROM 105.

ここまでの実施形態では、ユーザ端末として3端末の場合を例に説明したが、これに限られるものではなく、もっと多数、あるいは1端末の場合でも同様に適用できる。   In the embodiments described so far, the case of three terminals as user terminals has been described as an example. However, the present invention is not limited to this, and the present invention can be similarly applied to a larger number or one terminal.

以上説明したように、本発明の実施形態によれば、配信画像の外周が撮像領域のセンターに来るように自動的に制御し、それでも。配信画像の外周が撮像領域収まらなくなった場合、ズーム倍率の変更をして配信画像を撮像領域内に収める構成を取ったので、1台のカメラのみで複数ユーザが同時にカメラのパラメータを制御可能であり、かつ広角撮影の可能なカメラ制御システムを提供出来る。   As described above, according to the embodiment of the present invention, the outer periphery of the distribution image is automatically controlled so as to come to the center of the imaging region, and still. When the outer periphery of the distribution image does not fit in the imaging area, the zoom magnification is changed and the distribution image is stored in the imaging area, so multiple users can control camera parameters simultaneously with only one camera. There can be provided a camera control system capable of wide-angle shooting.

本発明の実施形態におけるカメラ制御システムの詳細な構成を示す図The figure which shows the detailed structure of the camera control system in embodiment of this invention 本発明の実施形態におけるカメラ制御システムの構成を示す図The figure which shows the structure of the camera control system in embodiment of this invention 本発明の実施形態における配信画像作成の過程を説明する図The figure explaining the process of the delivery image preparation in embodiment of this invention 本発明の実施形態における配信画像作成の過程を説明する図The figure explaining the process of the delivery image preparation in embodiment of this invention 本発明の実施形態における移動画素数より回転角を求める方法を説明する図The figure explaining the method of calculating | requiring a rotation angle from the number of moving pixels in embodiment of this invention. 本発明の実施形態におけるユーザ端末の動作を説明するフーチャートA chart explaining the operation of the user terminal in the embodiment of the present invention 本発明の実施形態におけるカメラサーバの動作を説明するフーチャートA flowchart explaining the operation of the camera server in the embodiment of the present invention 本発明の実施形態におけるユーザ端末のGUI画面の例を示す図The figure which shows the example of the GUI screen of the user terminal in embodiment of this invention

符号の説明Explanation of symbols

1 カメラサーバ
2 ユーザ端末
3 ユーザ端末
4 ユーザ端末
5 ネットワーク
102 カメラサーバの画像入力部
103 カメラサーバの画像処理部
104 カメラサーバの画像処置部
107 カメラサーバの制御部
108 カメラサーバの演算部
109 カメラサーバのコマンド通信部
110 カメラサーバのインターフェース部
202 ユーザ端末の画像入力部
203 ユーザ端末の表示部
204 ユーザ端末のコマンド通信部
207 ユーザ端末の画像受信部
208 ユーザ端末のインターフェース部
1 Camera server
2 User terminal
3 User terminal
4 User terminal
5 network
102 Camera server image input section
103 Image processing unit of camera server
104 Image processing unit of camera server
107 Camera server controller
108 Camera server computing unit
109 Command communication part of camera server
110 Camera server interface
202 Image input unit of user terminal
203 User terminal display
204 Command communication part of user terminal
207 Image receiving unit of user terminal
208 User terminal interface

Claims (2)

カメラサーバとユーザ端末とからなるカメラ制御システムであって、
ネットワークを介してカメラサーバにカメラ制御コマンドを送信する手段を備えたユーザ端末と、
ネットワークを介してユーザ端末に画像を配信する手段と
カメラの幾何学的パラメータを制御する制御手段と
前記カメラ制御コマンドを受け配信画像を変更する手段と
前記配信画像の外周領域を求める手段と
前記制御手段により前記外周領域を撮像領域の中心に位置させる手段とを備えたカメラサーバとで構成されるカメラ制御システム。
A camera control system comprising a camera server and a user terminal,
A user terminal comprising means for transmitting a camera control command to the camera server via a network;
Means for distributing an image to a user terminal via a network; control means for controlling a geometric parameter of the camera; means for changing the distribution image in response to the camera control command; means for determining an outer peripheral area of the distribution image; And a camera server comprising means for positioning the outer peripheral area at the center of the imaging area by means.
カメラサーバとユーザ端末とからなるカメラ制御システムであって、
ネットワークを介してカメラサーバにカメラ制御コマンドを送信する手段を備えたユーザ端末と、
ネットワークを介してユーザ端末に画像を配信する手段と
カメラの幾何学的パラメータを制御する制御手段と
前記カメラ制御コマンドを受け配信画像を変更する手段と
前記配信画像の外周領域を求める手段と
前記制御手段により前記外周領域を撮像領域の中心に位置させる手段と
前記外周領域と前記撮像領域とを比較する比較手段とを備えたカメラサーバとで構成され、
前記外周領域が前記撮像領域よりはみ出る場合には前記制御手段により撮像のズーム率を変更することを特徴とするカメラ制御システム。
A camera control system comprising a camera server and a user terminal,
A user terminal comprising means for transmitting a camera control command to the camera server via a network;
Means for distributing an image to a user terminal via a network; control means for controlling a geometric parameter of the camera; means for changing the distribution image in response to the camera control command; means for determining an outer peripheral area of the distribution image; A camera server comprising: means for positioning the outer peripheral region at the center of the imaging region by means; and comparing means for comparing the outer peripheral region and the imaging region.
The camera control system, wherein when the outer peripheral area protrudes from the imaging area, a zoom ratio of imaging is changed by the control means.
JP2005242810A 2005-08-24 2005-08-24 Camera control system Withdrawn JP2007060260A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005242810A JP2007060260A (en) 2005-08-24 2005-08-24 Camera control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005242810A JP2007060260A (en) 2005-08-24 2005-08-24 Camera control system

Publications (1)

Publication Number Publication Date
JP2007060260A true JP2007060260A (en) 2007-03-08

Family

ID=37923347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005242810A Withdrawn JP2007060260A (en) 2005-08-24 2005-08-24 Camera control system

Country Status (1)

Country Link
JP (1) JP2007060260A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013143592A (en) * 2012-01-06 2013-07-22 Canon Inc Information processor, information processing method of information processor, and program
CN113824870A (en) * 2020-08-21 2021-12-21 海信视像科技股份有限公司 Display device and camera angle adjusting method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013143592A (en) * 2012-01-06 2013-07-22 Canon Inc Information processor, information processing method of information processor, and program
CN113824870A (en) * 2020-08-21 2021-12-21 海信视像科技股份有限公司 Display device and camera angle adjusting method

Similar Documents

Publication Publication Date Title
US8089505B2 (en) Terminal apparatus, method and computer readable recording medium
JP3618891B2 (en) Camera control apparatus and camera control information display method
JP3762149B2 (en) Camera control system, camera server, camera server control method, camera control method, and computer-readable recording medium
US8823766B2 (en) Mobile terminal and method for transmitting image therein
JP5724346B2 (en) Video display device, video display system, video display method, and program
JP5063749B2 (en) Imaging control system, imaging apparatus control apparatus, control method therefor, and program
JP6618644B2 (en) Control device, control method, and program
KR101739318B1 (en) Display control apparatus, imaging system, display control method, and recording medium
JP2006245793A (en) Imaging system
JP6566626B2 (en) Imaging device
JP2016096481A (en) Control apparatus, photographing system, control method, and program
CN110351475B (en) Image pickup system, information processing apparatus, control method therefor, and storage medium
JP5847591B2 (en) Information processing apparatus, information processing method and program for information processing apparatus
JP3431953B2 (en) Camera control device and method
JP5631065B2 (en) Video distribution system, control terminal, network camera, control method and program
JP2007060260A (en) Camera control system
CN111131714A (en) Image acquisition control method and device and electronic equipment
US20180077379A1 (en) Image output apparatus, image output method, and storage medium
JP2021145192A (en) Video processing apparatus and control method thereof
JP2006222617A (en) Remote photography system, remote display controller, and remote photographic device
US11516404B2 (en) Control apparatus and control method
JP4507665B2 (en) How to register phone location information
JP2005176085A (en) Digital camera and monitoring system using it
JP5917175B2 (en) IMAGING DEVICE, IMAGING DEVICE DISTRIBUTION METHOD, IMAGING SYSTEM, AND PROGRAM
JP6724395B2 (en) Image display control device, image display control method, and image display control program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20081104