JP2002027425A - Image distribution device and method therefor - Google Patents

Image distribution device and method therefor

Info

Publication number
JP2002027425A
JP2002027425A JP2000202360A JP2000202360A JP2002027425A JP 2002027425 A JP2002027425 A JP 2002027425A JP 2000202360 A JP2000202360 A JP 2000202360A JP 2000202360 A JP2000202360 A JP 2000202360A JP 2002027425 A JP2002027425 A JP 2002027425A
Authority
JP
Japan
Prior art keywords
image
video
image quality
area
distributing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000202360A
Other languages
Japanese (ja)
Inventor
Hiroyuki Osawa
弘幸 大澤
Tomoaki Kawai
智明 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000202360A priority Critical patent/JP2002027425A/en
Publication of JP2002027425A publication Critical patent/JP2002027425A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To process and distribute images for a client whose accessible range is limited within the imaging region of a camera which can image a wider region than the imaging angle so as not to be able to clearly view the image of outside of the accessible region. SOLUTION: A camera server (2) which can distribute images obtained by a camera (1) has a memory part (18) which holds region information on a first region distributing images with a first image quality and on a second region distributing images with a second image quality lower than the first one, an image compressing part (16) which judges if the images from the camera includes the images of second region, which in case of excluding the images, processes to have the first image quality, and which in, case of including the images, processes to have the second image quality and additionally processes the first region images to have the first image quality, and a transmission controller (14) which distributes the processed images.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、映像配信装置及び
方法に関し、更に詳しくは、複数の外部装置により遠隔
操作可能な撮像装置から得られる映像を該複数の外部装
置に配信する映像配信装置及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video distribution device and method, and more particularly, to a video distribution device for distributing a video obtained from an imaging device which can be remotely controlled by a plurality of external devices to the plurality of external devices. About the method.

【0002】[0002]

【従来の技術】従来、ビデオカメラの映像を遠隔地の多
地点から観察できるシステムにおいて、単にカメラ映像
を観察するだけでなく、カメラのパン・チルト角度やズ
ーム倍率を遠隔制御可能にしたものがある。例えば、特
開平第10−42279号公報に開示されているよう
に、インターネット上のWWW(World Wide
Web)サーバを通じて、 コンピュータ制御可能なカ
メラを接続し、カメラから撮影したリアルタイム映像を
同じくインターネットに接続された1以上のPC(以
下、「クライアント」と呼ぶ。)に配送するだけでな
く、クライアントによるカメラの制御も許すようなシス
テムが提案されている。
2. Description of the Related Art Conventionally, in a system capable of observing an image of a video camera from multiple points in a remote place, not only a camera image is simply observed but also a pan / tilt angle and a zoom magnification of the camera can be remotely controlled. is there. For example, as disclosed in Japanese Patent Application Laid-Open No. Hei 10-42279, WWW (World Wide) on the Internet is disclosed.
Through a Web server, a computer-controllable camera is connected, and real-time video captured from the camera is delivered to one or more PCs (hereinafter, referred to as “clients”) also connected to the Internet, and also transmitted by a client. Systems that allow camera control have been proposed.

【0003】また、これらのシステムでは接続するクラ
イアントに応じて異なる制御権限を与える事によって、
カメラが撮影可能な範囲全域に亘って、撮影の為のカメ
ラ制御可能なクライアントや、撮影可能な範囲の内、そ
の一部分の撮影の為にのみカメラ制御を制限するクライ
アントを設定することが可能になっている。
In these systems, by giving different control authority depending on the connected client,
It is possible to set a client that can control the camera for shooting over the entire area where the camera can shoot, or a client that limits the camera control only for shooting a part of the area that can be shot. Has become.

【0004】このようなカメラを遠隔制御可能で複数人
に映像配送ができるようなシステムにおいては、ある範
囲を特定クライアントに見せたくない場合もある。例え
ば屋外に設置したカメラである一部分を撮影することに
より、プライバシーや著作権侵害が問題になることがあ
る。この為、特定クライアントに対しては、制御される
カメラの動作範囲に撮影禁止範囲を設けてカメラの撮影
範囲を限定したり、撮影禁止範囲の画像解像度を低下さ
せて送信することによって、プライバシーや著作権侵害
の問題に対応してきている。また、サーバのメンテナン
スを行う際に全範囲に亘って制御可能なクライアントを
用いて、映像の撮影カメラ制御等を行っている。
[0004] In such a system in which a camera can be remotely controlled and a video can be delivered to a plurality of persons, there is a case where a certain range is not desired to be shown to a specific client. For example, photographing a part of a camera installed outdoors may cause privacy and copyright infringement. For this reason, for specific clients, privacy is improved by providing a shooting prohibited range in the operation range of the camera to be controlled to limit the shooting range of the camera, or by reducing the image resolution of the shooting prohibited range and transmitting it. Addressing the issue of copyright infringement. In addition, when performing maintenance of the server, a camera that captures an image is controlled using a client that can be controlled over the entire range.

【0005】[0005]

【発明が解決しようとする課題】しかし、上記従来の制
御では、この全範囲制限可能なクライアントから映像の
撮影やカメラの操作を行っている際の映像は、撮影範囲
を一部のみに制限しているクライアントにも送信されて
しまい、プライバシーや著作権侵害の問題が発生してし
まう。このように、特権を持つクライアントと持たない
クライアントが同時に映像を閲覧する場合に問題が生
じ、実際のシステムの運用で発生する細かいニーズに対
して柔軟に対応できるシステムではなかった。
However, in the above-described conventional control, when a camera capable of capturing an image or operating a camera is limited to the entire range, the image capturing range is limited to only a part. And it can be sent to other clients, creating privacy and copyright infringement issues. As described above, a problem arises when a privileged client and a non-privileged client simultaneously view a video, and the system is not a system that can flexibly cope with detailed needs generated in actual system operation.

【0006】本発明は上記問題点に鑑みてなされたもの
であり、画角より広い領域を撮影可能なカメラの撮影可
能範囲の内、閲覧可能な範囲を制限されているクライア
ントが、閲覧可能な範囲以外の映像を明確に見ることが
できないように映像を処理し、配信することを目的とす
る。
[0006] The present invention has been made in view of the above-mentioned problems, and enables a client whose viewing range is limited, within a shooting range of a camera capable of shooting an area wider than the angle of view, to be viewed. An object of the present invention is to process and distribute a video so that the video outside the range cannot be clearly seen.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に、複数の外部装置により遠隔制御可能な撮像装置から
得られる映像を、該複数の外部装置に配信可能な本発明
の映像配信装置は、前記外部装置毎に、前記撮像装置の
撮影可能領域の内、第1の画質で前記映像を配信する第
1の領域と、前記第1の画質よりも低い第2の画質で前
記映像を配信する第2の領域とに関する領域情報を保持
する保持手段と、前記保持手段に保持された領域情報に
基づいて、前記撮像装置から得られる映像が前記第2の
領域の映像を含んでいるか否かを配信先の各外部装置毎
に判断する判断手段と、前記判断手段により含んでいな
いと判断された場合に、前記撮像装置からの映像を前記
第1の画質となるように処理し、含んでいると判断され
た場合に、前記撮像装置からの映像を前記第2の画質と
なるように処理し、さらに前記第1の領域の映像を前記
第1の画質となるように処理する処理手段と、前記処理
手段により処理された映像を配信する配信手段とを有す
る。
In order to achieve the above object, a video distribution apparatus of the present invention capable of distributing an image obtained from an imaging device which can be remotely controlled by a plurality of external devices to the plurality of external devices is provided. Delivering, for each of the external devices, a first area for delivering the video with a first image quality in a photographable area of the imaging device, and delivering the video with a second image quality lower than the first image quality. Holding means for holding area information relating to a second area to be set, and whether or not an image obtained from the imaging device includes an image of the second area based on the area information held by the holding means Determining means for each of the external devices of the distribution destination, and processing the image from the imaging device to have the first image quality when it is determined that the external image is not included by the determining means. If it is determined that Processing means for processing an image from the device so as to have the second image quality, and further processing the image in the first area so as to have the first image quality; and processing the image processed by the processing means Distribution means for distributing.

【0008】また、複数の外部装置により遠隔制御可能
な撮像装置から得られる映像を、該複数の外部装置の少
なくとも1つに配信する本発明の映像配信方法は、前記
外部装置毎に、前記撮像装置の撮影可能領域の内、第1
の画質で前記映像を配信する第1の領域と、前記第1の
画質よりも低い第2の画質で前記映像を配信する第2の
領域とに関する領域情報を設定する設定工程と、前記設
定工程で設定された領域情報に基づいて、前記撮像装置
から得られる映像が前記第2の領域の映像を含んでいる
か否かを配信先の各外部装置毎に判断する判断工程と、
前記判断工程において含んでいないと判断された場合
に、前記撮像装置からの映像を前記第1の画質となるよ
うに処理する第1の処理工程と、前記判断工程において
含んでいると判断された場合に、前記撮像装置からの映
像を前記第2の画質となるように処理し、さらに前記第
1の領域の映像を前記第1の画質となるように処理する
第2の処理工程と、前記第1または第2の処理工程にお
いて処理された映像を配信する配信工程とを有する。
[0008] Further, according to the video distribution method of the present invention for distributing a video obtained from an imaging device which can be remotely controlled by a plurality of external devices to at least one of the plurality of external devices, The first of the photographable areas of the device
A setting step of setting area information relating to a first area for distributing the video with a second image quality and a second area for distributing the video with a second quality lower than the first image quality; and the setting step. Based on the area information set in, a determination step of determining for each external device of the distribution destination whether the video obtained from the imaging device includes the video of the second area,
When it is determined that the image is not included in the determining step, it is determined that the image from the imaging device is included in the first processing step of processing the image from the imaging device to have the first image quality. A second processing step of processing the image from the imaging device to have the second image quality, and further processing the image of the first area to have the first image quality; And a distribution step of distributing the video processed in the first or second processing step.

【0009】本発明の好適な一様態によれば、前記判断
手段により含んでいると判断された場合における前記第
1の領域の映像を前記第1の画質となるようにする処理
では、前記第1の領域の前記第1の画質の映像と、前記
第1の領域の前記第2の画質の映像との差分データを
得、また、
According to a preferred aspect of the present invention, in the processing for making the image of the first area have the first image quality when the image is judged to be included by the judgment means, Obtaining difference data between the first quality image in the first area and the second quality image in the first area;

【0010】前記第2の処理工程における前記第1の領
域の映像を前記第1の画質となるようにする処理では、
前記第1の領域の前記第1の画質の映像と、前記第1の
領域の前記第2の画質の映像との差分データを得る。更
に、本発明の好適な一様態によれば、前記判断手段によ
り含んでいると判断された場合に、前記配信手段は、前
記第2の画質の映像を配信し、その後に前記差分データ
を配信し、前記判断工程において含んでいると判断され
た場合に、前記配信工程では、前記第2の画質の映像を
配信し、その後に前記差分データを配信する。
[0010] In the processing for making the image of the first area have the first image quality in the second processing step,
Difference data between the video of the first quality in the first area and the video of the second quality in the first area is obtained. Further, according to a preferred aspect of the present invention, when it is determined by the determination unit that the image data is included, the distribution unit distributes the video of the second image quality, and then distributes the difference data. Then, when it is determined in the determining step that the image is included, in the delivering step, the video of the second image quality is delivered, and then the difference data is delivered.

【0011】好ましくは、前記保持手段は、各外部装置
毎に設定された等級を更に保持し、前記第2の画質は等
級に応じて異なる。また、上記映像配信方法は各外部装
置毎に等級を設定する工程を更に有し、前記第2の画質
は等級に応じて異なる。
Preferably, the holding means further holds a grade set for each external device, and the second image quality differs according to the grade. Further, the video distribution method further includes a step of setting a grade for each external device, and the second image quality differs according to the grade.

【0012】また、上記目的を達成するために、複数の
外部装置により遠隔制御可能な撮像装置から得られる映
像を、該複数の外部装置に配信可能な本発明の別の映像
配信装置は、所定の複数の画質と、前記撮像装置の撮影
可能領域の内、該複数の画質のいずれかで前記映像を配
信する領域に関する領域情報とをそれぞれ対応づけて、
前記複数の外部装置毎に保持する保持手段と、前記保持
手段に保持された領域情報に基づいて、前記撮影装置か
ら得られる映像を単一の画質で配信するか、複数の画質
で配信するかを送信先の各外部装置毎に判断する判断手
段と、前記判断手段により単一の画質で画像を配信する
と判断された場合に、前記撮像装置からの映像を当該画
質となるように処理し、複数の画質で配信すると判断さ
れた場合に、前記映像が最も低い画質となるように処理
し、更に段階的に、より高い画質で配信する領域の映像
を、当該領域に対応する画質となるように処理する処理
手段と、前記処理手段により処理された映像を配信する
配信手段とを有する。
According to another aspect of the present invention, there is provided another image distribution apparatus capable of distributing an image obtained from an imaging device remotely controllable by a plurality of external devices to the plurality of external devices. A plurality of image qualities and, among the photographable areas of the imaging device, the area information regarding the area for distributing the video with any of the plurality of image qualities, respectively,
Holding means for holding each of the plurality of external devices, and, based on the area information held in the holding means, whether to deliver a video obtained from the imaging device with a single image quality or with a plurality of image quality A determination means for determining each of the external devices of the transmission destination, and when it is determined that the image is distributed with a single image quality by the determination means, processing the video from the imaging device to have the image quality, If it is determined that the image is to be distributed with a plurality of image qualities, the image is processed so as to have the lowest image quality. And a distribution unit for distributing the video processed by the processing unit.

【0013】更に、複数の外部装置により遠隔制御可能
な撮像装置から得られる映像を、該複数の外部装置の少
なくとも1つに配信する本発明の別の映像配信方法は、
所定の複数の画質と、前記撮像装置の撮影可能領域の
内、該複数の画質のいずれかで前記映像を配信する領域
に関する領域情報とをそれぞれ対応づけて、前記複数の
外部装置毎に設定する設定工程と、前記設定工程で設定
された領域情報に基づいて、前記撮影装置から得られる
映像を単一の画質で配信するか、複数の画質で配信する
かを送信先の各外部装置毎に判断する判断工程と、前記
判断工程において単一の画質で画像を配信すると判断さ
れた場合に、前記撮像装置からの映像を当該画質となる
ように処理する第1の処理工程と、前記判断工程におい
て複数の画質で配信すると判断された場合に、前記映像
が最も低い画質となるように処理し、更に段階的に、よ
り高い画質で配信する領域の映像を、当該領域に対応す
る画質となるように処理する第2の処理工程と、前記第
1または第2の処理工程において処理された映像を配信
する配信工程とを有する。
Further, another video distribution method of the present invention for distributing a video obtained from an imaging device which can be remotely controlled by a plurality of external devices to at least one of the plurality of external devices,
A plurality of predetermined image qualities are set for each of the plurality of external devices by associating region information relating to a region for distributing the video with any of the plurality of image qualities of the image capturing device of the imaging device. The setting step, based on the area information set in the setting step, whether to deliver the video obtained from the imaging device with a single image quality, or whether to deliver a plurality of image quality for each external device of the transmission destination A judging step of judging, a first processing step of processing a video from the imaging device to have the image quality when it is judged in the judging step that the image is to be distributed with a single image quality, and the judging step If it is determined that the image is to be distributed with a plurality of image qualities, the image is processed so as to have the lowest image quality, and further, the image of the region to be distributed with higher image quality becomes the image quality corresponding to the region. like Having a second processing step of management, and a distribution step for distributing the image processed in the first or second treatment step.

【0014】本発明の好適な一様態によれば、前記判断
手段により複数の画質で配信すると判断された場合にお
ける、より高い画質で配信する領域の映像を当該領域に
対応する画質となるようにする処理では、より高い画質
の映像と、当該画質よりも1段階低い画質の映像との差
分データを得、前記第2の処理工程における、より高い
画質で配信する領域の映像を当該領域に対応する画質と
なるようにする処理では、より高い画質の映像と、当該
画質よりも1段階低い画質の映像との差分データを得
る。
According to a preferred aspect of the present invention, when the determination means determines that the image is to be distributed with a plurality of image qualities, the image of the area to be distributed with higher image quality is set to have the image quality corresponding to the area. In the processing, the difference data between the higher-quality video and the video having one lower quality than the higher quality is obtained, and the video of the area to be distributed with higher quality in the second processing step corresponds to the corresponding area. In the processing for achieving the image quality to be obtained, difference data between a video having a higher image quality and a video having an image quality one step lower than the image quality is obtained.

【0015】更に、本発明の好適な一様態によれば、前
記判断手段により複数の画質で配信すると判断された場
合に、前記配信手段は、最も低い画質の映像を配信し、
その後に段階的に前記差分データを配信し、前記判断工
程において複数の画質で配信すると判断された場合に、
前記配信工程では、最も低い画質の映像を配信し、その
後に段階的に前記差分データを配信する。
Further, according to a preferred aspect of the present invention, when the determination means determines that the image is to be distributed with a plurality of image qualities, the distribution means distributes the video of the lowest image quality,
After that, the difference data is distributed stepwise, and when it is determined in the determination step that the image data is to be distributed with a plurality of image quality,
In the distribution step, the video with the lowest image quality is distributed, and then the difference data is distributed stepwise.

【0016】また、本発明の好適な一様態によれば、前
記判断手段は、領域情報と、前記撮像装置の制御状態に
基づいて判断し、前記判断工程では、領域情報と、前記
撮像装置の制御状態に基づいて判断する。
According to a preferred aspect of the present invention, the determination means makes a determination based on the area information and a control state of the imaging apparatus. The judgment is made based on the control state.

【0017】好ましくは、前記制御状態は、パン・チル
トの状態を含み、更に好ましくは、ズームの状態を含
む。
Preferably, the control state includes a pan / tilt state, and more preferably, a zoom state.

【0018】また、本発明の好適な一様態によれば、前
記映像配信装置は、前記外部装置毎の領域情報を設定す
る設定手段を更に有する。
According to a preferred aspect of the present invention, the video distribution device further includes a setting unit for setting area information for each of the external devices.

【0019】[0019]

【発明の実施の形態】以下、添付図面を参照して本発明
の好適な実施の形態を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

【0020】図1は、本発明の実施の形態にかかるシス
テム構成の概略を示す。
FIG. 1 schematically shows a system configuration according to an embodiment of the present invention.

【0021】1は雲台及びカメラヘッドからなるカメラ
装置であり、2はカメラサーバ装置である。カメラ装置
1は、カメラサーバ装置2からのカメラ制御コマンドを
受け付けることが可能であり、カメラ制御コマンドによ
ってパン・チルト・ズームを変更することが可能であ
る。
Reference numeral 1 denotes a camera device including a camera platform and a camera head, and reference numeral 2 denotes a camera server device. The camera device 1 can receive a camera control command from the camera server device 2, and can change pan, tilt, and zoom according to the camera control command.

【0022】また、3はネットワークを示し、後で述べ
るカメラ制御信号、圧縮した映像信号を通すのに十分な
帯域があるインターネットやイントラネット等のディジ
タルネットワークであれば何でもよい。なお、ここでは
ネットワークプロコルとしてTCP/IP(UDP/I
P)プロトコルを使用するものとし、以下アドレスとい
った場合にはIPアドレスを指すこととする。またカメ
ラサーバ装置2、後述のクライアント装置4共にIPア
ドレスを割り当てられているものとする。
Reference numeral 3 denotes a network, which may be any digital network such as the Internet or an intranet having a sufficient band for passing a camera control signal and a compressed video signal described later. Here, TCP / IP (UDP / I) is used as the network protocol.
P) The protocol shall be used. In the following, an address will refer to an IP address. It is also assumed that both the camera server device 2 and a client device 4 described below are assigned IP addresses.

【0023】4はカメラサーバ装置2が送信する映像デ
ータを受信するクライアント装置(表示操作端末)であ
る。カメラサーバ装置2及びクライアント装置4は、ネ
ットワーク3を介して接続されている。
Reference numeral 4 denotes a client device (display operation terminal) for receiving video data transmitted by the camera server device 2. The camera server device 2 and the client device 4 are connected via a network 3.

【0024】クライアント装置4は、映像受信の為のソ
フトウェアを内部記憶媒体または外部記憶媒体から読み
込んで保持しており、これによってカメラサーバ装置2
の映像を受信し、ディスプレイ装置5にその映像を表示
させることができる。
The client device 4 reads and holds software for receiving an image from an internal storage medium or an external storage medium.
Can be received and the display device 5 can display the image.

【0025】カメラサーバ装置2は、カメラ装置1によ
り取り込んだ映像をクライアント装置4に配信するとと
もに、クライアント装置4からのカメラ制御コマンドを
受け付け、カメラ装置1のズーム倍率や雲台を制御す
る。
The camera server device 2 distributes an image captured by the camera device 1 to the client device 4, receives a camera control command from the client device 4, and controls the zoom magnification and the camera platform of the camera device 1.

【0026】なお、クライアント装置及びディスプレイ
装置は、複数組をネットワーク3に接続することが可能
であるが、図1では簡略化のためにその内の1組を示し
ている。
Although a plurality of client devices and display devices can be connected to the network 3, only one of them is shown in FIG. 1 for simplicity.

【0027】図2は、図1に示すカメラ装置1及びカメ
ラサーバ装置2からなるカメラシステム10と、クライ
アント装置4及びディスプレイ装置5からなるクライア
ントシステム20の機能構成をより詳しく説明したブロ
ック図である。
FIG. 2 is a block diagram illustrating in detail the functional configuration of the camera system 10 including the camera device 1 and the camera server device 2 and the client system 20 including the client device 4 and the display device 5 shown in FIG. .

【0028】カメラサーバシステム10は、ビデオカメ
ラ11、ビデオカメラ11の雲台でありパン・チルト角
度を制御する可動雲台装置12、ビデオカメラ11の視
野角(ズーム倍率)や可動雲台装置12のパンチルト角
度を制御するカメラ・雲台制御部13、ビデオカメラ1
1からの映像を取り込む映像入力部15、取り込んだ映
像データを圧縮する映像圧縮部16、圧縮した映像デー
タをネットワーク3上に配信し、またネットワーク3経
由でクライアントシステム20からコマンドを受信する
通信制御部14、受信したコマンドを解釈し、カメラサ
ーバシステム10の各部を制御するコマンド解釈・実行
部17、各部間のデータ受け渡しに用いる記憶装置18
から構成される。
The camera server system 10 includes a video camera 11, a camera platform of the video camera 11, a movable camera platform device 12 for controlling a pan / tilt angle, a viewing angle (zoom magnification) of the video camera 11, and a movable camera platform device 12. Camera / head control unit 13 for controlling pan / tilt angle of camera, video camera 1
1, a video input unit 15 for receiving the video data, a video compression unit 16 for compressing the captured video data, and a communication control for distributing the compressed video data to the network 3 and receiving a command from the client system 20 via the network 3. A command interpreting / executing unit 17 for interpreting the received command and controlling each unit of the camera server system 10, and a storage device 18 used for data transfer between the units
Consists of

【0029】映像入力部15では、ビデオカメラ11か
らのNTSC映像信号を取り込んでA/D変換後、映像
圧縮部16に渡し、映像圧縮部16は受信したデジタル
映像信号をMotionJEPGで圧縮し、圧縮された
映像信号は通信制御部14からネットワーク3上に送出
される。なお、ここでは映像の圧縮形式として、Mot
ionJEPG圧縮としたが、本発明は圧縮形式に制限
されるものではない。同様にビデオカメラ11が出力す
る信号方式についてもNTSC映像信号に制限されるも
のではない。また、ビデオカメラ11が直接デジタルデ
ータを出力する場合もあり、その場合は、映像入力部1
5ではA/D変換を行う必要は無い。
The video input unit 15 takes in the NTSC video signal from the video camera 11, performs A / D conversion, and passes it to the video compression unit 16. The video compression unit 16 compresses the received digital video signal using Motion JEPG, and compresses the digital video signal. The transmitted video signal is transmitted from the communication control unit 14 onto the network 3. It should be noted that here, as a video compression format,
Although ionJPEG compression is used, the present invention is not limited to a compression format. Similarly, the signal system output by the video camera 11 is not limited to the NTSC video signal. In some cases, the video camera 11 directly outputs digital data. In this case, the video input unit 1
In A.5, there is no need to perform A / D conversion.

【0030】次にクライアントシステム20について説
明する。
Next, the client system 20 will be described.

【0031】カメラサーバシステム10から送信された
圧縮映像データは、ネットワーク3及び通信制御部21
を介して受信され、映像伸長部25で伸長され、映像表
示部26で表示される。またクライアントシステム20
上のユーザインタフェースの操作により、カメラ制御や
画像蓄積保存操作等ができるようになっているものとす
る。これらの画面表示・操作の制御は表示制御部24が
行う。
The compressed video data transmitted from the camera server system 10 is transmitted to the network 3 and the communication control unit 21.
, Is decompressed by the video decompression unit 25, and is displayed on the video display unit 26. Also, the client system 20
It is assumed that camera control, image storage / save operation, and the like can be performed by operating the above user interface. The display control section 24 controls these screen displays and operations.

【0032】映像表示部26はビットマップデスプレイ
を含み、図3に示すようなユーザインタフェース画面を
構成できるWindows(登録商標)95やX−Wi
ndow等、何らかのウィンドウシステムがクライアン
トシステム20上で稼働している。
The video display unit 26 includes a bitmap display, and a Windows (registered trademark) 95 or X-Wi that can form a user interface screen as shown in FIG.
Some window system such as “now” is running on the client system 20.

【0033】図3において、30は映像を表示する映像
表示パネル、32、33、34はカメラ制御スクロール
バーであり、これらを操作することで、それぞれカメラ
のパン、チルト、ズームを制御することができる。
In FIG. 3, reference numeral 30 denotes an image display panel for displaying an image, and reference numerals 32, 33, and 34 denote camera control scroll bars. By operating these, the pan, tilt, and zoom of the camera can be controlled. it can.

【0034】なお、カメラサーバシステム10には同時
に複数のクライアントからアクセスされることを想定し
ており、その場合、複数のクライアントが同時にカメラ
操作を試みると混乱が生じる。従って、制御権という概
念を導入し、制御権を持つユーザのみがカメラを制御で
きるようになっている。
It is assumed that a plurality of clients access the camera server system 10 at the same time. In this case, confusion occurs when a plurality of clients try to operate the camera at the same time. Therefore, the concept of control authority is introduced, and only a user having the control authority can control the camera.

【0035】例えば、あるクライアントがカメラ装置1
の制御を希望する場合、カメラサーバ装置2に対して制
御権を要求し、その時点でカメラ装置1の制御権を有す
るクライアントが存在しない場合には、制御権を要求し
たクライアントに対して制御権が与えられる。制御権は
一定時間与えられ、制御権を有している間は、カメラ装
置1を制御することができる。また、制御権を要求した
時に、他のクライアントがカメラ装置1の制御権を有し
ている場合、そのクライアントの制御権が切れた後に制
御権が与えられる。なお、制御権が与えられる時間、ク
ライアントの優先順位などは様々に設定することが可能
である。制御権の詳しい説明についても、特開平第10
−42279号公報に開示されている。
For example, when a client is the camera device 1
Requesting the control right to the camera server device 2, and if there is no client having the control right of the camera device 1 at that time, the control right is requested to the client requesting the control right. Is given. The control right is given for a certain time, and the camera device 1 can be controlled while having the control right. If another client has the control right of the camera device 1 when requesting the control right, the control right is given after the control right of the client is cut off. The time when the control right is given, the priority of the client, and the like can be variously set. For a detailed description of the control right, see also
-42279.

【0036】このように、スクロールバー32、33、
34によるカメラ制御は、クライアント装置4にカメラ
装置1の制御権が与えられている間のみ有効である。ユ
ーザは、操作開始ボタン31を押下することにより制御
権を要求することができる。操作開始ボタン31の押下
に応じてクライアント装置4はカメラサーバ装置2に制
御権の要求を送り、制御権を獲得できれば、スクロール
バー32、33、34による操作ができるようになる。
Thus, the scroll bars 32, 33,
The camera control by 34 is effective only while the control right of the camera device 1 is given to the client device 4. The user can request the control right by pressing the operation start button 31. In response to the pressing of the operation start button 31, the client device 4 sends a request for a control right to the camera server device 2, and if the control right can be obtained, the operation with the scroll bars 32, 33, 34 becomes possible.

【0037】次に、本発明の実施の形態における画像配
信制御の概念について図4乃至図9を参照して説明す
る。
Next, the concept of image distribution control according to the embodiment of the present invention will be described with reference to FIGS.

【0038】図4において、51はビデオカメラ11の
撮影可能範囲を示す。この撮像可能範囲51はビデオカ
メラ11のズームレンズや、可動雲台装置12の可動範
囲などハードウェアによる限界の値をモデル化したもの
である。52はあるクライアントに対して許可されてい
る映像可視範囲である。これは、撮像可能範囲51全体
をクライアントが見ることができた場合にプライバシー
や著作権などの問題が生じる可能性があるような場合
に、管理者がクライアントが見てもよいとする範囲を、
カメラを設置する場所や運営形態などに応じて設定した
ものである。53は映像可視範囲52の設定に伴って、
クライアントが見ることのできない映像不可視範囲であ
る。54はビデオカメラ11のズームレンズが広角端に
ある場合の視野を示すものであり、可動雲台装置12の
パン・チルト制御により移動する。上記各範囲の情報
は、カメラサーバ装置2が保持している。
In FIG. 4, reference numeral 51 denotes a photographable range of the video camera 11. The imageable range 51 is a model of a limit value by hardware such as a zoom lens of the video camera 11 and a movable range of the movable pan head device 12. Reference numeral 52 denotes an image visible range permitted for a certain client. This is a range in which the administrator may view the client in a case where a problem such as privacy or copyright may occur when the client can view the entire imageable range 51.
This is set according to the place where the camera is installed, the form of operation, and the like. 53 is set according to the setting of the video visible range 52,
The video is not visible to the client. Reference numeral 54 denotes a field of view when the zoom lens of the video camera 11 is at the wide-angle end, and moves by pan / tilt control of the movable pan head device 12. The information of each of the above ranges is held by the camera server device 2.

【0039】映像可視範囲52はクライアントに応じて
決めることが可能である。図5は、各クライアントに対
して設定されている、映像可視範囲52の情報例を示
す。
The video visible range 52 can be determined according to the client. FIG. 5 shows an example of information of the video visible range 52 set for each client.

【0040】図6は、ビデオカメラ11により撮影中の
映像をクライアントシステム20に送信する場合の画像
処理概念を示す図である。なお、図4と同じ参照番号は
同様の範囲を示すものとする。
FIG. 6 is a diagram showing the concept of image processing when transmitting a video being captured by the video camera 11 to the client system 20. The same reference numerals as those in FIG. 4 indicate the same ranges.

【0041】図6(a)に示す例では、カメラ装置1に
より撮影中の映像(視野)54の一部のみがクライアン
トの映像可視範囲52にかかっており、残りの画像領域
は映像不可視範囲53に属している。
In the example shown in FIG. 6A, only a part of the image (field of view) 54 being photographed by the camera device 1 covers the image visible range 52 of the client, and the remaining image region is the image invisible range 53. Belongs to

【0042】カメラサーバ装置2は、常にカメラ装置1
の撮影範囲と映像可視範囲との演算を行い、現状の撮影
映像が、映像可視範囲に入っているかどうかを把握す
る。そして、カメラサーバ装置2は、撮影映像を送信す
る際に、撮影映像(図6(b)、54)の内、映像不可
視範囲の画像53’には低解像度化処理を行ってから圧
縮する。また、映像可視範囲の画像52’に対しては特
に加工を行わず、圧縮する。
The camera server device 2 always has the camera device 1
The photographing range and the video visible range are calculated to determine whether or not the current photographed video is within the video visible range. Then, when transmitting the captured video, the camera server device 2 performs a resolution reduction process on the image 53 ′ in the video invisible range in the captured video (FIGS. 6B and 54) and compresses the image. Further, the image 52 'in the video visible range is compressed without any particular processing.

【0043】画像を低解像度にする手法としては、モザ
イク処理やフォーカスをぼかす処理、一定のマスクを与
える処理、一定のノイズを画像に与える処理など、既知
のいずれの方法を用いてもよい。
As a method of reducing the resolution of the image, any known method such as a mosaic process, a process for blurring the focus, a process for applying a certain mask, and a process for giving a certain noise to the image may be used.

【0044】更に、カメラサーバ装置2は、管理者など
の映像可視範囲の制限を受けないクライアントの為に、
図6(c)に示すような画像に対応する画像データも同
時に作成する。この場合、映像不可視範囲53’の画像
について差分画像データを作成すればよい。この差分画
像データは、前述の画像圧縮データに対して、更に高画
質な画像を生成するための差分データである。なお、映
像可視領域52’の画像はすでに高解像であるので、こ
の領域に対する画像データはここでは必要ない。差分画
像データの作成方法は、画像の低解像度化に用いる手法
によって変化する。例えばモザイク処理を行う場合であ
れば、間引かれた画素データを差分画像データとする。
Further, the camera server device 2 is provided for a client such as an administrator who is not restricted by a visible image range.
Image data corresponding to the image shown in FIG. 6C is also created at the same time. In this case, difference image data may be created for an image in the video invisible range 53 ′. The difference image data is difference data for generating a higher quality image than the above-described image compression data. Note that the image in the video visible region 52 'is already at a high resolution, so that image data for this region is not needed here. The method of creating the difference image data varies depending on the method used to reduce the resolution of the image. For example, in the case of performing a mosaic process, the thinned-out pixel data is used as difference image data.

【0045】また、撮影映像が映像可視領域内に収まっ
ている場合には、低解像度化を行う必要が無い為に画像
圧縮データは高解像度の画像データのみとなり、差分画
像データを用意する必要がなく、全クライアントに対し
て高解像度の画像データを送信することになる。この場
合、差分画像データが無いということを示すこともでき
る。
When the photographed image is within the visible region of the image, it is not necessary to reduce the resolution, so that the compressed image data is only high-resolution image data, and it is necessary to prepare differential image data. Instead, high-resolution image data is transmitted to all clients. In this case, it can be indicated that there is no difference image data.

【0046】逆に、現在のカメラの撮影範囲が、全てあ
るクアイアントの映像不可視範囲内にある場合は、その
クライアントには全画面低画質のデータを送ることにな
る。
On the other hand, if the current shooting range of the camera is within the video invisible range of a certain client, data of low image quality on the entire screen is sent to the client.

【0047】得られた圧縮映像データは、図7に示すよ
うな構成を有する映像パケットとして送信され、低解像
度の画像データ(画像データ1)と、その画像データを
高画質にするために必要となる差分画像データとに分け
られる。可視制限を受けるクライアントに対しては、低
解像度の画像データ(画像データ1)のみを送信する。
可視範囲制限を受けないクライアントに対しては、画像
差分データを更に付加して送信することにより、本発明
の機能を実現する。この差分画像データは、1つのみに
限らず、図5の表に示すように各クライアントに対して
等級分けした場合(ユーザーレベル)、接続するクライ
アントのユーザーレベルに応じて段階的に高解像度にな
るように差分画像データを作成し、送信する様に構成す
ることも可能である。このような仕組みによって、クラ
イアントのユーザーレベルに応じた画像の段階的な高画
質化も可能になる。
The obtained compressed video data is transmitted as a video packet having a configuration as shown in FIG. 7, and it is necessary to obtain low-resolution image data (image data 1) and high-quality image data. And differential image data. Only low-resolution image data (image data 1) is transmitted to the client subjected to the visibility restriction.
The functions of the present invention are realized by further adding image difference data to a client that is not restricted by the visible range. The difference image data is not limited to one, and when classified into each client as shown in the table of FIG. 5 (user level), the resolution is gradually increased according to the user level of the connecting client. It is also possible to create and transmit the difference image data so as to be as follows. With such a mechanism, it is possible to gradually increase the image quality of the image according to the user level of the client.

【0048】次に、上記画像データ処理の結果圧縮され
た画像データに基づいて、クライアントのディスプレイ
装置5に表示される画像の様子とグラフィカルユーザー
インターフェース(GUI)について説明する。
Next, an image displayed on the display device 5 of the client and a graphical user interface (GUI) based on the image data compressed as a result of the image data processing will be described.

【0049】図8は、クライアントで表示される画像の
例を示す。特に、図8(a)は、映像可視範囲の制限を
受けるクライアントで表示される画面、図8(b)は、
映像可視範囲の制限を受けないクライアントで表示され
る画面を示している。
FIG. 8 shows an example of an image displayed on the client. In particular, FIG. 8A shows a screen displayed by a client who is restricted in the video visible range, and FIG.
7 shows a screen displayed on a client that is not restricted by a video viewable range.

【0050】図8(a)において、52”は図6(a)
の映像可視範囲52に対応する領域であり、特に画質を
落とす処理を施されていないために、ビデオカメラ11
が撮影した高画質な画像がそのまま表示される。また、
53”は映像不可視範囲53に対応する領域であり、カ
メラサーバ装置2においてモザイク処理や、フォーカス
をぼかす処理などにより加工された画像が表示されてお
り、ビデオカメラ11が撮影した画像よりも低画質の画
像になっている。
In FIG. 8 (a), reference numeral 52 "indicates that in FIG.
Area corresponding to the video visible range 52 of the video camera 11
Is displayed as it is. Also,
An area 53 ″ is an area corresponding to the video invisible range 53, and displays an image processed by mosaic processing, defocus processing, or the like in the camera server device 2, and has lower image quality than the image captured by the video camera 11. The image has become.

【0051】一方、図8(b)に示す映像可視範囲の制
限を受けないクライアントの映像は、全画面的に高画質
となる。
On the other hand, the image of the client which is not restricted by the image visible range shown in FIG.

【0052】また、ユーザーレベルによりクライアント
を等級分けした場合には、ユーザーレベルの高いクライ
アントには、図9に示すようなGUIを表示するように
構成することもできる。この場合、例えばデフォルトで
は高解像度画像が表示されるようにし、メニューから好
みの画質を選択することで、カメラサーバシステム10
から段階的に送られてくる画質を選択する。このように
することで、ユーザーレベルの高いクライアントが、接
続レベルの低いクライアントに表示されている画像を確
認することが可能になる。
Further, when the clients are classified according to the user level, a GUI as shown in FIG. 9 may be displayed for the client having the higher user level. In this case, for example, a high-resolution image is displayed by default, and by selecting a desired image quality from a menu, the camera server system 10
Select the image quality sent step by step from. In this way, a client with a high user level can check an image displayed on a client with a low connection level.

【0053】次に、上記の画像配信制御を行うためのカ
メラサーバー装置2及びクライアント装置4の動作につ
いて説明する。
Next, the operation of the camera server device 2 and the client device 4 for performing the image distribution control will be described.

【0054】図10は、本実施の形態においてカメラサ
ーバ装置2及びクライアント装置4上で行われるプロセ
スの構成図である。
FIG. 10 is a configuration diagram of a process performed on the camera server device 2 and the client device 4 in the present embodiment.

【0055】ここでプロセスとはWindowsNTや
UNIX(登録商標)等のマルチタスクオペレーティン
グシステムのプロセスを意味する。定常状態では、図1
0に示すすべてのプロセス41,42,47,48,4
9が稼動しているものとする。
Here, the process means a process of a multitask operating system such as Windows NT or UNIX (registered trademark). In the steady state, FIG.
All processes 41, 42, 47, 48, 4 indicated by 0
9 is operating.

【0056】カメラサーバ装置2では、以下の4プロセ
スが動作している。すなわち、
In the camera server device 2, the following four processes operate. That is,

【0057】1) カメラ制御サーバプロセス41:ク
ライアントプロセス49が発行したカメラ制御コマンド
を受け取り、カメラ・雲台制御部13に命令を出して制
御を行う。
1) Camera control server process 41: A camera control command issued by the client process 49 is received, and a command is issued to the camera / head control unit 13 to perform control.

【0058】2) カメラ状態通知プロセス42:カメ
ラのパン・チルト角度などの状態を検知してクライアン
トプロセス49に通知する。
2) Camera state notification process 42: The state of the camera, such as pan / tilt angle, is detected and notified to the client process 49.

【0059】3) 映像サーバプロセス47:カメラ映
像の送信先を管理する。
3) Video server process 47: Manages the destination of the camera video.

【0060】4) 映像獲得・送信プロセス48:カメ
ラ映像の取り込み・送信を行う。
4) Video acquisition / transmission process 48: Capture / transmission of camera video.

【0061】なお、送信先リスト44、カメラ状態レジ
スタ43は、プロセス間でデータの受け渡しに用いる共
有メモリである。45はクライアントのユーザーレベル
情報を示し、接続してくるクライアントの承認を行う際
のデータとして使用される。46は、カメラ可視範囲情
報を示す。カメラの操作状態に応じて映像データに異な
る加工を施し作成するデータを変化させるため、このよ
うな共有メモリを用いてプロセス間での整合性をとる。
これらのプロセス41、42,47,48の動作につい
ては図11及び図12のフローチャートを参照して詳し
く説明する。一方、クライアント装置4上では、クライ
アントプロセス49が動作しており、その動作の詳細は
図13を参照して後述する。
The destination list 44 and the camera status register 43 are shared memories used for transferring data between processes. Reference numeral 45 denotes user level information of the client, which is used as data when the connecting client is approved. Reference numeral 46 denotes camera visible range information. In order to change the data to be created by performing different processing on the video data according to the operation state of the camera, consistency between processes is obtained by using such a shared memory.
The operations of these processes 41, 42, 47 and 48 will be described in detail with reference to the flowcharts of FIGS. On the other hand, a client process 49 is operating on the client device 4, and details of the operation will be described later with reference to FIG.

【0062】なお、通信されるデータのパケットとして
は、図14に示すような形式のものが生成され、ネット
ワーク3を介して送信されることになる。また、厳密に
は、TCP/IPやUDP/IP等のパケットで用いら
れているフォーマットを使用する事になるが、図11で
は実施の形態の説明に必要なパケット情報のみ記述して
いる。
A packet of the data to be communicated has a format as shown in FIG. 14 and is transmitted via the network 3. Strictly speaking, the format used for packets such as TCP / IP and UDP / IP will be used, but FIG. 11 describes only the packet information necessary for the description of the embodiment.

【0063】まず、図11を参照して、カメラ制御サー
バプロセス41及びカメラ状態通知プロセス42につい
て説明する。
First, the camera control server process 41 and the camera status notification process 42 will be described with reference to FIG.

【0064】カメラ制御サーバプロセス41が起動され
ると(ステップS400)、初期化後(ステップS40
1)にカメラ状態通知プロセス42を生成し(ステップ
S402)、クライアントプロセス49からのカメラ制
御接続要求(図14(1))を待つ(ステップS40
3)。クライアントプロセス49から接続要求がある
と、接続受付処理(Ackを返す)を行い(ステップS
404)、接続のあったクライアントプロセス49から
送信されてくるカメラ制御コマンド(図14(2)〜
(4))を待つ(ステップS405)。なお、接続受付
処理(ステップS404)ではタイマーをセットして、
ある一定時間(「制御持ち時間」と呼ぶ。)が経つと
(ステップS406でYES)カメラ制御接続を切断す
る(ステップS407)ようになっている。
When the camera control server process 41 is started (step S400), it is initialized (step S40).
1) generates a camera state notification process 42 (step S402), and waits for a camera control connection request (FIG. 14A) from the client process 49 (step S40).
3). If there is a connection request from the client process 49, connection acceptance processing (Ack is returned) is performed (Step S).
404), a camera control command transmitted from the connected client process 49 (FIG. 14 (2) to FIG. 14 (2)).
(4)) is waited for (step S405). In the connection receiving process (step S404), a timer is set,
After a certain period of time (referred to as "control time") (YES in step S406), the camera control connection is disconnected (step S407).

【0065】カメラ制御コマンド(図14(2)〜
(4))が来ると(ステップS408でYES)、コマ
ンドに応じてカメラ・雲台制御部13を通じてビデオカ
メラ11のズーム倍率、および可動雲台装置12のパン
チルト角度を制御する(ステップS409)。また、ス
テップS405で受信した制御コマンドがカメラ制御コ
マンドでは無い場合(ステップS408でNO)、ステ
ップS410で対応する処理を行ってステップS405
へ戻る。制御持ち時間が経過するまで、クライアントプ
ロセス49からカメラ制御コマンドを受付け、コマンド
解釈部17及びカメラ・雲台制御部13を通じて、コマ
ンドに応じたカメラ制御を行う。
Camera control commands (FIG. 14 (2)-
When (4)) is received (YES in step S408), the zoom magnification of the video camera 11 and the pan / tilt angle of the movable camera platform device 12 are controlled through the camera / head controller 13 in response to the command (step S409). If the control command received in step S405 is not a camera control command (NO in step S408), a corresponding process is performed in step S410, and the process proceeds to step S405.
Return to Until the control time elapses, a camera control command is received from the client process 49, and camera control according to the command is performed through the command interpreting unit 17 and the camera / pan head control unit 13.

【0066】なお、ここでカメラ制御コマンドとして
は、本実施の形態では、説明のため、パン角度変更命令
(PANθ)、チルト角度変更命令(TILφ)ズーム
倍率変更命令(ZOMα)があるものとする。θ、φ、
αは、それぞれパン角度、チルト角度、ズーム倍率をあ
らわすパラメータであり、このカメラ制御コマンドに
は、他にも逆光補正やオートフォーカス、マニュアルフ
ォーカス値設定等、各種あり得るが、ここでは説明を省
略する。
In this embodiment, the camera control commands include a pan angle change command (PANθ), a tilt angle change command (TILφ), and a zoom magnification change command (ZOMα) for the sake of explanation in this embodiment. . θ, φ,
α is a parameter representing a pan angle, a tilt angle, and a zoom magnification, respectively.There are various other camera control commands such as backlight correction, auto focus, and manual focus value setting, but the description thereof is omitted here. I do.

【0067】また、制御待ち時間が終了すると(ステッ
プS406でYES)、接続切断処理(ステップS40
7)を行うと共に、カメラ制御接続終了命令(図14
(7))をクライアントプロセス49に返送する。そし
て、ステップS403で再び接続要求が来るのを待つ。
カメラ制御サーバプロセス41は同様にして任意のクラ
イアントプロセスからのカメラ制御接続要求を受け付
け、カメラ制御を実現するが、同時に複数のクライアン
トプロセスとは接続できない。したがって、この接続は
TCP/IPのようなコネクション指向の接続がなされ
るものとする。
When the control waiting time has expired (YES in step S406), the connection is disconnected (step S40).
7) and a camera control connection end command (FIG. 14).
(7)) is returned to the client process 49. Then, in step S403, it waits for a connection request to come again.
The camera control server process 41 similarly receives a camera control connection request from an arbitrary client process and implements camera control, but cannot simultaneously connect to a plurality of client processes. Therefore, this connection is a connection-oriented connection such as TCP / IP.

【0068】一方、ステップS402で生成されたカメ
ラ状態通知プロセス42が動作中は、常時カメラ状態が
チェックされる。すなわちカメラのパン・チルト角度、
ズーム倍率(θ、φ、α)をカメラ・雲台制御部13に
問い合わせて取得し、カメラ状態レジスタ43に書き込
む(ステップS422)。
On the other hand, while the camera state notification process 42 generated in step S402 is operating, the camera state is constantly checked. That is, the pan / tilt angle of the camera,
The zoom magnification (θ, φ, α) is obtained by inquiring of the camera / head controller 13 and written into the camera status register 43 (step S422).

【0069】同時に、本実施の形態においては、取得し
たカメラ状態をカメラ可視範囲情報46と比較し、現在
のビデオカメラ11の状態(パン角度、チルト角度、ズ
ーム倍率)によって、現在ビデオカメラ11が撮影して
いる画像が映像可視範囲内にあるかどうかを、カメラ制
御サーバプロセス41や映像サーバプロセス47などが
把握する。ビデオカメラ11の撮像範囲がクライアント
の映像不可視範囲を含んでいる場合は、後述する図12
のステップS526における処理によって、伝送する映
像データの内、映像不可視範囲の映像データに処理を加
えることによって映像の視野範囲の制限を行う。
At the same time, in the present embodiment, the acquired camera state is compared with the camera visible range information 46, and the current state of the video camera 11 (pan angle, tilt angle, zoom magnification) is determined by the current camera state. The camera control server process 41, the video server process 47, and the like grasp whether or not the captured image is within the video visible range. If the imaging range of the video camera 11 includes the video invisible range of the client, FIG.
By the processing in step S526, of the video data to be transmitted, processing is performed on the video data in the video invisible range to limit the visual field range of the video.

【0070】また、映像を送信している先のクライアン
トプロセス49にカメラ状態(図14(8)の形式)を
通知する(ステップS426)。
Further, the camera status (the format shown in FIG. 14 (8)) is notified to the client process 49 to which the image is transmitted (step S426).

【0071】次に、図9のフローを参照して映像サーバ
プロセス47及び映像獲得・送信プロセス48について
説明する。
Next, the video server process 47 and the video acquisition / transmission process 48 will be described with reference to the flow of FIG.

【0072】映像サーバプロセス47が起動されると
(ステップS500)、初期化後に(ステップS50
1)映像獲得・送信プロセス48を生成し(ステップS
502)、クライアントプロセス49からのイベントを
待つ(ステップS503)。ステップS503で受信し
たイベントが映像表示開始要求コマンド(図14
(6))であれば(ステップS504でYES)、映像
表示開始要求パケットに含まれているパケットの送信元
アドレスを取得し、映像の送信先リスト44に追加し
(ステップS505)、Ackを返す(ステップS50
6)。
When the video server process 47 is started (step S500), it is initialized (step S50).
1) Generate a video acquisition / transmission process 48 (step S)
502), and waits for an event from the client process 49 (step S503). The event received in step S503 is a video display start request command (FIG. 14).
If (6)) (YES in step S504), the source address of the packet included in the video display start request packet is acquired, added to the video destination list 44 (step S505), and Ack is returned. (Step S50
6).

【0073】また、ステップS503で受信したイベン
トが映像表示終了要求コマンドであれば(ステップS5
04でNO、ステップS507でYES)、同様に映像
表示終了要求パケットに含まれているパケットの送信元
アドレスを取得し、映像の送信先リスト44から削除す
る(ステップS508)。なお、映像の送信先リスト4
4には、リスト形式で映像送信先のアドレスが保持され
ている。また、映像表示開始要求コマンドでも、映像表
示終了要求コマンドでも無い場合には、ステップS50
9で受信したコマンドに対応する処理を行い、ステップ
S503に戻って次のイベントを待つ。
If the event received in step S503 is a video display end request command (step S5
04, NO in step S507), and similarly obtains the source address of the packet included in the video display end request packet and deletes it from the video destination list 44 (step S508). It should be noted that the video transmission destination list 4
4 holds an address of a video transmission destination in a list format. If neither the video display start request command nor the video display end request command is received, the process proceeds to step S50.
The processing corresponding to the command received in step 9 is performed, and the flow returns to step S503 to wait for the next event.

【0074】一方、映像獲得・送信プロセス48は、起
動されると(ステップS520)、初期化後(ステップ
S521)、ビデオカメラ11からの映像を取り込み
(ステップS522)、前述の通り映像可視範囲情報及
び現在のカメラ位置情報を元にして低解像度データや高
解像度データを作成し(ステップS526)、圧縮し
(ステップS523)、この圧縮された映像データにカ
メラ位置情報を付加し(ステップS524)、図14
(9)の形式にパケット化し、ステップS505で映像
送信先リスト44に登録されたアドレスのクライアント
に対して送信する(ステップS525)。ステップS5
22〜S525の動作は、繰り返し行われる。
On the other hand, when the video acquisition / transmission process 48 is activated (step S520), after initialization (step S521), it captures the video from the video camera 11 (step S522), and as described above, stores the video visible range information. Then, low-resolution data and high-resolution data are created based on the current camera position information (step S526), compressed (step S523), and camera position information is added to the compressed video data (step S524). FIG.
It is packetized into the format of (9) and transmitted to the client whose address is registered in the video transmission destination list 44 in step S505 (step S525). Step S5
Operations 22 to S525 are repeatedly performed.

【0075】次に、図13を参照してクライアントプロ
セス49の動作を説明する。
Next, the operation of the client process 49 will be described with reference to FIG.

【0076】まずプロセス起動時に、接続するカメラサ
ーバ装置2のアドレス(IPアドレス、ここでは“AD
DR_C”とする)を指定して起動すると(ステップS
600)、初期化後(ステップS601)、映像表示開
始要求をADDR_Cに対応するカメラサーバ装置に送
信する(ステップS602)。この映像表示開始要求の
パケット形式は図14(5)に示すものである。
First, at the time of starting the process, the address (IP address, here, “AD
DR_C ") (step S)
600), after initialization (step S601), a video display start request is transmitted to the camera server device corresponding to ADDR_C (step S602). The packet format of the video display start request is as shown in FIG.

【0077】ここで、ADDR_Cに対応するカメラサ
ーバ装置2からAckが返ってこなければ(ステップS
603でNO)、アドレスが間違っている等、動作異常
なので、クライアントプロセス49を終了する(ステッ
プS604)。Ackが返ってくれば表示成功なので
(ステップS603でYES)、イベントすなわちユー
ザーによるユーザーインタフェースの操作またはカメラ
サーバ装置2からの各種パケットを待つ(ステップS6
05)。
Here, if Ack is not returned from the camera server device 2 corresponding to ADDR_C (step S
Since the operation is abnormal such as an incorrect address (NO at 603), the client process 49 ends (step S604). If Ack is returned, the display is successful (YES in step S603), and therefore an event, ie, operation of the user interface by the user or various packets from the camera server device 2 is waited for (step S6).
05).

【0078】ここで、ユーザが図3に示すGUI上の操
作開始ボタン31を押すと(ステップS606でYE
S)、自分が既にカメラ制御を開始している状態かどう
かを示す制御権フラグを確認し(ステップS607)、
既に制御中ならステップS605に戻る。操作中でなけ
ればカメラ制御接続要求(図14(1))をカメラ制御
サーバプロセス41に対して発行し(ステップS60
8)、許可(Ack)を待つ(ステップS609)。こ
こでAckが返ってくれば(ステップS610でYE
S)、カメラ制御サーバプロセス41に対して接続が成
立し、クライアント装置の記憶部29にある制御権フラ
グをONにし(ステップS611)、図3に示すスクロ
ールバー32、33、34によるカメラ制御操作を有効
にする。なお、カメラ制御サーバプロセス41は、図1
1のステップS403におけるカメラ制御接続要求待ち
のときにしか、接続要求を受け付けない。
Here, when the user presses the operation start button 31 on the GUI shown in FIG. 3 (YE in step S606).
S), and confirms a control right flag indicating whether or not the user has already started camera control (step S607),
If the control is already being performed, the process returns to step S605. If no operation is being performed, a camera control connection request (FIG. 14A) is issued to the camera control server process 41 (step S60).
8) Wait for permission (Ack) (step S609). If Ack is returned here (YE in step S610)
S), the connection to the camera control server process 41 is established, the control right flag in the storage unit 29 of the client device is turned on (step S611), and the camera control operation by the scroll bars 32, 33, and 34 shown in FIG. Enable. Note that the camera control server process 41 is configured as shown in FIG.
The connection request is accepted only when waiting for the camera control connection request in step S403 of FIG.

【0079】また、接続が成立して「制御持ち時間」が
終了するとカメラ制御サーバプロセスよりカメラ制御接
続終了要求(図14(7))が返ってくるが、これをス
テップS605で受け取ると(ステップS614でYE
S)、制御権フラグをOFFにして(ステップS61
5)、図3に示すスクロールバー32、33、34によ
るカメラ制御操作を無効にする(ステップS616)。
When the connection is established and the "control time" ends, a camera control connection end request (FIG. 14 (7)) is returned from the camera control server process. When this request is received in step S605 (step S605). YE in S614
S), the control right flag is turned off (step S61)
5), the camera control operation by the scroll bars 32, 33, and 34 shown in FIG. 3 is invalidated (step S616).

【0080】スクロールバー32、33、34によるカ
メラ制御操作が有効になっている間は、スクロールバー
32、33、34によるカメラ制御操作に対応したカメ
ラ制御命令が生成され(ステップS617でYES)、
カメラ制御サーバプロセス41に対して発行される(ス
テップS618)。命令の生成過程に関しては、本発明
と直接関係がないためここでは省略する。
While the camera control operation using the scroll bars 32, 33, and 34 is valid, a camera control command corresponding to the camera control operation using the scroll bars 32, 33, and 34 is generated (YES in step S617).
It is issued to the camera control server process 41 (step S618). The process of generating the instruction is not directly related to the present invention, and will not be described here.

【0081】また、メニューからの選択操作等によって
発行されるクライアントプロセス終了要求(ステップS
626でYES)に対しては、映像表示終了要求(図1
4(7))を発行し(ステップS627)、クライアン
トプロセス49を終了する(ステップS628)。
Further, a client process termination request (step S
In response to “YES” at 626, a video display end request (FIG.
4 (7)) (step S627), and terminates the client process 49 (step S628).

【0082】また、パケットが到着した場合には(ステ
ップS625)、それが映像データ(図14(9))の
場合(ステップS629でYES)、映像データ中の圧
縮映像データを読み出し、伸長処理を行った後、この映
像フレームデータを用いて、映像表示パネル30の表示
映像を更新する(ステップS630)。到着パケットが
カメラ状態通知(図14(8))の場合には(ステップ
S635でYES)、パン・チルト角度およびズーム倍
率を操作するスクロールバー32、33、38のノッチ
の表示位置を、パケットに含まれているパラメータを用
いて、対応する位置に変更する。この状態の時には、他
のクライアントプロセスがカメラを制御している場合
に、その情報を更新していることになる。
When the packet arrives (step S625), if it is video data (FIG. 14 (9)) (YES in step S629), the compressed video data in the video data is read out, and decompression processing is performed. After that, the display video on the video display panel 30 is updated using the video frame data (step S630). If the arriving packet is the camera status notification (FIG. 14 (8)) (YES in step S635), the notch display positions of the scroll bars 32, 33, and 38 for operating the pan / tilt angle and the zoom magnification are included in the packet. Change to the corresponding position using the included parameters. In this state, if another client process is controlling the camera, that information is being updated.

【0083】このようにして作成した圧縮画像データ
は、図14の(9)に示すように映像データとしてサー
バからクライアントに送信される。
The compressed image data created in this way is transmitted from the server to the client as video data as shown in FIG. 14 (9).

【0084】このように、映像可視範囲の制限を受ける
レベルのクライアントは、まず低画質の画像データのみ
を受信し、映像可視範囲の映像についてのみ高画質の画
像データを更に受信して表示することにより、映像可視
範囲は高画質に、可視不可能範囲は、低解像度に表示す
ることで映像可視範囲制限機能を実施する。同様に、管
理者などの高いレベルを持つクライアントに対しては、
差分画像データを低解像度の画像データと同時に送信す
ることにより、制限に関係なく常に、高画質の画像を得
ることが可能になる。このように、カメラサーバ装置を
設置するユーザのニーズを反映しやすくなる。
As described above, the client at the level subject to the restriction of the video visible range first receives only the low-quality image data, and further receives and displays the high-quality image data only for the video within the video visible range. Accordingly, the image visible range is displayed with high image quality, and the image invisible range is displayed with low resolution, thereby implementing the image visible range limiting function. Similarly, for high-level clients, such as administrators,
By transmitting the difference image data simultaneously with the low-resolution image data, it is possible to always obtain a high-quality image regardless of the limitation. As described above, it becomes easier to reflect the needs of the user who installs the camera server device.

【0085】なお、上記実施の形態ではカメラ装置とし
てビデオカメラを用いた場合について説明したが、本発
明はカメラの種類に限定されるものでは無く、撮影領域
を変更できる様々な撮像装置を用いることが可能であ
る。
In the above embodiment, the case where a video camera is used as the camera device has been described. However, the present invention is not limited to the type of camera, but uses various image pickup devices capable of changing a photographing area. Is possible.

【0086】[0086]

【他の実施形態】なお、本発明は、複数の機器(例えば
ホストコンピュータ、インタフェイス機器、リーダ、プ
リンタなど)から構成されるシステムに適用しても、一
つの機器からなる装置(例えば、複写機、ファクシミリ
装置など)に適用してもよい。
[Other Embodiments] Even if the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), an apparatus (for example, a copying machine) Machine, facsimile machine, etc.).

【0087】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システムあるい
は装置に供給し、そのシステムあるいは装置のコンピュ
ータ(またはCPUやMPU)が記憶媒体に格納された
プログラムコードを読み出し実行することによっても、
達成されることは言うまでもない。この場合、記憶媒体
から読み出されたプログラムコード自体が前述した実施
形態の機能を実現することになり、そのプログラムコー
ドを記憶した記憶媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実
行することにより、前述した実施形態の機能が実現され
るだけでなく、そのプログラムコードの指示に基づき、
コンピュータ上で稼働しているオペレーティングシステ
ム(OS)などが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
Further, an object of the present invention is to supply a storage medium (or a recording medium) in which program codes of software for realizing the functions of the above-described embodiments are recorded to a system or an apparatus, and to provide a computer (a computer) of the system or the apparatus. Or a CPU or MPU) reads out and executes the program code stored in the storage medium,
Needless to say, this is achieved. In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
In addition, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also based on the instructions of the program code,
The operating system (OS) running on the computer performs part or all of the actual processing,
It goes without saying that a case where the function of the above-described embodiment is realized by the processing is also included.

【0088】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, the program code is read based on the instruction of the program code. , The CPU provided in the function expansion card or the function expansion unit performs part or all of the actual processing,
It goes without saying that a case where the function of the above-described embodiment is realized by the processing is also included.

【0089】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明した(図11、図12、図1
3に示すフローチャートに対応するプログラムコードが
格納されることになる。
When the present invention is applied to the above-mentioned storage medium, the storage medium described above (FIGS. 11, 12 and 1)
The program code corresponding to the flowchart shown in FIG.

【0090】[0090]

【発明の効果】以上説明したように本発明によれば、画
角よりも広い領域を撮影可能なカメラの撮影可能範囲の
内、閲覧可能な範囲を制限されているクライアントが、
閲覧可能な範囲以外の映像を明確に見ることができない
ように映像を処理し、配信することができる。
As described above, according to the present invention, a client whose viewable range is limited within the photographable range of a camera capable of photographing an area wider than the angle of view,
The video can be processed and distributed so that the video outside the viewable range cannot be clearly seen.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態におけるシステムの概略構
成を示す図である。
FIG. 1 is a diagram showing a schematic configuration of a system according to an embodiment of the present invention.

【図2】図1に示すシステムの内部機能構成を示すブロ
ック図である。
FIG. 2 is a block diagram showing an internal functional configuration of the system shown in FIG.

【図3】本発明の実施の形態におけるクライアント装置
に表示されるユーザーインターフェース画面の一例を示
す図である。
FIG. 3 is a diagram illustrating an example of a user interface screen displayed on the client device according to the embodiment of the present invention.

【図4】本発明の実施の形態におけるカメラ装置の撮影
領域の概念図である。
FIG. 4 is a conceptual diagram of a shooting area of the camera device according to the embodiment of the present invention.

【図5】本発明の実施の形態におけるクライアント別の
映像可視範囲情報を表にした図である。
FIG. 5 is a table showing video visible range information for each client according to the embodiment of the present invention.

【図6】本発明の実施の形態において作成される画像デ
ータの概略を示す図である。
FIG. 6 is a diagram showing an outline of image data created in the embodiment of the present invention.

【図7】本発明の実施の形態における映像データパケッ
トの詳細を示す図である。
FIG. 7 is a diagram showing details of a video data packet in the embodiment of the present invention.

【図8】本発明の実施の形態においてクライアント側で
表示される画像データの説明図である。
FIG. 8 is an explanatory diagram of image data displayed on the client side in the embodiment of the present invention.

【図9】本発明の実施の形態において特権を有するクラ
イアントにおけるGUI画面の一例を示す図である。
FIG. 9 is a diagram illustrating an example of a GUI screen in a client having a privilege according to the embodiment of the present invention.

【図10】本発明の実施の形態において行われるプロセ
スの構成を示す図である。
FIG. 10 is a diagram showing a configuration of a process performed in the embodiment of the present invention.

【図11】本発明の実施の形態におけるカメラ制御サー
バプロセス及びカメラ状態通知プロセスの処理を示すフ
ローチャートである。
FIG. 11 is a flowchart illustrating processing of a camera control server process and a camera state notification process according to the embodiment of the present invention.

【図12】本発明の実施の形態における映像サーバプロ
セス及び映像獲得・送信プロセスの処理を示すフローチ
ャートである。
FIG. 12 is a flowchart showing processing of a video server process and a video acquisition / transmission process in the embodiment of the present invention.

【図13】本発明の実施の形態におけるクライアントプ
ロセスの処理を示すフローチャートである。
FIG. 13 is a flowchart illustrating processing of a client process according to the embodiment of the present invention.

【図14】本発明の実施の形態で用いられるプロトコル
パケットの説明図である。
FIG. 14 is an explanatory diagram of a protocol packet used in the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 カメラ装置 2 カメラサーバ装置 3 ネットワーク 4 クライアント装置 5 ディスプレイ装置 10 カメラサーバシステム 20 クライアントシステム 30 映像表示パネル 31 操作開始ボタン 32,33,34 カメラ制御スクロールバー 51 撮像可能範囲 52 映像可視範囲 53 映像不可視範囲 54 視野 Reference Signs List 1 camera device 2 camera server device 3 network 4 client device 5 display device 10 camera server system 20 client system 30 video display panel 31 operation start button 32, 33, 34 camera control scroll bar 51 photographable range 52 video visible range 53 video invisible Range 54 fields of view

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C022 AA01 AB62 AB65 AB66 AB68 AC27 5C023 AA07 AA09 AA27 AA37 BA01 BA19 CA02 DA04 EA05 5C064 BA01 BB02 BB03 BC06 BC18 BC23 BC25 BD02 BD05 BD08 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5C022 AA01 AB62 AB65 AB66 AB68 AC27 5C023 AA07 AA09 AA27 AA37 BA01 BA19 CA02 DA04 EA05 5C064 BA01 BB02 BB03 BC06 BC18 BC23 BC25 BD02 BD05 BD08

Claims (23)

【特許請求の範囲】[Claims] 【請求項1】 複数の外部装置により遠隔制御可能な撮
像装置から得られる映像を、該複数の外部装置に配信可
能な映像配信装置であって、 前記外部装置毎に、前記撮像装置の撮影可能領域の内、
第1の画質で前記映像を配信する第1の領域と、前記第
1の画質よりも低い第2の画質で前記映像を配信する第
2の領域とに関する領域情報を保持する保持手段と、 前記保持手段に保持された領域情報に基づいて、前記撮
像装置から得られる映像が前記第2の領域の映像を含ん
でいるか否かを配信先の各外部装置毎に判断する判断手
段と、 前記判断手段により含んでいないと判断された場合に、
前記撮像装置からの映像を前記第1の画質となるように
処理し、含んでいると判断された場合に、前記撮像装置
からの映像を前記第2の画質となるように処理し、さら
に前記第1の領域の映像を前記第1の画質となるように
処理する処理手段と、 前記処理手段により処理された映像を配信する配信手段
とを有することを特徴とする映像配信装置。
An image distribution device capable of distributing an image obtained from an imaging device that can be remotely controlled by a plurality of external devices to the plurality of external devices, wherein the imaging device is capable of photographing for each of the external devices. Of the area,
Holding means for holding area information relating to a first area for distributing the video with a first image quality and a second area for distributing the video with a second image quality lower than the first image quality; A determination unit configured to determine, for each of the external devices to be distributed, whether or not the image obtained from the imaging device includes the image of the second region, based on the area information held in the holding unit; If it is determined by the means not to include,
The video from the imaging device is processed to have the first image quality, and if it is determined that the image is included, the video from the imaging device is processed to have the second image quality, and A video distribution apparatus comprising: processing means for processing a video in a first area to have the first image quality; and distribution means for distributing the video processed by the processing means.
【請求項2】 前記判断手段により含んでいると判断さ
れた場合における前記第1の領域の映像を前記第1の画
質となるようにする処理では、前記第1の領域の前記第
1の画質の映像と、前記第1の領域の前記第2の画質の
映像との差分データを得ることを特徴とする請求項1に
記載の映像配信装置。
2. A process for making the image of the first area have the first image quality when the image is judged to be included by the judgment means, wherein the first image quality of the first area is included. The video distribution device according to claim 1, wherein difference data between the video of the first area and the video of the second image quality in the first area is obtained.
【請求項3】 前記判断手段により含んでいると判断さ
れた場合に、前記配信手段は、前記第2の画質の映像を
配信し、その後に前記差分データを配信することを特徴
とする請求項2に記載の映像配信装置。
3. The image processing apparatus according to claim 2, wherein the distribution unit distributes the video of the second image quality, and then distributes the difference data when the determination unit determines that the image data is included. 3. The video distribution device according to 2.
【請求項4】 前記保持手段は、各外部装置毎に設定さ
れた等級を更に保持し、前記第2の画質は等級に応じて
異なることを特徴とする請求項1乃至3のいずれかに記
載の映像配信装置。
4. The image processing apparatus according to claim 1, wherein the holding unit further holds a grade set for each external device, and the second image quality differs according to the grade. Video distribution device.
【請求項5】 複数の外部装置により遠隔制御可能な撮
像装置から得られる映像を、該複数の外部装置に配信可
能な映像配信装置であって、 所定の複数の画質と、前記撮像装置の撮影可能領域の
内、該複数の画質のいずれかで前記映像を配信する領域
に関する領域情報とをそれぞれ対応づけて、前記複数の
外部装置毎に保持する保持手段と、 前記保持手段に保持された領域情報に基づいて、前記撮
影装置から得られる映像を単一の画質で配信するか、複
数の画質で配信するかを送信先の各外部装置毎に判断す
る判断手段と、 前記判断手段により単一の画質で画像を配信すると判断
された場合に、前記撮像装置からの映像を当該画質とな
るように処理し、複数の画質で配信すると判断された場
合に、前記映像が最も低い画質となるように処理し、更
に段階的に、より高い画質で配信する領域の映像を、当
該領域に対応する画質となるように処理する処理手段
と、 前記処理手段により処理された映像を配信する配信手段
とを有することを特徴とする映像配信装置。
5. A video distribution device capable of distributing an image obtained from an imaging device remotely controllable by a plurality of external devices to said plurality of external devices, comprising: a plurality of predetermined image qualities; Holding means for holding each of the plurality of external devices by associating area information relating to an area for distributing the video with any of the plurality of image qualities among the possible areas, and an area held by the holding means A determination unit that determines whether to distribute the video obtained from the imaging device with a single image quality or multiple image qualities for each external device based on the information, based on the information; When it is determined that the image is to be distributed with the image quality, the image from the imaging device is processed to have the image quality, and when it is determined that the image is distributed with a plurality of image qualities, the image has the lowest image quality. To process Further comprising: a processing unit for processing a video in a region to be distributed with higher image quality so as to have an image quality corresponding to the region, and a distribution unit for distributing the video processed by the processing unit. A video distribution device characterized by the above-mentioned.
【請求項6】 前記判断手段により複数の画質で配信す
ると判断された場合における、より高い画質で配信する
領域の映像を当該領域に対応する画質となるようにする
処理では、より高い画質の映像と、当該画質よりも1段
階低い画質の映像との差分データを得ることを特徴とす
る請求項5に記載の映像配信装置。
6. A process of setting a video of an area to be distributed with higher image quality to an image quality corresponding to the area when the determination unit determines that the image is to be distributed with a plurality of image qualities. 6. The video distribution device according to claim 5, wherein difference data is obtained between the video and an image having an image quality one step lower than the image quality.
【請求項7】 前記判断手段により複数の画質で配信す
ると判断された場合に、前記配信手段は、最も低い画質
の映像を配信し、その後に段階的に前記差分データを配
信することを特徴とする請求項6に記載の映像配信装
置。
7. The method according to claim 1, wherein when the determination unit determines that the image data is to be distributed with a plurality of image qualities, the distribution unit distributes the video having the lowest image quality, and then distributes the difference data step by step. The video distribution device according to claim 6.
【請求項8】 前記判断手段は、領域情報と、前記撮像
装置の制御状態に基づいて判断することを特徴とする請
求項1乃至7のいずれかに記載の映像配信装置。
8. The video distribution device according to claim 1, wherein the determination unit makes a determination based on area information and a control state of the imaging device.
【請求項9】 前記制御状態は、パン・チルトの状態を
含むことを特徴とする請求項8に記載の映像配信装置。
9. The video distribution apparatus according to claim 8, wherein the control state includes a pan / tilt state.
【請求項10】 前記制御状態は、ズームの状態を含む
ことを特徴とする請求項8または9に記載の映像配信装
置。
10. The video distribution apparatus according to claim 8, wherein the control state includes a zoom state.
【請求項11】 前記外部装置毎の領域情報を設定する
設定手段を更に有することを特徴とする請求項1乃至1
0のいずれかに記載の映像配信装置。
11. The apparatus according to claim 1, further comprising setting means for setting area information for each of said external devices.
0. The video distribution device according to any one of 0 to 0.
【請求項12】 複数の外部装置により遠隔制御可能な
撮像装置から得られる映像を、該複数の外部装置の少な
くとも1つに配信する映像配信方法であって、 前記外部装置毎に、前記撮像装置の撮影可能領域の内、
第1の画質で前記映像を配信する第1の領域と、前記第
1の画質よりも低い第2の画質で前記映像を配信する第
2の領域とに関する領域情報を設定する設定工程と、 前記設定工程で設定された領域情報に基づいて、前記撮
像装置から得られる映像が前記第2の領域の映像を含ん
でいるか否かを配信先の各外部装置毎に判断する判断工
程と、 前記判断工程において含んでいないと判断された場合
に、前記撮像装置からの映像を前記第1の画質となるよ
うに処理する第1の処理工程と、 前記判断工程において含んでいると判断された場合に、
前記撮像装置からの映像を前記第2の画質となるように
処理し、さらに前記第1の領域の映像を前記第1の画質
となるように処理する第2の処理工程と、 前記第1または第2の処理工程において処理された映像
を配信する配信工程とを有することを特徴とする映像配
信方法。
12. A video distribution method for distributing a video obtained from an imaging device remotely controllable by a plurality of external devices to at least one of the plurality of external devices, wherein the imaging device is provided for each of the external devices. Of the photographable area of,
A setting step of setting area information regarding a first area for distributing the video with a first image quality and a second area for distributing the video with a second image quality lower than the first image quality; A judging step of judging whether or not an image obtained from the imaging device includes an image of the second area for each external device at a distribution destination based on the area information set in the setting step; A first processing step of processing an image from the imaging device to have the first image quality when it is determined that the image data is not included in the step; ,
A second processing step of processing an image from the imaging device to have the second image quality, and further processing an image of the first area so as to have the first image quality; A distribution step of distributing the video processed in the second processing step.
【請求項13】 前記第2の処理工程における前記第1
の領域の映像を前記第1の画質となるようにする処理で
は、前記第1の領域の前記第1の画質の映像と、前記第
1の領域の前記第2の画質の映像との差分データを得る
ことを特徴とする請求項12に記載の映像配信方法。
13. The first processing in the second processing step.
In the process of setting the image of the area of the first area to the first image quality, the difference data between the image of the first area of the first area and the image of the second area of the first area The video distribution method according to claim 12, wherein
【請求項14】 前記判断工程において含んでいると判
断された場合に、前記配信工程では、前記第2の画質の
映像を配信し、その後に前記差分データを配信すること
を特徴とする請求項13に記載の映像配信方法。
14. The method according to claim 1, wherein, if it is determined in the determining step that the image data is included, in the delivering step, the video of the second image quality is delivered, and then the difference data is delivered. 14. The video distribution method according to item 13.
【請求項15】 各外部装置毎に等級を設定する工程を
更に有し、前記第2の画質は等級に応じて異なることを
特徴とする請求項12乃至14のいずれかに記載の映像
配信方法。
15. The video distribution method according to claim 12, further comprising the step of setting a grade for each external device, wherein said second image quality is different according to the grade. .
【請求項16】 複数の外部装置により遠隔制御可能な
撮像装置から得られる映像を、該複数の外部装置の少な
くとも1つに配信する映像配信方法であって、 所定の複数の画質と、前記撮像装置の撮影可能領域の
内、該複数の画質のいずれかで前記映像を配信する領域
に関する領域情報とをそれぞれ対応づけて、前記複数の
外部装置毎に設定する設定工程と、 前記設定工程で設定された領域情報に基づいて、前記撮
影装置から得られる映像を単一の画質で配信するか、複
数の画質で配信するかを送信先の各外部装置毎に判断す
る判断工程と、 前記判断工程において単一の画質で画像を配信すると判
断された場合に、前記撮像装置からの映像を当該画質と
なるように処理する第1の処理工程と、 前記判断工程において複数の画質で配信すると判断され
た場合に、前記映像が最も低い画質となるように処理
し、更に段階的に、より高い画質で配信する領域の映像
を、当該領域に対応する画質となるように処理する第2
の処理工程と、 前記第1または第2の処理工程において処理された映像
を配信する配信工程とを有することを特徴とする映像配
信方法。
16. A video distribution method for distributing video obtained from an imaging device remotely controllable by a plurality of external devices to at least one of the plurality of external devices, comprising: a plurality of predetermined image qualities; A setting step of setting each of the plurality of external devices by associating region information relating to a region for distributing the video with any of the plurality of image qualities among the photographable regions of the device, A determination step of determining whether to deliver a video obtained from the imaging device with a single image quality or a plurality of image quality based on the obtained region information, for each external device at a transmission destination; and A first processing step of processing an image from the imaging device so as to have the image quality when it is determined that the image is to be distributed in a single image quality; and distributing a plurality of image quality in the determination step. When it is cross-sectional, the image is processed so that the lowest quality, further stages, the image of the area to be delivered at a higher image quality, a processing such that the image quality corresponding to the area 2
And a distribution step of distributing the video processed in the first or second processing step.
【請求項17】 前記第2の処理工程における、より高
い画質で配信する領域の映像を当該領域に対応する画質
となるようにする処理では、より高い画質の映像と、当
該画質よりも1段階低い画質の映像との差分データを得
ることを特徴とする請求項16に記載の映像配信方法。
17. In the second processing step, in the process of setting the image of the area to be distributed with higher image quality to the image quality corresponding to the area, the higher-quality image and one step higher than the image quality 17. The video distribution method according to claim 16, wherein difference data from low-quality video is obtained.
【請求項18】 前記判断工程において複数の画質で配
信すると判断された場合に、前記配信工程では、最も低
い画質の映像を配信し、その後に段階的に前記差分デー
タを配信することを特徴とする請求項17に記載の映像
配信方法。
18. The method according to claim 1, wherein when it is determined in the determining step that the image data is to be distributed with a plurality of image qualities, the distributing step includes distributing the video having the lowest image quality, and thereafter distributing the difference data stepwise. 18. The video distribution method according to claim 17, wherein:
【請求項19】 前記判断工程では、領域情報と、前記
撮像装置の制御状態に基づいて判断することを特徴とす
る請求項12乃至18のいずれかに記載の映像配信方
法。
19. The video distribution method according to claim 12, wherein in the determining step, the determination is performed based on area information and a control state of the imaging device.
【請求項20】 前記制御状態は、パン・チルトの状態
を含むことを特徴とする請求項19に記載の映像配信方
法。
20. The video distribution method according to claim 19, wherein the control state includes a pan / tilt state.
【請求項21】 前記制御状態は、ズームの状態を含む
ことを特徴とする請求項19または20に記載の映像配
信方法。
21. The video distribution method according to claim 19, wherein the control state includes a zoom state.
【請求項22】 コンピュータ装置が実行可能なプログ
ラムを格納した記憶媒体であって、前記プログラムを実
行したコンピュータ装置を、請求項1乃至11のいずれ
かに記載の映像配信方法として機能させることを特徴と
する記憶媒体。
22. A storage medium storing a program executable by a computer device, wherein the computer device executing the program causes the computer device to function as the video distribution method according to claim 1. Description: Storage medium.
【請求項23】 請求項12乃至21のいずれかに記載
の映像配信方法を実現するためのプログラムコードを保
持する記憶媒体。
23. A storage medium holding a program code for realizing the video distribution method according to claim 12.
JP2000202360A 2000-07-04 2000-07-04 Image distribution device and method therefor Withdrawn JP2002027425A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000202360A JP2002027425A (en) 2000-07-04 2000-07-04 Image distribution device and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000202360A JP2002027425A (en) 2000-07-04 2000-07-04 Image distribution device and method therefor

Publications (1)

Publication Number Publication Date
JP2002027425A true JP2002027425A (en) 2002-01-25

Family

ID=18699894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000202360A Withdrawn JP2002027425A (en) 2000-07-04 2000-07-04 Image distribution device and method therefor

Country Status (1)

Country Link
JP (1) JP2002027425A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008066893A (en) * 2006-09-05 2008-03-21 Canon Inc Photographing system, imaging apparatus, monitoring device, their control method, program, and storage medium
WO2008078624A1 (en) * 2006-12-22 2008-07-03 Panasonic Corporation Video outputting apparatus
JP2008529322A (en) * 2004-12-29 2008-07-31 ノキア コーポレイション Electronic device and image data processing method for image data processing
JP2012089958A (en) * 2010-10-16 2012-05-10 Canon Inc Video distribution apparatus, imaging apparatus, video distribution system, video distribution method, and video distribution program
CN102473283A (en) * 2010-07-06 2012-05-23 松下电器产业株式会社 Image delivery device
JP2015005972A (en) * 2013-05-22 2015-01-08 株式会社テレパシーホールディングス Wearable device having privacy protection function for captured image and control method for the same, and image sharing system

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008529322A (en) * 2004-12-29 2008-07-31 ノキア コーポレイション Electronic device and image data processing method for image data processing
JP4664379B2 (en) * 2004-12-29 2011-04-06 ノキア コーポレイション Electronic device and image data processing method for image data processing
US9858651B2 (en) 2004-12-29 2018-01-02 Nokia Technologies Oy Electronic device and method in an electronic device for processing image data
US9552627B2 (en) 2004-12-29 2017-01-24 Nokia Technologies Oy Electronic device and method in an electronic device for processing image data
US8908080B2 (en) 2004-12-29 2014-12-09 Nokia Corporation Electronic device and method in an electronic device for processing image data
JP2008066893A (en) * 2006-09-05 2008-03-21 Canon Inc Photographing system, imaging apparatus, monitoring device, their control method, program, and storage medium
US7907180B2 (en) 2006-09-05 2011-03-15 Canon Kabushiki Kaisha Shooting system, access control apparatus, monitoring apparatus, control method, and storage medium for processing an image shot by an image sensing apparatus to restrict display
WO2008078624A1 (en) * 2006-12-22 2008-07-03 Panasonic Corporation Video outputting apparatus
JPWO2012004907A1 (en) * 2010-07-06 2013-09-02 パナソニック株式会社 Image distribution device
US20120151601A1 (en) * 2010-07-06 2012-06-14 Satoshi Inami Image distribution apparatus
JP5637633B2 (en) * 2010-07-06 2014-12-10 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Image distribution device
US8970697B2 (en) * 2010-07-06 2015-03-03 Panasonic Intellectual Property Corporation Of America Image distribution apparatus
CN102473283B (en) * 2010-07-06 2015-07-15 松下电器(美国)知识产权公司 Image delivery device
CN102473283A (en) * 2010-07-06 2012-05-23 松下电器产业株式会社 Image delivery device
JP2012089958A (en) * 2010-10-16 2012-05-10 Canon Inc Video distribution apparatus, imaging apparatus, video distribution system, video distribution method, and video distribution program
JP2015005972A (en) * 2013-05-22 2015-01-08 株式会社テレパシーホールディングス Wearable device having privacy protection function for captured image and control method for the same, and image sharing system

Similar Documents

Publication Publication Date Title
US7092012B2 (en) Image processing apparatus and method, storage medium, and communication system
US6985178B1 (en) Camera control system, image pick-up server, client, control method and storage medium therefor
US6769131B1 (en) Image processing apparatus and method, image distribution system and storage medium
JP3817312B2 (en) Control method and apparatus, imaging system and display operation apparatus
US8064080B2 (en) Control of data distribution apparatus and data distribution system
JP5871485B2 (en) Image transmission apparatus, image transmission method, and program
JP5955171B2 (en) TRANSMISSION DEVICE, RECEPTION DEVICE, TRANSMISSION METHOD, RECEPTION METHOD, AND PROGRAM
US6822676B1 (en) Camera control system with electronic zoom processing
JP2011055170A (en) Information processing apparatus and control method therefor
JP2006245822A (en) Image distribution system
JP2005117163A (en) Camera server apparatus, control method thereof, computer program and computer-readable storage medium
JP2001136514A (en) Camera control system, and control method and storage medium thereof
EP2141654A1 (en) System and method for efficiently performing image processing operations
JP2011024139A (en) Imaging device, imaging method, program, and imaging system
JP2004254031A (en) Control method for image processing system
JP7250440B2 (en) Imaging device, information processing device, information processing method, and program
JP2002027425A (en) Image distribution device and method therefor
JP4298030B2 (en) Imaging server, client, control method and system, and storage medium
JP7204569B2 (en) IMAGING DEVICE, SYSTEM, CONTROL METHOD OF IMAGING DEVICE, AND PROGRAM
JP5562101B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP2005167397A (en) Server apparatus and control method thereof, and storage medium
JP6980450B2 (en) Controls, control methods, and programs
JP2001136515A (en) Image-pickup device, image communication system, image pickup method, image communicating method, and storage medium
JP2003023619A (en) Image server and image server system
JP2002354321A (en) Image server system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070904