JP2008109364A - Camera server system, processing method for data, and camera server - Google Patents

Camera server system, processing method for data, and camera server Download PDF

Info

Publication number
JP2008109364A
JP2008109364A JP2006289893A JP2006289893A JP2008109364A JP 2008109364 A JP2008109364 A JP 2008109364A JP 2006289893 A JP2006289893 A JP 2006289893A JP 2006289893 A JP2006289893 A JP 2006289893A JP 2008109364 A JP2008109364 A JP 2008109364A
Authority
JP
Japan
Prior art keywords
data
image data
camera server
camera
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006289893A
Other languages
Japanese (ja)
Inventor
Katsura Obikawa
桂 帯川
Jong-Sun Hur
ジョン ソン ホ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Opt KK
Original Assignee
Opt KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Opt KK filed Critical Opt KK
Priority to JP2006289893A priority Critical patent/JP2008109364A/en
Priority to PCT/JP2007/070008 priority patent/WO2008050621A1/en
Publication of JP2008109364A publication Critical patent/JP2008109364A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras

Abstract

<P>PROBLEM TO BE SOLVED: To increase the distribution speed of data to a client. <P>SOLUTION: A camera server 3 which distributes image data of an image picked up by a camera device 2 having an imaging element (image sensor 25) to the client 5 through a network 6 has a JPEG encoder 32 which converts the image data into image data in JPEG format between an input unit 16 which inputs the image data sent from the camera device 2 to the camera server 3 and a control means (MC37) for the camera server 3. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、カメラサーバシステム、データの処理方法、およびカメラサーバに関するものである。   The present invention relates to a camera server system, a data processing method, and a camera server.

従来、撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットワークを通じてクライアントに配信するためのカメラサーバが知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a camera server for distributing image data of an image captured by a camera device including an image sensor to a client via a network is known (for example, see Patent Document 1).

特開2005−318412号公報JP-A-2005-318412

係るカメラサーバにおいては,クライアントへのデータの配信速度を高めるかが課題となっている。   In such a camera server, there is a problem of increasing the data delivery speed to the client.

そこで、本発明は、クライアントへの画像データの配信速度を高くするカメラサーバシステム、データの処理方法、およびカメラサーバを提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a camera server system, a data processing method, and a camera server that increase the delivery speed of image data to a client.

上述の課題を解決するため、撮像素子を備えるカメラ装置と、カメラ装置から出力される画像データをクライアントに配信するカメラサーバとを備えるカメラサーバシステムにおいて、撮像素子と、カメラサーバの制御手段との間に、撮像素子から出力された画像データをデータ圧縮された圧縮画像データに変換するエンコーダを備えることとする。   In order to solve the above-described problems, in a camera server system including a camera device including an image sensor and a camera server that distributes image data output from the camera device to a client, the image sensor and a control unit of the camera server In the meantime, an encoder that converts image data output from the image sensor into compressed image data that has been subjected to data compression is provided.

このように構成した場合には、カメラサーバの制御手段の処理負荷が軽くなり、カメラサーバの処理速度が高くなる。そのため、クライアントへ画像データを配信するための処理速度を速くすることができる。   In such a configuration, the processing load on the control means of the camera server is lightened, and the processing speed of the camera server is increased. Therefore, the processing speed for distributing image data to the client can be increased.

また、他の発明は、上述の発明に加え、エンコーダは、JPEGエンコーダとされ、カメラ装置に備えられることとする。   According to another invention, in addition to the above-described invention, the encoder is a JPEG encoder and is provided in the camera device.

このように構成した場合には、画像データがカメラ装置においてJPEG形式に変換され、JPEG形式の画像データがカメラサーバに送られる。そのため、カメラ装置からカメラサーバに送信するデータの容量を減らすことができ、カメラサーバシステムにおける画像データの送信速度の向上を図ることができる。ひいては、画像データをクライアントに送信する速さを速くすることができる。   When configured in this manner, the image data is converted into the JPEG format in the camera device, and the image data in the JPEG format is sent to the camera server. Therefore, the volume of data transmitted from the camera device to the camera server can be reduced, and the transmission speed of image data in the camera server system can be improved. As a result, the speed at which the image data is transmitted to the client can be increased.

上述の課題を解決するため、撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットワークを通じてクライアントに配信する際のデータの処理方法において、画像データをデータ圧縮された圧縮画像データに変換した後、この圧縮画像データを、クライアントからの要求に従って、クライアントに配信することとする。   In order to solve the above-described problem, in a data processing method for distributing image data of an image captured by a camera device including an image sensor to a client through a network, the image data is converted into compressed image data that is data-compressed. After that, the compressed image data is distributed to the client in accordance with a request from the client.

このように構成した場合には、カメラサーバの制御手段の処理負荷が軽くなり、カメラサーバの処理速度が高くなる。そのため、クライアントへ画像データを配信するための処理速度を速くすることができる。   In such a configuration, the processing load on the control means of the camera server is lightened, and the processing speed of the camera server is increased. Therefore, the processing speed for distributing image data to the client can be increased.

また、他の発明は、上述の発明に加え、データ圧縮は、JPEG圧縮とされ、カメラ装置においてJPEG圧縮が行われることとする。   In another invention, in addition to the above-described invention, data compression is JPEG compression, and JPEG compression is performed in the camera device.

このように構成した場合には、画像データがカメラ装置においてJPEG形式に変換され、JPEG形式の画像データがカメラサーバに送られる。そのため、カメラ装置からカメラサーバに送信するデータの容量を減らすことができ、カメラサーバシステムにおける画像データの送信速度の向上を図ることができる。ひいては、画像データをクライアントに送信する速さを速くすることができる。   When configured in this manner, the image data is converted into the JPEG format in the camera device, and the image data in the JPEG format is sent to the camera server. Therefore, the volume of data transmitted from the camera device to the camera server can be reduced, and the transmission speed of image data in the camera server system can be improved. As a result, the speed at which the image data is transmitted to the client can be increased.

上述の課題を解決するため、撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットワークを通じてクライアントに配信するカメラサーバにおいて、画像データをデータ圧縮された圧縮画像データに変換するエンコーダを、カメラ装置から送られてくる画像データがカメラサーバに入力する入力部と、カメラサーバの制御手段との間に備えることとする。   In order to solve the above-described problem, an encoder that converts image data into compressed image data that is data-compressed in a camera server that distributes image data of an image captured by a camera device including an image sensor to a client through a network, It is assumed that the image data sent from the camera device is provided between the input unit that inputs the image data to the camera server and the control unit of the camera server.

このように構成した場合には、カメラサーバの制御手段の処理負荷が軽くなり、カメラサーバの処理速度が高くなる。そのため、クライアントへ画像データを配信するための処理速度を速くすることができる。   In such a configuration, the processing load on the control means of the camera server is lightened, and the processing speed of the camera server is increased. Therefore, the processing speed for distributing image data to the client can be increased.

また、他の発明は、上述の発明に加え、エンコーダは、JPEGエンコーダとされ、カメラ装置に備えられることとする。   According to another invention, in addition to the above-described invention, the encoder is a JPEG encoder and is provided in the camera device.

このように構成した場合には、画像データがカメラ装置においてJPEG形式に変換され、JPEG形式の画像データがカメラサーバに送られる。そのため、カメラ装置からカメラサーバに送信するデータの容量を減らすことができ、カメラサーバシステムにおける画像データの送信速度の向上を図ることができる。ひいては、画像データをクライアントに送信する速さを速くすることができる。   When configured in this manner, the image data is converted into the JPEG format in the camera device, and the image data in the JPEG format is sent to the camera server. Therefore, the volume of data transmitted from the camera device to the camera server can be reduced, and the transmission speed of image data in the camera server system can be improved. As a result, the speed at which the image data is transmitted to the client can be increased.

本発明によれば、クライアントへのデータの配信速度を高くすることができる。   According to the present invention, it is possible to increase the data delivery speed to the client.

以下、本発明の実施の形態に係るカメラサーバおよびデータの処理方法を図面に基づいて説明する。   Hereinafter, a camera server and a data processing method according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態に係るカメラサーバシステム1を示すシステム構成図である。カメラサーバシステム1は、カメラ装置2およびカメラサーバ3を有する。カメラ装置2とカメラサーバ3とは、USB(Universal Serial Bus)ケーブル4により接続されている。カメラサーバシステム1とクライアント5とは、ネットワーク6を介して接続され、カメラサーバシステム1は、クライアント5側のパソコン7からの指令を受ける。カメラサーバ3は、パソコン7から受けた指令に基づいて、カメラ装置2により撮像した画像の画像データをパソコン7(クライアント5)に配信する。なお、クライアント5は、1または複数存在し、カメラサーバシステム1は、それぞれのクライアント5に対して、各クライアント5からの要求に従って、該画像データを配信する。   FIG. 1 is a system configuration diagram showing a camera server system 1 according to an embodiment of the present invention. The camera server system 1 includes a camera device 2 and a camera server 3. The camera device 2 and the camera server 3 are connected by a USB (Universal Serial Bus) cable 4. The camera server system 1 and the client 5 are connected via the network 6, and the camera server system 1 receives a command from the personal computer 7 on the client 5 side. The camera server 3 distributes image data of an image captured by the camera device 2 to the personal computer 7 (client 5) based on a command received from the personal computer 7. One or a plurality of clients 5 exist, and the camera server system 1 distributes the image data to each client 5 according to a request from each client 5.

カメラ装置2は、立方体形状のハウジング8を有する。ハウジング8には、魚眼レンズ9、USBコネクタ10、オーディオ・ビデオ出力コネクタ11、音出力コネクタ12等が設けられる。魚眼レンズ9は、ハウジング8の上面に配設される。また、ハウジング8の上面には、魚眼レンズ9の他、マイクロフォン13(図2参照)用の通気孔14が形成される。USBコネクタ10、オーディオ・ビデオ出力コネクタ11および音出力コネクタ12は、ハウジング8の側面に配設される。   The camera device 2 includes a cubic housing 8. The housing 8 is provided with a fish-eye lens 9, a USB connector 10, an audio / video output connector 11, a sound output connector 12, and the like. The fisheye lens 9 is disposed on the upper surface of the housing 8. In addition to the fisheye lens 9, a vent hole 14 for the microphone 13 (see FIG. 2) is formed on the upper surface of the housing 8. The USB connector 10, the audio / video output connector 11, and the sound output connector 12 are disposed on the side surface of the housing 8.

カメラサーバ3は、直方体形状のハウジング15を有する。ハウジング15には、カメラ装置2からのデータが入力する入力端子である入力部としてのUSBコネクタ16、必要に応じて適宜に利用する拡張マイクロフォン17が接続されるマイクロフォンコネクタ18、赤外線センサ等の外部機器を接続するための汎用入出力ポート(GPIO:General Purpose Input Output)19、オーディオ信号を出力するオーディオ出力コネクタ20、ビデオ信号を出力するビデオ出力コネクタ21、スピーカが接続されるスピーカコネクタ22、ネットワークに接続される通信インターフェース23、およびリセットスイッチを兼ねる電源スイッチ24等が設けられる。   The camera server 3 has a rectangular parallelepiped housing 15. The housing 15 has an external connector such as a USB connector 16 serving as an input unit for inputting data from the camera device 2, a microphone connector 18 to which an expansion microphone 17 that is appropriately used as necessary is connected, and an infrared sensor. General-purpose input / output port (GPIO) 19 for connecting devices, an audio output connector 20 for outputting an audio signal, a video output connector 21 for outputting a video signal, a speaker connector 22 to which a speaker is connected, a network A communication interface 23 connected to the power supply switch 24, a power switch 24 also serving as a reset switch, and the like are provided.

図2は、カメラ装置2の電気回路を示すブロック図である。   FIG. 2 is a block diagram showing an electric circuit of the camera device 2.

カメラ装置2は、魚眼レンズ9、USBコネクタ10、オーディオ・ビデオ出力コネクタ11、音出力コネクタ12の他に、マイクロフォン13、撮像素子としてイメージセンサ25、FPGA(Field Programable Gate Array)により構成される色変換処理部26、音IC(Integrated Circuit)により構成される音処理部27、オーディオ・ビデオエンコーダ28、ストリーミング生成部29、および上述の各構成部分の動作の制御を司るCPU(Central Processing Unit)30等を有する。   In addition to the fisheye lens 9, USB connector 10, audio / video output connector 11, and sound output connector 12, the camera device 2 includes a microphone 13, an image sensor 25 as an image sensor, and an FPGA (Field Programmable Gate Array). A processing unit 26, a sound processing unit 27 configured by a sound IC (Integrated Circuit), an audio / video encoder 28, a streaming generation unit 29, a CPU (Central Processing Unit) 30 that controls operation of each of the above-described components, and the like Have

マイクロフォン13は、 カメラ装置2の周囲の音声や音を集音する。マイクロフォン13は、集音した音に応じた電気信号である音信号を生成し、音処理部27に出力する。音処理部27では、マイクロフォン13からの電気信号に基づきデジタル形式の音データを生成する。なお、音処理部27は、音出力コネクタ12に対しては、マイクロフォン13からの音声に応じた電気信号を音データ(デジタル形式)に変換することなく出力する。そのため、音出力コネクタ12に、例えば、スピーカ、ヘッドホン等を接続することにより、マイクロフォン13で集音した音を聞くことができる。   The microphone 13 collects sounds and sounds around the camera device 2. The microphone 13 generates a sound signal that is an electrical signal corresponding to the collected sound and outputs the sound signal to the sound processing unit 27. The sound processing unit 27 generates digital sound data based on the electrical signal from the microphone 13. Note that the sound processing unit 27 outputs an electrical signal corresponding to the sound from the microphone 13 to the sound output connector 12 without converting it into sound data (digital format). Therefore, the sound collected by the microphone 13 can be heard by connecting, for example, a speaker, headphones or the like to the sound output connector 12.

イメージセンサ25には、例えば、CMOS(Complementary Metal−Oxide Semiconductor)等を用いる。イメージセンサ25には、魚眼レンズ9による像が結像する。イメージセンサ25は、撮像信号である輝度分布データをデジタル形式の画像データとして、色変換処理部26に出力する。本実施の形態においては、イメージセンサ25は、例えば、毎秒、1/15フレームの撮像速度で撮像を行うものとする。したがって、イメージセンサ25からは、1/15秒毎に1フレーム分の画像データが出力されることになる。   For example, a CMOS (Complementary Metal-Oxide Semiconductor) is used for the image sensor 25. An image by the fisheye lens 9 is formed on the image sensor 25. The image sensor 25 outputs luminance distribution data, which is an imaging signal, to the color conversion processing unit 26 as digital image data. In the present embodiment, the image sensor 25 performs imaging at an imaging speed of 1/15 frames per second, for example. Therefore, the image sensor 25 outputs image data for one frame every 1/15 second.

色変換処理部26は、図示外の色変換テーブルを用いて、輝度分布データの各画素のデータを置き換え、デジタル形式の画像データを生成する。生成された画像データは、CPU30により形成されるヘッダ付加部31により、フレーム毎にヘッダが付加される。ヘッダには、撮像順序に従って、連続番号であるヘッダ番号M(M=1,2,3,…)が付与される。   The color conversion processing unit 26 replaces the data of each pixel of the luminance distribution data using a color conversion table (not shown) to generate digital image data. A header is added to the generated image data for each frame by a header adding unit 31 formed by the CPU 30. A header number M (M = 1, 2, 3,...) That is a serial number is assigned to the header according to the imaging order.

CPU30には、画像データをJPEG(Joint Photographic Experts Group)形式の圧縮画像データに変換するエンコーダとしてのJPEGエンコーダ部32が構成されている。画像データは、JPEGエンコーダ部32により、JPEG形式の画像データに変換される際に、ヘッダに、データの内容がJPEG変換された画像データである旨の情報が付与される。   The CPU 30 includes a JPEG encoder unit 32 as an encoder for converting image data into compressed image data in JPEG (Joint Photographic Groups Group) format. When the JPEG encoder unit 32 converts the image data into JPEG format image data, information indicating that the content of the data is JPEG converted image data is added to the header.

ところで、イメージセンサ25からは画像データ以外のノイズデータが出力されたり、あるいは、イメージセンサ25とJPEGエンコーダ部32との間でノイズデータが混在することがある。JPEGエンコーダ部32では、JPEGエンコーダ部32に入力されたデータが、画像データである場合には、JPEG形式の画像データに変換すると共に、ヘッダに、ヘッダが付加されているデータがJPEG形式の画像データである旨の情報を付与する。   By the way, noise data other than image data may be output from the image sensor 25, or noise data may be mixed between the image sensor 25 and the JPEG encoder unit 32. In the JPEG encoder unit 32, when the data input to the JPEG encoder unit 32 is image data, the data is converted into JPEG format image data, and the data with the header added to the header is the JPEG format image. Gives information that the data is data.

これに対し、JPEGエンコーダ部32は、変換しようとするデータが画像データでない場合は、JPEG形式の画像データに変換しない。すなわち、JPEGエンコーダ部32に、イメージセンサ25から出力された画像データとして入力されるデータのうち、画像データでないノイズデータについては、JPEG形式の画像データに変換されないため、ヘッダに、JPEG形式の画像データである旨の情報は付与されない。なお、JPEGエンコーダ部32は、画像データ中に、所定以上のノイズデータが含まれているときは、JPEG形式の画像データに変換しないように構成してもよい。   On the other hand, if the data to be converted is not image data, the JPEG encoder unit 32 does not convert the image data to JPEG format. That is, noise data that is not image data among data input to the JPEG encoder unit 32 as image data output from the image sensor 25 is not converted to JPEG image data. Information indicating data is not given. The JPEG encoder unit 32 may be configured not to convert the image data into JPEG format image data when noise data of a predetermined level or more is included in the image data.

したがって、ヘッダ情報に基づいて、ヘッダが付加されているデータの内容が、画像データか、ノイズデータかを判断することができる。   Accordingly, based on the header information, it can be determined whether the content of the data to which the header is added is image data or noise data.

音データについても、ヘッダ付加部31により所定単位のデータ量で、ヘッダが付加される。例えば、本実施の形態では、1/30秒単位のデータ長毎に、音データにヘッダが付加される。音データのヘッダには、ヘッダが付加されたデータが音データである旨の情報と、時間の経過に従った連続した番号であるヘッダ番号N(N=1,2,3,…)の情報が付与される。   Also for the sound data, a header is added by the header adding unit 31 with a data amount of a predetermined unit. For example, in this embodiment, a header is added to sound data for each data length of 1/30 second. In the header of the sound data, information that the data to which the header is added is sound data, and information of a header number N (N = 1, 2, 3,...) That is a continuous number as time passes. Is granted.

画像データが毎秒15フレームのデータ量であるのに対し、音データは、1/30秒単位のデータ量である。したがって、1フレームの画像データに対して、2単位分(1/30秒×2)の音データが対応することになる。   The image data has a data amount of 15 frames per second, whereas the sound data has a data amount of 1/30 second. Therefore, two units (1/30 seconds × 2) of sound data correspond to one frame of image data.

画像データと音データとは、ヘッダ番号に基づいて、撮像時と集音時のタイミングが互いに同期させられている状態で、CPU30から、ストリーミング生成部29に対して出力される。例えば、画像データのヘッダ番号Mが、1,2,3,4,5,…であり、音データのヘッダ番号Nが、1,2,3,4,5,6,7,8,9,10,…であるとする。そうすると、ヘッダ番号M=1の画像データに対して、ヘッダ番号N=1,2の音データが対応し、ヘッダ番号M=1の画像データとヘッダ番号N=1,2の音データとは時間的タイミングが同期しているデータとなる。また、同様に、ヘッダ番号M=2の画像データと、ヘッダ番号N=3,4の音データとは、時間的タイミングが同期しているデータとなる。つまり、ヘッダ番号Mの画像データと、ヘッダ番号N=2M−1,2Mの音データとが、撮像と集音された時間的タイミングが同期しているデータとなっている。   The image data and the sound data are output from the CPU 30 to the streaming generation unit 29 in a state in which the timing at the time of imaging and the time of sound collection are synchronized with each other based on the header number. For example, the header number M of the image data is 1, 2, 3, 4, 5,..., And the header number N of the sound data is 1, 2, 3, 4, 5, 6, 7, 8, 9,. Suppose that 10,. Then, the sound data of the header number N = 1 and 2 correspond to the image data of the header number M = 1, and the image data of the header number M = 1 and the sound data of the header number N = 1, 2 are time. The data is synchronized with the target timing. Similarly, the image data having the header number M = 2 and the sound data having the header numbers N = 3 and 4 are data having synchronized timings. That is, the image data of the header number M and the sound data of the header numbers N = 2M-1 and 2M are data in which the temporal timing when the image pickup and the sound collection are synchronized.

ストリーミング生成部29は、CPU30から出力される画像データおよび音データを読み込み、これらのコンテンツデータを有するデータをストリーミングデータとして生成する。ストリーミング生成部29は、生成したデジタル形式のデータ信号を通信処理部33に供給し、USBコネクタ10からUSBケーブル4を介して、カメラサーバ3に送信する。   The streaming generation unit 29 reads image data and sound data output from the CPU 30 and generates data having these content data as streaming data. The streaming generation unit 29 supplies the generated digital data signal to the communication processing unit 33 and transmits the data signal from the USB connector 10 to the camera server 3 via the USB cable 4.

このように画像データおよび音データのコンテンツデータを有するデータを生成し、このデジタル形式のデータを、USBケーブル4を介してカメラサーバ3に送る。これにより、デジタル形式の画像データを、アナログ形式のデータ信号に変換することなく、カメラサーバ3へ送信することができる。   In this way, data having content data of image data and sound data is generated, and this digital data is sent to the camera server 3 via the USB cable 4. Thus, digital image data can be transmitted to the camera server 3 without being converted into an analog data signal.

オーディオ・ビデオエンコーダ28は、色変換処理部26から出力された画像データを、JPEG形式の画像データに変換することなく読み込み、NTSC(National TV Standards Committee)方式やPAL(Phase Alternating Line)方式のビデオ信号を生成する。また、オーディオ・ビデオエンコーダ28は、デジタル形式の音データを電気信号である音信号に変換する。そして、ビデオ信号と音信号と共に、オーディオ・ビデオ出力コネクタ11へ出力する。   The audio / video encoder 28 reads the image data output from the color conversion processing unit 26 without converting the image data into JPEG format image data, and uses the NTSC (National TV Standards Committee) or PAL (Phase Alternating Line) video. Generate a signal. The audio / video encoder 28 converts the sound data in the digital format into a sound signal that is an electrical signal. Then, the video signal and the sound signal are output to the audio / video output connector 11.

図3は、カメラサーバ3の電気回路を示すブロック図である。   FIG. 3 is a block diagram showing an electric circuit of the camera server 3.

カメラサーバ3は、USBコネクタ16、拡張マイクロフォン17が接続されるマイクロフォンコネクタ18、赤外線センサ等の外部機器が接続される汎用入出力ポート19、オーディオ出力コネクタ20、ビデオ出力コネクタ21、スピーカコネクタ22、通信インターフェース23、電源スイッチ24の他、オーディオ・ビデオ入力コネクタ34、オーディオエンコーダ35、メモリ36、および上述の各構成部分の動作の制御を司る制御手段としてのMCU(Microcontroller Unit)37を有する。   The camera server 3 includes a USB connector 16, a microphone connector 18 to which an extension microphone 17 is connected, a general-purpose input / output port 19 to which an external device such as an infrared sensor is connected, an audio output connector 20, a video output connector 21, a speaker connector 22, In addition to the communication interface 23 and the power switch 24, the audio / video input connector 34, the audio encoder 35, the memory 36, and an MCU (Microcontroller Unit) 37 serving as control means for controlling the operation of each of the above-described components.

MCU37には、データ選択手段であるデータ選択部38、データ同期手段であるデータ同期部39、およびデータ配信手段であるデータ配信部40等が構成されている。これらデータ選択部38、データ同期部39、およびデータ配信部40は、メモリ36に記憶されている制御プログラムが、MCU37読み込まれることにより、機能的に実現される。   The MCU 37 includes a data selection unit 38 that is a data selection unit, a data synchronization unit 39 that is a data synchronization unit, a data distribution unit 40 that is a data distribution unit, and the like. The data selection unit 38, the data synchronization unit 39, and the data distribution unit 40 are functionally realized by reading the control program stored in the memory 36 into the MCU 37.

データ選択部38は、カメラ装置2から送信されてきた画像データについて、各フレームの画像データのヘッダ情報に基づいて、画像データの内容を判断する。上述したように、ヘッダには、ヘッダ内のデータが、JPEG変換された画像データである場合には、その旨の情報が付与され、ヘッダ内のデータが、ノイズデータである場合には、該情報は付与されていない。つまり、データ選択部38では、ヘッダ情報に基づいて、ヘッダ毎のデータの内容が所定の画像データであるか、所定の画像データ以外のデータであるかを判断する。   The data selection unit 38 determines the content of the image data transmitted from the camera device 2 based on the header information of the image data of each frame. As described above, when the data in the header is JPEG-converted image data, information to that effect is given to the header, and when the data in the header is noise data, the header No information is given. That is, the data selection unit 38 determines whether the content of the data for each header is predetermined image data or data other than the predetermined image data based on the header information.

そして、データ選択部38は、この判断結果に基づいて、データ同期部39に出力するデータを取捨選択する。すなわち、データ選択部38により、データの内容が所定の画像データであると判断された場合には、この画像データは、データ同期部39およびデータ配信部40を介して、通信インターフェース部23から、ネットワーク6を通じてクライアント5のパソコン7に配信される。一方、所定の画像データでないデータについては、データ同期部39側への出力は行われない。   Then, the data selection unit 38 selects data to be output to the data synchronization unit 39 based on the determination result. That is, when the data selection unit 38 determines that the content of the data is predetermined image data, the image data is transmitted from the communication interface unit 23 via the data synchronization unit 39 and the data distribution unit 40. The data is distributed to the personal computer 7 of the client 5 through the network 6. On the other hand, data that is not predetermined image data is not output to the data synchronization unit 39 side.

このように、データ選択部38を備え、所定の画像データでないデータを、クライアント5側に配信しないようにすることにより、クライアント5側に配信される画像データには、ノイズのデータが含まれないようになる。そのため、クライアント5のパソコン7のモニタに表示される映像は、ノイズの少ない綺麗な映像となる。また、ノイズデータは、送信されないため、カメラサーバ3からクライアント5へ送信するデータ量が少なくなり、カメラサーバ3からクライアント5への画像データの送信速度を早くすることができる。   As described above, the data selection unit 38 is provided so that data that is not predetermined image data is not distributed to the client 5 side, so that the image data distributed to the client 5 side does not include noise data. It becomes like this. Therefore, the video displayed on the monitor of the personal computer 7 of the client 5 is a beautiful video with little noise. Further, since noise data is not transmitted, the amount of data transmitted from the camera server 3 to the client 5 is reduced, and the transmission speed of image data from the camera server 3 to the client 5 can be increased.

一方、音データについては、画像データのように取捨選択されていないため、全ての音データが、データ同期部39およびデータ配信部40を介して、通信インターフェース部23から、ネットワーク6を通じてクライアント5のパソコン7に配信される。クライアント5側においては、パソコン7に内蔵等するスピーカから、マイクロフォン13により集音した、音声等の音を聞くことができる。   On the other hand, since the sound data is not selected as in the case of image data, all the sound data is transmitted from the communication interface unit 23 via the network 6 via the data synchronization unit 39 and the data distribution unit 40. Delivered to PC 7. On the client 5 side, sound such as voice collected by the microphone 13 can be heard from a speaker built in the personal computer 7 or the like.

ところで、音データについては、画像データのように取捨選択されないため、データ選択部38からデータ配信部40に入力する音データのヘッダ番号Nは、欠損のない連続番号となっている。これに対し、上述したように、画像データについては、データ選択部38において、データ配信部40に出力するデータを取捨選択するため、データ選択部38からデータ配信部40に入力する画像データのヘッダ番号Mには、欠損が生じている場合がある。   By the way, since the sound data is not selected as in the case of image data, the header number N of the sound data input from the data selection unit 38 to the data distribution unit 40 is a continuous number without any loss. On the other hand, as described above, for the image data, the data selection unit 38 selects the data to be output to the data distribution unit 40, so that the header of the image data input from the data selection unit 38 to the data distribution unit 40 is selected. The number M may have a defect.

したがって、例えば、画像データについては、ヘッダ番号Mが欠損した部分の画像データを詰めて配信し、音データについては、データを詰めることなく、クライアント5側に配信した場合には、音データに基づく音の内容に対して、画像データに基づく映像が先走る状態となり、映像と音とが同期しなくなってしまう。また、例えば、欠損した画像データと同期する音データを削除すれば、映像と音とを同期させることができるが、音の内容に飛びを生じるという問題がある。   Therefore, for example, when the image data is distributed with the image data of the portion where the header number M is missing, the sound data is based on the sound data when distributed to the client 5 side without compressing the data. The video based on the image data precedes the content of the sound, and the video and the sound are not synchronized. For example, if the sound data synchronized with the missing image data is deleted, the video and the sound can be synchronized, but there is a problem that the content of the sound is skipped.

そこで、データ同期部39において、音データとデータ選択部38から出力された画像データとを、集音タイミングと撮像タイミングが互いに同期していると共に、音の内容に飛びを生じることのないように同期させる処理をする。   Therefore, in the data synchronization unit 39, the sound collection timing and the imaging timing of the sound data and the image data output from the data selection unit 38 are synchronized with each other so that the sound content is not skipped. Process to synchronize.

具体的には、例えば、データ選択部38から出力した画像データのヘッダ番号が、1,2,_,4,5,…(ヘッダ番号3の画像データについては、ノイズデータであったため欠損している。)であり、音データのヘッダ番号が1,2,3,4,5,6,…である場合には、ヘッダ番号1の画像データに対してはヘッダ番号1,2の音データを同期させ、ヘッダ番号2の画像データに対してはヘッダ番号3,4の音データを同期させる。ヘッダ番号3の画像データは欠損しているが、この部分には、ヘッダ番号5,6の音データを同期させる。そして、ヘッダ番号4の画像データに対してはヘッダ番号7,8の音データを同期させることになる。このように、音データと画像データの同期を取った状態で、データ配信部40から通信インターフェース23を通ってネットワーク6側にデータが配信される。   Specifically, for example, the header number of the image data output from the data selection unit 38 is 1, 2, _, 4, 5,... (The image data of the header number 3 is missing because it is noise data. If the header number of the sound data is 1, 2, 3, 4, 5, 6,..., The sound data of the header numbers 1 and 2 is added to the image data of the header number 1. The sound data of header numbers 3 and 4 are synchronized with the image data of header number 2. Although the image data of the header number 3 is missing, the sound data of the header numbers 5 and 6 are synchronized with this portion. The sound data of header numbers 7 and 8 is synchronized with the image data of header number 4. As described above, in a state where the sound data and the image data are synchronized, the data is distributed from the data distribution unit 40 through the communication interface 23 to the network 6 side.

クライアント5側では、画像データの欠損しているヘッダ番号3の部分については、音データのみが配信され、パソコン7のスピーカからは、ヘッダ番号5,6の音データに基づく音が再生されることになる。   On the client 5 side, only the sound data is distributed for the portion of the header number 3 in which the image data is missing, and the sound based on the sound data of the header numbers 5 and 6 is reproduced from the speaker of the personal computer 7. become.

なお、クライアント5のパソコン7のビュアソフトを、新たな画像データが配信されるまでは、モニタに、直前の画像データに基づく映像を継続して表示するように構成しておくことにより、画像データが欠損した場合に、パソコン7のモニタに何も表示されない不自然な状態にならないようにすることができる。ビュアソフトをこのように構成した場合には、ヘッダ番号2の画像データが配信され、その後、ヘッダ番号4の画像データが配信されるまでの間は、ヘッダ番号2の画像データに基づく映像が表示され、この間、ヘッダ番号5,6の音データに基づく音が再生されることになる。   Note that the viewer software of the personal computer 7 of the client 5 is configured to continuously display the video based on the immediately preceding image data on the monitor until new image data is distributed. It is possible to prevent an unnatural state in which nothing is displayed on the monitor of the personal computer 7 in the case of missing. When the viewer software is configured in this way, the image data based on the image data with the header number 2 is displayed until the image data with the header number 2 is distributed and then the image data with the header number 4 is distributed. During this time, the sound based on the sound data of header numbers 5 and 6 is reproduced.

なお、データ配信部40は、複数のクライアント5が、カメラサーバ3にアクセスしている場合には、これらのクライアント5に対してデータ信号を同時配信する。   The data distribution unit 40 simultaneously distributes data signals to these clients 5 when a plurality of clients 5 are accessing the camera server 3.

ところで、USBコネクタ16には、カメラ装置2からUSBケーブル4を介して、デジタル形式の画像データおよびデジタル形式の音データを有するデータ信号が供給され、MCU37に入力する。MCU37に入力されたデジタル形式のデータ信号は、デジタル形式のデータ信号として通信インターフェース23からネットワーク6に出力するように構成されている。   By the way, the USB connector 16 is supplied with a data signal having image data in digital format and sound data in digital format from the camera device 2 via the USB cable 4 and is input to the MCU 37. The digital data signal input to the MCU 37 is output from the communication interface 23 to the network 6 as a digital data signal.

したがって、カメラサーバ3は、カメラ装置2から出力されたデジタル形式のデータ信号を、デジタル形式の信号のままネットワーク側に出力するため、信号の劣化が無い。また、カメラサーバ3内にアナログ信号をデジタル信号に変換するAD変換機能を持たせる必要がない。なお、画像データは、半二重通信方式でTCPプロトコルまたはUDPプロトコルにてデータ伝送される。音データは、二重通信方式で、TCPプロトコルまたはUDPプロトコルにてデータ伝送される。   Therefore, since the camera server 3 outputs the digital data signal output from the camera device 2 to the network side as the digital signal, there is no signal degradation. Further, it is not necessary to provide the camera server 3 with an AD conversion function for converting an analog signal into a digital signal. Note that the image data is transmitted by the TCP protocol or the UDP protocol by the half-duplex communication method. The sound data is transmitted by the TCP protocol or the UDP protocol in a duplex communication system.

上述したように、画像データは、カメラ装置2において、JPEG形式の圧縮画像データに変換された後、カメラサーバ3に送信され、データ配信部40から、通信インターフェース23を通して、クライアント5に対して配信される。このように、画像データをカメラ装置2においてJPEG形式に変換し、JPEG形式の画像データをカメラサーバ3に送るように構成することにより、カメラ装置2からカメラサーバ3に送信するデータの容量を減らすことができる。このため、カメラサーバシステム1における画像データの送信速度の向上を図ることができる。ひいては、画像データをクライアント5に送信する速さを速くすることができる。   As described above, the image data is converted into JPEG format compressed image data in the camera device 2 and then transmitted to the camera server 3, and is distributed from the data distribution unit 40 to the client 5 through the communication interface 23. Is done. As described above, the image data is converted into the JPEG format in the camera device 2 and the image data in the JPEG format is sent to the camera server 3, thereby reducing the volume of data transmitted from the camera device 2 to the camera server 3. be able to. For this reason, the transmission speed of the image data in the camera server system 1 can be improved. As a result, the speed at which the image data is transmitted to the client 5 can be increased.

一方、これに対し、例えば、画像データのJPEG形式への変換を、カメラサーバ3のMCU37において行い、また、クライアント5からの画像データの送信の要求に応じて、その都度、JPEG形式への変換を実行するようにした場合には、カメラサーバ3からクライアント5へ画像データを配信する速さが遅くなる。   On the other hand, for example, the conversion of the image data to the JPEG format is performed in the MCU 37 of the camera server 3 and the conversion to the JPEG format is performed each time the image data is transmitted from the client 5. Is performed, the speed at which the image data is distributed from the camera server 3 to the client 5 is reduced.

また、MCU37は、カメラサーバ3の全体の制御に加え、カメラ装置2の制御やクライアント5との通信等に係わる多くの処理を行う。そのため、これらの処理に加えて、JPEG変換のエンコード機能を持たせることとすると、MCU37の負荷が大きくなり、MCU37の処理速度が低下し、JPEG変換のエンコード処理速度も遅くなる。この結果、カメラサーバ3から画像データをクライアント5へ送信する速さが遅くなってしまう。   In addition to the overall control of the camera server 3, the MCU 37 performs many processes related to the control of the camera device 2 and the communication with the client 5. Therefore, in addition to these processes, if an encoding function for JPEG conversion is provided, the load on the MCU 37 increases, the processing speed of the MCU 37 decreases, and the encoding processing speed for JPEG conversion also decreases. As a result, the transmission speed of the image data from the camera server 3 to the client 5 becomes slow.

また、クライアント5からの画像データの送信の要求に応じて、その都度、JPEG形式への変換を実行するようにした場合、1のクライアント5に対して、画像データの送信処理を行っている間は、他のクライアント5は、待っていなくてはいけないため、クライアント5へ画像データを送信する速さが遅くなる。   In addition, when conversion to the JPEG format is executed each time in response to a request for transmission of image data from the client 5, while image data transmission processing is being performed for one client 5. Since the other clients 5 have to wait, the transmission speed of the image data to the clients 5 becomes slow.

これに対して、カメラサーバ3側のMCU37に比べて処理項目の少ないカメラ装置2側のCPU30を用いてJPEG変換することにより、JPEG変換の速度を高くすることができる。また、MCU37は、JPEG変換の処理を行わない分、処理速度の低下がなく、データ選択部38およびデータ配信部40等の処理速度を高めるこができ、クライアント5に画像データを配信するための処理速度を速くすることができる。   On the other hand, JPEG conversion speed can be increased by performing JPEG conversion using the CPU 30 on the camera device 2 side, which has fewer processing items than the MCU 37 on the camera server 3 side. In addition, the MCU 37 does not perform the JPEG conversion process, so that the processing speed does not decrease, the processing speed of the data selection unit 38, the data distribution unit 40, and the like can be increased, and the image data is distributed to the client 5. The processing speed can be increased.

また、データ配信部40からは、複数のクライアント5に対して、画像データが同時に配信されるため、クライアント5は、他のクライアント5への配信が終わるのを待って画像データの配信を受けるということがなくなり、配信の速さを早くすることができる。   Further, since the image data is simultaneously distributed to the plurality of clients 5 from the data distribution unit 40, the client 5 waits for the distribution to the other clients 5 to receive the distribution of the image data. This eliminates the possibility of speeding up delivery.

なお、JPEGエンコーダ部32は、カメラ装置2のCPU30に設ける他、図3に点線に示すように、カメラサーバ3側にMCU37とは別に、JPEGエンコーダ32Aを、USBコネクタ16とMCU37との間に設け、このJPEGエンコーダ32AによりJPEG変換を行った画像データをMCU37に入力するように構成してもよい。JPEGエンコーダ部32Aは、データ選択部38、データ同期部39およびデータ配信部40等が備えられるMCU37とは別の処理装置として設けられているため、MCU37の処理速度を低下させることがない。   The JPEG encoder unit 32 is provided in the CPU 30 of the camera apparatus 2 and, as indicated by a dotted line in FIG. It is also possible to configure so that image data that has been subjected to JPEG conversion by the JPEG encoder 32A is input to the MCU 37. Since the JPEG encoder unit 32A is provided as a processing device different from the MCU 37 provided with the data selection unit 38, the data synchronization unit 39, the data distribution unit 40, and the like, the processing speed of the MCU 37 is not reduced.

また、カメラ装置2側にCPU30とは別に、専用のJPEGエンコーダを備えて、このJPEGエンコーダによりJPEG変換を行わせるように構成してもよい。   Further, a dedicated JPEG encoder may be provided on the camera device 2 side separately from the CPU 30, and JPEG conversion may be performed by the JPEG encoder.

上述の本実施の形態においては、データ圧縮の方法およびエンコーダを、JPEG形式の圧縮方法およびJPEGエンコーダ部32(32A)として示したが、MPEG(Moving Picture Experts Group)等、その他の圧縮方式を採用してもよい。また、非可逆圧縮方式の他に、可逆圧縮方式としてもよい。   In the above-described embodiment, the data compression method and encoder are shown as the JPEG format compression method and JPEG encoder unit 32 (32A), but other compression methods such as MPEG (Moving Picture Experts Group) are adopted. May be. In addition to the lossy compression method, a reversible compression method may be used.

オーディオエンコーダ35では、通信インターフェース23からカメラサーバ3に入力するデジタル形式の音データをMCU37から読み込み、電気信号である音信号に変換して、スピーカコネクタ22へ出力する。そのため、スピーカコネクタ22に、例えば、スピーカ等を接続することにより、通信インターフェース23から入力される音データを再生することができる。   In the audio encoder 35, digital sound data input from the communication interface 23 to the camera server 3 is read from the MCU 37, converted into a sound signal that is an electrical signal, and output to the speaker connector 22. Therefore, by connecting a speaker or the like to the speaker connector 22, for example, sound data input from the communication interface 23 can be reproduced.

オーディオ・ビデオ入力コネクタ34に、カメラ装置2側のオーディオ・ビデオ出力コネクタ11から出力された音信号とビデオ信号が入力されたときには、これらの音信号とビデオ信号を、それぞれオーディオ出力コネクタ20とビデオ出力コネクタ21に出力する。したがって、オーディオ出力コネクタ20とビデオ出力コネクタ21にテレビ等を接続すると、カメラ装置2で撮像および集音された映像と音声を視聴することができる。   When a sound signal and a video signal output from the audio / video output connector 11 on the camera device 2 side are input to the audio / video input connector 34, the sound signal and the video signal are respectively transmitted to the audio output connector 20 and the video. Output to the output connector 21. Accordingly, when a television or the like is connected to the audio output connector 20 and the video output connector 21, the video and audio captured and collected by the camera device 2 can be viewed.

カメラサーバ3からは、カメラ装置2に対して、USBケーブル4を介してカメラ装置2を制御するためのカメラ装置制御信号が送信される。このカメラ装置制御信号は、MCU37に構成されるデバイス制御部41により生成されるもので、例えば、カメラ装置2の動作開始や停止を制御するものであったり、カメラ装置2に対して画像データの送信を要求するもの等である。また、ネットワークに接続されるクライアント5側のパソコン7等からカメラサーバ3に対して送信される指令についても、その指令を解釈して、カメラ装置2に対してカメラ装置制御信号を送信する。例えば、パソコン7等から、撮影方向を水平に移動させるパン撮影を行うためのパン制御、撮影方向を上下に移動させるチルト制御、撮影画角を狭めたり広げたりするズーム撮影を行うためのズーム制御等が要求された場合には、デバイス制御部41は、その指令を解釈して、カメラ装置2に対してカメラ装置制御信号を送信する。なお、デバイス制御部41は、カメラ装置2の他、GPIOに外部機器が接続された場合には、この外部機器についても制御を行う。   A camera device control signal for controlling the camera device 2 is transmitted from the camera server 3 to the camera device 2 via the USB cable 4. The camera device control signal is generated by the device control unit 41 configured in the MCU 37. For example, the camera device control signal controls the start or stop of the operation of the camera device 2, or the camera device 2 receives image data. Those that request transmission. Also, for a command transmitted from the personal computer 7 on the client 5 side connected to the network to the camera server 3, the command is interpreted and a camera device control signal is transmitted to the camera device 2. For example, from a personal computer 7 or the like, pan control for performing pan shooting for moving the shooting direction horizontally, tilt control for moving the shooting direction up and down, zoom control for performing zoom shooting for narrowing or widening the shooting angle of view. Is requested, the device control unit 41 interprets the command and transmits a camera device control signal to the camera device 2. In addition to the camera device 2, the device control unit 41 also controls the external device when an external device is connected to the GPIO.

ところで、カメラ装置2に内蔵されるマイクロフォン13は、ハウジング8内に配設されるイメージセンサ25や回路構成の制約を受けて、使用できるサイズに制限があり、十分な集音力を得られない場合がある。このような場合には、マイクロフォンコネクタ18に拡張マイクロフォン17を接続する。   By the way, the microphone 13 built in the camera device 2 is limited in the size that can be used due to the restrictions of the image sensor 25 disposed in the housing 8 and the circuit configuration, and cannot obtain sufficient sound collecting power. There is a case. In such a case, the extension microphone 17 is connected to the microphone connector 18.

MCU37は、マイクロフォンコネクタ18に拡張マイクロフォン17が接続されたことを認識すると、カメラ装置2に対して、マイクロフォン13による集音を停止するカメラ装置制御信号を送信する。このカメラ装置制御信号を受けてカメラ装置2のCPU30は、音処理部27に対し、音データを生成することを停止する制御を行なう。そのため、カメラ装置2からは、音データのないデータが出力される。   When the MCU 37 recognizes that the extension microphone 17 is connected to the microphone connector 18, the MCU 37 transmits a camera device control signal for stopping the sound collection by the microphone 13 to the camera device 2. Upon receiving this camera device control signal, the CPU 30 of the camera device 2 controls the sound processing unit 27 to stop generating sound data. For this reason, the camera device 2 outputs data without sound data.

マイクロフォンコネクタ18から音信号を読み込み、カメラサーバ3のMCU37に構成される音処理部42によりデジタル形式の音データを生成する。そして、この音データとカメラ装置2から送信される画像データをデータ配信部40から通信インターフェース23に供給し、ネットワーク6に配信する。   A sound signal is read from the microphone connector 18, and digital sound data is generated by the sound processing unit 42 configured in the MCU 37 of the camera server 3. The sound data and the image data transmitted from the camera device 2 are supplied from the data distribution unit 40 to the communication interface 23 and distributed to the network 6.

このように、拡張マイクロフォン17が接続された場合には、カメラ装置2に内蔵するマイクロフォン13に換えて、拡張マイクロフォン17により集音する構成としたため、集音する音の対象や周囲の雑音等の環境に適した音データを得、これを配信用のデータに乗せることができる。   As described above, when the extension microphone 17 is connected, the extension microphone 17 collects sound instead of the microphone 13 built in the camera device 2. Sound data suitable for the environment can be obtained and placed on data for distribution.

なお、カメラサーバ3の稼動を開始した際(電源スイッチ25をオン)、カメラサーバ3のアプリケーションは、USBケーブル4より送られてくるマイクロフォン13の音データをデフォルトの音入力として設定している。その後、カメラサーバ3のアプリケーションは、マイクロフォンコネクタ18の拡張マイクロフォン17の接続の有無を探しにいく。カメラサーバ3のアプリケーションが拡張マイクロフォン17の接続を認識したときは、上述したように、カメラ装置2に対して、デバイス制御部41が、マイクロフォン13による集音を停止するカメラ装置制御信号を送信する。カメラサーバ3のアプリケーションが拡張マイクロフォン17の接続を認識しなかったときには、USBケーブル4から送られてくるマイクロフォン13の音データをそのまま使用する。   When the operation of the camera server 3 is started (the power switch 25 is turned on), the application of the camera server 3 sets the sound data of the microphone 13 sent from the USB cable 4 as the default sound input. Thereafter, the application of the camera server 3 searches for the presence or absence of connection of the extension microphone 17 of the microphone connector 18. When the application of the camera server 3 recognizes the connection of the extension microphone 17, as described above, the device control unit 41 transmits a camera device control signal for stopping sound collection by the microphone 13 to the camera device 2. . When the application of the camera server 3 does not recognize the connection of the extension microphone 17, the sound data of the microphone 13 sent from the USB cable 4 is used as it is.

なお、データ選択部38による判断を、画像データに付加されたヘッダ情報に基づいて行う代わりに、他の情報に基づいて行うようにしてもよい。例えば、ヘッダ毎に画像データをそれぞれ検査し、所定以上のノイズデータを検出した場合には、そのヘッダの画像データをネットワーク6側に送信しないようにしてもよい。   Note that the determination by the data selection unit 38 may be performed based on other information instead of based on the header information added to the image data. For example, when image data is inspected for each header and noise data exceeding a predetermined level is detected, the image data of the header may not be transmitted to the network 6 side.

本発明の実施の形態に係るカメラサーバシステムの構成を示す図である。It is a figure which shows the structure of the camera server system which concerns on embodiment of this invention. 図1に示すカメラサーバシステムにおけるカメラ装置の電気回路を示すブロック図である。It is a block diagram which shows the electric circuit of the camera apparatus in the camera server system shown in FIG. 図1に示すカメラサーバシステムにおけるカメラサーバの電気回路を示すブロック図である。It is a block diagram which shows the electric circuit of the camera server in the camera server system shown in FIG.

符号の説明Explanation of symbols

1 … カメラサーバシステム
16 … USBコネクタ(入力部)
25 … イメージセンサ(撮像素子)
32 … JPEGエンコーダ部(エンコーダ)
37 … MCU(制御手段)
DESCRIPTION OF SYMBOLS 1 ... Camera server system 16 ... USB connector (input part)
25 ... Image sensor (image sensor)
32 ... JPEG encoder (encoder)
37 ... MCU (control means)

Claims (6)

撮像素子を備えるカメラ装置と、
上記カメラ装置から出力される画像データをクライアントに配信するカメラサーバと、
を備えるカメラサーバシステムにおいて、
上記撮像素子と、上記カメラサーバの制御手段との間に、上記撮像素子から出力された画像データをデータ圧縮された圧縮画像データに変換するエンコーダを備えることを特徴とするカメラサーバシステム。
A camera device comprising an image sensor;
A camera server for delivering image data output from the camera device to a client;
In a camera server system comprising:
A camera server system comprising an encoder that converts image data output from the image sensor into compressed image data that is data-compressed between the image sensor and the control unit of the camera server.
前記エンコーダは、JPEGエンコーダとされ、前記カメラ装置に備えられることを特徴とする請求項1に記載のカメラサーバシステム。   The camera server system according to claim 1, wherein the encoder is a JPEG encoder and is provided in the camera device. 撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットワークを通じてクライアントに配信する際のデータの処理方法において、
上記画像データをデータ圧縮された圧縮画像データに変換した後、この圧縮画像データを、上記クライアントからの要求に従って、上記クライアントに配信することを特徴とするデータの処理方法。
In a data processing method for distributing image data of an image captured by a camera device including an image sensor to a client through a network,
A method of processing data, comprising: converting the image data into compressed image data that has been compressed, and then delivering the compressed image data to the client in accordance with a request from the client.
前記データ圧縮は、JPEG圧縮とされ、前記カメラ装置において上記JPEG圧縮が行われることを特徴とする請求項3に記載のデータの処理方法。   The data processing method according to claim 3, wherein the data compression is JPEG compression, and the JPEG compression is performed in the camera device. 撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットワークを通じてクライアントに配信するカメラサーバにおいて、
上記画像データをデータ圧縮された圧縮画像データに変換するエンコーダを、上記カメラ装置から送られてくる画像データが上記カメラサーバに入力する入力部と、上記カメラサーバの制御手段との間に備えることを特徴とするカメラサーバ。
In a camera server that distributes image data of an image captured by a camera device including an image sensor to a client through a network,
An encoder that converts the image data into compressed image data that has been subjected to data compression is provided between an input unit that inputs image data sent from the camera device to the camera server and a control unit of the camera server. A camera server characterized by
前記エンコーダは、JPEGエンコーダとされ、前記カメラ装置に備えられることを特徴とする請求項5に記載のカメラサーバ。
The camera server according to claim 5, wherein the encoder is a JPEG encoder and is provided in the camera device.
JP2006289893A 2006-10-25 2006-10-25 Camera server system, processing method for data, and camera server Pending JP2008109364A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006289893A JP2008109364A (en) 2006-10-25 2006-10-25 Camera server system, processing method for data, and camera server
PCT/JP2007/070008 WO2008050621A1 (en) 2006-10-25 2007-10-12 Camera server system, data processing method and camera server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006289893A JP2008109364A (en) 2006-10-25 2006-10-25 Camera server system, processing method for data, and camera server

Publications (1)

Publication Number Publication Date
JP2008109364A true JP2008109364A (en) 2008-05-08

Family

ID=39324421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006289893A Pending JP2008109364A (en) 2006-10-25 2006-10-25 Camera server system, processing method for data, and camera server

Country Status (2)

Country Link
JP (1) JP2008109364A (en)
WO (1) WO2008050621A1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3092527A4 (en) * 2014-01-06 2017-02-08 GoPro, Inc. Camera housing for a square-profile camera
USD894256S1 (en) 2018-08-31 2020-08-25 Gopro, Inc. Camera mount
USD905786S1 (en) 2018-08-31 2020-12-22 Gopro, Inc. Camera mount
US10928711B2 (en) 2018-08-07 2021-02-23 Gopro, Inc. Camera and camera mount
USD991318S1 (en) 2020-08-14 2023-07-04 Gopro, Inc. Camera
USD997232S1 (en) 2019-09-17 2023-08-29 Gopro, Inc. Camera
USD1024165S1 (en) 2023-05-17 2024-04-23 Gopro, Inc. Camera

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4767443B2 (en) * 2001-07-04 2011-09-07 富士通株式会社 Network storage type video camera system
JP2004336484A (en) * 2003-05-08 2004-11-25 Fuji Photo Film Co Ltd Motion picture transmission method, apparatus and system

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9635226B2 (en) 2014-01-06 2017-04-25 Gopro, Inc. Camera housing for a square-profile camera
US10306115B2 (en) 2014-01-06 2019-05-28 Gopro, Inc. Camera housing for a square-profile camera
EP3092527A4 (en) * 2014-01-06 2017-02-08 GoPro, Inc. Camera housing for a square-profile camera
US10928711B2 (en) 2018-08-07 2021-02-23 Gopro, Inc. Camera and camera mount
US11662651B2 (en) 2018-08-07 2023-05-30 Gopro, Inc. Camera and camera mount
USD894256S1 (en) 2018-08-31 2020-08-25 Gopro, Inc. Camera mount
USD905786S1 (en) 2018-08-31 2020-12-22 Gopro, Inc. Camera mount
USD989165S1 (en) 2018-08-31 2023-06-13 Gopro, Inc. Camera mount
USD1023115S1 (en) 2018-08-31 2024-04-16 Gopro, Inc. Camera mount
USD997232S1 (en) 2019-09-17 2023-08-29 Gopro, Inc. Camera
USD991318S1 (en) 2020-08-14 2023-07-04 Gopro, Inc. Camera
USD1004676S1 (en) 2020-08-14 2023-11-14 Gopro, Inc. Camera
USD1024165S1 (en) 2023-05-17 2024-04-23 Gopro, Inc. Camera

Also Published As

Publication number Publication date
WO2008050621A1 (en) 2008-05-02

Similar Documents

Publication Publication Date Title
WO2013132828A1 (en) Communication system and relay apparatus
JP6179179B2 (en) Information processing apparatus, information processing method, and program
US7593580B2 (en) Video encoding using parallel processors
JP2008109364A (en) Camera server system, processing method for data, and camera server
KR20110052933A (en) Camera apparatus and method for providing recorded image
US8570404B2 (en) Communication device
TWI655865B (en) A method for configuration of video stream output from a digital video camera
US20190306462A1 (en) Image processing apparatus, videoconference system, image processing method, and recording medium
JP2006054921A (en) Method of transmitting video signal, method of receiving video signal, and video-signal transmission/reception system
KR101280443B1 (en) apparatus of processing regional image and method thereof
WO2022143212A1 (en) System and method for extracting specific stream from multiple streams transmitted in combination for playback
JP2003299067A (en) Video signal transmission method, video signal reception method, and video signal transmission/reception system
JP2008109362A (en) Camera server, and processing method for data
JP5024331B2 (en) Video camera and information transmission method
KR20020070721A (en) Streaming device for moving picture
CN112788198B (en) Image capturing apparatus, image transfer system, image capturing apparatus, image transfer method, recording medium, and computer apparatus
KR20130058807A (en) Network camera integrated sip protocol and function of screen combination
TW201206196A (en) Camera
KR101676400B1 (en) Camera apparatus and method for providing recorded image
KR20060121506A (en) Apparatus and method for displaying a image in mibile terminal
JP2008042511A (en) Camera system, camera apparatus and camera server
JPH10294939A (en) System and device for image transmission
KR20160046561A (en) Apparatus and method for managing image
JP2004253910A (en) Video distribution system
CN112788198A (en) Image pickup apparatus, transfer system and method, recording medium, and computer apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090909

A072 Dismissal of procedure [no reply to invitation to correct request for examination]

Free format text: JAPANESE INTERMEDIATE CODE: A073

Effective date: 20110118