WO2008050621A1 - Camera server system, data processing method and camera server - Google Patents
Camera server system, data processing method and camera server Download PDFInfo
- Publication number
- WO2008050621A1 WO2008050621A1 PCT/JP2007/070008 JP2007070008W WO2008050621A1 WO 2008050621 A1 WO2008050621 A1 WO 2008050621A1 JP 2007070008 W JP2007070008 W JP 2007070008W WO 2008050621 A1 WO2008050621 A1 WO 2008050621A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- data
- image data
- camera server
- camera
- sound
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
Definitions
- Camera server system data processing method, and camera server
- the present invention relates to a camera server system, a data processing method, and a camera server.
- a camera server for distributing image data of an image captured by a camera device including an image sensor to a client via a network is known (for example, see Patent Document 1).
- Patent Document 1 Japanese Patent Application Laid-Open No. 2005-318412
- an object of the present invention is to provide a camera server system, a data processing method, and a camera server that increase the delivery speed of image data to a client.
- a camera server system including a camera device including an image sensor and a camera server that distributes image data output from the camera device to a client, the image sensor and the camera server
- An encoder that converts image data output from the image sensor into compressed image data that has been subjected to data compression is provided between the control unit and the control unit.
- the processing load on the control means of the camera server is reduced, and the processing speed of the camera server is increased. Therefore, the processing speed for distributing image data to the client can be increased.
- the encoder is a JPEG encoder and is provided in a camera device.
- the image data is converted into the JPEG format in the camera device, and the image data in the JPEG format is sent to the camera server. Therefore, the volume of data transmitted from the camera device to the camera server can be reduced, and the transmission speed of image data in the camera server system can be improved. As a result, the speed at which image data is transmitted to the client can be increased.
- image data is compressed in a data processing method when image data of an image captured by a camera device including an image sensor is distributed to a client via a network. After conversion to compressed image data, this compressed image data is distributed to the client in accordance with a request from the client.
- the processing load on the control means of the camera server is reduced, and the processing speed of the camera server is increased. Therefore, the processing speed for distributing image data to the client can be increased.
- the data compression is JPEG compression
- the JPEG compression is performed in parallel with the camera device.
- the image data is converted into the JPEG format in the camera device, and the image data in the JPEG format is sent to the camera server. Therefore, the volume of data transmitted from the camera device to the camera server can be reduced, and the transmission speed of image data in the camera server system can be improved. As a result, the speed at which image data is transmitted to the client can be increased.
- image data of an image captured by a camera device including an image sensor is converted into compressed image data that is data-compressed in a camera server that distributes the image data to a client via a network.
- This encoder is provided between an input unit for inputting image data sent from the camera device to the camera server and the control means of the camera server.
- another invention is configured such that the encoder is a JPEG encoder, It is supposed to be provided in the equipment.
- the image data is converted into the JPEG format in the camera device, and the image data in the JPEG format is sent to the camera server. Therefore, the volume of data transmitted from the camera device to the camera server can be reduced, and the transmission speed of image data in the camera server system can be improved. As a result, the speed at which image data is transmitted to the client can be increased.
- FIG. 1 is a diagram showing a configuration of a camera server system according to an embodiment of the present invention.
- FIG. 2 is a block diagram showing an electric circuit of a camera device in the camera server system shown in FIG.
- FIG. 3 is a block diagram showing an electric circuit of a camera server in the camera server system shown in FIG.
- USB connector 16 ⁇ ⁇ ⁇ USB connector (input section)
- FIG. 1 is a system configuration diagram showing a camera server system 1 according to an embodiment of the present invention.
- the camera server system 1 includes a camera device 2 and a camera server 3.
- the camera device 2 and the camera server 3 are connected by a USB (Universal Serial Bus) cable 4.
- Camera server system 1 and client 5 are connected via network 6.
- the camera server system 1 receives a command from the personal computer 7 on the client 5 side.
- the camera server 3 distributes image data of an image captured by the camera device 2 to the personal computer 7 (client 5) based on a command received from the personal computer 7.
- client 5 One or a plurality of clients 5 exist, and the camera server system 1 distributes the image data to each client 5 in accordance with a request from each client 5.
- the camera device 2 has a cubic-shaped housing 8.
- Housing 8 has a fisheye lens
- USB connector 10 audio 'video output connector 11, sound output connector 12, etc.
- the fisheye lens 9 is disposed on the upper surface of the housing 8.
- a ventilation hole 14 for the microphone 13 is formed on the upper surface of the housing 8.
- the USB connector 10, the audio / video output connector 11 and the sound output connector 12 are arranged on the side surface of the housing 8.
- the camera server 3 has a rectangular parallelepiped housing 15.
- the housing 15 includes a USB connector 16 as an input unit that is an input terminal for inputting data from the camera device 2, a microphone connector 18 to which an expansion microphone 17 to be used as needed is connected, an infrared sensor, and the like.
- General purpose input / output port (GPIO) 19 for connecting external equipment, audio output connector 20 for outputting audio signals, video output connector 21 for outputting video signals, and a speaker connected to a speaker
- GPIO General purpose input / output port
- a power connector 22, a communication interface 23 connected to the network, a power switch 24 also serving as a reset switch, and the like are provided.
- FIG. 2 is a block diagram showing an electric circuit of the camera device 2.
- the camera device 2 includes a fisheye lens 9, a USB connector 10, an audio 'video output connector 11, a sound output connector 12, a microphone 13, an image sensor 25 as an image sensor, and an F PGA (Field Programmable Gate Array).
- Color conversion processing unit 26 sound processing unit 27 composed of sound IC (Integrated Circuit) 27, audio 'video encoder 28, streaming generation unit 29, and CPU (CCU) that controls the operation of each of the above components Central Processing Unit) 30 etc.
- the microphone 13 collects sounds and sounds around the camera device 2.
- the microphone 13 generates a sound signal that is an electrical signal corresponding to the collected sound and outputs the sound signal to the sound processing unit 27.
- the sound processing unit 27 generates digital sound data based on the electrical signal from the microphone 13.
- the sound processing unit 27 outputs an electrical signal corresponding to the sound from the microphone 13 to the sound output connector 12 without converting it into sound data (digital format). Therefore, the sound collected by the microphone 13 can be heard by connecting, for example, a speaker, headphones or the like to the sound output connector 12.
- the image sensor 25 for example, a CMOS (Complementary Metal-Oxide Semiconductor) or the like is used.
- An image by the fisheye lens 9 is formed on the image sensor 25.
- the image sensor 25 outputs luminance distribution data, which is an imaging signal, to the color conversion processing unit 26 as digital image data.
- luminance distribution data which is an imaging signal
- the image sensor 25 performs imaging at an imaging speed of 1/15 frames per second, for example. Therefore, one frame of image data is output from the image sensor 25 every 1/15 second.
- the color conversion processing unit 26 replaces the data of each pixel of the luminance distribution data using a color conversion table (not shown) to generate digital image data.
- the generated image data is added with a header for each frame by a header adding unit 31 formed by the CPU 30.
- a header number M (M 1, 2, 3,...), Which is a serial number, is assigned to the header according to the imaging order.
- the CPU 30 is configured with a JPEG encoder section 32 as an encoder that converts image data into JPEG (Joint Photographic Experts Group) open-type compressed image data.
- JPEG Joint Photographic Experts Group
- noise data other than image data is output from the image sensor 25, or noise data is mixed between the image sensor 25 and the JPEG encoder unit 32.
- the JPEG encoder unit 32 when the data is image data input to the JPEG encoder unit 32, the data is converted into JPEG format image data, and the header is added to the header. Gives information that it is image data.
- the JPEG encoder unit 32 when the data to be converted is not image data, the JPEG encoder unit 32 does not convert the image data into JPEG format image data. That is, of the data input as image data output from the image sensor 25 to the JPEG encoder unit 32, the resolution data is not image data! /, And is not converted to JPEG image data.
- the JPEG encoder unit 32 may be configured so as not to convert the image data into JPEG format data if the image data includes noise data exceeding a predetermined level! /.
- a header is added by the header adding unit 31 in a predetermined amount of data. For example, in the present embodiment, a header is added to sound data for each data length of 1/30 second.
- image data has a data amount of 15 frames per second
- sound data has a data amount of 1/30 second. Therefore, one unit of image data corresponds to two units (1/30 seconds x 2) of sound data.
- the image data and the sound data are output from the CPU 30 to the streaming generation unit 29 in a state where the timing at the time of imaging and the time of sound collection are synchronized with each other based on the header number! It is powered.
- the header number M of the image data is 1, 2, 3, 4, 5, ...
- the header number N of the sound data is 1, 2, 3, 4, 5, 6, 7, 8, 9, Let's say 10, ...
- the streaming generation unit 29 reads image data and sound data output from the CPU 30. Data having these contents data is generated as streaming data.
- the streaming generation unit 29 supplies the generated digital format data signal to the communication processing unit 33, and transmits it from the USB connector 10 to the camera server 3 via the USB cable 4.
- Audio 'The video encoder 28 reads the image data output from the color conversion processing unit 26 without converting it to JPEG format image data, and NTSC (National TV standards Committee) method 1 -PAL (Phase Alternating Line ) Method high signal.
- the audio / video encoder 28 converts the sound data in the digital format into a sound signal that is an electrical signal.
- the video output connector 11 outputs the video signal and the sound signal together.
- FIG. 3 is a block diagram showing an electric circuit of the camera server 3.
- the camera server 3 includes a USB connector 16, a microphone connector 18 to which an extension microphone 17 is connected, a general-purpose input / output port 19 to which an external device such as an infrared sensor is connected, an audio output connector 20, and a video output.
- a USB connector 16 to which an extension microphone 17 is connected
- a general-purpose input / output port 19 to which an external device such as an infrared sensor is connected
- an audio output connector 20 and a video output.
- speaker connector 22 includes a USB connector 16, a microphone connector 18 to which an extension microphone 17 is connected to which an external device such as an infrared sensor is connected, an audio output connector 20, and a video output.
- speaker connector 22 includes a USB connector 16, a microphone connector 18 to which an extension microphone 17 is connected, a general-purpose input / output port 19 to which an external device such as an infrared sensor is connected, an audio output connector 20, and a video output.
- speaker connector 22 to which an external device such as an infrared sensor is connected
- the MCU 37 includes a data selection unit 38 that is a data selection unit, a data synchronization unit 39 that is a data synchronization unit, a data distribution unit 40 that is a data distribution unit, and the like.
- the data selection unit 38, the data synchronization unit 39, and the data distribution unit 40 are functionally realized by reading the control program power MCU 37 stored in the memory 36.
- the data selection unit 38 determines the content of the image data transmitted from the camera device 2 based on the header information of the image data of each frame.
- the header is the data power in the header JPEG converted image data
- the data in the header is noise data
- the data selection unit 38 determines whether the content of the data for each header is predetermined image data or data other than the predetermined image data based on the header information.
- the data selection unit 38 selects data to be output to the data synchronization unit 39 based on the determination result. That is, when the data selection unit 38 determines that the content of the data is predetermined image data, the image data is transmitted from the communication interface unit 23 via the data synchronization unit 39 and the data distribution unit 40. Then, it is distributed to the personal computer 7 of the client 5 through the network 6. On the other hand, data that is not predetermined image data is not output to the data synchronization unit 39 side.
- the image data distributed to the client 5 side can be obtained by providing the data selection unit 38 and not distributing the predetermined image data! / To the client 5 side.
- Noise data will not be included.
- the video displayed on the monitor of the personal computer 7 of the client 5 is a beautiful video with little noise. Since noise data is not transmitted, the amount of data transmitted from the camera server 3 to the client 5 is reduced, and the transmission speed of image data from the camera server 3 to the client 5 can be increased.
- the sound data is not selected as in the case of image data, all the sound data is transmitted from the communication interface unit 23 via the data synchronization unit 39 and the data distribution unit 40. It is distributed to the personal computer 7 of the client 5 through the network 6. On the client 5 side, sound such as voice collected by the microphone 13 can be heard from a speaker built in the personal computer 7 or the like.
- the header number N of the sound data input from the data selection unit 38 to the data distribution unit 40 is a continuous number without any loss.
- the data selection unit 38 selects the data to be output to the data distribution unit 40, and therefore the image data input to the data distribution unit 40 from the data selection unit 38 is selected.
- the header number M may be missing. Therefore, for example, for image data, when the image data of the portion in which the header number M is missing is packed and distributed, and for sound data, the sound data is distributed to the client 5 side without packing the data.
- the video based on the image data is ahead of the content of the sound based on the video, and the video and sound are not synchronized.
- the content of power sound that can synchronize video and sound is skipped.
- the sound collection timing and the imaging timing of the sound data and the image data output from the data selection unit 38 are synchronized with each other, and the sound content is skipped. Process to synchronize so that nothing happens.
- the header number power of the image data output from the data selection unit 38 is 1, 2,-, 4, 5, ... If the header number of the sound data is 1, 2, 3, 4, 5, 6, ..., the sound with the header numbers 1 and 2 for the image data with the header number 1 Synchronize the data, and synchronize the sound data of header numbers 3 and 4 with the image data of header number 2. Image data with header number 3 is missing force Sound data with header numbers 5 and 6 is synchronized with this part. The sound data of header numbers 7 and 8 are synchronized with the image data of header number 4. As described above, in a state where the sound data and the image data are synchronized, the data is distributed from the data distribution unit 40 to the network 6 through the communication interface 23.
- the viewer software of the personal computer 7 of the client 5 is configured to continuously display the video based on the previous image data on the monitor until new image data is distributed. When image data is lost, nothing can be displayed on the monitor of the PC 7 so that it does not appear unnatural.
- the visual software is configured in this way, the video data based on the image data with the header number 2 is displayed until the image data with the header number 2 is distributed and then the image data with the header number 4 is distributed. Is this During this period, the sound based on the sound data of the header numbers 5 and 6 is reproduced.
- the data distribution unit 40 simultaneously distributes data signals to these clients 5 when a plurality of clients 5 are accessing the camera server 3.
- the USB connector 16 is supplied with a data signal having image data in digital format and sound data in digital format from the camera device 2 via the USB cable 4 and is input to the MCU 37.
- the digital data signal input to the MCU 37 is configured to be output from the communication interface 23 to the network 6 as a digital data signal.
- the camera server 3 outputs the digital data signal output from the camera device 2 to the network side as a digital signal, there is no signal deterioration. Further, it is not necessary to provide an AD conversion function for converting an analog signal into a digital signal in the camera server 3.
- image data is transmitted using the TCP or UDP protocol in a half-duplex communication system. Sound data is transmitted by the TCP protocol or UDP protocol in a duplex communication system.
- image data is converted into compressed image data in JPEG format in the camera device 2, and then transmitted to the camera server 3. From the data distribution unit 40, the image data is transmitted to the client through the communication interface 23. Delivered to 5.
- the image data is converted into the JPEG format in the camera device 2 and the image data in the JPEG format is sent to the camera server 3, so that the capacity of the data transmitted from the camera device 2 to the camera server 3 can be reduced. Can be reduced. For this reason, the transmission speed of image data in the camera server system 1 can be improved. As a result, it is possible to increase the speed at which image data is sent to the client 5.
- the conversion of the image data into the JPEG format is performed in the MCU 37 of the camera server 3, and in response to a request for transmission of the image data from the client 5, the JPEG format is used each time.
- the speed of distributing the image data from the camera server 3 to the client 5 becomes slow.
- the MCU 37 performs many processes related to the control of the camera device 2 and the communication with the client 5. Therefore, in addition to these processes, J If an encoding function for PEG conversion is provided, the load on the MCU 37 increases, the processing speed of the MCU 37 decreases, and the encoding processing speed of the JPEG conversion also decreases. As a result, the transmission speed of the image data from the camera server 3 to the client 5 becomes slow.
- the camera device has fewer processing items than the MCU 37 on the camera server 3 side.
- JPEG conversion speed can be increased by performing JPEG conversion using the CPU 30 on the second side.
- the processing speed does not decrease, the processing speed of the data selection unit 38, the data distribution unit 40, etc. can be increased, and the image data is distributed to the client 5.
- the processing speed can be increased.
- the client 5 waits for the distribution to the other clients 5 to finish and stores the image data.
- the delivery is not received and the delivery speed can be increased.
- the JPEG encoder unit 32 is provided in the CPU 30 of the camera device 2, and, as indicated by a dotted line in Fig. 3, the JPEG encoder 32A is connected to the camera server 3 side separately from the MCU 37, the USB connector 16 and the MCU 37
- the image data obtained by performing JPEG conversion by the JPEG encoder 32A may be input to the MCU 37.
- the JPEG encoder unit 32A is provided as a processing device different from the MCU 37 provided with the data selection unit 38, the data synchronization unit 39, the data distribution unit 40, and the like, so that the processing speed of the MCU 37 is not reduced. .
- a dedicated JPEG encoder may be provided on the camera device 2 side separately from the CPU 30, and JPEG conversion may be performed by the JP EG encoder.
- the data compression method and encoder are not limited to the JPEG compression method and other compression such as MPEG (Moving Picture Experts Group) shown as JPEG encoder unit 32 (32A).
- a method may be adopted.
- a reversible compression method may be used.
- the audio encoder 35 reads the digital sound data input from the communication interface 23 to the camera server 3 from the MCU 37, converts it into a sound signal that is an electrical signal, and outputs it to the speaker connector 22. For this reason, for example, by connecting a speaker or the like to the speaker connector 22, the sound data input from the communication interface 23 can be reproduced with the force S.
- a camera device control signal for controlling the camera device 2 is transmitted from the camera server 3 to the camera device 2 via the USB cable 4.
- This camera device control signal is generated by the device control unit 41 configured in the MCU 37, and controls, for example, the start and stop of the operation of the camera device 2, or the camera device 2 receives image data. That require the transmission of Also, for a command transmitted from the personal computer 7 on the client 5 side connected to the network to the camera server 3, the command is interpreted and a camera device control signal is transmitted to the camera device 2.
- the device control unit 41 interprets the command and transmits a camera device control signal to the camera device 2.
- the device control unit 41 controls the external device in addition to the camera device 2 when an external device is connected to the GPIO.
- the microphone 13 built in the camera device 2 is limited in the size that can be used due to restrictions on the image sensor 25 disposed in the housing 8 and the circuit configuration, and has sufficient sound collecting power. You may not get. In such a case, the extension microphone 17 is connected to the microphone connector 18.
- the MCU 37 confirms that the extension microphone 17 is connected to the microphone connector 18.
- a camera device control signal for stopping the sound collection by the microphone 13 is transmitted to the camera device 2.
- the CPU 30 of the camera device 2 controls the sound processing unit 27 to stop generating sound data. Therefore, the power camera device 2 outputs data without sound data.
- a sound signal is read from the microphone connector 18, and digital sound data is generated by the sound processing unit 42 configured in the MCU 37 of the camera server 3.
- the sound data and the image data transmitted from the camera device 2 are supplied from the data distribution unit 40 to the communication interface 23 and distributed to the network 6.
- the extension microphone 17 collects sound instead of the microphone 13 built in the camera device 2, so that the target of the sound to be collected and the surrounding sound are collected. Sound data suitable for the environment such as noise can be obtained and placed on the data for distribution.
- the application of the camera server 3 sets the sound data of the microphone 13 sent from the USB cable 4 as the default sound input. ing. Thereafter, the application of the camera server 3 searches for the connection of the extension microphone 17 of the microphone connector 18.
- the device control unit 41 transmits a camera device control signal for stopping the sound collection by the microphone 13 to the camera device 2. To do.
- the application of the camera server 3 does not recognize the connection of the extension microphone 17, the sound data of the microphone 13 sent from the USB cable 4 is used as it is.
- the determination by the data selection unit 38 may be performed based on other information instead of based on the header information added to the image data. For example, when image data is inspected for each header and noise data exceeding a predetermined level is detected, the image data of the header may not be transmitted to the network 6 side.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
The speed of distributing data to a client is improved. A camera server (3) distributes image data of an image picked up by a camera device (2) having an imaging element (image sensor (25)) to a client (5) through a network (6). In the camera server, a JPEG encoder (32), which converts image data into image data in a JPEG format, is arranged between an input section (16) wherein the image data transmitted from the camera device(2) is inputted to the camera server (3), and a control means (MC37) of the camera server (3).
Description
明 細 書 Specification
カメラサーバシステム、データの処理方法、およびカメラサーバ Camera server system, data processing method, and camera server
技術分野 Technical field
[0001] 本発明は、カメラサーバシステム、データの処理方法、およびカメラサーバに関する ものである。 The present invention relates to a camera server system, a data processing method, and a camera server.
背景技術 Background art
[0002] 従来、撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットヮ ークを通じてクライアントに配信するためのカメラサーバが知られている(例えば、特 許文献 1参照)。 Conventionally, a camera server for distributing image data of an image captured by a camera device including an image sensor to a client via a network is known (for example, see Patent Document 1).
[0003] 特許文献 1:特開 2005— 318412号公報 [0003] Patent Document 1: Japanese Patent Application Laid-Open No. 2005-318412
発明の開示 Disclosure of the invention
発明が解決しょうとする課題 Problems to be solved by the invention
[0004] 係るカメラサーバにおいては,クライアントへのデータの配信速度を高めるかが課題 となっている。 [0004] In such a camera server, there is a problem of increasing the data delivery speed to the client.
[0005] そこで、本発明は、クライアントへの画像データの配信速度を高くするカメラサーバ システム、データの処理方法、およびカメラサーバを提供することを目的とする。 課題を解決するための手段 Accordingly, an object of the present invention is to provide a camera server system, a data processing method, and a camera server that increase the delivery speed of image data to a client. Means for solving the problem
[0006] 上述の課題を解決するため、撮像素子を備えるカメラ装置と、カメラ装置から出力さ れる画像データをクライアントに配信するカメラサーバとを備えるカメラサーバシステ ムにおいて、撮像素子と、カメラサーバの制御手段との間に、撮像素子から出力され た画像データをデータ圧縮された圧縮画像データに変換するエンコーダを備えるこ ととする。 [0006] In order to solve the above-described problem, in a camera server system including a camera device including an image sensor and a camera server that distributes image data output from the camera device to a client, the image sensor and the camera server An encoder that converts image data output from the image sensor into compressed image data that has been subjected to data compression is provided between the control unit and the control unit.
[0007] このように構成した場合には、カメラサーバの制御手段の処理負荷が軽くなり、カメ ラサーバの処理速度が高くなる。そのため、クライアントへ画像データを配信するため の処理速度を速くすることができる。 In such a configuration, the processing load on the control means of the camera server is reduced, and the processing speed of the camera server is increased. Therefore, the processing speed for distributing image data to the client can be increased.
[0008] また、他の発明は、上述の発明に加え、エンコーダは、 JPEGエンコーダとされ、カメ ラ装置に備えられることとする。
[0009] このように構成した場合には、画像データがカメラ装置において JPEG形式に変換 され、 JPEG形式の画像データがカメラサーバに送られる。そのため、カメラ装置から カメラサーバに送信するデータの容量を減らすことができ、カメラサーバシステムにお ける画像データの送信速度の向上を図ることができる。ひいては、画像データをクラ イアントに送信する速さを速くすることができる。 [0008] In addition to the above-described invention, another invention is that the encoder is a JPEG encoder and is provided in a camera device. When configured in this manner, the image data is converted into the JPEG format in the camera device, and the image data in the JPEG format is sent to the camera server. Therefore, the volume of data transmitted from the camera device to the camera server can be reduced, and the transmission speed of image data in the camera server system can be improved. As a result, the speed at which image data is transmitted to the client can be increased.
[0010] 上述の課題を解決するため、撮像素子を備えるカメラ装置により撮像された画像の 画像データを、ネットワークを通じてクライアントに配信する際のデータの処理方法に おいて、画像データをデータ圧縮された圧縮画像データに変換した後、この圧縮画 像データを、クライアントからの要求に従って、クライアントに配信することとする。 [0010] In order to solve the above-described problems, image data is compressed in a data processing method when image data of an image captured by a camera device including an image sensor is distributed to a client via a network. After conversion to compressed image data, this compressed image data is distributed to the client in accordance with a request from the client.
[0011] このように構成した場合には、カメラサーバの制御手段の処理負荷が軽くなり、カメ ラサーバの処理速度が高くなる。そのため、クライアントへ画像データを配信するため の処理速度を速くすることができる。 When configured in this way, the processing load on the control means of the camera server is reduced, and the processing speed of the camera server is increased. Therefore, the processing speed for distributing image data to the client can be increased.
[0012] また、他の発明は、上述の発明に加え、データ圧縮は、 JPEG圧縮とされ、カメラ装 置にぉレ、て JPEG圧縮が行われることとする。 [0012] In addition to the above-described invention, in another invention, the data compression is JPEG compression, and the JPEG compression is performed in parallel with the camera device.
[0013] このように構成した場合には、画像データがカメラ装置において JPEG形式に変換 され、 JPEG形式の画像データがカメラサーバに送られる。そのため、カメラ装置から カメラサーバに送信するデータの容量を減らすことができ、カメラサーバシステムにお ける画像データの送信速度の向上を図ることができる。ひいては、画像データをクラ イアントに送信する速さを速くすることができる。 When configured in this way, the image data is converted into the JPEG format in the camera device, and the image data in the JPEG format is sent to the camera server. Therefore, the volume of data transmitted from the camera device to the camera server can be reduced, and the transmission speed of image data in the camera server system can be improved. As a result, the speed at which image data is transmitted to the client can be increased.
[0014] 上述の課題を解決するため、撮像素子を備えるカメラ装置により撮像された画像の 画像データを、ネットワークを通じてクライアントに配信するカメラサーバにおいて、画 像データをデータ圧縮された圧縮画像データに変換するエンコーダを、カメラ装置か ら送られてくる画像データがカメラサーバに入力する入力部と、カメラサーバの制御 手段との間に備えることとする。 [0014] In order to solve the above-described problems, image data of an image captured by a camera device including an image sensor is converted into compressed image data that is data-compressed in a camera server that distributes the image data to a client via a network. This encoder is provided between an input unit for inputting image data sent from the camera device to the camera server and the control means of the camera server.
[0015] このように構成した場合には、カメラサーバの制御手段の処理負荷が軽くなり、カメ ラサーバの処理速度が高くなる。そのため、クライアントへ画像データを配信するため の処理速度を速くすることができる。 [0015] With this configuration, the processing load on the control means of the camera server is reduced, and the processing speed of the camera server is increased. Therefore, the processing speed for distributing image data to the client can be increased.
[0016] また、他の発明は、上述の発明に加え、エンコーダは、 JPEGエンコーダとされ、カメ
ラ装置に備えられることとする。 [0016] Further, in addition to the above-described invention, another invention is configured such that the encoder is a JPEG encoder, It is supposed to be provided in the equipment.
[0017] このように構成した場合には、画像データがカメラ装置において JPEG形式に変換 され、 JPEG形式の画像データがカメラサーバに送られる。そのため、カメラ装置から カメラサーバに送信するデータの容量を減らすことができ、カメラサーバシステムにお ける画像データの送信速度の向上を図ることができる。ひいては、画像データをクラ イアントに送信する速さを速くすることができる。 When configured in this manner, the image data is converted into the JPEG format in the camera device, and the image data in the JPEG format is sent to the camera server. Therefore, the volume of data transmitted from the camera device to the camera server can be reduced, and the transmission speed of image data in the camera server system can be improved. As a result, the speed at which image data is transmitted to the client can be increased.
発明の効果 The invention's effect
[0018] 本発明によれば、クライアントへのデータの配信速度を高くすることができる。 [0018] According to the present invention, it is possible to increase the data delivery speed to the client.
図面の簡単な説明 Brief Description of Drawings
[0019] [図 1]本発明の実施の形態に係るカメラサーバシステムの構成を示す図である。 FIG. 1 is a diagram showing a configuration of a camera server system according to an embodiment of the present invention.
[図 2]図 1に示すカメラサーバシステムにおけるカメラ装置の電気回路を示すブロック 図である。 2 is a block diagram showing an electric circuit of a camera device in the camera server system shown in FIG.
[図 3]図 1に示すカメラサーバシステムにおけるカメラサーバの電気回路を示すブロッ ク図である。 3 is a block diagram showing an electric circuit of a camera server in the camera server system shown in FIG.
符号の説明 Explanation of symbols
[0020] 1 · · · カメラサーバシステム [0020] 1 · · · Camera server system
16 · · · USBコネクタ(入力部) 16 · · · USB connector (input section)
25 · · · イメージセンサ(撮像素子) 25 · · · Image sensor
32 · · · JPEGエンコーダ部(エンコーダ) 32 · · · JPEG encoder (encoder)
37 · · · MCU (制御手段) 37 · · · MCU (control means)
発明を実施するための最良の形態 BEST MODE FOR CARRYING OUT THE INVENTION
[0021] 以下、本発明の実施の形態に係るカメラサーバおよびデータの処理方法を図面に 基づいて説明する。 Hereinafter, a camera server and a data processing method according to an embodiment of the present invention will be described with reference to the drawings.
[0022] 図 1は、本発明の実施の形態に係るカメラサーバシステム 1を示すシステム構成図 である。カメラサーバシステム 1は、カメラ装置 2およびカメラサーバ 3を有する。カメラ 装置 2とカメラサーバ 3とは、 USB (Universal Serial Bus)ケーブル 4により接続さ れている。カメラサーバシステム 1とクライアント 5とは、ネットワーク 6を介して接続され
、カメラサーバシステム 1は、クライアント 5側のパソコン 7からの指令を受ける。カメラ サーバ 3は、パソコン 7から受けた指令に基づいて、カメラ装置 2により撮像した画像 の画像データをパソコン 7 (クライアント 5)に配信する。なお、クライアント 5は、 1また は複数存在し、カメラサーバシステム 1は、それぞれのクライアント 5に対して、各クラ イアント 5からの要求に従って、該画像データを配信する。 FIG. 1 is a system configuration diagram showing a camera server system 1 according to an embodiment of the present invention. The camera server system 1 includes a camera device 2 and a camera server 3. The camera device 2 and the camera server 3 are connected by a USB (Universal Serial Bus) cable 4. Camera server system 1 and client 5 are connected via network 6. The camera server system 1 receives a command from the personal computer 7 on the client 5 side. The camera server 3 distributes image data of an image captured by the camera device 2 to the personal computer 7 (client 5) based on a command received from the personal computer 7. One or a plurality of clients 5 exist, and the camera server system 1 distributes the image data to each client 5 in accordance with a request from each client 5.
[0023] カメラ装置 2は、立方体形状のハウジング 8を有する。ハウジング 8には、魚眼レンズ The camera device 2 has a cubic-shaped housing 8. Housing 8 has a fisheye lens
9、 USBコネクタ 10、オーディオ 'ビデオ出力コネクタ 11、音出力コネクタ 12等が設 けられる。魚眼レンズ 9は、ハウジング 8の上面に配設される。また、ハウジング 8の上 面には、魚眼レンズ 9の他、マイクロフォン 13 (図 2参照)用の通気孔 14が形成される 。 USBコネクタ 10、オーディオ.ビデオ出力コネクタ 11および音出力コネクタ 12は、 ハウジング 8の側面に配設される。 9, USB connector 10, audio 'video output connector 11, sound output connector 12, etc. The fisheye lens 9 is disposed on the upper surface of the housing 8. In addition to the fisheye lens 9, a ventilation hole 14 for the microphone 13 (see FIG. 2) is formed on the upper surface of the housing 8. The USB connector 10, the audio / video output connector 11 and the sound output connector 12 are arranged on the side surface of the housing 8.
[0024] カメラサーバ 3は、直方体形状のハウジング 15を有する。ハウジング 15には、カメラ 装置 2からのデータが入力する入力端子である入力部としての USBコネクタ 16、必 要に応じて適宜に利用する拡張マイクロフォン 17が接続されるマイクロフォンコネクタ 18、赤外線センサ等の外部機器を接続するための汎用入出力ポート(GPIO : Gene ral Purpose Input Output) 19、オーディオ信号を出力するオーディオ出力コ ネクタ 20、ビデオ信号を出力するビデオ出力コネクタ 21、スピーカが接続されるスピ 一力コネクタ 22、ネットワークに接続される通信インターフェース 23、およびリセットス イッチを兼ねる電源スィッチ 24等が設けられる。 The camera server 3 has a rectangular parallelepiped housing 15. The housing 15 includes a USB connector 16 as an input unit that is an input terminal for inputting data from the camera device 2, a microphone connector 18 to which an expansion microphone 17 to be used as needed is connected, an infrared sensor, and the like. General purpose input / output port (GPIO) 19 for connecting external equipment, audio output connector 20 for outputting audio signals, video output connector 21 for outputting video signals, and a speaker connected to a speaker A power connector 22, a communication interface 23 connected to the network, a power switch 24 also serving as a reset switch, and the like are provided.
[0025] 図 2は、カメラ装置 2の電気回路を示すブロック図である。 FIG. 2 is a block diagram showing an electric circuit of the camera device 2.
[0026] カメラ装置 2は、魚眼レンズ 9、 USBコネクタ 10、オーディオ 'ビデオ出力コネクタ 11 、音出力コネクタ 12の他に、マイクロフォン 13、撮像素子としてイメージセンサ 25、 F PGA (Field Programable Gate Array)により構成される色変換処理部 26、音 I C (Integrated Circuit)により構成される音処理部 27、オーディオ 'ビデオェンコ ーダ 28、ストリーミング生成部 29、および上述の各構成部分の動作の制御を司る CP U (Central Processing Unit) 30等を有する。 [0026] The camera device 2 includes a fisheye lens 9, a USB connector 10, an audio 'video output connector 11, a sound output connector 12, a microphone 13, an image sensor 25 as an image sensor, and an F PGA (Field Programmable Gate Array). Color conversion processing unit 26, sound processing unit 27 composed of sound IC (Integrated Circuit) 27, audio 'video encoder 28, streaming generation unit 29, and CPU (CCU) that controls the operation of each of the above components Central Processing Unit) 30 etc.
[0027] マイクロフォン 13は、 カメラ装置 2の周囲の音声や音を集音する。マイクロフォン 13 は、集音した音に応じた電気信号である音信号を生成し、音処理部 27に出力する。
音処理部 27では、マイクロフォン 13からの電気信号に基づきデジタル形式の音デー タを生成する。なお、音処理部 27は、音出力コネクタ 12に対しては、マイクロフォン 1 3からの音声に応じた電気信号を音データ(デジタル形式)に変換することなく出力 する。そのため、音出力コネクタ 12に、例えば、スピーカ、ヘッドホン等を接続するこ とにより、マイクロフォン 13で集音した音を聞くことができる。 The microphone 13 collects sounds and sounds around the camera device 2. The microphone 13 generates a sound signal that is an electrical signal corresponding to the collected sound and outputs the sound signal to the sound processing unit 27. The sound processing unit 27 generates digital sound data based on the electrical signal from the microphone 13. The sound processing unit 27 outputs an electrical signal corresponding to the sound from the microphone 13 to the sound output connector 12 without converting it into sound data (digital format). Therefore, the sound collected by the microphone 13 can be heard by connecting, for example, a speaker, headphones or the like to the sound output connector 12.
[0028] イメージセンサ 25には、例えば、 CMOS (Complementary Metal -Oxide Se miconductor)等を用いる。イメージセンサ 25には、魚眼レンズ 9による像が結像す る。イメージセンサ 25は、撮像信号である輝度分布データをデジタル形式の画像デ ータとして、色変換処理部 26に出力する。本実施の形態においては、イメージセン サ 25は、例えば、毎秒、 1/15フレームの撮像速度で撮像を行うものとする。したが つて、イメージセンサ 25からは、 1/15秒毎に 1フレーム分の画像データが出力され ることになる。 As the image sensor 25, for example, a CMOS (Complementary Metal-Oxide Semiconductor) or the like is used. An image by the fisheye lens 9 is formed on the image sensor 25. The image sensor 25 outputs luminance distribution data, which is an imaging signal, to the color conversion processing unit 26 as digital image data. In the present embodiment, it is assumed that the image sensor 25 performs imaging at an imaging speed of 1/15 frames per second, for example. Therefore, one frame of image data is output from the image sensor 25 every 1/15 second.
[0029] 色変換処理部 26は、図示外の色変換テーブルを用いて、輝度分布データの各画 素のデータを置き換え、デジタル形式の画像データを生成する。生成された画像デ ータは、 CPU30により形成されるヘッダ付加部 31により、フレーム毎にヘッダが付加 される。ヘッダには、撮像順序に従って、連続番号であるヘッダ番号 M (M= 1 , 2, 3 , · · ·)が付与される。 [0029] The color conversion processing unit 26 replaces the data of each pixel of the luminance distribution data using a color conversion table (not shown) to generate digital image data. The generated image data is added with a header for each frame by a header adding unit 31 formed by the CPU 30. A header number M (M = 1, 2, 3,...), Which is a serial number, is assigned to the header according to the imaging order.
[0030] CPU30には、画像データを JPEG (Joint Photographic Experts Group)开$ 式の圧縮画像データに変換するエンコーダとしての JPEGエンコーダ部 32が構成さ れている。画像データは、 JPEGエンコーダ部 32により、 JPEG形式の画像データに 変換される際に、ヘッダに、データの内容力 SJPEG変換された画像データである旨の 情報が付与される。 The CPU 30 is configured with a JPEG encoder section 32 as an encoder that converts image data into JPEG (Joint Photographic Experts Group) open-type compressed image data. When the image data is converted into JPEG format image data by the JPEG encoder unit 32, information indicating that the data has been subjected to SJPEG conversion is added to the header.
[0031] ところで、イメージセンサ 25からは画像データ以外のノイズデータが出力されたり、 あるいは、イメージセンサ 25と JPEGエンコーダ部 32との間でノイズデータが混在す ること力 Sある。 JPEGエンコーダ部 32では、 JPEGエンコーダ部 32に入力されたデー タカ 画像データである場合には、 JPEG形式の画像データに変換すると共に、へッ ダに、ヘッダが付加されているデータ力 SJPEG形式の画像データである旨の情報を付 与する。
[0032] これに対し、 JPEGエンコーダ部 32は、変換しょうとするデータが画像データでない 場合は、 JPEG形式の画像データに変換しない。すなわち、 JPEGエンコーダ部 32に 、イメージセンサ 25から出力された画像データとして入力されるデータのうち、画像 データでなレゾィズデータにつ!/、ては、 JPEG形式の画像データに変換されなレ、ため 、ヘッダに、 JPEG形式の画像データである旨の情報は付与されない。なお、 JPEG エンコーダ部 32は、画像データ中に、所定以上のノイズデータが含まれているときは 、 JPEG形式の画像データに変換しな!/、ように構成してもよ!/、。 [0031] Incidentally, noise data other than image data is output from the image sensor 25, or noise data is mixed between the image sensor 25 and the JPEG encoder unit 32. In the JPEG encoder unit 32, when the data is image data input to the JPEG encoder unit 32, the data is converted into JPEG format image data, and the header is added to the header. Gives information that it is image data. On the other hand, when the data to be converted is not image data, the JPEG encoder unit 32 does not convert the image data into JPEG format image data. That is, of the data input as image data output from the image sensor 25 to the JPEG encoder unit 32, the resolution data is not image data! /, And is not converted to JPEG image data. In the header, information indicating that the image data is in JPEG format is not added. The JPEG encoder unit 32 may be configured so as not to convert the image data into JPEG format data if the image data includes noise data exceeding a predetermined level! /.
[0033] したがって、ヘッダ情報に基づいて、ヘッダが付加されているデータの内容が、画 像データか、ノイズデータかを判断することができる。 [0033] Therefore, based on the header information, it can be determined whether the content of the data to which the header is added is image data or noise data.
[0034] 音データについても、ヘッダ付加部 31により所定単位のデータ量で、ヘッダが付加 される。例えば、本実施の形態では、 1/30秒単位のデータ長毎に、音データにへッ ダが付加される。音データのヘッダには、ヘッダが付加されたデータが音データであ る旨の情報と、時間の経過に従った連続した番号であるヘッダ番号 N (N= 1 , 2, 3, · · ·)の情報が付与される。 [0034] Also for sound data, a header is added by the header adding unit 31 in a predetermined amount of data. For example, in the present embodiment, a header is added to sound data for each data length of 1/30 second. The header of the sound data includes information that the data with the header added is sound data, and a header number N (N = 1, 2, 3, ... ) Information is given.
[0035] 画像データが毎秒 15フレームのデータ量であるのに対し、音データは、 1/30秒 単位のデータ量である。したがって、 1フレームの画像データに対して、 2単位分(1 /30秒 X 2)の音データが対応することになる。 [0035] Whereas image data has a data amount of 15 frames per second, sound data has a data amount of 1/30 second. Therefore, one unit of image data corresponds to two units (1/30 seconds x 2) of sound data.
[0036] 画像データと音データとは、ヘッダ番号に基づ!/、て、撮像時と集音時のタイミングが 互いに同期させられている状態で、 CPU30から、ストリーミング生成部 29に対して出 力される。例えば、画像データのヘッダ番号 Mが、 1 , 2, 3, 4, 5,…であり、音デー タのヘッダ番号 N力 1 , 2, 3, 4, 5, 6, 7, 8, 9, 10,…であるとする。そうすると、へ ッダ番号 M= lの画像データに対して、ヘッダ番号 N= l , 2の音データが対応し、へ ッダ番号 M= lの画像データとヘッダ番号 N= l , 2の音データとは時間的タイミング が同期しているデータとなる。また、同様に、ヘッダ番号 M = 2の画像データと、へッ ダ番号 N = 3, 4の音データとは、時間的タイミングが同期しているデータとなる。つま り、ヘッダ番号 Mの画像データと、ヘッダ番号 N = 2M— 1 , 2Mの音データとが、撮 像と集音された時間的タイミングが同期しているデータとなっている。 [0036] The image data and the sound data are output from the CPU 30 to the streaming generation unit 29 in a state where the timing at the time of imaging and the time of sound collection are synchronized with each other based on the header number! It is powered. For example, the header number M of the image data is 1, 2, 3, 4, 5, ..., and the header number N of the sound data is 1, 2, 3, 4, 5, 6, 7, 8, 9, Let's say 10, ... Then, the sound data of header number N = l, 2 corresponds to the image data of header number M = l, and the image data of header number M = l and the sound of header number N = l, 2 Data is data with synchronized timing. Similarly, the image data with the header number M = 2 and the sound data with the header numbers N = 3 and 4 are data with synchronized timing. In other words, the image data of the header number M and the sound data of the header numbers N = 2M— 1 and 2M are data in which the time of recording and the collected time are synchronized.
[0037] ストリーミング生成部 29は、 CPU30から出力される画像データおよび音データを読
み込み、これらのコンテンツデータを有するデータをストリーミングデータとして生成 する。ストリーミング生成部 29は、生成したデジタル形式のデータ信号を通信処理部 33に供給し、 USBコネクタ 10から USBケーブル 4を介して、カメラサーバ 3に送信す [0037] The streaming generation unit 29 reads image data and sound data output from the CPU 30. Data having these contents data is generated as streaming data. The streaming generation unit 29 supplies the generated digital format data signal to the communication processing unit 33, and transmits it from the USB connector 10 to the camera server 3 via the USB cable 4.
[0038] このように画像データおよび音データのコンテンツデータを有するデータを生成し、 このデジタル形式のデータを、 USBケーブル 4を介してカメラサーバ 3に送る。これに より、デジタル形式の画像データを、アナログ形式のデータ信号に変換することなぐ カメラサーバ 3 送信することができる。 In this way, data having content data of image data and sound data is generated, and the data in the digital format is sent to the camera server 3 via the USB cable 4. As a result, the image data in the digital format can be transmitted to the camera server 3 without being converted into the data signal in the analog format.
[0039] オーディオ 'ビデオエンコーダ 28は、色変換処理部 26から出力された画像データ を、 JPEG形式の画像データに変換することなく読み込み、 NTSC (National TV standards Committee)方式1 - PAL (Phase Alternating Line)方式のヒ ォ信号を生成する。また、オーディオ 'ビデオエンコーダ 28は、デジタル形式の音デ ータを電気信号である音信号に変換する。そして、ビデオ信号と音信号と共に、ォー ディォ 'ビデオ出力コネクタ 11 出力する。 [0039] Audio 'The video encoder 28 reads the image data output from the color conversion processing unit 26 without converting it to JPEG format image data, and NTSC (National TV standards Committee) method 1 -PAL (Phase Alternating Line ) Method high signal. The audio / video encoder 28 converts the sound data in the digital format into a sound signal that is an electrical signal. The video output connector 11 outputs the video signal and the sound signal together.
[0040] 図 3は、カメラサーバ 3の電気回路を示すブロック図である。 FIG. 3 is a block diagram showing an electric circuit of the camera server 3.
[0041] カメラサーバ 3は、 USBコネクタ 16、拡張マイクロフォン 17が接続されるマイクロフォ ンコネクタ 18、赤外線センサ等の外部機器が接続される汎用入出力ポート 19、ォー ディォ出力コネクタ 20、ビデオ出力コネクタ 21、スピーカコネクタ 22、通信インターフ エース 23、電源スィッチ 24の他、オーディオ 'ビデオ入力コネクタ 34、オーディオェ ンコーダ 35、メモリ 36、および上述の各構成部分の動作の制御を司る制御手段とし ての MCU (Microcontroller Unit) 37を有する。 [0041] The camera server 3 includes a USB connector 16, a microphone connector 18 to which an extension microphone 17 is connected, a general-purpose input / output port 19 to which an external device such as an infrared sensor is connected, an audio output connector 20, and a video output. In addition to connector 21, speaker connector 22, communication interface 23, power switch 24, audio 'video input connector 34, audio encoder 35, memory 36, and control means for controlling the operation of each of the above components An MCU (Microcontroller Unit) 37 is included.
[0042] MCU37には、データ選択手段であるデータ選択部 38、データ同期手段であるデ ータ同期部 39、およびデータ配信手段であるデータ配信部 40等が構成されている。 これらデータ選択部 38、データ同期部 39、およびデータ配信部 40は、メモリ 36に記 憶されている制御プログラム力 MCU37読み込まれることにより、機能的に実現され The MCU 37 includes a data selection unit 38 that is a data selection unit, a data synchronization unit 39 that is a data synchronization unit, a data distribution unit 40 that is a data distribution unit, and the like. The data selection unit 38, the data synchronization unit 39, and the data distribution unit 40 are functionally realized by reading the control program power MCU 37 stored in the memory 36.
[0043] データ選択部 38は、カメラ装置 2から送信されてきた画像データについて、各フレ ームの画像データのヘッダ情報に基づいて、画像データの内容を判断する。上述し
たように、ヘッダには、ヘッダ内のデータ力 JPEG変換された画像データである場合 には、その旨の情報が付与され、ヘッダ内のデータが、ノイズデータである場合には 、該情報は付与されていない。つまり、データ選択部 38では、ヘッダ情報に基づいて 、ヘッダ毎のデータの内容が所定の画像データであるか、所定の画像データ以外の データであるかを判断する。 The data selection unit 38 determines the content of the image data transmitted from the camera device 2 based on the header information of the image data of each frame. Above As described above, in the case where the header is the data power in the header JPEG converted image data, information to that effect is given, and in the case where the data in the header is noise data, the information is Not granted. That is, the data selection unit 38 determines whether the content of the data for each header is predetermined image data or data other than the predetermined image data based on the header information.
[0044] そして、データ選択部 38は、この判断結果に基づいて、データ同期部 39に出力す るデータを取捨選択する。すなわち、データ選択部 38により、データの内容が所定 の画像データであると判断された場合には、この画像データは、データ同期部 39お よびデータ配信部 40を介して、通信インターフェース部 23から、ネットワーク 6を通じ てクライアント 5のパソコン 7に配信される。一方、所定の画像データでないデータに ついては、データ同期部 39側への出力は行われない。 Then, the data selection unit 38 selects data to be output to the data synchronization unit 39 based on the determination result. That is, when the data selection unit 38 determines that the content of the data is predetermined image data, the image data is transmitted from the communication interface unit 23 via the data synchronization unit 39 and the data distribution unit 40. Then, it is distributed to the personal computer 7 of the client 5 through the network 6. On the other hand, data that is not predetermined image data is not output to the data synchronization unit 39 side.
[0045] このように、データ選択部 38を備え、所定の画像データでな!/、データを、クライアン ト 5側に配信しないようにすることにより、クライアント 5側に配信される画像データには 、ノイズのデータが含まれないようになる。そのため、クライアント 5のパソコン 7のモニ タに表示される映像は、ノイズの少ない綺麗な映像となる。また、ノイズデータは、送 信されないため、カメラサーバ 3からクライアント 5へ送信するデータ量が少なくなり、 カメラサーバ 3からクライアント 5への画像データの送信速度を早くすることができる。 [0045] In this manner, the image data distributed to the client 5 side can be obtained by providing the data selection unit 38 and not distributing the predetermined image data! / To the client 5 side. , Noise data will not be included. For this reason, the video displayed on the monitor of the personal computer 7 of the client 5 is a beautiful video with little noise. Since noise data is not transmitted, the amount of data transmitted from the camera server 3 to the client 5 is reduced, and the transmission speed of image data from the camera server 3 to the client 5 can be increased.
[0046] 一方、音データについては、画像データのように取捨選択されていないため、全て の音データが、データ同期部 39およびデータ配信部 40を介して、通信インターフエ ース部 23から、ネットワーク 6を通じてクライアント 5のパソコン 7に配信される。クライア ント 5側においては、パソコン 7に内蔵等するスピーカから、マイクロフォン 13により集 音した、音声等の音を聞くことができる。 On the other hand, since the sound data is not selected as in the case of image data, all the sound data is transmitted from the communication interface unit 23 via the data synchronization unit 39 and the data distribution unit 40. It is distributed to the personal computer 7 of the client 5 through the network 6. On the client 5 side, sound such as voice collected by the microphone 13 can be heard from a speaker built in the personal computer 7 or the like.
[0047] ところで、音データについては、画像データのように取捨選択されないため、データ 選択部 38からデータ配信部 40に入力する音データのヘッダ番号 Nは、欠損のない 連続番号となっている。これに対し、上述したように、画像データについては、データ 選択部 38において、データ配信部 40に出力するデータを取捨選択するため、デー タ選択部 38からデータ配信部 40に入力する画像データのヘッダ番号 Mには、欠損 が生じている場合がある。
[0048] したがって、例えば、画像データについては、ヘッダ番号 Mが欠損した部分の画像 データを詰めて配信し、音データについては、データを詰めることなぐクライアント 5 側に配信した場合には、音データに基づく音の内容に対して、画像データに基づく 映像が先走る状態となり、映像と音とが同期しなくなってしまう。また、例えば、欠損し た画像データと同期する音データを削除すれば、映像と音とを同期させることができ る力 音の内容に飛びを生じるという問題がある。 [0047] By the way, since the sound data is not selected as in the case of image data, the header number N of the sound data input from the data selection unit 38 to the data distribution unit 40 is a continuous number without any loss. On the other hand, as described above, with respect to the image data, the data selection unit 38 selects the data to be output to the data distribution unit 40, and therefore the image data input to the data distribution unit 40 from the data selection unit 38 is selected. The header number M may be missing. Therefore, for example, for image data, when the image data of the portion in which the header number M is missing is packed and distributed, and for sound data, the sound data is distributed to the client 5 side without packing the data. As a result, the video based on the image data is ahead of the content of the sound based on the video, and the video and sound are not synchronized. In addition, for example, if sound data that synchronizes with missing image data is deleted, there is a problem in that the content of power sound that can synchronize video and sound is skipped.
[0049] そこで、データ同期部 39において、音データとデータ選択部 38から出力された画 像データとを、集音タイミングと撮像タイミングが互いに同期していると共に、音の内 容に飛びを生じることのないように同期させる処理をする。 [0049] Therefore, in the data synchronization unit 39, the sound collection timing and the imaging timing of the sound data and the image data output from the data selection unit 38 are synchronized with each other, and the sound content is skipped. Process to synchronize so that nothing happens.
[0050] 具体的には、例えば、データ選択部 38から出力した画像データのヘッダ番号力 1 , 2,―, 4, 5, …(ヘッダ番号 3の画像データについては、ノイズデータであったため 欠損している。)であり、音データのヘッダ番号が 1 , 2, 3, 4, 5, 6,…である場合に は、ヘッダ番号 1の画像データに対してはヘッダ番号 1 , 2の音データを同期させ、へ ッダ番号 2の画像データに対してはヘッダ番号 3, 4の音データを同期させる。ヘッダ 番号 3の画像データは欠損している力 この部分には、ヘッダ番号 5, 6の音データを 同期させる。そして、ヘッダ番号 4の画像データに対してはヘッダ番号 7, 8の音デー タを同期させることになる。このように、音データと画像データの同期を取った状態で 、データ配信部 40から通信インターフェース 23を通ってネットワーク 6側にデータが 配信される。 [0050] Specifically, for example, the header number power of the image data output from the data selection unit 38 is 1, 2,-, 4, 5, ... If the header number of the sound data is 1, 2, 3, 4, 5, 6, ..., the sound with the header numbers 1 and 2 for the image data with the header number 1 Synchronize the data, and synchronize the sound data of header numbers 3 and 4 with the image data of header number 2. Image data with header number 3 is missing force Sound data with header numbers 5 and 6 is synchronized with this part. The sound data of header numbers 7 and 8 are synchronized with the image data of header number 4. As described above, in a state where the sound data and the image data are synchronized, the data is distributed from the data distribution unit 40 to the network 6 through the communication interface 23.
[0051] クライアント 5側では、画像データの欠損しているヘッダ番号 3の部分については、 音データのみが配信され、パソコン 7のスピーカからは、ヘッダ番号 5, 6の音データ に基づく音が再生されることになる。 [0051] On the client 5 side, only the sound data is distributed for the portion of header number 3 where the image data is missing, and the sound based on the sound data of header numbers 5 and 6 is played from the speaker of the personal computer 7 Will be.
[0052] なお、クライアント 5のパソコン 7のビユアソフトを、新たな画像データが配信されるま では、モニタに、直前の画像データに基づく映像を継続して表示するように構成して おくことにより、画像データが欠損した場合に、パソコン 7のモニタに何も表示されな い不自然な状態にならないようにすることができる。ビユアソフトをこのように構成した 場合には、ヘッダ番号 2の画像データが配信され、その後、ヘッダ番号 4の画像デー タが配信されるまでの間は、ヘッダ番号 2の画像データに基づく映像が表示され、こ
の間、ヘッダ番号 5, 6の音データに基づく音が再生されることになる。 [0052] It should be noted that the viewer software of the personal computer 7 of the client 5 is configured to continuously display the video based on the previous image data on the monitor until new image data is distributed. When image data is lost, nothing can be displayed on the monitor of the PC 7 so that it does not appear unnatural. When the visual software is configured in this way, the video data based on the image data with the header number 2 is displayed until the image data with the header number 2 is distributed and then the image data with the header number 4 is distributed. Is this During this period, the sound based on the sound data of the header numbers 5 and 6 is reproduced.
[0053] なお、データ配信部 40は、複数のクライアント 5が、カメラサーバ 3にアクセスしてい る場合には、これらのクライアント 5に対してデータ信号を同時配信する。 Note that the data distribution unit 40 simultaneously distributes data signals to these clients 5 when a plurality of clients 5 are accessing the camera server 3.
[0054] ところで、 USBコネクタ 16には、カメラ装置 2から USBケーブル 4を介して、デジタ ル形式の画像データおよびデジタル形式の音データを有するデータ信号が供給さ れ、 MCU37に入力する。 MCU37に入力されたデジタル形式のデータ信号は、デ ジタル形式のデータ信号として通信インターフェース 23からネットワーク 6に出力する ように構成されている。 By the way, the USB connector 16 is supplied with a data signal having image data in digital format and sound data in digital format from the camera device 2 via the USB cable 4 and is input to the MCU 37. The digital data signal input to the MCU 37 is configured to be output from the communication interface 23 to the network 6 as a digital data signal.
[0055] したがって、カメラサーバ 3は、カメラ装置 2から出力されたデジタル形式のデータ信 号を、デジタル形式の信号のままネットワーク側に出力するため、信号の劣化が無い 。また、カメラサーバ 3内にアナログ信号をデジタル信号に変換する AD変換機能を 持たせる必要がない。なお、画像データは、半二重通信方式で TCPプロトコルまた は UDPプロトコルにてデータ伝送される。音データは、二重通信方式で、 TCPプロト コルまたは UDPプロトコルにてデータ伝送される。 Therefore, since the camera server 3 outputs the digital data signal output from the camera device 2 to the network side as a digital signal, there is no signal deterioration. Further, it is not necessary to provide an AD conversion function for converting an analog signal into a digital signal in the camera server 3. Note that image data is transmitted using the TCP or UDP protocol in a half-duplex communication system. Sound data is transmitted by the TCP protocol or UDP protocol in a duplex communication system.
[0056] 上述したように、画像データは、カメラ装置 2において、 JPEG形式の圧縮画像デー タに変換された後、カメラサーバ 3に送信され、データ配信部 40から、通信インターフ エース 23を通して、クライアント 5に対して配信される。このように、画像データをカメラ 装置 2において JPEG形式に変換し、 JPEG形式の画像データをカメラサーバ 3に送 るように構成することにより、カメラ装置 2からカメラサーバ 3に送信するデータの容量 を減らすことができる。このため、カメラサーバシステム 1における画像データの送信 速度の向上を図ることができる。ひいては、画像データをクライアント 5に送信する速 さを速くすること力でさる。 [0056] As described above, image data is converted into compressed image data in JPEG format in the camera device 2, and then transmitted to the camera server 3. From the data distribution unit 40, the image data is transmitted to the client through the communication interface 23. Delivered to 5. As described above, the image data is converted into the JPEG format in the camera device 2 and the image data in the JPEG format is sent to the camera server 3, so that the capacity of the data transmitted from the camera device 2 to the camera server 3 can be reduced. Can be reduced. For this reason, the transmission speed of image data in the camera server system 1 can be improved. As a result, it is possible to increase the speed at which image data is sent to the client 5.
[0057] 一方、これに対し、例えば、画像データの JPEG形式への変換を、カメラサーバ 3の MCU37において行い、また、クライアント 5からの画像データの送信の要求に応じて 、その都度、 JPEG形式への変換を実行するようにした場合には、カメラサーバ 3から クライアント 5へ画像データを配信する速さが遅くなる。 On the other hand, for example, the conversion of the image data into the JPEG format is performed in the MCU 37 of the camera server 3, and in response to a request for transmission of the image data from the client 5, the JPEG format is used each time. When the conversion is executed, the speed of distributing the image data from the camera server 3 to the client 5 becomes slow.
[0058] また、 MCU37は、カメラサーバ 3の全体の制御に加え、カメラ装置 2の制御やクラ イアント 5との通信等に係わる多くの処理を行う。そのため、これらの処理に加えて、 J
PEG変換のエンコード機能を持たせることとすると、 MCU37の負荷が大きくなり、 M CU37の処理速度が低下し、 JPEG変換のエンコード処理速度も遅くなる。この結果 、カメラサーバ 3から画像データをクライアント 5へ送信する速さが遅くなつてしまう。 In addition to the overall control of the camera server 3, the MCU 37 performs many processes related to the control of the camera device 2 and the communication with the client 5. Therefore, in addition to these processes, J If an encoding function for PEG conversion is provided, the load on the MCU 37 increases, the processing speed of the MCU 37 decreases, and the encoding processing speed of the JPEG conversion also decreases. As a result, the transmission speed of the image data from the camera server 3 to the client 5 becomes slow.
[0059] また、クライアント 5からの画像データの送信の要求に応じて、その都度、 JPEG形 式への変換を実行するようにした場合、 1のクライアント 5に対して、画像データの送 信処理を行っている間は、他のクライアント 5は、待っていなくてはいけないため、クラ イアント 5へ画像データを送信する速さが遅くなる。 [0059] In addition, when conversion to JPEG format is executed every time a request for transmission of image data from the client 5 is performed, image data transmission processing to the client 5 of 1 Since the other clients 5 have to wait while the image data is being transmitted, the transmission speed of the image data to the client 5 is reduced.
[0060] これに対して、カメラサーバ 3側の MCU37に比べて処理項目の少ないカメラ装置 On the other hand, the camera device has fewer processing items than the MCU 37 on the camera server 3 side.
2側の CPU30を用いて JPEG変換することにより、 JPEG変換の速度を高くすることが できる。また、 MCU37は、 JPEG変換の処理を行わない分、処理速度の低下がなく 、データ選択部 38およびデータ配信部 40等の処理速度を高めるこができ、クライア ント 5に画像データを配信するための処理速度を速くすることができる。 JPEG conversion speed can be increased by performing JPEG conversion using the CPU 30 on the second side. In addition, since the MCU 37 does not perform the JPEG conversion process, the processing speed does not decrease, the processing speed of the data selection unit 38, the data distribution unit 40, etc. can be increased, and the image data is distributed to the client 5. The processing speed can be increased.
[0061] また、データ配信部 40からは、複数のクライアント 5に対して、画像データが同時に 配信されるため、クライアント 5は、他のクライアント 5への配信が終わるのを待って画 像データの配信を受けるということがなくなり、配信の速さを早くすることができる。 [0061] Further, since the image data is simultaneously distributed from the data distribution unit 40 to the plurality of clients 5, the client 5 waits for the distribution to the other clients 5 to finish and stores the image data. The delivery is not received and the delivery speed can be increased.
[0062] なお、 JPEGエンコーダ部 32は、カメラ装置 2の CPU30に設ける他、図 3に点線に 示すように、カメラサーバ 3側に MCU37とは別に、 JPEGエンコーダ 32Aを、 USBコ ネクタ 16と MCU37との間に設け、この JPEGエンコーダ 32Aにより JPEG変換を行つ た画像データを MCU37に入力するように構成してもよい。 JPEGエンコーダ部 32A は、データ選択部 38、データ同期部 39およびデータ配信部 40等が備えられる MC U37とは別の処理装置として設けられているため、 MCU37の処理速度を低下させ ることがない。 [0062] Note that the JPEG encoder unit 32 is provided in the CPU 30 of the camera device 2, and, as indicated by a dotted line in Fig. 3, the JPEG encoder 32A is connected to the camera server 3 side separately from the MCU 37, the USB connector 16 and the MCU 37 The image data obtained by performing JPEG conversion by the JPEG encoder 32A may be input to the MCU 37. The JPEG encoder unit 32A is provided as a processing device different from the MCU 37 provided with the data selection unit 38, the data synchronization unit 39, the data distribution unit 40, and the like, so that the processing speed of the MCU 37 is not reduced. .
[0063] また、カメラ装置 2側に CPU30とは別に、専用の JPEGエンコーダを備えて、この JP EGエンコーダにより JPEG変換を行わせるように構成してもよい。 [0063] Further, a dedicated JPEG encoder may be provided on the camera device 2 side separately from the CPU 30, and JPEG conversion may be performed by the JP EG encoder.
[0064] 上述の本実施の形態においては、データ圧縮の方法およびエンコーダを、 JPEG 形式の圧縮方法および JPEGエンコーダ部 32 (32A)として示した力 MPEG (Movi ng Picture Experts Group)等、その他の圧縮方式を採用してもよい。また、非 可逆圧縮方式の他に、可逆圧縮方式としてもよい。
[0065] オーディオエンコーダ 35では、通信インターフェース 23からカメラサーバ 3に入力 するデジタル形式の音データを MCU37から読み込み、電気信号である音信号に変 換して、スピーカコネクタ 22へ出力する。そのため、スピーカコネクタ 22に、例えば、 スピーカ等を接続することにより、通信インターフェース 23から入力される音データを 再生すること力 Sでさる。 [0064] In the present embodiment described above, the data compression method and encoder are not limited to the JPEG compression method and other compression such as MPEG (Moving Picture Experts Group) shown as JPEG encoder unit 32 (32A). A method may be adopted. In addition to the irreversible compression method, a reversible compression method may be used. The audio encoder 35 reads the digital sound data input from the communication interface 23 to the camera server 3 from the MCU 37, converts it into a sound signal that is an electrical signal, and outputs it to the speaker connector 22. For this reason, for example, by connecting a speaker or the like to the speaker connector 22, the sound data input from the communication interface 23 can be reproduced with the force S.
[0066] オーディオ 'ビデオ入力コネクタ 34に、カメラ装置 2側のオーディオ 'ビデオ出力コ ネクタ 11から出力された音信号とビデオ信号が入力されたときには、これらの音信号 とビデオ信号を、それぞれオーディオ出力コネクタ 20とビデオ出力コネクタ 21に出力 する。したがって、オーディオ出力コネクタ 20とビデオ出力コネクタ 21にテレビ等を接 続すると、カメラ装置 2で撮像および集音された映像と音声を視聴することができる。 [0066] When the sound signal and video signal output from the audio 'video output connector 11 on the camera device 2 side are input to the audio' video input connector 34, these sound signal and video signal are output as audio signals, respectively. Output to connector 20 and video output connector 21. Accordingly, when a television or the like is connected to the audio output connector 20 and the video output connector 21, the video and audio captured and collected by the camera device 2 can be viewed.
[0067] カメラサーバ 3からは、カメラ装置 2に対して、 USBケーブル 4を介してカメラ装置 2 を制御するためのカメラ装置制御信号が送信される。このカメラ装置制御信号は、 M CU37に構成されるデバイス制御部 41により生成されるもので、例えば、カメラ装置 2 の動作開始や停止を制御するものであったり、カメラ装置 2に対して画像データの送 信を要求するもの等である。また、ネットワークに接続されるクライアント 5側のパソコン 7等からカメラサーバ 3に対して送信される指令についても、その指令を解釈して、力 メラ装置 2に対してカメラ装置制御信号を送信する。例えば、パソコン 7等から、撮影 方向を水平に移動させるパン撮影を行うためのパン制御、撮影方向を上下に移動さ せるチルト制御、撮影画角を狭めたり広げたりするズーム撮影を行うためのズーム制 御等が要求された場合には、デバイス制御部 41は、その指令を解釈して、カメラ装 置 2に対してカメラ装置制御信号を送信する。なお、デバイス制御部 41は、カメラ装 置 2の他、 GPIOに外部機器が接続された場合には、この外部機器についても制御 を行う。 A camera device control signal for controlling the camera device 2 is transmitted from the camera server 3 to the camera device 2 via the USB cable 4. This camera device control signal is generated by the device control unit 41 configured in the MCU 37, and controls, for example, the start and stop of the operation of the camera device 2, or the camera device 2 receives image data. That require the transmission of Also, for a command transmitted from the personal computer 7 on the client 5 side connected to the network to the camera server 3, the command is interpreted and a camera device control signal is transmitted to the camera device 2. For example, from a computer 7 etc., pan control for panning to move the shooting direction horizontally, tilt control to move the shooting direction up and down, zoom for narrowing or widening the shooting angle of view When control or the like is requested, the device control unit 41 interprets the command and transmits a camera device control signal to the camera device 2. The device control unit 41 controls the external device in addition to the camera device 2 when an external device is connected to the GPIO.
[0068] ところで、カメラ装置 2に内蔵されるマイクロフォン 13は、ハウジング 8内に配設され るイメージセンサ 25や回路構成の制約を受けて、使用できるサイズに制限があり、十 分な集音力を得られない場合がある。このような場合には、マイクロフォンコネクタ 18 に拡張マイクロフォン 17を接続する。 [0068] By the way, the microphone 13 built in the camera device 2 is limited in the size that can be used due to restrictions on the image sensor 25 disposed in the housing 8 and the circuit configuration, and has sufficient sound collecting power. You may not get. In such a case, the extension microphone 17 is connected to the microphone connector 18.
[0069] MCU37は、マイクロフォンコネクタ 18に拡張マイクロフォン 17が接続されたことを
認識すると、カメラ装置 2に対して、マイクロフォン 13による集音を停止するカメラ装置 制御信号を送信する。このカメラ装置制御信号を受けてカメラ装置 2の CPU30は、 音処理部 27に対し、音データを生成することを停止する制御を行なう。そのため、力 メラ装置 2からは、音データのないデータが出力される。 [0069] The MCU 37 confirms that the extension microphone 17 is connected to the microphone connector 18. When recognized, a camera device control signal for stopping the sound collection by the microphone 13 is transmitted to the camera device 2. In response to the camera device control signal, the CPU 30 of the camera device 2 controls the sound processing unit 27 to stop generating sound data. Therefore, the power camera device 2 outputs data without sound data.
[0070] マイクロフォンコネクタ 18から音信号を読み込み、カメラサーバ 3の MCU37に構成 される音処理部 42によりデジタル形式の音データを生成する。そして、この音データ とカメラ装置 2から送信される画像データをデータ配信部 40から通信インターフエ一 ス 23に供給し、ネットワーク 6に配信する。 A sound signal is read from the microphone connector 18, and digital sound data is generated by the sound processing unit 42 configured in the MCU 37 of the camera server 3. The sound data and the image data transmitted from the camera device 2 are supplied from the data distribution unit 40 to the communication interface 23 and distributed to the network 6.
[0071] このように、拡張マイクロフォン 17が接続された場合には、カメラ装置 2に内蔵する マイクロフォン 13に換えて、拡張マイクロフォン 17により集音する構成としたため、集 音する音の対象や周囲の雑音等の環境に適した音データを得、これを配信用のデ ータに乗せることができる。 As described above, when the extension microphone 17 is connected, the extension microphone 17 collects sound instead of the microphone 13 built in the camera device 2, so that the target of the sound to be collected and the surrounding sound are collected. Sound data suitable for the environment such as noise can be obtained and placed on the data for distribution.
[0072] なお、カメラサーバ 3の稼動を開始した際(電源スィッチ 25をオン)、カメラサーバ 3 のアプリケーションは、 USBケーブル 4より送られてくるマイクロフォン 13の音データ をデフォルトの音入力として設定している。その後、カメラサーバ 3のアプリケーション は、マイクロフォンコネクタ 18の拡張マイクロフォン 17の接続の有無を探しにいく。力 メラサーバ 3のアプリケーションが拡張マイクロフォン 17の接続を認識したときは、上 述したように、カメラ装置 2に対して、デバイス制御部 41が、マイクロフォン 13による集 音を停止するカメラ装置制御信号を送信する。カメラサーバ 3のアプリケーションが拡 張マイクロフォン 17の接続を認識しなかったときには、 USBケーブル 4から送られてく るマイクロフォン 13の音データをそのまま使用する。 [0072] When the operation of the camera server 3 is started (the power switch 25 is turned on), the application of the camera server 3 sets the sound data of the microphone 13 sent from the USB cable 4 as the default sound input. ing. Thereafter, the application of the camera server 3 searches for the connection of the extension microphone 17 of the microphone connector 18. When the application of the power server 3 recognizes the connection of the expansion microphone 17, as described above, the device control unit 41 transmits a camera device control signal for stopping the sound collection by the microphone 13 to the camera device 2. To do. When the application of the camera server 3 does not recognize the connection of the extension microphone 17, the sound data of the microphone 13 sent from the USB cable 4 is used as it is.
[0073] なお、データ選択部 38による判断を、画像データに付加されたヘッダ情報に基づ いて行う代わりに、他の情報に基づいて行うようにしてもよい。例えば、ヘッダ毎に画 像データをそれぞれ検査し、所定以上のノイズデータを検出した場合には、そのへッ ダの画像データをネットワーク 6側に送信しないようにしてもよい。
Note that the determination by the data selection unit 38 may be performed based on other information instead of based on the header information added to the image data. For example, when image data is inspected for each header and noise data exceeding a predetermined level is detected, the image data of the header may not be transmitted to the network 6 side.
Claims
[1] 撮像素子を備えるカメラ装置と、 [1] a camera device including an image sensor;
上記カメラ装置から出力される画像データをクライアントに配信するカメラサーバと、 を備えるカメラサーバシステムにおいて、 In a camera server system comprising: a camera server that distributes image data output from the camera device to a client;
上記撮像素子と、上記カメラサーバの制御手段との間に、上記撮像素子から出力さ れた画像データをデータ圧縮された圧縮画像データに変換するエンコーダを備える ことを特徴とするカメラサーバシステム。 A camera server system comprising an encoder for converting image data output from the image sensor into compressed image data that is data-compressed between the image sensor and the control means of the camera server.
[2] 前記エンコーダは、 JPEGエンコーダとされ、前記カメラ装置に備えられることを特 徴とする請求項 1に記載のカメラサーバシステム。 2. The camera server system according to claim 1, wherein the encoder is a JPEG encoder and is provided in the camera device.
[3] 撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットワークを 通じてクライアントに配信する際のデータの処理方法において、 [3] In a data processing method for distributing image data of an image captured by a camera device including an image sensor to a client through a network,
上記画像データをデータ圧縮された圧縮画像データに変換した後、この圧縮画像 データを、上記クライアントからの要求に従って、上記クライアントに配信することを特 徴とするデータの処理方法。 A data processing method comprising: converting the image data into compressed image data that has been compressed, and then delivering the compressed image data to the client in accordance with a request from the client.
[4] 前記データ圧縮は、 JPEG圧縮とされ、前記カメラ装置にぉレ、て上言 d!PEG圧縮が 行われることを特徴とする請求項 3に記載のデータの処理方法。 4. The data processing method according to claim 3, wherein the data compression is JPEG compression, and the above-described d! PEG compression is performed on the camera device.
[5] 撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットワークを 通じてクライアントに配信するカメラサーバにおいて、 [5] In a camera server that distributes image data of an image captured by a camera device including an image sensor to a client via a network,
上記画像データをデータ圧縮された圧縮画像データに変換するエンコーダを、上 記カメラ装置から送られてくる画像データが上記カメラサーバに入力する入力部と、 上記カメラサーバの制御手段との間に備えることを特徴とするカメラサーバ。 An encoder that converts the image data into compressed image data that has undergone data compression is provided between an input unit through which the image data sent from the camera device is input to the camera server and the control means of the camera server. A camera server characterized by that.
[6] 前記エンコーダは、 JPEGエンコーダとされ、前記カメラ装置に備えられることを特 徴とする請求項 5に記載のカメラサーバ。
6. The camera server according to claim 5, wherein the encoder is a JPEG encoder and is provided in the camera device.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006289893A JP2008109364A (en) | 2006-10-25 | 2006-10-25 | Camera server system, processing method for data, and camera server |
JP2006-289893 | 2006-10-25 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2008050621A1 true WO2008050621A1 (en) | 2008-05-02 |
Family
ID=39324421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2007/070008 WO2008050621A1 (en) | 2006-10-25 | 2007-10-12 | Camera server system, data processing method and camera server |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2008109364A (en) |
WO (1) | WO2008050621A1 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8992102B1 (en) * | 2014-01-06 | 2015-03-31 | Gopro, Inc. | Camera housing for a square-profile camera |
USD890835S1 (en) | 2017-12-28 | 2020-07-21 | Gopro, Inc. | Camera |
WO2020033389A1 (en) | 2018-08-07 | 2020-02-13 | Gopro, Inc. | Camera and camera mount |
USD894256S1 (en) | 2018-08-31 | 2020-08-25 | Gopro, Inc. | Camera mount |
USD905786S1 (en) | 2018-08-31 | 2020-12-22 | Gopro, Inc. | Camera mount |
USD920419S1 (en) | 2019-09-17 | 2021-05-25 | Gopro, Inc. | Camera |
USD946074S1 (en) | 2020-08-14 | 2022-03-15 | Gopro, Inc. | Camera |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003018525A (en) * | 2001-07-04 | 2003-01-17 | Fujitsu Ltd | Network storage type video camera system |
JP2004336484A (en) * | 2003-05-08 | 2004-11-25 | Fuji Photo Film Co Ltd | Motion picture transmission method, apparatus and system |
-
2006
- 2006-10-25 JP JP2006289893A patent/JP2008109364A/en active Pending
-
2007
- 2007-10-12 WO PCT/JP2007/070008 patent/WO2008050621A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003018525A (en) * | 2001-07-04 | 2003-01-17 | Fujitsu Ltd | Network storage type video camera system |
JP2004336484A (en) * | 2003-05-08 | 2004-11-25 | Fuji Photo Film Co Ltd | Motion picture transmission method, apparatus and system |
Also Published As
Publication number | Publication date |
---|---|
JP2008109364A (en) | 2008-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2013132828A1 (en) | Communication system and relay apparatus | |
US8160129B2 (en) | Image pickup apparatus and image distributing method | |
WO2008050621A1 (en) | Camera server system, data processing method and camera server | |
KR101611531B1 (en) | Camera apparatus and method for providing recorded image | |
TWI655865B (en) | A method for configuration of video stream output from a digital video camera | |
JP2006054921A (en) | Method of transmitting video signal, method of receiving video signal, and video-signal transmission/reception system | |
JP2002300578A (en) | Image transmitter | |
CN112788198A (en) | Image pickup apparatus, transfer system and method, recording medium, and computer apparatus | |
JP2003299067A (en) | Video signal transmission method, video signal reception method, and video signal transmission/reception system | |
JP2008131264A (en) | Monitor camera, image recording/display apparatus and monitor camera system | |
JP2005323379A (en) | Systems and methods for responding to data transfer | |
WO2008050620A1 (en) | Camera server and data processing method | |
JP5024331B2 (en) | Video camera and information transmission method | |
KR100220632B1 (en) | Camera using universal serial bus | |
US20090213220A1 (en) | Active monitoring system with multi-spot image display and a method thereof | |
TWI852855B (en) | Wireless multi-stream bidirectional video processing system | |
KR100223590B1 (en) | Multi-function tv | |
WO2008018351A1 (en) | Camera system, camera device and camera server | |
JP2006171524A (en) | Image processor | |
WO2007043227A1 (en) | Camera, video recorder, and camera system | |
KR101676400B1 (en) | Camera apparatus and method for providing recorded image | |
KR100563141B1 (en) | Zoom camera system with high-pixel | |
JP2004253910A (en) | Video distribution system | |
JP2002094934A (en) | Signal processing unit and camera system | |
JPH0759070A (en) | Display controller |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 07829744 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 07829744 Country of ref document: EP Kind code of ref document: A1 |