WO2008050620A1 - Camera server and data processing method - Google Patents

Camera server and data processing method Download PDF

Info

Publication number
WO2008050620A1
WO2008050620A1 PCT/JP2007/070007 JP2007070007W WO2008050620A1 WO 2008050620 A1 WO2008050620 A1 WO 2008050620A1 JP 2007070007 W JP2007070007 W JP 2007070007W WO 2008050620 A1 WO2008050620 A1 WO 2008050620A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
image data
sound
image
predetermined
Prior art date
Application number
PCT/JP2007/070007
Other languages
French (fr)
Japanese (ja)
Inventor
Katsura Obikawa
Jong-Sun Hur
Original Assignee
Opt Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Opt Corporation filed Critical Opt Corporation
Publication of WO2008050620A1 publication Critical patent/WO2008050620A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras

Definitions

  • the present invention relates to a camera server and a data processing method.
  • a camera server for distributing image data of an image captured by a camera device including an image sensor to a client via a network is known (for example, see Patent Document 1).
  • the KARU Camera Server uses all the data signals output from the camera device.
  • It is configured to be distributed to the client side.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2005-318412
  • a data signal output from the camera device may include a noise data signal that is not a data signal of image data. Therefore, the client is distributed not only for image data but also for a noise data signal. Therefore, when displaying a video on the client side based on the data transmitted from the camera server, there is a problem that the video is disturbed by a data signal of noise.
  • an object of the present invention is to provide a camera server and a data processing method for distributing image data with less noise to a client and reducing disturbance of an image displayed on the client side.
  • the image data is predetermined image data in a camera server that distributes image data of an image captured by a camera device including an image sensor to a client via a network. If the image data is determined to be predetermined image data, the image data is output to the network side. If the image data is determined not to be predetermined image data, the image data is output to the network side. Data selection means not to output is provided. In such a configuration, image data with less noise can be delivered to the client, so that the client can obtain image data with less noise.
  • the data selecting means determines whether or not the image data is predetermined based on information of a header added to the image data!
  • the force S can be used to easily determine whether the image data is predetermined.
  • the camera server receives image data based on header information of image data and sound data when sound data is input in addition to the image data.
  • Data synchronization means for synchronizing the sound data with the sound data and the data synchronization means synchronizes the predetermined sound data of the sound data with the data portion determined by the data selection means to be not the predetermined image data. I will do it.
  • image data with less noise can be delivered to the client, so that the client can obtain image data with less noise.
  • sound data sound data synchronized with image data that has not been distributed is also distributed. Therefore, the client can listen to the collected sound without interruption.
  • the image data is predetermined image data. If the image data is determined to be the predetermined image data, the image data is output to the network side, and the image data determined not to be the predetermined image data is Do not output to the network side.
  • whether or not the image data is predetermined image data is determined based on header information added to the image data.
  • the force S can be used to easily determine whether the image data is predetermined.
  • a data processing method for distributing image data of an image captured by a camera device including an image sensor and sound data of sound collected by a microphone to a client via a network For the image data, it is determined whether or not the image data is predetermined image data.
  • the image data determined to be the predetermined image data is output to the network side, and the image data is determined to be the predetermined image data.
  • Data that is determined not to be image data is processed not to be output to the network side, and the sound data and the image data output to the network side are processed based on the header information added to each data.
  • the predetermined sound data of the sound data is also applied to the data portion that is synchronized with each other and is determined not to be the predetermined image data. And to synchronize the data.
  • image data with less noise can be delivered to the client, so that the client can obtain image data with less noise.
  • sound data sound data synchronized with image data that has not been distributed is also distributed. Therefore, the client can listen to the collected sound without interruption.
  • FIG. 1 is a diagram showing a configuration of a camera server system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing an electric circuit of a camera device in the camera server system shown in FIG.
  • FIG. 3 is a block diagram showing an electric circuit of a camera server in the camera server system shown in FIG.
  • FIG. 1 is a system configuration diagram showing a camera server system 1 according to an embodiment of the present invention.
  • the camera server system 1 includes a camera device 2 and a camera server 3.
  • the camera device 2 and the camera server 3 are connected by a USB (Universal Serial Bus) cable 4.
  • the camera server system 1 and the client 5 are connected via the network 6, and the camera server system 1 receives a command from the personal computer 7 on the client 5 side.
  • the camera server 3 distributes image data of an image captured by the camera device 2 to the personal computer 7 (client 5) based on a command received from the personal computer 7.
  • client 5 One or a plurality of clients 5 exist, and the camera server system 1 distributes the image data to each client 5 in accordance with a request from each client 5.
  • the camera device 2 has a cubic-shaped housing 8.
  • Housing 8 has a fisheye lens
  • USB connector 10 audio 'video output connector 11, sound output connector 12, etc.
  • the fisheye lens 9 is disposed on the upper surface of the housing 8.
  • a ventilation hole 14 for the microphone 13 is formed on the upper surface of the housing 8.
  • the USB connector 10, the audio / video output connector 11 and the sound output connector 12 are arranged on the side surface of the housing 8.
  • the camera server 3 has a rectangular parallelepiped housing 15.
  • the housing 15 includes a USB connector 16 as an input unit that is an input terminal for inputting data from the camera device 2, a microphone connector 18 to which an expansion microphone 17 to be used as needed is connected, an infrared sensor, and the like.
  • General purpose input / output port (GPIO) 19 for connecting external equipment, audio output connector 20 for outputting audio signals, video output connector 21 for outputting video signals, and speakers to which speakers are connected
  • GPIO General purpose input / output port
  • a single connector 22, a communication interface 23 connected to the network, a power switch 24 that also serves as a reset switch, and the like are provided.
  • FIG. 2 is a block diagram showing an electric circuit of the camera device 2.
  • the camera device 2 includes a fisheye lens 9, a USB connector 10, an audio 'video output connector 11, a sound output connector 12, a microphone 13, an image sensor 25 as an image sensor, and an F PGA (Field Programmable Gate Array).
  • Color conversion processing unit 26 sound processing unit 27 composed of sound IC (Integrated Circuit) 27, audio 'video encoder 28, streaming generation unit 29, and CPU (CCU) that controls the operation of each of the above components Central Processing Unit) 30 etc.
  • the microphone 13 collects sounds and sounds around the camera device 2.
  • the microphone 13 generates a sound signal that is an electrical signal corresponding to the collected sound and outputs the sound signal to the sound processing unit 27.
  • the sound processing unit 27 generates digital sound data based on the electrical signal from the microphone 13.
  • the sound processing unit 27 outputs an electrical signal corresponding to the sound from the microphone 13 to the sound output connector 12 without converting it into sound data (digital format). Therefore, the sound collected by the microphone 13 can be heard by connecting, for example, a speaker, headphones or the like to the sound output connector 12.
  • the image sensor 25 for example, a CMOS (Complementary Metal-Oxide Semiconductor) or the like is used. An image by the fisheye lens 9 is formed on the image sensor 25.
  • the image sensor 25 outputs luminance distribution data, which is an imaging signal, to the color conversion processing unit 26 as digital image data.
  • luminance distribution data which is an imaging signal
  • the image sensor 25 performs imaging at an imaging speed of 1/15 frames per second, for example. Therefore, one frame of image data is output from the image sensor 25 every 1/15 second.
  • the color conversion processing unit 26 replaces the data of each pixel of the luminance distribution data using a color conversion table (not shown) to generate digital image data.
  • the generated image data is added with a header for each frame by a header adding unit 31 formed by the CPU 30.
  • the CPU 30 is configured with a JPEG encoder section 32 as an encoder that converts image data into JPEG (Joint Photographic Experts Group) open-type compressed image data.
  • JPEG Joint Photographic Experts Group
  • noise data other than image data is output from the image sensor 25, or noise data is mixed between the image sensor 25 and the JPEG encoder unit 32.
  • the JPEG encoder unit 32 when the data is image data input to the JPEG encoder unit 32, the data is converted into JPEG format image data, and the header is added to the header. Gives information that it is image data.
  • the JPEG encoder unit 32 does not convert the image data into JPEG format image data. That is, of the data input as image data output from the image sensor 25 to the JPEG encoder unit 32, the resolution data is not image data! /, And is not converted to JPEG image data. In the header, information indicating that the image data is in JPEG format is not added.
  • the JPEG encoder unit 32 may be configured so as not to convert the image data into JPEG format data if the image data includes noise data exceeding a predetermined level! /.
  • a header is added by the header adding unit 31 in a predetermined amount of data. For example, in the present embodiment, a header is added to sound data for each data length of 1/30 second.
  • image data has a data amount of 15 frames per second
  • sound data has a data amount of 1/30 second. Therefore, one unit of image data corresponds to two units (1/30 seconds x 2) of sound data.
  • the image data and the sound data are output from the CPU 30 to the streaming generation unit 29 in a state where the timing at the time of imaging and the time of sound collection are synchronized with each other based on the header number! It is powered.
  • the header number M of the image data is 1, 2, 3, 4, 5, ...
  • the header number N of the sound data is 1, 2, 3, 4, 5, 6, 7, 8, 9, Let's say 10, ...
  • the streaming generation unit 29 reads the image data and sound data output from the CPU 30, and generates data having these content data as streaming data.
  • the streaming generation unit 29 supplies the generated digital format data signal to the communication processing unit 33, and transmits it from the USB connector 10 to the camera server 3 via the USB cable 4.
  • Audio 'The video encoder 28 reads the image data output from the color conversion processing unit 26 without converting it to JPEG format image data, and NTSC (National TV standards Committee) method 1 -PAL (Phase Alternating Line ) Method high signal.
  • the audio / video encoder 28 converts the sound data in the digital format into a sound signal that is an electrical signal.
  • the video output connector 11 outputs the video signal and the sound signal together.
  • FIG. 3 is a block diagram showing an electric circuit of the camera server 3.
  • the camera server 3 includes a USB connector 16, a microphone connector 18 to which an extension microphone 17 is connected, a general-purpose input / output port 19 to which an external device such as an infrared sensor is connected, Audio output connector 20, video output connector 21, speaker connector 22, communication interface 23, power switch 24, audio 'video input connector 34, audio encoder 35, memory 36, and control of the above components MCU (Microcontroller Unit) 37 as a control means for managing
  • the MCU 37 includes a data selection unit 38 that is a data selection unit, a data synchronization unit 39 that is a data synchronization unit, a data distribution unit 40 that is a data distribution unit, and the like.
  • the data selection unit 38, the data synchronization unit 39, and the data distribution unit 40 are functionally realized by reading the control program power MCU 37 stored in the memory 36.
  • the data selection unit 38 determines the content of the image data transmitted from the camera device 2 based on the header information of the image data of each frame. As described above, in the case of image data that has been subjected to JPEG conversion in the data power in the header, information to that effect is given to the header, and in the case where the data in the header is noise data, the header No information is given. That is, the data selection unit 38 determines whether the content of the data for each header is predetermined image data or data other than the predetermined image data based on the header information.
  • the data selection unit 38 selects data to be output to the data synchronization unit 39 based on the determination result. That is, when the data selection unit 38 determines that the content of the data is predetermined image data, the image data is transmitted from the communication interface unit 23 via the data synchronization unit 39 and the data distribution unit 40. Then, it is distributed to the personal computer 7 of the client 5 through the network 6. On the other hand, data that is not predetermined image data is not output to the data synchronization unit 39 side.
  • the image data distributed to the client 5 side can be obtained by providing the data selection unit 38 and not distributing the predetermined image data! / To the client 5 side.
  • Noise data will not be included.
  • the video displayed on the monitor of the personal computer 7 of the client 5 is a beautiful video with little noise. Since noise data is not transmitted, the amount of data transmitted from the camera server 3 to the client 5 is reduced, and the transmission speed of image data from the camera server 3 to the client 5 can be increased.
  • the sound data is not selected as in the case of image data, all the sound data is transmitted from the communication interface unit 23 via the data synchronization unit 39 and the data distribution unit 40. It is distributed to the personal computer 7 of the client 5 through the network 6. On the client 5 side, sound such as voice collected by the microphone 13 can be heard from a speaker built in the personal computer 7 or the like.
  • the header number N of the sound data input from the data selection unit 38 to the data distribution unit 40 is a continuous number without any loss.
  • the data selection unit 38 selects the data to be output to the data distribution unit 40, and therefore the image data input to the data distribution unit 40 from the data selection unit 38 is selected.
  • the header number M may be missing.
  • the sound data is distributed to the client 5 side without packing the data.
  • the video based on the image data is ahead of the content of the sound based on the video, and the video and sound are not synchronized.
  • sound data that synchronizes with missing image data is deleted, there is a problem in that the content of power sound that can synchronize video and sound is skipped.
  • the sound collection timing and the imaging timing of the sound data and the image data output from the data selection unit 38 are synchronized with each other, and the sound content is skipped. Process to synchronize so that nothing happens.
  • the header number power of the image data output from the data selection unit 38 is 1, 2,-, 4, 5, ... If the header number of the sound data is 1, 2, 3, 4, 5, 6, ..., the sound with the header numbers 1 and 2 for the image data with the header number 1 Synchronize the data, and synchronize the sound data of header numbers 3 and 4 with the image data of header number 2.
  • Image data with header number 3 is missing force Sound data with header numbers 5 and 6 is synchronized with this part.
  • the sound data of header numbers 7 and 8 are synchronized with the image data of header number 4. In this way, the sound data and image data are synchronized.
  • Data is distributed from the data distribution unit 40 to the network 6 side through the communication interface 23.
  • the viewer software of the personal computer 7 of the client 5 is configured to continuously display the video based on the previous image data on the monitor until new image data is distributed. When image data is lost, nothing can be displayed on the monitor of the PC 7 so that it does not appear unnatural.
  • the visual software is configured in this way, the video data based on the image data with the header number 2 is displayed until the image data with the header number 2 is distributed and then the image data with the header number 4 is distributed. During this time, sound based on the sound data of header numbers 5 and 6 is reproduced.
  • the data distribution unit 40 simultaneously distributes data signals to these clients 5 when a plurality of clients 5 are accessing the camera server 3.
  • the USB connector 16 is supplied with a data signal having image data in digital format and sound data in digital format from the camera device 2 via the USB cable 4 and is input to the MCU 37.
  • the digital data signal input to the MCU 37 is configured to be output from the communication interface 23 to the network 6 as a digital data signal.
  • the camera server 3 outputs the digital data signal output from the camera device 2 to the network side as a digital signal, there is no signal deterioration. Further, it is not necessary to provide an AD conversion function for converting an analog signal into a digital signal in the camera server 3.
  • image data is transmitted using the TCP or UDP protocol in a half-duplex communication system. Sound data is transmitted by the TCP protocol or UDP protocol in a duplex communication system.
  • image data is converted into compressed image data in JPEG format in the camera device 2, and then transmitted to the camera server 3. From the data distribution unit 40, the image data is transmitted to the client through the communication interface 23. Delivered to 5. In this way, the image data is By converting the apparatus 2 to the JPEG format and sending the image data in the JPEG format to the camera server 3, the capacity of data transmitted from the camera apparatus 2 to the camera server 3 can be reduced. Therefore, it is possible to improve the transmission speed of image data in the camera server system 1. As a result, it is possible to increase the speed at which image data is sent to the client 5.
  • the conversion of the image data into the JPEG format is performed in the MCU 37 of the camera server 3, and in response to a request for transmission of the image data from the client 5, the JPEG format is used each time.
  • the speed of distributing the image data from the camera server 3 to the client 5 becomes slow.
  • the MCU 37 performs many processes related to the control of the camera device 2 and the communication with the client 5. Therefore, in addition to these processes, if an encoding function for JPEG conversion is provided, the load on the MCU 37 increases, the processing speed of the MCU 37 decreases, and the encoding processing speed for JPEG conversion also slows down. As a result, the transmission speed of the image data from the camera server 3 to the client 5 becomes slow.
  • JPEG conversion speed can be increased by performing JPEG conversion using the CPU 30 on the camera device 2 side, which has fewer processing items than the MCU 37 on the camera server 3 side.
  • the processing speed does not decrease, the processing speed of the data selection unit 38, the data distribution unit 40, etc. can be increased, and the image data is distributed to the client 5.
  • the processing speed can be increased.
  • the client 5 waits for the distribution to the other clients 5 to finish and stores the image data.
  • the delivery is not received and the delivery speed can be increased.
  • the JPEG encoder unit 32 is provided in the CPU 30 of the camera device 2, and a JPEG encoder 32A is connected to the camera server 3 side separately from the MCU 37 as shown in FIG. It may be provided between the connector 16 and the MCU 37, and the image data that has been subjected to JPEG conversion by the JPEG encoder 32A may be input to the MCU 37.
  • the JPEG encoder unit 32A is provided as a processing device different from the MCU 37 provided with the data selection unit 38, the data synchronization unit 39, the data distribution unit 40, and the like, so that the processing speed of the MCU 37 is not reduced. .
  • a dedicated JPEG encoder may be provided on the camera device 2 side separately from the CPU 30, and JPEG conversion may be performed by the JP EG encoder.
  • the audio encoder 35 reads the digital sound data input from the communication interface 23 to the camera server 3 from the MCU 37, converts the sound data into a sound signal that is an electrical signal, and outputs the sound signal to the speaker connector 22. For this reason, for example, by connecting a speaker or the like to the speaker connector 22, the sound data input from the communication interface 23 can be reproduced with the force S.
  • a camera device control signal for controlling the camera device 2 is transmitted from the camera server 3 to the camera device 2 via the USB cable 4.
  • This camera device control signal is generated by the device control unit 41 configured in the MCU 37, and controls, for example, the start and stop of the operation of the camera device 2, or the camera device 2 receives image data. That require the transmission of Also, for a command transmitted from the personal computer 7 on the client 5 side connected to the network to the camera server 3, the command is interpreted and a camera device control signal is transmitted to the camera device 2.
  • the device control unit 41 interprets the command and transmits a camera device control signal to the camera device 2.
  • the device controller 41 is connected to the camera In addition to device 2, if an external device is connected to GPIO, this external device is also controlled.
  • the microphone 13 incorporated in the camera device 2 is limited in size that can be used due to restrictions on the image sensor 25 and circuit configuration disposed in the housing 8, and has sufficient sound collecting power. You may not get. In such a case, the extension microphone 17 is connected to the microphone connector 18.
  • the MCU 37 When the MCU 37 recognizes that the extension microphone 17 is connected to the microphone connector 18, the MCU 37 transmits a camera device control signal for stopping the sound collection by the microphone 13 to the camera device 2. In response to the camera device control signal, the CPU 30 of the camera device 2 controls the sound processing unit 27 to stop generating sound data. Therefore, the power camera device 2 outputs data without sound data.
  • the sound signal is read from the microphone connector 18, and the sound processing unit 42 configured in the MCU 37 of the camera server 3 generates sound data in a digital format.
  • the sound data and the image data transmitted from the camera device 2 are supplied from the data distribution unit 40 to the communication interface 23 and distributed to the network 6.
  • the extension microphone 17 when the extension microphone 17 is connected, the sound is collected by the extension microphone 17 instead of the microphone 13 built in the camera device 2. Sound data suitable for the environment such as noise can be obtained and placed on the data for distribution.
  • the application of the camera server 3 sets the sound data of the microphone 13 sent from the USB cable 4 as a default sound input. ing. Thereafter, the application of the camera server 3 searches for the connection of the extension microphone 17 of the microphone connector 18.
  • the device control unit 41 transmits a camera device control signal for stopping the sound collection by the microphone 13 to the camera device 2. To do.
  • the application of the camera server 3 does not recognize the connection of the extension microphone 17, the sound data of the microphone 13 sent from the USB cable 4 is used as it is.
  • the determination by the data selection unit 38 may be performed based on other information instead of based on the header information added to the image data. For example, when image data is inspected for each header and noise data exceeding a predetermined level is detected, the image data of the header may not be transmitted to the network 6 side.

Abstract

It is possible to distribute image data having little noise to a client and reduce the video disturbance displayed at the client side. A camera server (3) distributes image data on an image captured by an imaging element (imaging sensor) (25) of a camera device (2) to a client (5) via a network (6). The camera server (3) includes data selection means (38) which outputs image data to the network (6) side if the image data is judged to be predetermined image data, and does not output the image data to the network (6) side if the image data is judged to be other than predetermined image data.

Description

明 細 書  Specification
カメラサーバおよびデータの処理方法  Camera server and data processing method
技術分野  Technical field
[0001] 本発明は、カメラサーバおよびデータの処理方法に関するものである。  The present invention relates to a camera server and a data processing method.
背景技術  Background art
[0002] 従来、撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットヮ ークを通じてクライアントに配信するためのカメラサーバが知られている(例えば、特 許文献 1参照)。力、かるカメラサーバは、カメラ装置から出力されるデータ信号を全て Conventionally, a camera server for distributing image data of an image captured by a camera device including an image sensor to a client via a network is known (for example, see Patent Document 1). The KARU Camera Server uses all the data signals output from the camera device.
、クライアント側に配信する構成となっている。 It is configured to be distributed to the client side.
[0003] 特許文献 1:特開 2005— 318412号公報  [0003] Patent Document 1: Japanese Patent Application Laid-Open No. 2005-318412
発明の開示  Disclosure of the invention
発明が解決しょうとする課題  Problems to be solved by the invention
[0004] しかしながら、カメラ装置から出力されるデータ信号には、画像データのデータ信号 ではない、ノイズのデータ信号が混在することがある。そのため、クライアントは、画像 データの他、ノイズのデータ信号についても配信されることになる。したがって、クライ アント側において、カメラサーバから送信されたデータに基づいて映像を表示する場 合に、ノイズのデータ信号により、映像に乱れが発生するという問題がある。  However, a data signal output from the camera device may include a noise data signal that is not a data signal of image data. Therefore, the client is distributed not only for image data but also for a noise data signal. Therefore, when displaying a video on the client side based on the data transmitted from the camera server, there is a problem that the video is disturbed by a data signal of noise.
[0005] そこで、本発明は、クライアントに、ノイズの少ない画像データを配信し、クライアント 側で表示される映像の乱れを少なくするカメラサーバおよびデータの処理方法を提 供することを目的とする。  [0005] Accordingly, an object of the present invention is to provide a camera server and a data processing method for distributing image data with less noise to a client and reducing disturbance of an image displayed on the client side.
課題を解決するための手段  Means for solving the problem
[0006] 上述の課題を解決するため、撮像素子を備えるカメラ装置により撮像された画像の 画像データを、ネットワークを通じてクライアントに配信するカメラサーバにおいて、画 像データが、所定の画像データであるか否かを判断し、画像データが、所定の画像 データであると判断された画像データについては、ネットワーク側に出力し、画像デ 一タカ 所定の画像データでないと判断されたデータについては、ネットワーク側に 出力しないデータ選択手段を備えることとする。 [0007] このように構成した場合には、クライアントに対してノイズの少ない画像データを配 信することができるので、クライアントは、ノイズの少ない画像データを得ることができ [0006] In order to solve the above-mentioned problem, whether or not the image data is predetermined image data in a camera server that distributes image data of an image captured by a camera device including an image sensor to a client via a network. If the image data is determined to be predetermined image data, the image data is output to the network side. If the image data is determined not to be predetermined image data, the image data is output to the network side. Data selection means not to output is provided. In such a configuration, image data with less noise can be delivered to the client, so that the client can obtain image data with less noise.
[0008] また、他の発明は、上述の発明に加え、データ選択手段は、画像データに付加さ れるヘッダの情報に基づ!/、て、所定の画像データであるか否かを判断することとする [0008] In addition to the above-described invention, in another invention, the data selecting means determines whether or not the image data is predetermined based on information of a header added to the image data! To do
[0009] このように構成した場合には、所定の画像データであるかどうかを容易に判断する こと力 Sでさる。 In such a configuration, the force S can be used to easily determine whether the image data is predetermined.
[0010] また、他の発明は、上述の発明に加え、カメラサーバは、画像データに加えて音デ ータが入力されたときに、画像データと音データのヘッダ情報に基づいて、画像デー タと音データの同期をとるデータ同期手段を備え、データ同期手段は、データ選択 手段により、所定の画像データでないと判断されたデータ部分に対しても、音データ の所定の音データを同期させることとする。  [0010] In addition to the above-described invention, in another invention, the camera server receives image data based on header information of image data and sound data when sound data is input in addition to the image data. Data synchronization means for synchronizing the sound data with the sound data, and the data synchronization means synchronizes the predetermined sound data of the sound data with the data portion determined by the data selection means to be not the predetermined image data. I will do it.
[0011] このように構成した場合には、クライアントに対してノイズの少ない画像データを配 信することができるので、クライアントは、ノイズの少ない画像データを得ることができ る。音データについては、配信されなかった画像データに同期する音データも配信さ れる。そのため、クライアントは、集音された音を途切れることなく聴くことができる。  In such a configuration, image data with less noise can be delivered to the client, so that the client can obtain image data with less noise. As for sound data, sound data synchronized with image data that has not been distributed is also distributed. Therefore, the client can listen to the collected sound without interruption.
[0012] 上述の課題を解決するため、撮像素子を備えるカメラ装置により撮像された画像の 画像データを、ネットワークを通じてクライアントに配信するデータの処理方法におい て、画像データが、所定の画像データであるか否かを判断し、画像データが、所定の 画像データであると判断された画像データについては、ネットワーク側に出力し、画 像データが、所定の画像データでないと判断されたデータについては、ネットワーク 側に出力しないこととする。  [0012] In order to solve the above-described problem, in a data processing method for distributing image data of an image captured by a camera device including an image sensor to a client via a network, the image data is predetermined image data. If the image data is determined to be the predetermined image data, the image data is output to the network side, and the image data determined not to be the predetermined image data is Do not output to the network side.
[0013] このように構成した場合には、クライアントに対してノイズの少ない画像データを配 信することができるので、クライアントは、ノイズの少ない画像データを得ることができ  [0013] With such a configuration, image data with less noise can be delivered to the client, so the client can obtain image data with less noise.
[0014] また、他の発明は、上述の発明に加え、画像データが、所定の画像データであるか 否かの判断は、画像データに付加されるヘッダの情報に基づいて行なうこととする。 [0015] このように構成した場合には、所定の画像データであるかどうかを容易に判断する こと力 Sでさる。 [0014] In addition to the above-mentioned invention, in another invention, whether or not the image data is predetermined image data is determined based on header information added to the image data. [0015] In the case of such a configuration, the force S can be used to easily determine whether the image data is predetermined.
[0016] 上述の課題を解決するため、撮像素子を備えるカメラ装置により撮像された画像の 画像データと、マイクロフォンにより集音した音の音データとを、ネットワークを通じて クライアントに配信するデータ処理方法において、画像データについては、所定の画 像データであるか否かを判断し、画像データが、所定の画像データであると判断され た画像データについては、ネットワーク側に出力し、画像データが、所定の画像デー タでないと判断されたデータについては、ネットワーク側に出力しない処理を行い、 音データとネットワーク側に出力された画像データとを、それぞれのデータに付加さ れているヘッダ情報に基づいて、互いに同期させ、所定の画像データでないと判断 されたデータ部分に対しても、音データの所定の音データを同期させることとする。  In order to solve the above-described problem, in a data processing method for distributing image data of an image captured by a camera device including an image sensor and sound data of sound collected by a microphone to a client via a network, For the image data, it is determined whether or not the image data is predetermined image data. The image data determined to be the predetermined image data is output to the network side, and the image data is determined to be the predetermined image data. Data that is determined not to be image data is processed not to be output to the network side, and the sound data and the image data output to the network side are processed based on the header information added to each data. The predetermined sound data of the sound data is also applied to the data portion that is synchronized with each other and is determined not to be the predetermined image data. And to synchronize the data.
[0017] このように構成した場合には、クライアントに対してノイズの少ない画像データを配 信することができるので、クライアントは、ノイズの少ない画像データを得ることができ る。音データについては、配信されなかった画像データに同期する音データも配信さ れる。そのため、クライアントは、集音された音を途切れることなく聴くことができる。 発明の効果  When configured in this manner, image data with less noise can be delivered to the client, so that the client can obtain image data with less noise. As for sound data, sound data synchronized with image data that has not been distributed is also distributed. Therefore, the client can listen to the collected sound without interruption. The invention's effect
[0018] 本発明によれば、クライアントに、ノイズの少ない画像データを配信でき、クライアン ト側で表示される映像の乱れを少なくすることができる。  [0018] According to the present invention, it is possible to distribute image data with less noise to a client, and to reduce disturbance of video displayed on the client side.
図面の簡単な説明  Brief Description of Drawings
[0019] [図 1]本発明の実施の形態に係るカメラサーバシステムの構成を示す図である。  FIG. 1 is a diagram showing a configuration of a camera server system according to an embodiment of the present invention.
[図 2]図 1に示すカメラサーバシステムにおけるカメラ装置の電気回路を示すブロック 図である。  2 is a block diagram showing an electric circuit of a camera device in the camera server system shown in FIG.
[図 3]図 1に示すカメラサーバシステムにおけるカメラサーバの電気回路を示すブロッ ク図である。  3 is a block diagram showing an electric circuit of a camera server in the camera server system shown in FIG.
符号の説明  Explanation of symbols
[0020] 1 · · · カメラサーバシステム [0020] 1 · · · Camera server system
2 · · · カメラ装置  2 · · · Camera equipment
3 · · · カメラサーバ 6 · · · ネットワーク 3 · · · Camera server 6 · · · Network
25 · · · イメージセンサ(撮像素子)  25 · · · Image sensor
38 · · · データ選択部(データ選択手段)  38 · · · Data selection part (data selection means)
39 · · · データ同期部(データ同期手段)  39 · · · Data synchronization part (data synchronization means)
発明を実施するための最良の形態  BEST MODE FOR CARRYING OUT THE INVENTION
[0021] 以下、本発明の実施の形態に係るカメラサーバおよびデータの処理方法を図面に 基づいて説明する。 Hereinafter, a camera server and a data processing method according to an embodiment of the present invention will be described with reference to the drawings.
[0022] 図 1は、本発明の実施の形態に係るカメラサーバシステム 1を示すシステム構成図 である。カメラサーバシステム 1は、カメラ装置 2およびカメラサーバ 3を有する。カメラ 装置 2とカメラサーバ 3とは、 USB (Universal Serial Bus)ケーブル 4により接続さ れている。カメラサーバシステム 1とクライアント 5とは、ネットワーク 6を介して接続され 、カメラサーバシステム 1は、クライアント 5側のパソコン 7からの指令を受ける。カメラ サーバ 3は、パソコン 7から受けた指令に基づいて、カメラ装置 2により撮像した画像 の画像データをパソコン 7 (クライアント 5)に配信する。なお、クライアント 5は、 1また は複数存在し、カメラサーバシステム 1は、それぞれのクライアント 5に対して、各クラ イアント 5からの要求に従って、該画像データを配信する。  FIG. 1 is a system configuration diagram showing a camera server system 1 according to an embodiment of the present invention. The camera server system 1 includes a camera device 2 and a camera server 3. The camera device 2 and the camera server 3 are connected by a USB (Universal Serial Bus) cable 4. The camera server system 1 and the client 5 are connected via the network 6, and the camera server system 1 receives a command from the personal computer 7 on the client 5 side. The camera server 3 distributes image data of an image captured by the camera device 2 to the personal computer 7 (client 5) based on a command received from the personal computer 7. One or a plurality of clients 5 exist, and the camera server system 1 distributes the image data to each client 5 in accordance with a request from each client 5.
[0023] カメラ装置 2は、立方体形状のハウジング 8を有する。ハウジング 8には、魚眼レンズ  The camera device 2 has a cubic-shaped housing 8. Housing 8 has a fisheye lens
9、 USBコネクタ 10、オーディオ 'ビデオ出力コネクタ 11、音出力コネクタ 12等が設 けられる。魚眼レンズ 9は、ハウジング 8の上面に配設される。また、ハウジング 8の上 面には、魚眼レンズ 9の他、マイクロフォン 13 (図 2参照)用の通気孔 14が形成される 。 USBコネクタ 10、オーディオ.ビデオ出力コネクタ 11および音出力コネクタ 12は、 ハウジング 8の側面に配設される。  9, USB connector 10, audio 'video output connector 11, sound output connector 12, etc. The fisheye lens 9 is disposed on the upper surface of the housing 8. In addition to the fisheye lens 9, a ventilation hole 14 for the microphone 13 (see FIG. 2) is formed on the upper surface of the housing 8. The USB connector 10, the audio / video output connector 11 and the sound output connector 12 are arranged on the side surface of the housing 8.
[0024] カメラサーバ 3は、直方体形状のハウジング 15を有する。ハウジング 15には、カメラ 装置 2からのデータが入力する入力端子である入力部としての USBコネクタ 16、必 要に応じて適宜に利用する拡張マイクロフォン 17が接続されるマイクロフォンコネクタ 18、赤外線センサ等の外部機器を接続するための汎用入出力ポート(GPIO : Gene ral Purpose Input Output) 19、オーディオ信号を出力するオーディオ出力コ ネクタ 20、ビデオ信号を出力するビデオ出力コネクタ 21、スピーカが接続されるスピ 一力コネクタ 22、ネットワークに接続される通信インターフェース 23、およびリセットス イッチを兼ねる電源スィッチ 24等が設けられる。 The camera server 3 has a rectangular parallelepiped housing 15. The housing 15 includes a USB connector 16 as an input unit that is an input terminal for inputting data from the camera device 2, a microphone connector 18 to which an expansion microphone 17 to be used as needed is connected, an infrared sensor, and the like. General purpose input / output port (GPIO) 19 for connecting external equipment, audio output connector 20 for outputting audio signals, video output connector 21 for outputting video signals, and speakers to which speakers are connected A single connector 22, a communication interface 23 connected to the network, a power switch 24 that also serves as a reset switch, and the like are provided.
[0025] 図 2は、カメラ装置 2の電気回路を示すブロック図である。 FIG. 2 is a block diagram showing an electric circuit of the camera device 2.
[0026] カメラ装置 2は、魚眼レンズ 9、 USBコネクタ 10、オーディオ 'ビデオ出力コネクタ 11 、音出力コネクタ 12の他に、マイクロフォン 13、撮像素子としてイメージセンサ 25、 F PGA (Field Programable Gate Array)により構成される色変換処理部 26、音 I C (Integrated Circuit)により構成される音処理部 27、オーディオ 'ビデオェンコ ーダ 28、ストリーミング生成部 29、および上述の各構成部分の動作の制御を司る CP U (Central Processing Unit) 30等を有する。  [0026] The camera device 2 includes a fisheye lens 9, a USB connector 10, an audio 'video output connector 11, a sound output connector 12, a microphone 13, an image sensor 25 as an image sensor, and an F PGA (Field Programmable Gate Array). Color conversion processing unit 26, sound processing unit 27 composed of sound IC (Integrated Circuit) 27, audio 'video encoder 28, streaming generation unit 29, and CPU (CCU) that controls the operation of each of the above components Central Processing Unit) 30 etc.
[0027] マイクロフォン 13は、 カメラ装置 2の周囲の音声や音を集音する。マイクロフォン 13 は、集音した音に応じた電気信号である音信号を生成し、音処理部 27に出力する。 音処理部 27では、マイクロフォン 13からの電気信号に基づきデジタル形式の音デー タを生成する。なお、音処理部 27は、音出力コネクタ 12に対しては、マイクロフォン 1 3からの音声に応じた電気信号を音データ(デジタル形式)に変換することなく出力 する。そのため、音出力コネクタ 12に、例えば、スピーカ、ヘッドホン等を接続するこ とにより、マイクロフォン 13で集音した音を聞くことができる。  The microphone 13 collects sounds and sounds around the camera device 2. The microphone 13 generates a sound signal that is an electrical signal corresponding to the collected sound and outputs the sound signal to the sound processing unit 27. The sound processing unit 27 generates digital sound data based on the electrical signal from the microphone 13. The sound processing unit 27 outputs an electrical signal corresponding to the sound from the microphone 13 to the sound output connector 12 without converting it into sound data (digital format). Therefore, the sound collected by the microphone 13 can be heard by connecting, for example, a speaker, headphones or the like to the sound output connector 12.
[0028] イメージセンサ 25には、例えば、 CMOS (Complementary Metal - Oxide Se miconductor)等を用いる。イメージセンサ 25には、魚眼レンズ 9による像が結像す る。イメージセンサ 25は、撮像信号である輝度分布データをデジタル形式の画像デ ータとして、色変換処理部 26に出力する。本実施の形態においては、イメージセン サ 25は、例えば、毎秒、 1/15フレームの撮像速度で撮像を行うものとする。したが つて、イメージセンサ 25からは、 1/15秒毎に 1フレーム分の画像データが出力され ることになる。  [0028] For the image sensor 25, for example, a CMOS (Complementary Metal-Oxide Semiconductor) or the like is used. An image by the fisheye lens 9 is formed on the image sensor 25. The image sensor 25 outputs luminance distribution data, which is an imaging signal, to the color conversion processing unit 26 as digital image data. In the present embodiment, it is assumed that the image sensor 25 performs imaging at an imaging speed of 1/15 frames per second, for example. Therefore, one frame of image data is output from the image sensor 25 every 1/15 second.
[0029] 色変換処理部 26は、図示外の色変換テーブルを用いて、輝度分布データの各画 素のデータを置き換え、デジタル形式の画像データを生成する。生成された画像デ ータは、 CPU30により形成されるヘッダ付加部 31により、フレーム毎にヘッダが付加 される。ヘッダには、撮像順序に従って、連続番号であるヘッダ番号 M (M= 1 , 2, 3 , · · ·)が付与される。 [0030] CPU30には、画像データを JPEG (Joint Photographic Experts Group)开$ 式の圧縮画像データに変換するエンコーダとしての JPEGエンコーダ部 32が構成さ れている。画像データは、 JPEGエンコーダ部 32により、 JPEG形式の画像データに 変換される際に、ヘッダに、データの内容力 SJPEG変換された画像データである旨の 情報が付与される。 [0029] The color conversion processing unit 26 replaces the data of each pixel of the luminance distribution data using a color conversion table (not shown) to generate digital image data. The generated image data is added with a header for each frame by a header adding unit 31 formed by the CPU 30. A header number M (M = 1, 2, 3,...), Which is a serial number, is assigned to the header according to the imaging order. The CPU 30 is configured with a JPEG encoder section 32 as an encoder that converts image data into JPEG (Joint Photographic Experts Group) open-type compressed image data. When the image data is converted into JPEG format image data by the JPEG encoder unit 32, information indicating that the data has been subjected to SJPEG conversion is added to the header.
[0031] ところで、イメージセンサ 25からは画像データ以外のノイズデータが出力されたり、 あるいは、イメージセンサ 25と JPEGエンコーダ部 32との間でノイズデータが混在す ること力 Sある。 JPEGエンコーダ部 32では、 JPEGエンコーダ部 32に入力されたデー タカ 画像データである場合には、 JPEG形式の画像データに変換すると共に、へッ ダに、ヘッダが付加されているデータ力 SJPEG形式の画像データである旨の情報を付 与する。  [0031] Incidentally, noise data other than image data is output from the image sensor 25, or noise data is mixed between the image sensor 25 and the JPEG encoder unit 32. In the JPEG encoder unit 32, when the data is image data input to the JPEG encoder unit 32, the data is converted into JPEG format image data, and the header is added to the header. Gives information that it is image data.
[0032] これに対し、 JPEGエンコーダ部 32は、変換しょうとするデータが画像データでない 場合は、 JPEG形式の画像データに変換しない。すなわち、 JPEGエンコーダ部 32に 、イメージセンサ 25から出力された画像データとして入力されるデータのうち、画像 データでなレゾィズデータにつ!/、ては、 JPEG形式の画像データに変換されなレ、ため 、ヘッダに、 JPEG形式の画像データである旨の情報は付与されない。なお、 JPEG エンコーダ部 32は、画像データ中に、所定以上のノイズデータが含まれているときは 、 JPEG形式の画像データに変換しな!/、ように構成してもよ!/、。  On the other hand, when the data to be converted is not image data, the JPEG encoder unit 32 does not convert the image data into JPEG format image data. That is, of the data input as image data output from the image sensor 25 to the JPEG encoder unit 32, the resolution data is not image data! /, And is not converted to JPEG image data. In the header, information indicating that the image data is in JPEG format is not added. The JPEG encoder unit 32 may be configured so as not to convert the image data into JPEG format data if the image data includes noise data exceeding a predetermined level! /.
[0033] したがって、ヘッダ情報に基づいて、ヘッダが付加されているデータの内容が、画 像データか、ノイズデータかを判断することができる。  [0033] Therefore, based on the header information, it can be determined whether the content of the data to which the header is added is image data or noise data.
[0034] 音データについても、ヘッダ付加部 31により所定単位のデータ量で、ヘッダが付加 される。例えば、本実施の形態では、 1/30秒単位のデータ長毎に、音データにへッ ダが付加される。音データのヘッダには、ヘッダが付加されたデータが音データであ る旨の情報と、時間の経過に従った連続した番号であるヘッダ番号 N (N= 1 , 2, 3, · · ·)の情報が付与される。  [0034] Also for sound data, a header is added by the header adding unit 31 in a predetermined amount of data. For example, in the present embodiment, a header is added to sound data for each data length of 1/30 second. The header of the sound data includes information that the data with the header added is sound data, and a header number N (N = 1, 2, 3, ... ) Information is given.
[0035] 画像データが毎秒 15フレームのデータ量であるのに対し、音データは、 1/30秒 単位のデータ量である。したがって、 1フレームの画像データに対して、 2単位分(1 /30秒 X 2)の音データが対応することになる。 [0036] 画像データと音データとは、ヘッダ番号に基づ!/、て、撮像時と集音時のタイミングが 互いに同期させられている状態で、 CPU30から、ストリーミング生成部 29に対して出 力される。例えば、画像データのヘッダ番号 Mが、 1 , 2, 3, 4, 5,…であり、音デー タのヘッダ番号 N力 1 , 2, 3, 4, 5, 6, 7, 8, 9, 10,…であるとする。そうすると、へ ッダ番号 M= lの画像データに対して、ヘッダ番号 N= l , 2の音データが対応し、へ ッダ番号 M= lの画像データとヘッダ番号 N= l , 2の音データとは時間的タイミング が同期しているデータとなる。また、同様に、ヘッダ番号 M = 2の画像データと、へッ ダ番号 N = 3, 4の音データとは、時間的タイミングが同期しているデータとなる。つま り、ヘッダ番号 Mの画像データと、ヘッダ番号 N = 2M— 1 , 2Mの音データとが、撮 像と集音された時間的タイミングが同期しているデータとなっている。 [0035] Whereas image data has a data amount of 15 frames per second, sound data has a data amount of 1/30 second. Therefore, one unit of image data corresponds to two units (1/30 seconds x 2) of sound data. [0036] The image data and the sound data are output from the CPU 30 to the streaming generation unit 29 in a state where the timing at the time of imaging and the time of sound collection are synchronized with each other based on the header number! It is powered. For example, the header number M of the image data is 1, 2, 3, 4, 5, ..., and the header number N of the sound data is 1, 2, 3, 4, 5, 6, 7, 8, 9, Let's say 10, ... Then, the sound data of header number N = l, 2 corresponds to the image data of header number M = l, and the image data of header number M = l and the sound of header number N = l, 2 Data is data with synchronized timing. Similarly, the image data with the header number M = 2 and the sound data with the header numbers N = 3 and 4 are data with synchronized timing. In other words, the image data of the header number M and the sound data of the header numbers N = 2M— 1 and 2M are data in which the time of the captured image and the collected sound are synchronized.
[0037] ストリーミング生成部 29は、 CPU30から出力される画像データおよび音データを読 み込み、これらのコンテンツデータを有するデータをストリーミングデータとして生成 する。ストリーミング生成部 29は、生成したデジタル形式のデータ信号を通信処理部 33に供給し、 USBコネクタ 10から USBケーブル 4を介して、カメラサーバ 3に送信す  [0037] The streaming generation unit 29 reads the image data and sound data output from the CPU 30, and generates data having these content data as streaming data. The streaming generation unit 29 supplies the generated digital format data signal to the communication processing unit 33, and transmits it from the USB connector 10 to the camera server 3 via the USB cable 4.
[0038] このように画像データおよび音データのコンテンツデータを有するデータを生成し、 このデジタル形式のデータを、 USBケーブル 4を介してカメラサーバ 3に送る。これに より、デジタル形式の画像データを、アナログ形式のデータ信号に変換することなぐ カメラサーバ 3 送信することができる。 In this way, data having content data of image data and sound data is generated, and the data in the digital format is sent to the camera server 3 via the USB cable 4. As a result, the image data in the digital format can be transmitted to the camera server 3 without being converted into the data signal in the analog format.
[0039] オーディオ 'ビデオエンコーダ 28は、色変換処理部 26から出力された画像データ を、 JPEG形式の画像データに変換することなく読み込み、 NTSC (National TV standards Committee)方式1 - PAL (Phase Alternating Line)方式のヒ ォ信号を生成する。また、オーディオ 'ビデオエンコーダ 28は、デジタル形式の音デ ータを電気信号である音信号に変換する。そして、ビデオ信号と音信号と共に、ォー ディォ 'ビデオ出力コネクタ 11 出力する。 [0039] Audio 'The video encoder 28 reads the image data output from the color conversion processing unit 26 without converting it to JPEG format image data, and NTSC (National TV standards Committee) method 1 -PAL (Phase Alternating Line ) Method high signal. The audio / video encoder 28 converts the sound data in the digital format into a sound signal that is an electrical signal. The video output connector 11 outputs the video signal and the sound signal together.
[0040] 図 3は、カメラサーバ 3の電気回路を示すブロック図である。  FIG. 3 is a block diagram showing an electric circuit of the camera server 3.
[0041] カメラサーバ 3は、 USBコネクタ 16、拡張マイクロフォン 17が接続されるマイクロフォ ンコネクタ 18、赤外線センサ等の外部機器が接続される汎用入出力ポート 19、ォー ディォ出力コネクタ 20、ビデオ出力コネクタ 21、スピーカコネクタ 22、通信インターフ エース 23、電源スィッチ 24の他、オーディオ 'ビデオ入力コネクタ 34、オーディオェ ンコーダ 35、メモリ 36、および上述の各構成部分の動作の制御を司る制御手段とし ての MCU (Microcontroller Unit) 37を有する。 [0041] The camera server 3 includes a USB connector 16, a microphone connector 18 to which an extension microphone 17 is connected, a general-purpose input / output port 19 to which an external device such as an infrared sensor is connected, Audio output connector 20, video output connector 21, speaker connector 22, communication interface 23, power switch 24, audio 'video input connector 34, audio encoder 35, memory 36, and control of the above components MCU (Microcontroller Unit) 37 as a control means for managing
[0042] MCU37には、データ選択手段であるデータ選択部 38、データ同期手段であるデ ータ同期部 39、およびデータ配信手段であるデータ配信部 40等が構成されている。 これらデータ選択部 38、データ同期部 39、およびデータ配信部 40は、メモリ 36に記 憶されている制御プログラム力 MCU37読み込まれることにより、機能的に実現され The MCU 37 includes a data selection unit 38 that is a data selection unit, a data synchronization unit 39 that is a data synchronization unit, a data distribution unit 40 that is a data distribution unit, and the like. The data selection unit 38, the data synchronization unit 39, and the data distribution unit 40 are functionally realized by reading the control program power MCU 37 stored in the memory 36.
[0043] データ選択部 38は、カメラ装置 2から送信されてきた画像データについて、各フレ ームの画像データのヘッダ情報に基づいて、画像データの内容を判断する。上述し たように、ヘッダには、ヘッダ内のデータ力 JPEG変換された画像データである場合 には、その旨の情報が付与され、ヘッダ内のデータが、ノイズデータである場合には 、該情報は付与されていない。つまり、データ選択部 38では、ヘッダ情報に基づいて 、ヘッダ毎のデータの内容が所定の画像データであるか、所定の画像データ以外の データであるかを判断する。 The data selection unit 38 determines the content of the image data transmitted from the camera device 2 based on the header information of the image data of each frame. As described above, in the case of image data that has been subjected to JPEG conversion in the data power in the header, information to that effect is given to the header, and in the case where the data in the header is noise data, the header No information is given. That is, the data selection unit 38 determines whether the content of the data for each header is predetermined image data or data other than the predetermined image data based on the header information.
[0044] そして、データ選択部 38は、この判断結果に基づいて、データ同期部 39に出力す るデータを取捨選択する。すなわち、データ選択部 38により、データの内容が所定 の画像データであると判断された場合には、この画像データは、データ同期部 39お よびデータ配信部 40を介して、通信インターフェース部 23から、ネットワーク 6を通じ てクライアント 5のパソコン 7に配信される。一方、所定の画像データでないデータに ついては、データ同期部 39側への出力は行われない。  Then, the data selection unit 38 selects data to be output to the data synchronization unit 39 based on the determination result. That is, when the data selection unit 38 determines that the content of the data is predetermined image data, the image data is transmitted from the communication interface unit 23 via the data synchronization unit 39 and the data distribution unit 40. Then, it is distributed to the personal computer 7 of the client 5 through the network 6. On the other hand, data that is not predetermined image data is not output to the data synchronization unit 39 side.
[0045] このように、データ選択部 38を備え、所定の画像データでな!/、データを、クライアン ト 5側に配信しないようにすることにより、クライアント 5側に配信される画像データには 、ノイズのデータが含まれないようになる。そのため、クライアント 5のパソコン 7のモニ タに表示される映像は、ノイズの少ない綺麗な映像となる。また、ノイズデータは、送 信されないため、カメラサーバ 3からクライアント 5へ送信するデータ量が少なくなり、 カメラサーバ 3からクライアント 5への画像データの送信速度を早くすることができる。 [0046] 一方、音データについては、画像データのように取捨選択されていないため、全て の音データが、データ同期部 39およびデータ配信部 40を介して、通信インターフエ ース部 23から、ネットワーク 6を通じてクライアント 5のパソコン 7に配信される。クライア ント 5側においては、パソコン 7に内蔵等するスピーカから、マイクロフォン 13により集 音した、音声等の音を聞くことができる。 [0045] In this manner, the image data distributed to the client 5 side can be obtained by providing the data selection unit 38 and not distributing the predetermined image data! / To the client 5 side. , Noise data will not be included. For this reason, the video displayed on the monitor of the personal computer 7 of the client 5 is a beautiful video with little noise. Since noise data is not transmitted, the amount of data transmitted from the camera server 3 to the client 5 is reduced, and the transmission speed of image data from the camera server 3 to the client 5 can be increased. On the other hand, since the sound data is not selected as in the case of image data, all the sound data is transmitted from the communication interface unit 23 via the data synchronization unit 39 and the data distribution unit 40. It is distributed to the personal computer 7 of the client 5 through the network 6. On the client 5 side, sound such as voice collected by the microphone 13 can be heard from a speaker built in the personal computer 7 or the like.
[0047] ところで、音データについては、画像データのように取捨選択されないため、データ 選択部 38からデータ配信部 40に入力する音データのヘッダ番号 Nは、欠損のない 連続番号となっている。これに対し、上述したように、画像データについては、データ 選択部 38において、データ配信部 40に出力するデータを取捨選択するため、デー タ選択部 38からデータ配信部 40に入力する画像データのヘッダ番号 Mには、欠損 が生じている場合がある。  [0047] By the way, since the sound data is not selected as in the case of image data, the header number N of the sound data input from the data selection unit 38 to the data distribution unit 40 is a continuous number without any loss. On the other hand, as described above, with respect to the image data, the data selection unit 38 selects the data to be output to the data distribution unit 40, and therefore the image data input to the data distribution unit 40 from the data selection unit 38 is selected. The header number M may be missing.
[0048] したがって、例えば、画像データについては、ヘッダ番号 Mが欠損した部分の画像 データを詰めて配信し、音データについては、データを詰めることなぐクライアント 5 側に配信した場合には、音データに基づく音の内容に対して、画像データに基づく 映像が先走る状態となり、映像と音とが同期しなくなってしまう。また、例えば、欠損し た画像データと同期する音データを削除すれば、映像と音とを同期させることができ る力 音の内容に飛びを生じるという問題がある。  Therefore, for example, for image data, when the image data of the portion in which the header number M is missing is packed and distributed, and for sound data, the sound data is distributed to the client 5 side without packing the data. As a result, the video based on the image data is ahead of the content of the sound based on the video, and the video and sound are not synchronized. In addition, for example, if sound data that synchronizes with missing image data is deleted, there is a problem in that the content of power sound that can synchronize video and sound is skipped.
[0049] そこで、データ同期部 39において、音データとデータ選択部 38から出力された画 像データとを、集音タイミングと撮像タイミングが互いに同期していると共に、音の内 容に飛びを生じることのないように同期させる処理をする。  [0049] Therefore, in the data synchronization unit 39, the sound collection timing and the imaging timing of the sound data and the image data output from the data selection unit 38 are synchronized with each other, and the sound content is skipped. Process to synchronize so that nothing happens.
[0050] 具体的には、例えば、データ選択部 38から出力した画像データのヘッダ番号力 1 , 2,―, 4, 5, …(ヘッダ番号 3の画像データについては、ノイズデータであったため 欠損している。)であり、音データのヘッダ番号が 1 , 2, 3, 4, 5, 6,…である場合に は、ヘッダ番号 1の画像データに対してはヘッダ番号 1 , 2の音データを同期させ、へ ッダ番号 2の画像データに対してはヘッダ番号 3, 4の音データを同期させる。ヘッダ 番号 3の画像データは欠損している力 この部分には、ヘッダ番号 5, 6の音データを 同期させる。そして、ヘッダ番号 4の画像データに対してはヘッダ番号 7, 8の音デー タを同期させることになる。このように、音データと画像データの同期を取った状態で 、データ配信部 40から通信インターフェース 23を通ってネットワーク 6側にデータが 配信される。 [0050] Specifically, for example, the header number power of the image data output from the data selection unit 38 is 1, 2,-, 4, 5, ... If the header number of the sound data is 1, 2, 3, 4, 5, 6, ..., the sound with the header numbers 1 and 2 for the image data with the header number 1 Synchronize the data, and synchronize the sound data of header numbers 3 and 4 with the image data of header number 2. Image data with header number 3 is missing force Sound data with header numbers 5 and 6 is synchronized with this part. The sound data of header numbers 7 and 8 are synchronized with the image data of header number 4. In this way, the sound data and image data are synchronized. Data is distributed from the data distribution unit 40 to the network 6 side through the communication interface 23.
[0051] クライアント 5側では、画像データの欠損しているヘッダ番号 3の部分については、 音データのみが配信され、パソコン 7のスピーカからは、ヘッダ番号 5, 6の音データ に基づく音が再生されることになる。  [0051] On the client 5 side, only the sound data is distributed for the portion of header number 3 where the image data is missing, and the sound based on the sound data of header numbers 5 and 6 is played from the speaker of the personal computer 7 Will be.
[0052] なお、クライアント 5のパソコン 7のビユアソフトを、新たな画像データが配信されるま では、モニタに、直前の画像データに基づく映像を継続して表示するように構成して おくことにより、画像データが欠損した場合に、パソコン 7のモニタに何も表示されな い不自然な状態にならないようにすることができる。ビユアソフトをこのように構成した 場合には、ヘッダ番号 2の画像データが配信され、その後、ヘッダ番号 4の画像デー タが配信されるまでの間は、ヘッダ番号 2の画像データに基づく映像が表示され、こ の間、ヘッダ番号 5, 6の音データに基づく音が再生されることになる。  [0052] It should be noted that the viewer software of the personal computer 7 of the client 5 is configured to continuously display the video based on the previous image data on the monitor until new image data is distributed. When image data is lost, nothing can be displayed on the monitor of the PC 7 so that it does not appear unnatural. When the visual software is configured in this way, the video data based on the image data with the header number 2 is displayed until the image data with the header number 2 is distributed and then the image data with the header number 4 is distributed. During this time, sound based on the sound data of header numbers 5 and 6 is reproduced.
[0053] なお、データ配信部 40は、複数のクライアント 5が、カメラサーバ 3にアクセスしてい る場合には、これらのクライアント 5に対してデータ信号を同時配信する。  Note that the data distribution unit 40 simultaneously distributes data signals to these clients 5 when a plurality of clients 5 are accessing the camera server 3.
[0054] ところで、 USBコネクタ 16には、カメラ装置 2から USBケーブル 4を介して、デジタ ル形式の画像データおよびデジタル形式の音データを有するデータ信号が供給さ れ、 MCU37に入力する。 MCU37に入力されたデジタル形式のデータ信号は、デ ジタル形式のデータ信号として通信インターフェース 23からネットワーク 6に出力する ように構成されている。  By the way, the USB connector 16 is supplied with a data signal having image data in digital format and sound data in digital format from the camera device 2 via the USB cable 4 and is input to the MCU 37. The digital data signal input to the MCU 37 is configured to be output from the communication interface 23 to the network 6 as a digital data signal.
[0055] したがって、カメラサーバ 3は、カメラ装置 2から出力されたデジタル形式のデータ信 号を、デジタル形式の信号のままネットワーク側に出力するため、信号の劣化が無い 。また、カメラサーバ 3内にアナログ信号をデジタル信号に変換する AD変換機能を 持たせる必要がない。なお、画像データは、半二重通信方式で TCPプロトコルまた は UDPプロトコルにてデータ伝送される。音データは、二重通信方式で、 TCPプロト コルまたは UDPプロトコルにてデータ伝送される。  Therefore, since the camera server 3 outputs the digital data signal output from the camera device 2 to the network side as a digital signal, there is no signal deterioration. Further, it is not necessary to provide an AD conversion function for converting an analog signal into a digital signal in the camera server 3. Note that image data is transmitted using the TCP or UDP protocol in a half-duplex communication system. Sound data is transmitted by the TCP protocol or UDP protocol in a duplex communication system.
[0056] 上述したように、画像データは、カメラ装置 2において、 JPEG形式の圧縮画像デー タに変換された後、カメラサーバ 3に送信され、データ配信部 40から、通信インターフ エース 23を通して、クライアント 5に対して配信される。このように、画像データをカメラ 装置 2において JPEG形式に変換し、 JPEG形式の画像データをカメラサーバ 3に送 るように構成することにより、カメラ装置 2からカメラサーバ 3に送信するデータの容量 を減らすことができる。このため、カメラサーバシステム 1における画像データの送信 速度の向上を図ることができる。ひいては、画像データをクライアント 5に送信する速 さを速くすること力でさる。 [0056] As described above, image data is converted into compressed image data in JPEG format in the camera device 2, and then transmitted to the camera server 3. From the data distribution unit 40, the image data is transmitted to the client through the communication interface 23. Delivered to 5. In this way, the image data is By converting the apparatus 2 to the JPEG format and sending the image data in the JPEG format to the camera server 3, the capacity of data transmitted from the camera apparatus 2 to the camera server 3 can be reduced. Therefore, it is possible to improve the transmission speed of image data in the camera server system 1. As a result, it is possible to increase the speed at which image data is sent to the client 5.
[0057] 一方、これに対し、例えば、画像データの JPEG形式への変換を、カメラサーバ 3の MCU37において行い、また、クライアント 5からの画像データの送信の要求に応じて 、その都度、 JPEG形式への変換を実行するようにした場合には、カメラサーバ 3から クライアント 5へ画像データを配信する速さが遅くなる。  On the other hand, for example, the conversion of the image data into the JPEG format is performed in the MCU 37 of the camera server 3, and in response to a request for transmission of the image data from the client 5, the JPEG format is used each time. When the conversion is executed, the speed of distributing the image data from the camera server 3 to the client 5 becomes slow.
[0058] また、 MCU37は、カメラサーバ 3の全体の制御に加え、カメラ装置 2の制御やクラ イアント 5との通信等に係わる多くの処理を行う。そのため、これらの処理に加えて、 J PEG変換のエンコード機能を持たせることとすると、 MCU37の負荷が大きくなり、 M CU37の処理速度が低下し、 JPEG変換のエンコード処理速度も遅くなる。この結果 、カメラサーバ 3から画像データをクライアント 5へ送信する速さが遅くなつてしまう。  In addition to the overall control of the camera server 3, the MCU 37 performs many processes related to the control of the camera device 2 and the communication with the client 5. Therefore, in addition to these processes, if an encoding function for JPEG conversion is provided, the load on the MCU 37 increases, the processing speed of the MCU 37 decreases, and the encoding processing speed for JPEG conversion also slows down. As a result, the transmission speed of the image data from the camera server 3 to the client 5 becomes slow.
[0059] また、クライアント 5からの画像データの送信の要求に応じて、その都度、 JPEG形 式への変換を実行するようにした場合、 1のクライアント 5に対して、画像データの送 信処理を行っている間は、他のクライアント 5は、待っていなくてはいけないため、クラ イアント 5へ画像データを送信する速さが遅くなる。  [0059] In addition, when conversion to JPEG format is executed every time a request for transmission of image data from the client 5 is performed, image data transmission processing to the client 5 of 1 Since the other clients 5 have to wait while the image data is being transmitted, the transmission speed of the image data to the client 5 is reduced.
[0060] これに対して、カメラサーバ 3側の MCU37に比べて処理項目の少ないカメラ装置 2側の CPU30を用いて JPEG変換することにより、 JPEG変換の速度を高くすることが できる。また、 MCU37は、 JPEG変換の処理を行わない分、処理速度の低下がなく 、データ選択部 38およびデータ配信部 40等の処理速度を高めるこができ、クライア ント 5に画像データを配信するための処理速度を速くすることができる。  On the other hand, JPEG conversion speed can be increased by performing JPEG conversion using the CPU 30 on the camera device 2 side, which has fewer processing items than the MCU 37 on the camera server 3 side. In addition, since the MCU 37 does not perform the JPEG conversion process, the processing speed does not decrease, the processing speed of the data selection unit 38, the data distribution unit 40, etc. can be increased, and the image data is distributed to the client 5. The processing speed can be increased.
[0061] また、データ配信部 40からは、複数のクライアント 5に対して、画像データが同時に 配信されるため、クライアント 5は、他のクライアント 5への配信が終わるのを待って画 像データの配信を受けるということがなくなり、配信の速さを早くすることができる。  [0061] Further, since the image data is simultaneously distributed from the data distribution unit 40 to the plurality of clients 5, the client 5 waits for the distribution to the other clients 5 to finish and stores the image data. The delivery is not received and the delivery speed can be increased.
[0062] なお、 JPEGエンコーダ部 32は、カメラ装置 2の CPU30に設ける他、図 3に点線に 示すように、カメラサーバ 3側に MCU37とは別に、 JPEGエンコーダ 32Aを、 USBコ ネクタ 16と MCU37との間に設け、この JPEGエンコーダ 32Aにより JPEG変換を行つ た画像データを MCU37に入力するように構成してもよい。 JPEGエンコーダ部 32A は、データ選択部 38、データ同期部 39およびデータ配信部 40等が備えられる MC U37とは別の処理装置として設けられているため、 MCU37の処理速度を低下させ ることがない。 [0062] Note that the JPEG encoder unit 32 is provided in the CPU 30 of the camera device 2, and a JPEG encoder 32A is connected to the camera server 3 side separately from the MCU 37 as shown in FIG. It may be provided between the connector 16 and the MCU 37, and the image data that has been subjected to JPEG conversion by the JPEG encoder 32A may be input to the MCU 37. The JPEG encoder unit 32A is provided as a processing device different from the MCU 37 provided with the data selection unit 38, the data synchronization unit 39, the data distribution unit 40, and the like, so that the processing speed of the MCU 37 is not reduced. .
[0063] また、カメラ装置 2側に CPU30とは別に、専用の JPEGエンコーダを備えて、この JP EGエンコーダにより JPEG変換を行わせるように構成してもよい。  [0063] Further, a dedicated JPEG encoder may be provided on the camera device 2 side separately from the CPU 30, and JPEG conversion may be performed by the JP EG encoder.
[0064] オーディオエンコーダ 35では、通信インターフェース 23からカメラサーバ 3に入力 するデジタル形式の音データを MCU37から読み込み、電気信号である音信号に変 換して、スピーカコネクタ 22へ出力する。そのため、スピーカコネクタ 22に、例えば、 スピーカ等を接続することにより、通信インターフェース 23から入力される音データを 再生すること力 Sでさる。  The audio encoder 35 reads the digital sound data input from the communication interface 23 to the camera server 3 from the MCU 37, converts the sound data into a sound signal that is an electrical signal, and outputs the sound signal to the speaker connector 22. For this reason, for example, by connecting a speaker or the like to the speaker connector 22, the sound data input from the communication interface 23 can be reproduced with the force S.
[0065] オーディオ 'ビデオ入力コネクタ 34に、カメラ装置 2側のオーディオ 'ビデオ出力コ ネクタ 11から出力された音信号とビデオ信号が入力されたときには、これらの音信号 とビデオ信号を、それぞれオーディオ出力コネクタ 20とビデオ出力コネクタ 21に出力 する。したがって、オーディオ出力コネクタ 20とビデオ出力コネクタ 21にテレビ等を接 続すると、カメラ装置 2で撮像および集音された映像と音声を視聴することができる。  [0065] When the sound signal and video signal output from the audio 'video output connector 11 on the camera device 2 side are input to the audio' video input connector 34, these sound signal and video signal are output as audio signals, respectively. Output to connector 20 and video output connector 21. Accordingly, when a television or the like is connected to the audio output connector 20 and the video output connector 21, the video and audio captured and collected by the camera device 2 can be viewed.
[0066] カメラサーバ 3からは、カメラ装置 2に対して、 USBケーブル 4を介してカメラ装置 2 を制御するためのカメラ装置制御信号が送信される。このカメラ装置制御信号は、 M CU37に構成されるデバイス制御部 41により生成されるもので、例えば、カメラ装置 2 の動作開始や停止を制御するものであったり、カメラ装置 2に対して画像データの送 信を要求するもの等である。また、ネットワークに接続されるクライアント 5側のパソコン 7等からカメラサーバ 3に対して送信される指令についても、その指令を解釈して、力 メラ装置 2に対してカメラ装置制御信号を送信する。例えば、パソコン 7等から、撮影 方向を水平に移動させるパン撮影を行うためのパン制御、撮影方向を上下に移動さ せるチルト制御、撮影画角を狭めたり広げたりするズーム撮影を行うためのズーム制 御等が要求された場合には、デバイス制御部 41は、その指令を解釈して、カメラ装 置 2に対してカメラ装置制御信号を送信する。なお、デバイス制御部 41は、カメラ装 置 2の他、 GPIOに外部機器が接続された場合には、この外部機器についても制御 を行う。 A camera device control signal for controlling the camera device 2 is transmitted from the camera server 3 to the camera device 2 via the USB cable 4. This camera device control signal is generated by the device control unit 41 configured in the MCU 37, and controls, for example, the start and stop of the operation of the camera device 2, or the camera device 2 receives image data. That require the transmission of Also, for a command transmitted from the personal computer 7 on the client 5 side connected to the network to the camera server 3, the command is interpreted and a camera device control signal is transmitted to the camera device 2. For example, from a computer 7 etc., pan control for panning to move the shooting direction horizontally, tilt control to move the shooting direction up and down, zoom for narrowing or widening the shooting angle of view When control or the like is requested, the device control unit 41 interprets the command and transmits a camera device control signal to the camera device 2. The device controller 41 is connected to the camera In addition to device 2, if an external device is connected to GPIO, this external device is also controlled.
[0067] ところで、カメラ装置 2に内蔵されるマイクロフォン 13は、ハウジング 8内に配設され るイメージセンサ 25や回路構成の制約を受けて、使用できるサイズに制限があり、十 分な集音力を得られない場合がある。このような場合には、マイクロフォンコネクタ 18 に拡張マイクロフォン 17を接続する。  [0067] By the way, the microphone 13 incorporated in the camera device 2 is limited in size that can be used due to restrictions on the image sensor 25 and circuit configuration disposed in the housing 8, and has sufficient sound collecting power. You may not get. In such a case, the extension microphone 17 is connected to the microphone connector 18.
[0068] MCU37は、マイクロフォンコネクタ 18に拡張マイクロフォン 17が接続されたことを 認識すると、カメラ装置 2に対して、マイクロフォン 13による集音を停止するカメラ装置 制御信号を送信する。このカメラ装置制御信号を受けてカメラ装置 2の CPU30は、 音処理部 27に対し、音データを生成することを停止する制御を行なう。そのため、力 メラ装置 2からは、音データのないデータが出力される。  When the MCU 37 recognizes that the extension microphone 17 is connected to the microphone connector 18, the MCU 37 transmits a camera device control signal for stopping the sound collection by the microphone 13 to the camera device 2. In response to the camera device control signal, the CPU 30 of the camera device 2 controls the sound processing unit 27 to stop generating sound data. Therefore, the power camera device 2 outputs data without sound data.
[0069] マイクロフォンコネクタ 18から音信号を読み込み、カメラサーバ 3の MCU37に構成 される音処理部 42によりデジタル形式の音データを生成する。そして、この音データ とカメラ装置 2から送信される画像データをデータ配信部 40から通信インターフエ一 ス 23に供給し、ネットワーク 6に配信する。  [0069] The sound signal is read from the microphone connector 18, and the sound processing unit 42 configured in the MCU 37 of the camera server 3 generates sound data in a digital format. The sound data and the image data transmitted from the camera device 2 are supplied from the data distribution unit 40 to the communication interface 23 and distributed to the network 6.
[0070] このように、拡張マイクロフォン 17が接続された場合には、カメラ装置 2に内蔵する マイクロフォン 13に換えて、拡張マイクロフォン 17により集音する構成としたため、集 音する音の対象や周囲の雑音等の環境に適した音データを得、これを配信用のデ ータに乗せることができる。  [0070] As described above, when the extension microphone 17 is connected, the sound is collected by the extension microphone 17 instead of the microphone 13 built in the camera device 2. Sound data suitable for the environment such as noise can be obtained and placed on the data for distribution.
[0071] なお、カメラサーバ 3の稼動を開始した際(電源スィッチ 25をオン)、カメラサーバ 3 のアプリケーションは、 USBケーブル 4より送られてくるマイクロフォン 13の音データ をデフォルトの音入力として設定している。その後、カメラサーバ 3のアプリケーション は、マイクロフォンコネクタ 18の拡張マイクロフォン 17の接続の有無を探しにいく。力 メラサーバ 3のアプリケーションが拡張マイクロフォン 17の接続を認識したときは、上 述したように、カメラ装置 2に対して、デバイス制御部 41が、マイクロフォン 13による集 音を停止するカメラ装置制御信号を送信する。カメラサーバ 3のアプリケーションが拡 張マイクロフォン 17の接続を認識しなかったときには、 USBケーブル 4から送られてく るマイクロフォン 13の音データをそのまま使用する。 なお、データ選択部 38による判断を、画像データに付加されたヘッダ情報に基づ いて行う代わりに、他の情報に基づいて行うようにしてもよい。例えば、ヘッダ毎に画 像データをそれぞれ検査し、所定以上のノイズデータを検出した場合には、そのへッ ダの画像データをネットワーク 6側に送信しないようにしてもよい。 [0071] When the operation of the camera server 3 is started (the power switch 25 is turned on), the application of the camera server 3 sets the sound data of the microphone 13 sent from the USB cable 4 as a default sound input. ing. Thereafter, the application of the camera server 3 searches for the connection of the extension microphone 17 of the microphone connector 18. When the application of the power server 3 recognizes the connection of the expansion microphone 17, as described above, the device control unit 41 transmits a camera device control signal for stopping the sound collection by the microphone 13 to the camera device 2. To do. When the application of the camera server 3 does not recognize the connection of the extension microphone 17, the sound data of the microphone 13 sent from the USB cable 4 is used as it is. Note that the determination by the data selection unit 38 may be performed based on other information instead of based on the header information added to the image data. For example, when image data is inspected for each header and noise data exceeding a predetermined level is detected, the image data of the header may not be transmitted to the network 6 side.

Claims

請求の範囲 The scope of the claims
[1] 撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットワークを 通じてクライアントに配信するカメラサーバにおいて、  [1] In a camera server that distributes image data of an image captured by a camera device equipped with an image sensor to a client via a network,
上記画像データが、所定の画像データであるか否かを判断し、上記画像データが 、上記所定の画像データであると判断された画像データについては、ネットワーク側 に出力し、上記画像データが、上記所定の画像データでないと判断されたデータに ついては、ネットワーク側に出力しないデータ選択手段を備えることを特徴とするカメ ラサーバ。  It is determined whether or not the image data is predetermined image data, and the image data determined to be the predetermined image data is output to the network side, and the image data is A camera server, comprising: a data selection unit that does not output data determined not to be the predetermined image data to the network side.
[2] 前記データ選択手段は、前記画像データに付加されるヘッダの情報に基づいて、 前記所定の画像データであるか否力、を判断することを特徴とする請求項 1に記載の カメラサーバ。  2. The camera server according to claim 1, wherein the data selection means determines whether or not the image data is the predetermined image data based on information of a header added to the image data. .
[3] 前記画像データに加えて音データが入力されたときに、前記画像データと前記音 データのヘッダ情報に基づいて、前記画像データと前記音データの同期をとるデー タ同期手段を備え、  [3] Data synchronization means for synchronizing the image data and the sound data based on header information of the image data and the sound data when sound data is input in addition to the image data;
上記データ同期手段は、前記データ選択手段により、前記所定の画像データでな いと判断されたデータ部分に対しても、上記音データの所定の音データを同期させ ることを特徴とする請求項 1または 2に記載のカメラサーバ。  2. The data synchronization means synchronizes predetermined sound data of the sound data even with a data portion determined by the data selection means to be not the predetermined image data. Or the camera server described in 2.
[4] 撮像素子を備えるカメラ装置により撮像された画像の画像データを、ネットワークを 通じてクライアントに配信するデータの処理方法において、  [4] In a data processing method for distributing image data of an image captured by a camera device including an image sensor to a client through a network,
上記画像データが、所定の画像データであるか否かを判断し、上記画像データが 、上記所定の画像データであると判断された画像データについては、ネットワーク側 に出力し、上記画像データが、上記所定の画像データでないと判断されたデータに ついては、ネットワーク側に出力しないことを特徴とするデータの処理方法。  It is determined whether or not the image data is predetermined image data, and the image data determined to be the predetermined image data is output to the network side, and the image data is A data processing method, wherein data determined not to be the predetermined image data is not output to the network side.
[5] 前記画像データが、所定の画像データであるか否かの判断は、前記画像データに 付加されるヘッダの情報に基づいて行なうことを特徴とする請求項 4に記載のデータ の処理方法。  5. The data processing method according to claim 4, wherein whether or not the image data is predetermined image data is determined based on information of a header added to the image data. .
[6] 撮像素子を備えるカメラ装置により撮像された画像の画像データと、マイクロフォン により集音した音の音データとを、ネットワークを通じてクライアントに配信するデータ 処理方法において、 [6] Data that distributes image data of an image captured by a camera device equipped with an image sensor and sound data of sound collected by a microphone to clients over a network In the processing method,
上記画像データについては、所定の画像データであるか否かを判断し、上記画像 データが、上記所定の画像データであると判断された画像データについては、ネット ワーク側に出力し、上記画像データが、上記所定の画像データでないと判断された データについては、ネットワーク側に出力しない処理を行い、  It is determined whether the image data is predetermined image data. The image data determined to be the predetermined image data is output to the network side, and the image data is However, the data that is determined not to be the predetermined image data is processed so as not to be output to the network side,
上記音データと上記ネットワーク側に出力された上記画像データとを、それぞれの データに付加されて!/、るヘッダ情報に基づ!/、て、互いに同期させ、  The sound data and the image data output to the network side are synchronized with each other based on the header information added to each data! /
上記所定の画像データでないと判断されたデータ部分に対しても、上記音データ の所定の音データを同期させることを特徴とするデータ処理方法。  A data processing method comprising synchronizing predetermined sound data of the sound data with a data portion determined not to be the predetermined image data.
PCT/JP2007/070007 2006-10-25 2007-10-12 Camera server and data processing method WO2008050620A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-289887 2006-10-25
JP2006289887A JP2008109362A (en) 2006-10-25 2006-10-25 Camera server, and processing method for data

Publications (1)

Publication Number Publication Date
WO2008050620A1 true WO2008050620A1 (en) 2008-05-02

Family

ID=39324420

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/070007 WO2008050620A1 (en) 2006-10-25 2007-10-12 Camera server and data processing method

Country Status (2)

Country Link
JP (1) JP2008109362A (en)
WO (1) WO2008050620A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001094954A (en) * 1999-09-17 2001-04-06 Fujitsu Ltd Image distribution system and method therefor
JP2001136503A (en) * 1999-11-04 2001-05-18 Nec Corp Video conference terminal and image and sound reproducing method used for the same
JP2004158919A (en) * 2002-11-01 2004-06-03 Matsushita Electric Ind Co Ltd Network camera system, network camera thereof, and data transmission method
JP2004320513A (en) * 2003-04-17 2004-11-11 Casio Comput Co Ltd Information managing system and program thereof
JP2004343421A (en) * 2003-05-15 2004-12-02 Olympus Corp Camera with communication function
JP2006222720A (en) * 2005-02-10 2006-08-24 Canon Inc Video communication system, information processing, video communication method, and program thereof
JP2007258957A (en) * 2006-03-22 2007-10-04 Oki Electric Ind Co Ltd Video monitoring system and video display method thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001094954A (en) * 1999-09-17 2001-04-06 Fujitsu Ltd Image distribution system and method therefor
JP2001136503A (en) * 1999-11-04 2001-05-18 Nec Corp Video conference terminal and image and sound reproducing method used for the same
JP2004158919A (en) * 2002-11-01 2004-06-03 Matsushita Electric Ind Co Ltd Network camera system, network camera thereof, and data transmission method
JP2004320513A (en) * 2003-04-17 2004-11-11 Casio Comput Co Ltd Information managing system and program thereof
JP2004343421A (en) * 2003-05-15 2004-12-02 Olympus Corp Camera with communication function
JP2006222720A (en) * 2005-02-10 2006-08-24 Canon Inc Video communication system, information processing, video communication method, and program thereof
JP2007258957A (en) * 2006-03-22 2007-10-04 Oki Electric Ind Co Ltd Video monitoring system and video display method thereof

Also Published As

Publication number Publication date
JP2008109362A (en) 2008-05-08

Similar Documents

Publication Publication Date Title
US5969750A (en) Moving picture camera with universal serial bus interface
WO2013132828A1 (en) Communication system and relay apparatus
EP1696396A2 (en) Image pickup apparatus and image distributing method
JPH11250235A (en) Picture inputting device and system therefor and picture transmitting and receiving system and picture inputting method and storage medium
US7593580B2 (en) Video encoding using parallel processors
WO2008050621A1 (en) Camera server system, data processing method and camera server
TWI655865B (en) A method for configuration of video stream output from a digital video camera
JP2004135968A (en) Remote controllable endoscope controlling system
JP2007251779A (en) Digital camera system and digital camera
WO2022143212A1 (en) System and method for extracting specific stream from multiple streams transmitted in combination for playback
WO2008050620A1 (en) Camera server and data processing method
CN112788198B (en) Image capturing apparatus, image transfer system, image capturing apparatus, image transfer method, recording medium, and computer apparatus
JP2009182372A (en) Image compression and distribution device and image compression and distribution method
JP2008131264A (en) Monitor camera, image recording/display apparatus and monitor camera system
JP4232397B2 (en) Information terminal with voice and information terminal system
JP2000184261A (en) Image pickup device
US20090213220A1 (en) Active monitoring system with multi-spot image display and a method thereof
CN102104739A (en) Transmission system, imaging apparatus, and transmission method
KR100223590B1 (en) Multi-function tv
WO2008018351A1 (en) Camera system, camera device and camera server
KR20060121506A (en) Apparatus and method for displaying a image in mibile terminal
JPH10294939A (en) System and device for image transmission
JPH0759070A (en) Display controller
JP2000152069A (en) Photographing device, video transmission system, video receiver, video transmitter, video encoding device, and video reproducing device
JPH10173983A (en) Image pickup device, image processor and image pickup system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07829743

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07829743

Country of ref document: EP

Kind code of ref document: A1