WO2008059860A1 - Fichier d'images mobiles et processeur de données d'image - Google Patents

Fichier d'images mobiles et processeur de données d'image Download PDF

Info

Publication number
WO2008059860A1
WO2008059860A1 PCT/JP2007/072073 JP2007072073W WO2008059860A1 WO 2008059860 A1 WO2008059860 A1 WO 2008059860A1 JP 2007072073 W JP2007072073 W JP 2007072073W WO 2008059860 A1 WO2008059860 A1 WO 2008059860A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
moving image
input
data
identification code
Prior art date
Application number
PCT/JP2007/072073
Other languages
English (en)
French (fr)
Inventor
Katsura Obikawa
Jong-Sun Hur
Original Assignee
Opt Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Opt Corporation filed Critical Opt Corporation
Publication of WO2008059860A1 publication Critical patent/WO2008059860A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17318Direct or substantially direct transmission and handling of requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04KSECRET COMMUNICATION; JAMMING OF COMMUNICATION
    • H04K1/00Secret communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/08Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2351Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving encryption of additional data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4405Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video stream decryption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection

Definitions

  • the present invention relates to a moving image file and an image data processing device.
  • a server device that is arranged between a monitoring camera and a client device, and transmits monitoring image data obtained by operating the monitoring camera according to a command received from the client device to the client device.
  • the server device disclosed in Patent Document 1 is equipped with a microphone. This server device performs control such as transmitting sound data collected by the microphone to the client device or emitting sound from the speaker according to the command from the client device! /, The
  • Patent Document 1 Japanese Unexamined Patent Publication No. 2005-318412
  • Patent Document 1 By the way, many users who use a system of the type disclosed in Patent Document 1 convert a series of image data transmitted as video data from a monitoring power camera into a moving image file on their client devices.
  • security management is performed using unique IDs and passwords, and then stored in resources such as databases. Since moving image files that are stored and stored may be leaked to an unspecified number of people, ensuring security with IDs and passwords is an indispensable measure.
  • the present invention has been devised under such a background, and provides a mechanism that can ensure the security of a moving image file obtained by operating a surveillance camera more reliably. Objective.
  • a moving image file includes a certain code.
  • the first identification which is an identification code string, is collated with each of the two code strings to be matched and is subjected to the common key decryption process by the hardware when it matches each of the two input code strings.
  • a header part including a third identification code string that is a code string used for the common key encryption process.
  • the header section includes frame number data indicating the number of frames of a series of image data constituting the moving image data obtained by decrypting the encrypted moving image data, and the above-described series. It may further include recording time data indicating the recording time of the image data! / ⁇
  • An image data processing apparatus includes an image data input means for inputting moving image data, and a code string input for inputting the first, second, and third identification code strings.
  • encryption processing means for obtaining encrypted moving image data by performing a common key encryption process using the third identification code string input from the code string input means as a key, and the above
  • An octadder unit including the first, second, and third identification code sequences input from the code sequence input unit and a real data unit including the encrypted moving image data acquired by the encryption processing unit.
  • File generating means for generating a moving image file.
  • the first, second, and third identification code strings are When input again from the code string input means, each of the input first and second identification code strings is included in the header portion of the generated moving image file.
  • the determination unit determines that each of the identification code strings matches, the encrypted moving image data included in the actual data part of the generated moving image file
  • the information processing apparatus may further include decryption processing means for obtaining moving image data by performing a common key decryption process using the input third identification code string as a key.
  • the invention's effect [0010] According to the present invention, it is possible to more reliably ensure the security of a moving image file obtained by operating a surveillance camera.
  • FIG. 1 is an overall configuration diagram of a device drive control system according to an embodiment.
  • FIG. 2 is a schematic hardware configuration diagram of a camera device.
  • FIG. 3 is a diagram showing a positional relationship between a wide-angle lens and an image sensor.
  • FIG. 4 is a schematic hardware configuration diagram of a server device.
  • FIG. 5 is a flowchart showing server server activation processing.
  • FIG. 6 is a schematic hardware configuration diagram of a client device.
  • FIG. 7 is a flowchart showing moving image file generation processing (first half).
  • FIG. 8 is a flowchart showing a moving image file generation process (second half).
  • FIG. 9 is a data structure diagram of a moving image file.
  • FIG. 10 is a flowchart showing moving image file playback processing (first half).
  • FIG. 11 is a flowchart showing moving image file playback processing (second half).
  • Camera device drive control unit 42 Server device drive control unit, 43 Client connection control unit, 44 Video data transmission control unit, 45 Video data transmission control unit, 46 ⁇ Server event notification control unit, 47—USB communication control unit, 48 ⁇ General purpose input / output port, 50 ⁇ ⁇ ⁇ Client 51 ′ CPU (corresponding to encryption processing means, file generation means, message output means, judgment means, and decryption processing means), 52... -RAM, 53 --- ROM, 54.
  • FIG. 1 is a diagram showing an overall configuration of a device drive control system that is effective in the present embodiment.
  • a camera device 10 and a server device 30 are connected by a USB (Universal Serial Bus) cable 80.
  • USB Universal Serial Bus
  • each of the server device 30 and the plurality of client devices 50 is connected and connected via the network 90.
  • Network 90 Network 90, TCP / IP (Transmission Control Protocol / Internet Protocol).
  • This system was obtained by installing the camera device 10 in a place that requires monitoring, such as a parking lot or a store, and causing the camera device 10 to image the monitored area under the control of the server device 30.
  • the image data is distributed to the client device 50. Further, the client device 50 converts the series of image data distributed from the server device 30 into a moving image file.
  • FIG. 2 is a diagram showing a schematic hardware configuration of the camera apparatus 10.
  • the camera device 10 has a wide-angle lens 11, an image sensor 12, SDRAM (Synchronous DRAM) 13, SRAM (Static Random Access Memory) 14, microphone 15, audio IC (Integrated Circuit) 16, video output A connector 17, an audio output connector 18, an ASIC (Application Specific Integrated Circuit) 19, a USB connector 20, and a video encoder 21 are provided.
  • the wide-angle lens 11 is a so-called fisheye lens having a wide viewing angle of 180 degrees or more.
  • Fish-eye lens projection methods include stereoscopic projection method, equidistant projection method, equal stereo projection method, orthographic projection method, etc. Good thing.
  • the wide-angle lens 11 is exposed on the upper surface of the housing 26 of the camera device 10.
  • the image sensor 12 is a photoelectric conversion sensor using CMOS (Complementary Metal Oxide Semiconductor), and has a light receiving surface in which a plurality of light receiving elements are arranged in a matrix, for example, in a ratio of 3: 4.
  • CMOS Complementary Metal Oxide Semiconductor
  • FIG. 3 is a diagram showing an optical positional relationship between the wide-angle lens 11 and the light receiving surface of the image sensor 12. It is. As shown in FIG. 3, the image sensor 12 is disposed in a posture in which the wide-angle lens 11 is positioned in a direction substantially perpendicular to the light receiving surface. As described above, the wide-angle lens 11 has a wide viewing angle of 180 degrees or more, and the image of the monitored region condensed on the wide-angle lens 11 from within the viewing angle is connected to the light receiving surface of the image sensor 12. Image.
  • the image sensor 12 reads the light intensity value indicating the received light amount of each of the plurality of light receiving elements on the light receiving surface, and the brightness distribution data in which the read light amount values are arranged as a square image having the same aspect ratio as the light receiving surface. Generate.
  • the microphone 15 generates a waveform signal of the collected sound and supplies it to the audio IC 16.
  • a vent hole 22 is formed on the upper surface of the server device 30, and the microphone 15 is disposed below the vent hole 22.
  • the audio IC 16 outputs the waveform signal supplied from the microphone 15 to the audio output connector 18.
  • the audio IC 16 samples the waveform signal supplied from the microphone 15 every predetermined time length, and obtains the sound obtained by the sampling. Supply data to ASIC19.
  • the ASIC 19 stores the sound data supplied from the sound IC 16 in the SDRAM 13.
  • the audio output connector 18 is exposed on the side surface of the housing 26 of the camera device 10. Therefore, if a speaker or headphones are connected to the audio output connector 18, the sound collected by the microphone 15 can be emitted.
  • the ASIC 19 is customized to operate as the color change processing unit 23, the JPEG engine 24, and the USB communication control unit 25.
  • the SRAM 14 is used as a word query when the ASIC 19 operates as the color change processing unit 23, the JPE G engine 24, and the USB communication control unit 25.
  • the color conversion processing unit 23 obtains image data by replacing the light intensity values of the light receiving elements sequentially input from the image sensor 12 with the metric values of each color of the R GB (Red-Green-Blue) color system. .
  • the image data acquired by the color conversion processing unit 23 is bitmap data in which the density of each pixel constituting one image is represented by, for example, RGB 256 gradations.
  • the acquired image data is stored in the SDRAM 13.
  • the JPEG engine 24 is supplied with a control signal for instructing generation of compressed image data. Then, the image data stored in the SDRAM 13 is subjected to compression processing according to the JPEG (Joint Photographic Experts Group) method, and the compressed image data obtained by the compression processing is stored in the SDRAM 13.
  • the outline of the compression procedure is as follows. First, the image is subjected to discrete cosine transform (DCT) processing and quantization processing in units of blocks for each predetermined number of pixels to obtain spatial frequency components in units of blocks.
  • DCT discrete cosine transform
  • quantization processing quantization processing in units of blocks for each predetermined number of pixels to obtain spatial frequency components in units of blocks.
  • the frequency component of the block unit of the image is composed of a DC component of the block unit and a plurality of AC components of the block unit.
  • entropy encoding processing is performed for each frequency component of the image to reduce the image data amount.
  • the DC component of the image is encoded by predictive encoding such as Huffman encoding, and each AC component of the image is encoded by run-length encoding such as arithmetic encoding.
  • the compressed image data is obtained by adding header data to the bit stream obtained by the encoding.
  • the compressed image data is read from the SDRAM 13 and supplied to the video encoder 21.
  • the video encoder 21 that has been supplied with the compressed image data outputs an image signal obtained by expanding the compressed image data from the video output connector 17. As shown in FIG. 1, the video output connector 17 is exposed on the side surface of the housing 21 of the force camera device 10. Therefore, if a display is connected to the video output connector 17, an image of the output image data can be displayed.
  • the USB communication control unit 25 transmits data according to a procedure according to the USB standard.
  • the USB communication control unit 25 receives a control signal instructing generation of sound data or compressed image data via the USB connector 20 and supplies the control signal to the audio IC 16 or the JPEG engine 24. Further, when the audio data or compressed image data obtained by driving the audio IC 16 or the JPEG engine 24 according to the control signal supplied by itself is stored in the SDRAM 13, the USB communication control unit 25 The stored data is transmitted from the USB connector 20 to the server device 30.
  • multiple devices called “endpoints” are stored in both devices to store various data to be transmitted individually. Data is transmitted via a plurality of logical communication lines called “pipes” that connect the respective endpoints of both devices.
  • the USB communication control unit 25 performs a setting process called “configuration” with the server device 30, and the server itself and the server. Reserve as many endpoints and pipes as necessary to communicate with device 30.
  • the control signal for driving the device of the camera device 10 the sound data returned from the server device 30 according to the control signal, and the compression Three types of image data are transmitted through the USB cable 80. Therefore, it is necessary to secure at least three pipes for data transmission in the configuration.
  • the sound data and the compressed image data buffered to the respective endpoints from the audio IC 16 or the JPEG engine 24 are read out in units called “transactions”.
  • the USB cable 80 is transmitted in units called “frames” in which a plurality of transactions are collected. This transmission takes place approximately every 1 millisecond / frame.
  • the control signal transmitted from the server device 30 in the same procedure and stored in the endpoint is immediately supplied to the audio IC 16 or the JPEG engine 24.
  • FIG. 4 is a diagram showing a hardware configuration of the server device 30.
  • the server device 30 includes a power input unit 31, a power switch 32, a reset switch 33, an MCU (Micro Controller Unit) 34, an SDRAM (Synchronous DRAM) 35, a flash memory 36, and a USB connector 37.
  • MCU Micro Controller Unit
  • SDRAM Serial DRAM
  • USB connector 37 USB connector 37.
  • UART Universal Asynchronous Receiver Transmitter
  • Audio Codec 39 Audio Codec
  • Ethernet controller 40 for example, PCKPeriphe
  • the power input unit 31 supplies power to the inside of the apparatus.
  • the power switch 32 instructs the activation of the device.
  • the reset switch 33 instructs to reset various settings of the device.
  • the MCU 34 executes the various programs stored in the flash memory 36 while appropriately using the S DRAM 35 as a work area, so that the camera device drive control unit (Camera Device Control Module) 41, the server device drive control unit (Server Control) Module) 42, Client Connection Module 43, Audio Data Transmission Control Unit 44, Video Data Transfer Control Unit 45, and Server Event Notification Control Unit ( Server Event Notify Module) 46 is realized logically. The functions of these units will be described in detail later.
  • Some of the hardware resources of this MCU34 are the USB communication controller 47 and general-purpose input / output ports (GPIO: General P urpose Input Output) Functions as 48.
  • the USB communication control unit 47 transmits a control signal instructing generation of sound data or compressed image data to the camera device 10 via the USB connector 37.
  • the camera device drive control unit 41 generates this control signal.
  • the USB communication control unit 47 receives the sound data or the compressed image data generated by the camera device 10 according to the control signal via the USB connector 37.
  • the US B cable 80 that connects the USB connectors of the server device 30 and the camera device 10 transmits data as a serial signal, while the PCI bus that connects each element such as the MCU 34 in the server device 30 transmits data as a parallel signal. Is transmitted. Therefore, the data generated in the server device 30 and sent to the camera device 10 is converted into a serial signal by the UAR T38, and then used for transmission via the USB connector 37. In addition, the data input from the USB connector 37 is converted into a parallel signal by the UART 38 and then subjected to subsequent processing by the MCU 34 or the like.
  • the general-purpose input / output port 48 has three signal output terminals and two signal input terminals.
  • a lamp 91, an alarm 92, and a fan 93 are connected to the signal output terminal.
  • Each of the lamp 91, the alarm 92, and the fan 93 is provided in the vicinity of the camera device 10. Then, for example, when a control signal having a peak voltage of A.C 5 V or higher is output from the MCU 34 via the signal output terminal, the lamp 91 turns on light of a predetermined wavelength.
  • the alarm 92 emits a sound of a predetermined wavelength when a control signal is output via the signal output terminal.
  • the fan 93 rotates when a control signal is output via the signal output terminal.
  • two optical sensors 94 and 95 are connected to the signal input terminal of the general-purpose input / output port 48, respectively. Both of these sensors 94 and 95 are provided with their respective fields of view in the monitored area.
  • an electric signal having a peak voltage of A.C 5 V or more is input to the MCU 34 via the signal input terminal.
  • the audio codec 39 is connected to each of the microphone 96 and the spin force 97 via a connector (not shown).
  • the audio codec 39 supplies sound data obtained by encoding the sound waveform signal input from the microphone 96 force to the MCU 34.
  • the audio codec 39 decodes the sound data supplied from the MCU 34 and obtains it. Provide the waveform signal 97 ⁇ .
  • the Ethernet (registered trademark) controller 40 performs data communication with other nodes in accordance with a procedure according to a protocol belonging to the TCP / IP network interface layer.
  • the network interface layer includes a plurality of protocols such as the Ethernet (registered trademark) protocol. Processing for data communication belonging to the Internet layer, transport layer, and application layer above the network interface layer is controlled by the client connection control unit 43 described below.
  • the Ethernet (registered trademark) controller 40 obtains, from the client connection control unit 43, a packet to which a TCP header and an IP header are added through the processing of each higher layer. Then, by checking its own routing table based on the destination IP address included in the IP header of the packet, it finds the nearest node on the route to the destination IP address.
  • a frame obtained by adding an Ethernet (registered trademark) header including the MAC (Media Access Control) address of the node to the packet is transmitted to the network 90.
  • the frame is then routed through multiple nodes and forwarded to the destination IP address.
  • the Ethernet (registered trademark) controller 40 supplies the packet to the client connection control unit 43 when the destination IP address of the packet included in the frame transferred from another node is that of the own device. To do.
  • the client connection control unit 43 receives a command for instructing driving of the device itself or a device built in the camera device 10 from the client device 50 and supplies the command to the camera device drive control unit 41 or the server device drive control unit 42. Then, the server device drive control unit 42 supplies a control signal corresponding to the command to the devices (lamp 91, alarm 92, fan 93) connected to the general-purpose input / output port 48.
  • the camera device drive control unit 41 supplies the camera device 10 with a control signal corresponding to a command supplied to itself. Then, when a device (audio IC 16 or JPEG engine 24) built in the camera device 10 is driven according to the control signal, sound data or compressed image data obtained as a result of the drive is transmitted from the camera device 10 to the server device 30. Sent. Audio data transmission control unit 44 of server device 30 and video data transmission The communication control unit 45 transmits the transmitted data to the client device 50 via the client connection control unit 43.
  • the server event notification control unit 46 causes the sensors 94 and 95 to Transmits event data indicating that an object has been detected to the client device 50 via the client connection control unit 43.
  • the client connection control unit 43 establishes a connection with the client device 50 that has accessed the device itself. This connection is established according to the following procedure according to TCP, which is one of the protocols belonging to the transport layer. First, a packet that includes a SYN (Synchronize) code bit for requesting establishment of a connection in the TCP header is transmitted from the client device 50 to the client connection control unit 43. Receiving the packet, the client connection control unit 43 returns a packet including an AC (Acknowledgment) and SYN code bits to the client device 50.
  • a packet including an ACK code bit is transmitted from the client device 50 to the client device 50, thereby forming a data communication path used for both subsequent data transmissions.
  • This formed data communication channel is maintained until a packet including an ACK and FIN (Finish) code bit is transmitted from one of the client device 50 or the client connection control unit 43 to the other.
  • the client connection control unit 43 can form and maintain individual data communication paths with a plurality of client devices 50 at the same time by performing time division processing by multitasking.
  • a command for instructing driving of a device built in server device 30 or camera device 10 is transmitted from client device 50.
  • the command includes a lamp drive command for instructing driving of the lamp 91, an alarm drive command for instructing driving of the alarm 92, a fan drive command for instructing driving of the fan 93, and an instruction for driving the audio IC 16 of the camera device 10.
  • voice IC drive commands and JPEG engine drive commands that instruct to drive JPEG engine 24. Which of these five types is transmitted is determined depending on the operation of the client device 50.
  • the client connection control unit 43 of the server device 30 determines that the command is a lamp drive command, an alarm drive command, a fan drive command, or a voice IC drive command. , And a force that is one of the JPEG engine drive commands. Then, if it is a lamp drive command, alarm drive command, or fan drive command, it is supplied to the server device drive control unit 42, and if it is a voice IC drive command or JPEG engine drive command, it is supplied to the camera device drive control unit 41.
  • the server device drive control unit 42 that has received the command outputs a control signal corresponding to the command from the general-purpose input / output port 48. Thereby, the lamp 91 is turned on, the alarm 92 is emitted, and the fan 93 is rotated.
  • the camera device drive control unit 41 that has received the command supplies the USB communication control unit 47 with a control signal generated in response to the command.
  • the USB communication control unit 47 transmits the control signal from the USB connector 37 to the camera device 10.
  • the audio IC 16 or the JPEG engine 24 is driven according to the control signal, and the sound data or the compressed image data obtained as a result of the driving is stored in the SDRAM 13.
  • the USB communication control unit 25 transmits the sound data or compressed image data stored in the SDRA Ml 3 from the USB connector 20 to the server device 30.
  • the sound data transmitted from the camera device 10 to the server device 30 is supplied to the audio data transmission control unit 44 via the USB communication control unit 47. Further, the compressed image data transmitted from the camera device 10 to the server device 30 is supplied to the video data transmission control unit 45 ⁇ via the USB communication control unit 47.
  • the audio data transmission control unit 44 that has been supplied with sound data, and the video data transmission control unit 45 that has been supplied with compressed image data includes a series of packets obtained by enclosing the data for each predetermined byte length, The data is transmitted from the Ethernet (registered trademark) controller 40 to the client device 50.
  • the server event notification control unit 46 when an electrical signal is input to the sensors 94 and 95 via the general-purpose input / output port 48, the server event notification control unit 46 generates event data and includes the event data by a predetermined byte length.
  • the obtained series of packets is transmitted from the Ethernet (registered trademark) controller 40 to the client device 50.
  • the transmission of sound data and compressed image data is performed for a predetermined time length (for example, 10 minutes, hereinafter “default” after a control signal that triggers driving is transmitted from the server device 30 to the camera device 10. Called “recording time length”). Therefore, audio data corresponding to the number of samples during the default recording time length is transmitted to the client device 50 that has transmitted the audio IC drive command to the server device 30.
  • a series of compressed image data obtained by compressing image data corresponding to each of the frames imaged during the default recording time length is transmitted to the client device 50 that has transmitted the JPEG engine drive command. Further, these image data include a time stamp indicating each recording time.
  • the command, the sound data, the compressed image data, and the event data are packetized according to a protocol specific to each.
  • the protocol of the network layer used for exchanging commands, sound data, compressed image data, and event data is different.
  • four data with different properties can be exchanged via a single data channel.
  • the camera device drive control unit 41 the server device drive control unit 42, the client connection control unit 43, the audio data transmission control unit 44, and the video data transmission control unit
  • the startup process until 45 and each part of the server event notification control unit 46 are formed in the MCU 34 will be described.
  • step S180 When the camera device drive control unit 41 is executed through the execution of step S180, a program that implements the client connection control unit 43 is activated (S190). Then, programs for realizing the video data transmission control unit 45, the server device drive control unit 42, the server event notification control unit 46, and the audio data transmission control unit 44 are started (S200 to S230).
  • FIG. 6 is a diagram showing a schematic hardware configuration of the client device 50.
  • the client device 50 includes a CPU (Central Processing Unit) 51 (corresponding to encryption processing means, file generation means, message output means, determination means, and decryption processing means), RAM (Random Access Memory). ) 52, ROM (Read Only Memory) 53, node disk 54, computer display 55, mouse 56, keyboard 57 (corresponding to code string input means), and network interface card 58 (corresponding to image data input means) For example, it connects by PCI system bus.
  • CPU Central Processing Unit
  • RAM Random Access Memory
  • ROM Read Only Memory
  • node disk 54 computer display 55
  • mouse 56 keyboard 57
  • keyboard 57 corresponding to code string input means
  • network interface card 58 corresponding to image data input means
  • the CPU 51 controls the entire apparatus by executing various programs stored in the ROM 53 and the hard disk 54 while using the RAM 52 as a work area.
  • the network interface card 58 performs data communication with other nodes in accordance with the protocol according to the protocol belonging to the TCP / IP network interface layer. Processing for data communication belonging to a layer higher than the network interface layer is realized by software by the CPU 51 that executes various programs.
  • ROM 53 stores a simple program such as IPL (Initial Program Loader).
  • the hard disk 54 stores a communication control program 54a, a command control program 54b, an event presentation program 54c, a moving image data generation program 54d, a moving image data encryption program 54e, and a moving image data decryption program 54f. .
  • the communication control program 54a manages processing belonging to a layer higher than the network interface layer.
  • the command control program 54b performs processing to send various commands (lamp drive command, alarm drive command, fan drive command, audio IC drive command, JPEG engine drive command) specified through the operation of the mouse 56 and keyboard 57.
  • the event presentation program 54c indicates that the event data has been received from the server device 30. Controls the process of displaying messages on the computer display 55.
  • the moving image data generation program 54d is responsible for processing a series of compressed image data transmitted from the server device 30 in response to the JPEG engine drive command into a moving image file of MPEG (Moving Picture Experts Group).
  • the moving image data encryption program 54e manages processing for performing encryption processing on moving image data.
  • the moving image data decoding program 54f manages processing for performing decoding processing on moving image data.
  • FIG. 7 and 8 are flowcharts showing the moving image file generation process.
  • the series of processing shown in FIG. 7 and FIG. 8 is performed by transmitting the first compressed image data obtained by transmitting the JPEG engine drive command to the server device 30 and then driving the JPEG engine 24 according to the command. It is triggered by receiving it.
  • the CPU 51 of the client device 50 that has received the compressed image data stores the compressed image data in the RAM 52 (S300), and then waits for transmission of the next compressed image data over a predetermined time length. When the next compressed image data is received during the time length, the process returns to step 300 and the compressed image data is stored in the RAM 52. On the other hand, if the next compressed image data is not received after a predetermined length of time has passed, a series of compressed image data stored in RAM 52 is decompressed to restore a series of image data. (S310). Each of the series of image data acquired in step 310 is bit map data.
  • the CPU 51 which has obtained a series of image data in step 310, obtains compressed moving image data by performing compression processing according to the MPEG (Moving Picture Experts Group) method on the series of image data (S320).
  • the CPU 51 displays an authentication code registration screen on the computer display 55 (S330).
  • This screen displays a character string with the contents "Enter the ID code string to be registered as the ID and password.” Below the character string, two input fields for entering each code string are displayed. The user who refers to the authentication code registration screen operates the mouse 56 and the keyboard 57 to enter the code string in each input field.
  • the CPU 51 stores the code strings in the RAM 52 (S340).
  • the CPU 51 displays the encryption inquiry screen on the computer display 55 (S350). On this screen, a character string with the content “Do you want to convert the video data?” Is displayed. Below that, buttons labeled “Yes” and “Le, Les, E” are displayed. The user who refers to the authentication code registration screen selects either “Yes” or “No” button.
  • the CPU 51 displays the key code registration screen on the computer display 55 (S360).
  • the CPU 51 When a code string is input to the input field of the key code input screen, the CPU 51 causes the RAM 52 to store the code string (S370). Further, the CPU 51 performs encryption processing using the code string stored in the RAM 52 in step S370 as a key on the compressed moving image data acquired in step S320, and acquires encrypted moving image data (S380). On the other hand, if “No” is selected on the encryption inquiry screen, the process proceeds to the next step without executing steps S350 to S380.
  • FIG. 9 is a data structure diagram of the moving image file generated in step S390 when “Yes” is selected on the encryption inquiry screen.
  • the moving image file shown in FIG. 9 has a header part 81 and an actual data part 82.
  • the header section 81 includes a first identification code string 83, a second identification code string 84, a third identification code string 85, frame number data 86, and recording time data 87.
  • the first identification code string 83 is a code string input as an ID on the authentication code registration screen among the two code strings stored in the RAM 52 in step S340.
  • the second identification code string 84 is RA in step S340. Of the two code strings stored in M52, the code string entered as the password on the authentication code registration screen.
  • the third identification code string 85 is a code string stored in the RAM 52 in step S370.
  • the frame number data 86 is the number of still images compressed as moving image data, and is a value indicating the number of compressed image data stored in the RAM 52 through the loop of step S300.
  • the recording time data 87 is a time stamp included in the compressed image data first stored in the RAM 52 in step 300 and a time stamp included in the compressed image data stored last in the RAM 52 through the following loop. is there.
  • the actual data unit 82 includes the encrypted moving image data 88 acquired in step S380. On the other hand, if “No” is selected on the encryption inquiry screen, the third identification code string 85 is not included in the header portion 81, and the compressed data acquired in step S320 is included in the actual data portion 82. The image data is included as it is.
  • FIG. 10 and FIG. 11 are flowcharts showing moving image file playback processing.
  • a series of processes shown in FIGS. 10 and 11 are started by using the mouse 56 and the keyboard 57 of the client device 50 as a trigger to instruct the reproduction of the moving image file.
  • the CPU 51 of the client device 50 reads the moving image file according to the command instruction from the hard disk 54 to the RAM 52 (S500).
  • the CPU 51 displays an authentication code input screen on the computer display 55 (S510).
  • This screen displays a character string that says “Enter your ID and password.” Below the character string, two input fields for entering each code string are displayed. The user who refers to the authentication code input screen inputs the code string registered as the ID and password when the moving image file is generated.
  • the CPU 51 sets the first of the header sections 81 of the moving image file read into the RAM 52 in step 500, respectively. It is determined whether or not it matches the identification code string 83 and the second identification code string 84 (S520).
  • step S520 the CPU 51 that has determined that one or both of the code strings do not match, Return to Step 510 where the user is prompted to re-enter the authentication code.
  • the CPU 51 determines that both code strings match in step S520, the actual data portion 82 of the moving image file read to the RAM 52 in step S500 includes either encrypted moving image data or compressed moving image data. It is judged whether it is! / (S530).
  • CPU 51 which has determined in step S530 that the encrypted data is included in real data portion 82, displays a key code input screen on the computer display (S540). On this screen, a character string with the contents "Enter the key for decryption" is displayed. Below the character string, one entry field for entering the code string is displayed. The user who refers to the key code input screen inputs the code string registered as the encryption and decryption key when the moving image file is generated.
  • the CPU 51 extracts the encrypted moving image data included in the actual data portion 82 of the moving image file read to the RAM 52 in step 500. (S550). Further, the CPU 51 performs a decryption process using the code string input in the input field of the key code input screen as a key on the encrypted moving image data extracted in step S550, and acquires the original compressed moving image data. (S 560). On the other hand, the CPU 51, which has determined in step S530 that the actual data portion 82 contains compressed moving image data, extracts the compressed moving image data (S570).
  • the CPU 51 obtains a series of image data by performing decompression processing in accordance with MPEG on the compressed moving image data acquired in step S560 or extracted in step S570, and the series of image data is obtained.
  • the information is sequentially displayed on the computer display 55 (S580).
  • a user who uses the client device 50 accesses the server device 30 from his client device 50 and forms a data communication path with the server device 30,
  • the server device 30 By sending a command to drive the audio IC 16 or JPEG engine 24 of the camera device 10, the sound data of the sound collected from the monitored area of the camera device 10 or the monitored area is imaged. It is possible to receive the distribution of compressed image data of the obtained image.
  • a command for instructing driving of the audio IC 16 or the JPEG engine 24, sound data and compressed image data generated according to the command, Event data is exchanged via a single data communication path that was initially created.
  • remote operation of the camera device 10 via the server device 30 and acquisition of data obtained by the operation are realized without individually securing a plurality of data communication paths between the server device 30 and the client device 50. be able to. Also, it is only necessary to secure one port as the transfer destination for each of these types of data. Furthermore, since only one port number of the port used for data exchange between the server device 30 and the client device 50 needs to be designated, it can be easily changed later. Therefore, even if the port number is leaked to the Service-to-Self, it is possible to exchange data afterwards after changing to a new port number.
  • the ASIC 19 built in the camera apparatus 10 is customized so as to function as the JPEG engine 24.
  • the camera device 10 compresses image data, which is bitmap data of an image within the field of view of its wide-angle lens 11, by the JPEG engine 24, and transmits the compressed image data to the server device 30. Therefore, it is not necessary to install a module for compressing image data on the server device 30 side, so that the processing load can be reduced.
  • the compressed image data has a smaller data volume than uncompressed bitmap data, traffic on the USB cable 80 can be reduced.
  • the server device 30 includes the video output connector 17 and the audio output connector 18, and if a display or a headphone is connected to both the connectors, an image captured by the server device 30 can be obtained. The collected sound can be confirmed immediately. Therefore, dedicated monitoring personnel are resident at the installation location of the server device 30 and direct monitoring by the monitoring personnel is performed via the display and headphones connected to the server device 30.
  • the client device 50 acquires MPEG compressed moving image data from a series of image data transmitted from the server device 30, and a moving image file including the moving image data is set as an ID. Security management using passwords is performed and stored on the hard disk 54.
  • the compressed video data can be included in the video file after being encrypted using the code string input by the user as a key, and such encryption processing must not be performed! / Compressed video data It can also be included in the aisle. Therefore, the user who uses the client device 50 can use the force S to ensure the security of the moving image file obtained by operating the power device 10 more reliably.
  • the present invention can be modified in various ways.
  • the color conversion processing unit 23, the JPEG engine 24, and the USB communication control unit 25 of the camera device 10 are formed by the ASIC 19.
  • these units may be formed by other hardware such as DSP (Digital Signal Processor).
  • each unit may be realized in software by a program developed on a memory and a general-purpose arithmetic device such as a CPU that executes the program.
  • the server device 30 when a command is transmitted from the client device 50 that has established a connection with the server device 30, the server device 30 that has received the command is immediately activated.
  • the server device 30 may authenticate each client device 50 using an ID and a password, and receive only a command from the client device 50 that has passed the authentication process! /.
  • the server device 30 when receiving the audio IC drive command or the JPEG engine drive command from the client device 50, the server device 30 immediately starts generating sound data or compressed image data by the camera device 10. It is summer. On the other hand, in addition to the generation of data by manual drive, schedule drive that starts generation of sound data or compressed image data triggered by the arrival of a preset time is enabled. Gore.
  • the client device 50 that has generated the moving image file based on the series of compressed image data received from the server device 30 stores the moving image file in its own hard disk 54.
  • a database server device may be installed on the network, and the moving image file may be stored in the database server device. It is more preferable that a unique ID and password for logging in to the database server device be issued to the user, and that the moving image file be stored and viewed on the condition that the ID and password are used for authentication.
  • the user when generating a moving image file, the user can select whether or not the compressed moving image data is encrypted using the third identification code.
  • the input of the third identification code may be unavoidable, and all compressed moving image data may be encrypted before being included in the moving image file.
  • the video encoder 21 of the camera device 10 is mounted as a module different from the ASIC 19.
  • the ASIC 19 may have a function of decompressing the compressed image data, and the video encoder 21 may not be installed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Storage Device Security (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Television Signal Processing For Recording (AREA)

Description

明 細 書
動画像ファイルおよび画像データ処理装置
技術分野
[0001] 本発明は、動画像ファイル、および画像データ処理装置に関する。
背景技術
[0002] 監視カメラとクライアント装置の間に配置され、クライアント装置から受信したコマンド に従って監視カメラを稼動させて得た監視画像データをクライアント装置に送信する サーバ装置が知られている。たとえば、特許文献 1に開示されたサーバ装置は、マイ クゃスピーカを搭載している。このサーバ装置は、マイクにより収音した音の音データ をクライアント装置へ送信したり、クライアント装置からのコマンドに従ってスピーカか ら放音したりと!/、つた制御を行うようになって!/、る。
特許文献 1 :特開 2005— 318412号公報
発明の開示
発明が解決しょうとする課題
[0003] ところで、特許文献 1に開示された類のシステムを利用するユーザの多くは、監視力 メラからビデオデータとして送信されてくる一連の画像データを自らのクライアント装 置にて動画像ファイル化し、固有の IDとパスワードによるセキュリティ管理を施した上 でデータベースなどのリソースに蓄積記憶している。蓄積記憶される動画像ファイル は不特定多数人に流出する可能性もあるため、 IDとパスワードによるセキュリティの 確保自体は必須の措置とレ、える。
[0004] しかしながら、この場合、 IDやパスワードまでもが流出してしまうと、動画像ファイル のセキュリティを確保できな!/、と!/、う問題がある。
[0005] 本発明は、このような背景の下に案出されたものであり、監視カメラを稼動させて得 た動画像ファイルのセキュリティをより確実に確保し得るような仕組みを提供すること を目的とする。
課題を解決するための手段
[0006] 上記課題を解決するため、本発明の好適な態様である動画像ファイルは、あるコー ド列をキーとして用いた共通鍵暗号化処理を動画像データに施して得た暗号化動画 像データを含む実体データ部と、上記動画像データに共通鍵復号化処理を施すハ 一ドウエアに入力される 2つのコード列の各々と照合され、当該入力された 2つのコー ド列の各々と一致するときに上記ハードウェアによって共通鍵復号化処理が施される 識別コード列である第 1の識別コード列および第 2の識別コード歹 IJ、および上記共通 鍵暗号化処理に用いられたコード列である第 3の識別コード列を含むヘッダ部とを有 する。
[0007] この態様にぉレ、て、前記ヘッダ部は、前記暗号化動画像データを復号化して得ら れる動画像データをなす一連の画像データのフレーム数を示すフレーム数データと 、上記一連の画像データの記録時刻を示す記録時刻データとをさらに含んでもよ!/ヽ
[0008] 本発明の別の好適な態様である画像データ処理装置は、動画像データを入力する 画像データ入力手段と、第 1、第 2、および第 3の識別コード列を入力するコード列入 力手段と、上記コード列入力手段から入力される第 3の識別コード列をキーとして用 いた共通鍵暗号化処理を施すことにより、暗号化動画像データを取得する暗号化処 理手段と、上記コード列入力手段から入力された第 1、第 2、および第 3の識別コード 列を含む八ッダ部と上記暗号化処理手段が取得した暗号化動画像データを含む実 体データ部とを有する動画像ファイルを生成するファイル生成手段と、を備える。
[0009] この態様において、識別コード列の入力を求めるメッセージを出力するメッセージ 出力手段と、上記メッセージ出力手段からメッセージを出力した後に、第 1、第 2、お よび第 3の識別コード列が前記コード列入力手段から再び入力されると、入力された 第 1および第 2の識別コード列の各々が前記生成した動画像ファイルのヘッダ部に含 まれる第 1および第 2の識別コード列の各々と一致するか否か判断する判断手段と、 識別コード列の各々がー致すると上記判断手段が判断したとき、前記生成した動画 像ファイルの実体データ部に含まれる暗号化動画像データに、上記入力された第 3 の識別コード列をキーとして用いた共通鍵復号化処理を施すことにより、動画像デー タを取得する復号化処理手段と、をさらに備えてもよい。
発明の効果 [0010] 本発明によると、監視カメラを稼動させて得た動画像ファイルのセキュリティをより確 実に確保することカでさる。
図面の簡単な説明
[0011] [図 1]実施形態に力、かるデバイス駆動制御システムの全体構成図である。
[図 2]カメラ装置のハードウェア概略構成図である。
[図 3]広角レンズとイメージセンサの位置関係を示す図である。
[図 4]サーバ装置のハードウェア概略構成図である。
[図 5]サーバ装置の起動処理を示すフローチャートである。
[図 6]クライアント装置のハードウェア概略構成図である。
[図 7]動画像ファイル生成処理を示すフローチャートである(前半部分)。
[図 8]動画像ファイル生成処理を示すフローチャートである(後半部分)。
[図 9]動画像ファイルのデータ構造図である。
[図 10]動画像ファイル再生処理を示すフローチャートである(前半部分)。
[図 11]動画像ファイル再生処理を示すフローチャートである(後半部分)。
符号の説明
[0012] 10···カメラ装置、 11···広角レンズ、 12···イメージセンサ、 13·· -SDRAM, 14---S RAM, 15…マイクロホン、 16…音声 IC、 17…ビデオ出力コネクタ、 18…オーディオ 出力コネクタ、 19〜ASIC、 20〜USBコネクタ、 21···ビデオエンコーダ、 30···サー ノ 装置、 31…電源入力部、 32…電源スィッチ、 33…リセットスィッチ、 34---MCU, 3 5·· -SDRAM, 36…フラッシュメモリ、 37---USBコネクタ、 38---UART, 39…ォー ディォコーデック、 40···イーサネット (登録商標)コントローラ、 41···カメラデバイス駆 動制御部、 42···サーバデバイス駆動制御部、 43···クライアント接続制御部、 44···ォ 一ディォデータ送信制御部、 45…ビデオデータ送信制御部、 46···サーバイベント通 知制御部、 47— USB通信制御部、 48···汎用入出力ポート、 50···クライアント装置、 51' CPU (暗号化処理手段、ファイル生成手段、メッセージ出力手段、判断手段、 および復号化処理手段に相当)、 52·· -RAM, 53---ROM, 54· ハードディスク、 55 …コンピュータディスプレイ、 56…マウス、 57···キーボード(コード列入力手段に相当 )、 58· ··ネットワークインターフェースカード(画像データ入力手段に相当 ) 発明を実施するための最良の形態
[0013] (発明の実施の形態)
本発明の実施形態について説明する。
図 1は、本実施形態に力、かるデバイス駆動制御システムの全体構成を示す図であ る。図 1に示すように、このデバイス駆動制御システムは、カメラ装置 10とサーバ装置 30とを、 USB (Universal Serial Bus)ケーブル 80により接続する。そして、サーバ装 置 30と複数台のクライアント装置 50の各々を、ネットワーク 90を介してそれぞれ接続 してレヽる。ィ、ットワーク 90ίュ、 TCP/IP ^ Transmission Control Protocol/Internet Prot ocol)に従ったデータ通信を行う複数のノードの集合体である。
[0014] 本システムは、駐車場や店舗などといった、監視を要する場所にカメラ装置 10を備 え付け、サーバ装置 30による制御の下にそのカメラ装置 10に被監視領域内を撮像 させて得た画像データを、クライアント装置 50へ配信する。さらに、クライアント装置 5 0は、サーバ装置 30から配信される一連の画像データを動画像ファイル化する。
[0015] 図 2は、カメラ装置 10のハードウェア概略構成を示す図である。図 2に示すように、 カメラ装置 10は、広角レンズ 11、イメージセンサ 12、 SDRAM(Synchronous DRAM) 13、 SRAM (Static Random Access Memory) 14、マイクロホン 15、音声 IC (Integrat ed Circuit) 16、ビデオ出力コネクタ 17、オーディオ出力コネクタ 18、 ASIC (Applicati on Specific Integrated Circuit) 19、 USBコネクタ 20、およびビデオエンコーダ 21を 備える。
[0016] これら各部について詳述すると、まず、広角レンズ 11は、 180度以上の広視野角を 持つ、いわゆる魚眼レンズである。魚眼レンズの射影方式としては、立体射影方式、 等距離射影方式、等立体射影方式、正射影方式などがあるが、望ましくは、レンズに 結像される像の周辺部のゆがみがより小さな立体射影方式のものであるとよい。図 1 に示すように、この広角レンズ 11は、カメラ装置 10のハウジング 26の上面に露出され ている。イメージセンサ 12は、 CMOS (Complementary Metal Oxide Semiconductor) を用いた光電変換センサであり、複数の受光素子をたとえば縦横 3 : 4の比率でマトリ ックス状に配列した受光面を有する。
[0017] 図 3は、広角レンズ 11とイメージセンサ 12の受光面の光学的な位置関係を示す図 である。図 3に示すように、イメージセンサ 12は、その受光面の略垂直方向に広角レ ンズ 11が位置する姿勢で配設される。広角レンズ 11が 180度以上の広視野角を有 することは上述したところであり、その視野角内から広角レンズ 11に集光された被監 視領域の像は、イメージセンサ 12の受光面に結像する。すると、イメージセンサ 12は 、その受光面の複数の受光素子の各々の受光光量を示す光量値を読み込み、読み 込んだ光量値を受光面と同じ縦横比の四角形の画像として並べた輝度分布データ を生成する。
[0018] 図 2において、マイクロホン 15は、収音した音の波形信号を生成して音声 IC16へ 供給する。図 1に示すように、サーバ装置 30の上面には通気孔 22が形成されており 、マイクロホン 15は、この通気孔 22の下側に配設されている。音声 IC16は、マイクロ ホン 15から供給される波形信号をオーディオ出力コネクタ 18へ出力する。また、この 音声 IC16は、音データの生成を指示する制御信号が自らへ供給されると、マイクロ ホン 15から供給される波形信号を所定の時間長毎にサンプリングし、そのサンプリン グにより得た音データを ASIC19へ供給する。そして、 ASIC19は、音声 IC16から供 給されてくる音データを SDRAM13に記憶させる。図 1に示すように、オーディオ出 力コネクタ 18は、カメラ装置 10のハウジング 26の側面に露出されている。よって、こ のオーディオ出力コネクタ 18にスピーカやヘッドフォンを接続すれば、マイクロホン 1 5が収音した音を放音させることができる。
[0019] ASIC19は、色変処理部 23、 JPEGエンジン 24、および USB通信制御部 25として 動作するようにカスタマイズされている。そして、 SRAM14は、色変処理部 23、 JPE Gエンジン 24、および USB通信制御部 25として ASIC19が動作する際のワークエリ として禾 lj用される。
[0020] 色変換処理部 23は、イメージセンサ 12から順次入力される受光素子の光量値を R GB (Red-Green-Blue)表色系の各色のメトリタス値と置き換えて画像データを取得す る。この色変換処理部 23によって取得される画像データは、一枚の画像を成す各画 素の濃度を、たとえば、 RGB256階調により表したビットマップデータである。取得さ れた画像データは、 SDRAM 13に記憶される。
[0021] JPEGエンジン 24は、圧縮画像データの生成を指示する制御信号が自らに供給さ れると、 SDRAM13に記憶された画像データに JPEG (Joint Photographic Experts Group)方式に従った圧縮処理を施し、その圧縮処理により得た圧縮画像データを S DRAM13に記憶させる。圧縮の手順の概要を示すと以下のようになる。まず、画像 を所定の画素数毎のブロック単位で離散コサイン変換 (DCT)処理および量子化処 理することで、ブロック単位での空間周波数成分を得る。画像のブロック単位の周波 数成分は、ブロック単位の直流成分と、ブロック単位の複数の交流成分とで構成され る。次に、画像の周波数成分毎のエントロピー符号化処理をして、画像のデータ量を 減らす。画像の直流成分は、ハフマン符号化などの予測符号化により符号化し、画 像の各交流成分は、算術符号化などのランレングス符号化により符号化する。そして 、それらの符号化により得たビットストリームにヘッダデータを付加することにより、圧 縮画像データが取得される。また、この圧縮画像データは、 SDRAM13から読み出 され、ビデオエンコーダ 21へ供給されるようにもなつている。圧縮画像データの供給 を受けたビデオエンコーダ 21は、その圧縮画像データを伸張して得た画像信号を、 ビデオ出力コネクタ 17から出力する。図 1に示すように、ビデオ出力コネクタ 17は、力 メラ装置 10のハウジング 21の側面に露出されている。よって、このビデオ出力コネク タ 17にディスプレイを接続すれば、出力される画像データの画像を表示させることが できる。
USB通信制御部 25は、 USBの規格に従った手順でデータの伝送を行う。この US B通信制御部 25は、音データまたは圧縮画像データの生成を指示する制御信号を USBコネクタ 20を介して受信し、その制御信号を音声 IC 16または JPEGエンジン 24 へ供給する。また、 USB通信制御部 25は、自らが供給した制御信号に応じて音声 I C16または JPEGエンジン 24が駆動することによって得られた音データまたは圧縮画 像データが、 SDRAM 13に記憶されると、その記憶されたデータを USBコネクタ 20 からサーバ装置 30へ送信する。 USBの規格では、伝送する各種データを個別に記 憶させる、「エンドポイント」と呼ばれる複数のバッファを双方の装置に確保する。そし て、両装置の各々のエンドポイント同士を結ぶ、「パイプ」と呼ばれる複数の論理的な 通信線を介してデータの伝送が行われる。 USB通信制御部 25は、まず、「コンフィギ ユレーシヨン」と呼ばれる設定処理をサーバ装置 30との間で執り行い、自らとサーバ 装置 30との通信に必要な数のエンドポイントおよびパイプを確保する。
[0023] 上述したように、本実施形態では、カメラ装置 10のデバイスを駆動させるための制 御信号、その制御信号に応じてカメラ装置 10からサーバ装置 30 返信される音デ ータ、および圧縮画像データの 3種のデータが USBケーブル 80内を伝送される。よ つて、コンフィギュレーションでは、 3つ以上のデータ伝送用のパイプが確保される必 要がある。コンフィギュレーションの完了後、音声 IC16または JPEGエンジン 24から 各々に固有のエンドポイントにバッファリングされる音データおよび圧縮画像データ は、「トランザクション」と呼ばれる単位で読み出される。さらに、そのトランザクションを 複数取り纏めた「フレーム」と呼ばれる単位で USBケーブル 80内を伝送される。この 伝送は、概ね 1ミリ秒/フレームごとに行われる。一方で、同様の手順でサーバ装置 30から伝送されてエンドポイントに記憶される制御信号は、音声 IC16または JPEGェ ンジン 24へ直ちに供給される。
[0024] 図 4は、サーバ装置 30のハードウェア構成を示す図である。図 4に示すように、サー バ装置 30は、電源入力部 31、電源スィッチ 32、リセットスィッチ 33、 MCU (Micro C ontroller Unit) 34、 SDRAM (Synchronous DRAM) 35、フラッシュメモリ 36、 USBコ ネクタ 37、 UART (Universal Asynchronous Receiver Transmitter) 38、ォーアイオコ 一デック 39、およびイーサネット(登録商標)コントローラ 40を、例えば、 PCKPeriphe
[0025] 電源入力部 31は、装置内に電力を供給する。電源スィッチ 32は、装置の起動を指 示する。リセットスィッチ 33は、装置の各種設定のリセットを指示する。 MCU34は、 S DRAM35をワークエリアとして適宜利用しつつフラッシュメモリ 36に記憶された各種 プログラムを実行することで、カメラデバイス駆動制御部(Camera Device Control Mo dule) 41、サーバデバイス駆動制御部(Server Control Module) 42、クライアント接続 制御部(Client Connection Module) 43、オーディオデータ送信制御部(Audio Comm unication Module) 44、ビデオデータ送信制卸部 (Video Network Transfer Module) 4 5、およびサーバイベント通知制御部(Server Event Notify Module) 46を論理的に実 現する。これら各部の機能については後に詳述する。また、この MCU34のハードウ エア資源の一部は、 USB通信制御部 47および汎用入出力ポート(GPIO : General P urpose Input Output) 48として機能する。
[0026] USB通信制御部 47は、音データまたは圧縮画像データの生成を指示する制御信 号を USBコネクタ 37を介してカメラ装置 10へ伝送する。この制御信号の生成はカメ ラデバイス駆動制御部 41が執り行う。また、 USB通信制御部 47は、その制御信号に 応じてカメラ装置 10が生成した音データまたは圧縮画像データを USBコネクタ 37を 介して受信する。なお、サーバ装置 30とカメラ装置 10の USBコネクタ同士を繋ぐ US Bケーブル 80はシリアル信号としてデータを伝送する一方、サーバ装置 30内にて M CU34などの各素子を繋ぐ PCIバスはパラレル信号としてデータを伝送する。よって 、サーバ装置 30内で生成されたデータであってカメラ装置 10へ送るデータは、 UAR T38にてシリアル信号化されてから、 USBコネクタ 37を介した伝送に供される。また 、 USBコネクタ 37から入力されるデータは、 UART38にてパラレル信号化されてか ら、 MCU34などによる以降の処理に供される。
[0027] 汎用入出力ポート 48は、 3つの信号出力端子と 2つの信号入力端子とを有している 。信号出力端子には、ランプ 91、アラーム 92、ファン 93がそれぞれ接続される。これ らのランプ 91、アラーム 92、およびファン 93の各々は、カメラ装置 10の近傍に備え 付けられている。そして、ランプ 91は、例えば、 A.C 5V以上のピーク電圧の制御信 号が信号出力端子を介して MCU34から出力されてくると、所定の波長の光を点灯 する。アラーム 92は、制御信号が信号出力端子を介して出力されてくると、所定の波 長の音を放音する。また、ファン 93は、制御信号が信号出力端子を介して出力され てくると、回転する。一方、汎用入出力ポート 48の信号入力端子には、 2つの光学式 センサ 94, 95がそれぞれ接続される。これらの両センサ 94, 95は、被監視域内に各 々のセンシング視野を向けて備え付けられている。そして、自らのセンシング視野内 に物体が進入したことを検知すると、例えば、 A.C 5V以上のピーク電圧の電気信号 を信号入力端子を介して MCU34へ入力する。
[0028] オーディオコーデック 39は、図示しないコネクタを介してマイクロホン 96およびスピ 一力 97の各々と接続されている。このオーディオコーデック 39は、マイクロホン 96力、 ら入力される音の波形信号をエンコードして得た音データを MCU34へ供給する。ま た、オーディオコーデック 39は、 MCU34から供給される音データをデコードして得 た波形信号をスピーカ 97^供給する。
[0029] イーサネット(登録商標)コントローラ 40は、 TCP/IPのネットワークインターフエ一 ス層に属するプロトコルに従った手順で、他のノードとの間でデータ通信を行う。この ネットワークインターフェース層には、イーサネット(登録商標)プロトコル(Ethernet (登 録商標) Protocol)などの複数のプロトコルが含まれる。ネットワークインターフェース 層よりも上位の、インターネット層、トランスポート層、およびアプリケーション層に属す るデータ通信のための処理は、次に説明するクライアント接続制御部 43が司る。この イーサネット(登録商標)コントローラ 40は、それらの上位の各層の処理を通じて TCP ヘッダおよび IPヘッダが付加されたパケットを、クライアント接続制御部 43から取得 する。そして、そのパケットの IPヘッダに含まれる宛先の IPアドレスを基に自らのルー ティングテーブルを照合することで、宛先の IPアドレスまでの経路上の直近のノードを 突き止める。そして、そのノードの MAC (Media Access Control)アドレスを含むィー サネット(登録商標)ヘッダをパケットに付加して得たフレームを、ネットワーク 90に送 出する。すると、そのフレームは、複数のノードをルーティングされて宛先の IPァドレ スまで転送される。一方、イーサネット (登録商標)コントローラ 40は、他のノードから 転送されてきたフレームに含まれるパケットの宛先の IPアドレスが自装置のものであ るときは、そのパケットをクライアント接続制御部 43へ供給する。
[0030] 次に、 MCU34により実現される各部について説明する。クライアント接続制御部 4 3は、自装置またはカメラ装置 10に内蔵されたデバイスの駆動を指示するコマンドを クライアント装置 50から受信してカメラデバイス駆動制御部 41またはサーバデバイス 駆動制御部 42へ供給する。そして、サーバデバイス駆動制御部 42は、そのコマンド に応じた制御信号を、汎用入出力ポート 48に接続されたデバイス(ランプ 91、アラー ム 92、ファン 93)へ供給する。
[0031] 一方、カメラデバイス駆動制御部 41は、自らに供給されるコマンドに応じた制御信 号を、カメラ装置 10へ供給する。そして、その制御信号に従い、カメラ装置 10に内蔵 されたデバイス(音声 IC16または JPEGエンジン 24)が駆動すると、駆動の結果とし て得られる音データまたは圧縮画像データがカメラ装置 10からサーバ装置 30へ伝 送される。サーバ装置 30のオーディオデータ送信制御部 44およびビデオデータ送 信制御部 45は、それらの伝送されたデータをクライアント接続制御部 43を介してクラ イアント装置 50へ送信する。
[0032] また、センシング視野内に物体が進入したことを検知したセンサ 94, 95から汎用入 出力ポート 48を介して電気信号が入力されると、サーバイベント通知制御部 46は、 センサ 94, 95が物体を検知したことを示すイベントデータを、クライアント接続制御部 43を介してクライアント装置 50へ送信する。
[0033] これら各部の処理についてさらに詳述する。クライアント接続制御部 43は、 自装置 にアクセスしてきたクライアント装置 50との間でコネクションを確立する。このコネクシ ヨンの確立は、トランスポート層に属するプロトコルの 1つである TCPに従った以下の 手順で行われる。まず、コネクションの確立を求める、 SYN (Synchronize)のコードビッ トを TCPヘッダに含むパケットが、クライアント装置 50からクライアント接続制御部 43 へ送信される。そのパケットを受信したクライアント接続制御部 43は、 AC (Acknowle dgement)と SYNのコードビットを含むパケットをクライアント装置 50へ返信する。そして 、クライアント装置 50から、 ACKのコードビットを含むパケットがクライアント装置 50へ 送信されることにより、以降の両者のデータ伝送に用いられるデータ通信路が形成さ れる。この形成されたデータ通信路は、クライアント装置 50またはクライアント接続制 御部 43の一方から、 ACKと FIN (Finish)のコードビットを含むパケットが他方へ送信さ れるまで維持される。なお、クライアント接続制御部 43は、マルチタスクによる時分割 処理を行うことにより、同時に複数のクライアント装置 50と個別のデータ通信路を形 成し、それらを維持することが可能である。
[0034] サーバ装置 30とクライアント装置 50との間にデータ通信路が形成されると、サーバ 装置 30またはカメラ装置 10に内蔵されたデバイスの駆動を指示するコマンドが、そ のクライアント装置 50から送信される。コマンドには、ランプ 91の駆動を指示するラン プ駆動コマンド、アラーム 92の駆動を指示するアラーム駆動コマンド、ファン 93の駆 動を指示するファン駆動コマンド、カメラ装置 10の音声 IC16の駆動を指示する音声 I C駆動コマンド、 JPEGエンジン 24の駆動を指示する JPEGエンジン駆動コマンドの 5 種がある。これら 5種のいずれが送信されるかは、クライアント装置 50の操作に依存し て決定付けられる。 [0035] クライアント装置 50からサーバ装置 30へコマンドが送信されると、サーバ装置 30の クライアント接続制御部 43は、そのコマンドが、ランプ駆動コマンド、アラーム駆動コ マンド、ファン駆動コマンド、音声 IC駆動コマンド、および JPEGエンジン駆動コマンド のいずれかである力、を判断する。そして、ランプ駆動コマンド、アラーム駆動コマンド 、またはファン駆動コマンドであればサーバデバイス駆動制御部 42へ、音声 IC駆動 コマンド、または JPEGエンジン駆動コマンドであればカメラデバイス駆動制御部 41 それぞれ供給する。
[0036] コマンドの供給を受けたサーバデバイス駆動制御部 42は、そのコマンドに応じた制 御信号を汎用入出力ポート 48から出力する。これにより、ランプ 91の点灯、アラーム 92の放音、ファン 93の回転が行われる。一方、コマンドの供給を受けたカメラデバイ ス駆動制御部 41は、そのコマンドに応じて生成した制御信号を USB通信制御部 47 へ供給する。 USB通信制御部 47は、その制御信号を USBコネクタ 37からカメラ装 置 10へ伝送する。カメラ装置 10へ制御信号が伝送されると、制御信号に応じてその 音声 IC16または JPEGエンジン 24が駆動し、駆動の結果として得られた音データま たは圧縮画像データが SDRAM13に記憶される。 USB通信制御部 25は、 SDRA Ml 3に記憶された音データまたは圧縮画像データを USBコネクタ 20からサーバ装 置 30 伝送する。
[0037] カメラ装置 10からサーバ装置 30へ伝送された音データは、 USB通信制御部 47を 介してオーディオデータ送信制御部 44へ供給される。また、カメラ装置 10からサー バ装置 30へ伝送された圧縮画像データは、 USB通信制御部 47を介してビデオデ ータ送信制御部 45^供給される。音データの供給を受けたオーディオデータ送信 制御部 44、および圧縮画像データの供給を受けたビデオデータ送信制御部 45は、 それらのデータを所定のバイト長ずつ内包させて得た一連のパケットを、イーサネット (登録商標)コントローラ 40からクライアント装置 50へ送信する。また、センサ 94, 95 力も汎用入出力ポート 48を介して電気信号が入力されたとき、サーバイベント通知制 御部 46はイベントデータを生成し、そのイベントデータを所定のバイト長ずつ内包さ せて得た一連のパケットを、イーサネット (登録商標)コントローラ 40からクライアント装 置 50 送信する。 [0038] なお、音データおよび圧縮画像データの送信は、駆動のトリガーとなる制御信号が サーバ装置 30からカメラ装置 10へ送信されてから、所定の時間長(例えば、 10分、 以下、「デフォルト記録時間長」と呼ぶ)に渡って継続される。したがって、サーバ装 置 30へ音声 IC駆動コマンドを発信したクライアント装置 50には、デフォルト記録時間 長の間のサンプリング数に相当する音声データが送信される。また、 JPEGエンジン 駆動コマンドを発信したクライアント装置 50には、デフォルト記録時間長の間に撮像 されたフレームの各々に相当する画像データを圧縮して得た一連の圧縮画像データ が送信される。さらに、それらの画像データには、各々の記録時刻を示すタイムスタン プが内包される。
[0039] なお、本実施形態では、コマンド、音データ、圧縮画像データ、およびイベントデー タカ 各々に固有のプロトコルに従ってそれぞれパケット化される。つまり、本実施形 態では、コマンド、音データ、圧縮画像データ、およびイベントデータのやりとりに採 用されるネットワーク層のプロトコルが異なる。これにより、性質の異なる 4つのデータ を 1つのデータ通信路を介してやりとりできる。
[0040] ここで、サーバ装置 30の起動操作が行われた後、カメラデバイス駆動制御部 41、 サーバデバイス駆動制御部 42、クライアント接続制御部 43、オーディオデータ送信 制御部 44、ビデオデータ送信制御部 45、およびサーバイベント通知制御部 46の各 部が MCU34に形成されるまでの起動処理について、図 5を参照して説明しておく。
[0041] サーバ装置 30の電源スィッチ 32が投入されると(S 100)、ブートローダ(Boot Load er)が起動され(S I 10)、オペレーティングシステム(Operating System)カーネルが起 動される(S 120)。続いて、 OSのファイルシステムが起動され(S 130)、アプリケーシ ヨンの起動を開始するコマンド(サーバスタートアプリケーション: Start Server Allpicati on)が実行される(S 140)。
[0042] さらに、システムを初期化するためのコマンド(サーバシステムィニシァライズ: Serve r System Initialize)が実行された後(S I 50)、上述した各制御部をそれぞれ実現させ るためのプログラムモジュールをフラッシュメモリ 36からサーチする(S 160)。次に、 各制御部の機能を調停するためのコマンド(コンフィギュレーション: Configuration)の コマンドが実行され(S 170)、カメラデバイス駆動制御部 41を実現するプログラムが 起動される(S180)。
[0043] ステップ S180の実行を経てカメラデバイス駆動制御部 41が実行されると、今度は、 クライアント接続制御部 43を実現するプログラムが起動される(S 190)。そして、ビデ ォデータ送信制御部 45、サーバデバイス駆動制御部 42、サーバイベント通知制御 部 46、およびオーディオデータ送信制御部 44の各部を実現するためのプログラムが それぞれ起動される(S200〜S230)。
[0044] 図 6は、クライアント装置 50のハードウェア概略構成を示す図である。図 5に示すよ うに、クライアント装置 50は、 CPU (Central Processing Unit) 51 (暗号化処理手段、 ファイル生成手段、メッセージ出力手段、判断手段、および復号化処理手段に相当) 、 RAM (Random Access Memory) 52、 ROM (Read Only Memory) 53、ノヽードデイス ク 54、コンピュータディスプレイ 55、マウス 56、キーボード 57 (コード列入力手段に相 当)、およびネットワークインターフェースカード 58 (画像データ入力手段に相当)を、 例えば、 PCIシステムバスにより接続する。
[0045] CPU51は、 RAM52をワークエリアとして利用しつつ ROM53やハードディスク 54 に記憶された各種プログラムを実行することにより、装置全体を制御する。ネットヮー クインターフェースカード 58は、 TCP/IPのネットワークインターフェース層に属する プロトコルに従った手順で、他のノードとの間でデータ通信を行う。ネットワークインタ 一フェース層よりも上位の層に属する、データ通信のための処理は、各種プログラム を実行する CPU51によってソフトウェア的に実現される。
[0046] ROM53には、 IPL (Initial Program Loader)などの簡易なプログラムが記憶される 。ハードディスク 54には、通信制御プログラム 54a、コマンド制御プログラム 54b、ィべ ント提示プログラム 54c、動画像データ生成プログラム 54d、動画像データ暗号化プ ログラム 54e、および動画像データ復号化プログラム 54fが記憶される。
[0047] 通信制御プログラム 54aは、ネットワークインターフェース層よりも上位の層に属する 処理を司る。コマンド制御プログラム 54bは、マウス 56およびキーボード 57の操作を 介して指定された各種コマンド (ランプ駆動コマンド、アラーム駆動コマンド、ファン駆 動コマンド、音声 IC駆動コマンド、 JPEGエンジン駆動コマンド)を送信する処理を司 る。イベント提示プログラム 54cは、サーバ装置 30からイベントデータを受信した旨の メッセージをコンピュータディスプレイ 55に表示させる処理を司る。動画像データ生 成プログラム 54dは、 JPEGエンジン駆動コマンドに応答してサーバ装置 30から送信 されてくる一連の圧縮画像データを MPEG (Moving Picture Experts Group)の動画 像ファイル化する処理を司る。動画像データ暗号化プログラム 54eは、動画像データ に暗号化処理を施す処理を司る。動画像データ復号化プログラム 54fは、動画像デ 一タに復号化処理を施す処理を司る。
[0048] 次に、本実施形態の特徴的な動作である動画像ファイル生成処理および動画像フ アイル再生処理につ!/、て説明する。
[0049] 図 7および図 8は、動画像ファイル生成処理を示すフローチャートである。図 7およ び図 8に示す一連の処理は、 JPEGエンジン駆動コマンドをサーバ装置 30へ送信し た後、そのコマンドに応じて JPEGエンジン 24が駆動することによって得られた最初 の圧縮画像データを受信したことをトリガーとして開始される。
[0050] 圧縮画像データを受信したクライアント装置 50の CPU51は、その圧縮画像データ を RAM52に記憶させた後(S300)、所定の時間長に渡って次の圧縮画像データの 送信を待つ。そして、その時間長の間に次の圧縮画像データを受信すると、ステップ 300に戻り、その圧縮画像データを RAM52に記憶させる。一方、所定の時間長が 経過しても次の圧縮画像データを受信しなければ、 RAM52にそれまで記憶した一 連の圧縮画像データの各々に伸張処理を施すことにより、一連の画像データを復元 する(S310)。このステップ 310で取得される一連の画像データの各々は、ビットマツ プデータである。ステップ 310で一連の画像データを取得した CPU51は、それらの 一連の画像データに MPEG (Moving Picture Experts Group)方式に従った圧縮処 理を施すことにより、圧縮動画像データを取得する(S320)。
[0051] 続いて、 CPU51は、認証コード登録画面をコンピュータディスプレイ 55に表示させ る(S330)。この画面には、「IDおよびパスワードとして登録する識別コード列を入力 して下さい。」という内容の文字列が表示される。そして、その文字列の下には、コー ド列をそれぞれ入力するための 2つの入力欄が表示される。認証コード登録画面を 参照したユーザは、マウス 56およびキーボード 57を操作することにより、各入力欄に コード列をそれぞれ入力する。 [0052] CPU51は、認証コード登録画面の 2つの入力欄にコード列が入力されると、それら のコード列を RAM52に記憶させる(S340)。続いて、 CPU51は、暗号化問合せ画 面をコンピュータディスプレイ 55に表示させる(S350)。この画面には、「動画像デー タを喑号化しますか。」という内容の文字列が表示される。その下には、「はい」、およ び「レ、レ、え」とそれぞれ記したボタンが表示される。認証コード登録画面を参照した利 用者は、「はい」、および「いいえ」のいずれかのボタンを選択する。
[0053] 認証コード登録画面にて、「はい」が選択されると、 CPU51は、キーコード登録画 面をコンピュータディスプレイ 55に表示させる(S360)。この画面には、「暗号化およ び復号化のキーとして登録する識別コードを入力してください。共通鍵方式に従って 暗号化および復号化が行われますので、入力した識別コードは秘密にしておいてく ださい。」という内容の文字列が表示される。そして、その文字列の下には、コード列 を入力するための 1つの入力欄が表示される。キーコード登録画面を参照した利用 者は、マウス 56およびキーボード 57を操作することにより、入力欄にコード列を入力 する。
[0054] CPU51は、キーコード入力画面の入力欄にコード列が入力されると、そのコード列 を RAM52に記 '慮させる(S370)。さらに、 CPU51は、ステップ S370で RAM52に 記憶させたコード列をキーとして用いた暗号化処理を、ステップ S320で取得した圧 縮動画像データに施し、暗号化動画像データを取得する(S380)。一方、暗号化問 合せ画面にて、「いいえ」が選択されると、ステップ S350〜ステップ S380を実行する ことなく、次のステップに進む。
[0055] 続いて、 CPU51は、動画像ファイルを生成し(S390)、その動画像ファイルをハー ドディスク 54の空き領域に記憶させる(S400)。図 9は、暗号化問合せ画面にて「は い」が選択された場合にステップ S390で生成される動画像ファイルのデータ構造図 である。図 9に示す動画像ファイルは、ヘッダ部 81と実データ部 82とを有する。へッ ダ部 81には、第 1識別コード列 83、第 2識別コード列 84、第 3識別コード列 85、フレ ーム数データ 86、および記録時刻データ 87が内包される。第 1識別コード列 83は、 ステップ S340で RAM52に記憶された 2つのコード列のうち、認証コード登録画面に て IDとして入力されたコード列である。第 2識別コード列 84は、ステップ S340で RA M52に記憶された 2つのコード列のうち、認証コード登録画面にてパスワードとして 入力されたコード列である。第 3識別コード列 85は、ステップ S370にて RAM52に記 憶されたコード列である。また、フレーム数データ 86は、動画像データとして圧縮され た静止画の数であり、ステップ S300のループを経て RAM52に記憶された圧縮画像 データの数を示す値である。記録時刻データ 87は、ステップ 300にて RAM52に最 初に記憶された圧縮画像データに含まれるタイムスタンプと、以降のループを経て R AM52に最後に記憶された圧縮画像データに含まれるタイムスタンプである。実デ ータ部 82には、ステップ S380で取得された暗号化動画像データ 88が内包される。 一方、暗号化問合せ画面にて「いいえ」が選択された場合、ヘッダ部 81に第 3識別コ ード列 85は含まれず、また、実データ部 82には、ステップ S320で取得された圧縮動 画像データがそのまま内包されることになる。
[0056] 図 10および図 11は、動画像ファイル再生処理を示すフローチャートである。図 10 および図 11に示す一連の処理は、クライアント装置 50のマウス 56およびキーボード 57が操作されることにより、動画像ファイルの再生が指示されたことをトリガーとして開 始される。動画像ファイルの閲覧が指示されると、クライアント装置 50の CPU51は、 そのコマンドの指示にかかる動画像ファイルをハードディスク 54から RAM52へ読み 出す(S500)。
[0057] 続いて、 CPU51は、認証コード入力画面をコンピュータディスプレイ 55に表示させ る(S510)。この画面には、「IDおよびパスワードを入力してください。」という内容の 文字列が表示される。そして、その文字列の下には、コード列をそれぞれ入力するた めの 2つの入力欄が表示される。認証コード入力画面を参照した利用者は、動画像 ファイルの生成時に IDおよびパスワードとして登録しておいたコード列をそれぞれ入 力する。
[0058] CPU51は、認証コード入力画面の 2つの入力欄にコード列が入力されると、その 対をなすコード列の各々 、ステップ 500で RAM52に読み出した動画像ファイルの ヘッダ部 81の第 1識別コード列 83および第 2識別コード列 84と一致するか否か判断 する(S520)。
[0059] ステップ S520にてコード列の一方または両方が一致しないと判断した CPU51は、 認証コードの再入力を促すベぐステップ 510に戻る。一方、ステップ S520にてコー ド列の両方が一致すると判断した CPU51は、ステップ S500で RAM52に読み出し た動画像ファイルの実データ部 82に暗号化動画像データと圧縮動画像データのい ずれが含まれて!/、るか判断する(S530)。
[0060] ステップ S530にて実データ部 82に暗号化動画像データが含まれていると判断し た CPU51は、キーコード入力画面をコンピュータディスプレイに表示させる(S540) 。この画面には、「復号化のためのキーを入力してください。」という内容の文字列が 表示される。そして、その文字列の下には、コード列を入力するための 1つの入力欄 が表示される。キーコード入力画面を参照した利用者は、動画像ファイルの生成時に 暗号化および復号化のキーとして登録しておいたコード列を入力する。
[0061] CPU51は、キーコード入力画面の入力欄にコード列が入力されると、ステップ 500 で RAM52に読み出した動画像ファイルの実データ部 82に内包されている暗号化 動画像データを抽出する(S550)。さらに、 CPU51は、キーコード入力画面の入力 欄に入力されたコード列をキーとして用いた復号化処理をステップ S550で抽出した 暗号化動画像データに施し、もとの圧縮動画像データを取得する(S 560)。一方、ス テツプ S530にて実データ部 82に圧縮動画像データが含まれていると判断した CPU 51は、その圧縮動画像データを抽出する(S570)。
[0062] CPU51は、ステップ S560で取得し、または、ステップ S570で抽出した圧縮動画 像データに MPEGに従った伸張処理を施すことにより、一連の画像データを取得し 、それらの一連の画像データをコンピュータディスプレイ 55に順次表示させる(S580 )。
[0063] 以上説明した本実施形態によると、クライアント装置 50を利用する利用者は、自ら のクライアント装置 50からサーバ装置 30へアクセスしてサーバ装置 30との間にデー タ通信路を形成し、カメラ装置 10の音声 IC16または JPEGエンジン 24の駆動を指示 するコマンドを送信することにより、カメラ装置 10の被監視領域内から収音した音の 音データ、または、その被監視領域内を撮像して得た画像の圧縮画像データの配信 を受けること力 Sできる。そして、その音声 IC 16または JPEGエンジン 24の駆動を指示 するコマンド、そのコマンドに応じて生成される音データおよび圧縮画像データ、なら びにイベントデータは、はじめに形成された 1つのデータ通信路を介してやりとりされ るようになっている。よって、サーバ装置 30とクライアント装置 50の間で複数のデータ 通信路を個別に確保することなぐサーバ装置 30を介したカメラ装置 10の遠隔操作 とその操作により得られたデータの取得とを実現することができる。また、それらの複 数の種類のデータの各々の転送先となるポートも 1つだけ確保すれば済む。さらに、 サーバ装置 30とクライアント装置 50との間のデータのやりとりに用いるポートのポート 番号も 1つだけ指定すればよいので、後から容易に変更することができる。よって、ポ ート番号が悪意者に漏洩するなどしたときも、新たなポート番号へと変更した上で以 降のデータのやりとりを滞りなく行うことができる。
[0064] 上記実施形態において、カメラ装置 10に内蔵される ASIC19は、 JPEGエンジン 2 4として機能するようにカスタマイズされている。そして、カメラ装置 10は、自らの広角 レンズ 11の視野内の像のビットマップデータである画像データをこの JPEGエンジン 2 4により圧縮した上で、サーバ装置 30へ伝送するようになっている。よって、サーバ装 置 30の側に画像データ圧縮のためのモジュールを搭載する必要がなくなるため、そ の処理負担を軽減できる。また、圧縮画像データは非圧縮のビットマップデータよりも データ量が小さ!/、ので、 USBケーブル 80のトラフィックを軽減できる。
[0065] 上記実施形態において、サーバ装置 30は、ビデオ出力コネクタ 17およびオーディ ォ出力コネクタ 18を搭載しており、これら両コネクタにディスプレイやヘッドフォンを接 続すれば、サーバ装置 30の撮像した画像ゃ収音した音を直ちに確認することもでき る。よって、サーバ装置 30の設置場所に専用の監視要員を常駐させ、サーバ装置 3 0に接続したディスプレイやヘッドフォンを介して、監視要員よる直接的な監視を行わ せることあでさる。
[0066] 上記実施形態において、クライアント装置 50は、サーバ装置 30から送信される一 連の画像データから MPEGの圧縮動画像データを取得し、その動画像データを含 む動画像ファイルを、 IDとパスワードとによるセキュリティ管理を施した上でハードディ スク 54に蓄積記憶させるようになつている。また、圧縮動画像データは、利用者が入 力したコード列をキーとする暗号化処理を施した上で動画像ファイルに内包させるこ ともできるし、そのような暗号化処理を施さな!/、圧縮動画像データのままで動画像フ アイルに内包させることもできる。よって、クライアント装置 50を利用する利用者は、力 メラ装置 10を稼動を稼動させて得た動画像ファイルのセキュリティをより確実に確保 すること力 Sでさる。
[0067] (他の実施形態)
本発明は、種々の変形実施が可能である。
[0068] 上記実施形態において、カメラ装置 10の色変換処理部 23、 JPEGエンジン 24、お よび USB通信制御部 25は、 ASIC19により形成されている。これに対し、それら各 部を、たとえば、 DSP (Digital Signal Processor)などの別のハードウェアにより形成し てもよい。また、メモリ上に展開したプログラムとそのプログラムを実行する CPUなど の汎用演算装置とにより、それら各部をソフトウェア的に実現してもよい。
[0069] 上記実施形態では、サーバ装置 30との間にコネクションを確立したクライアント装 置 50からコマンドが送信されると、そのコマンドを受信したサーバ装置 30が直ちに駆 動するようになっている。これに対し、サーバ装置 30が各クライアント装置 50に対して IDとパスワードとによる認証処理を行い、認証処理を経たクライアント装置 50からの コマンドのみを受領するようにしてもよ!/、。
[0070] 上記実施形態において、サーバ装置 30は、音声 IC駆動コマンドまたは JPEGェン ジン駆動コマンドをクライアント装置 50から受信すると、カメラ装置 10による音データ または圧縮画像データの生成を直ちに開始させるようになつている。これに対し、この ようなマニュアル駆動によるデータの生成に加え、あらかじめ設定しておいた時刻に 至ったことをトリガーとして音データまたは圧縮画像データの生成を開始するスケジュ ール駆動ができるようにしてもょレ、。
[0071] 上記実施形態において、サーバ装置 30から受信した一連の圧縮画像データを基 に動画像ファイルを生成したクライアント装置 50は、その動画像ファイルを自らのハ ードディスク 54に記憶させるようになつている。これに対し、データベースサーバ装置 をネットワーク上に設置し、そのデータベースサーバ装置に動画像ファイルを記憶さ せるようにしてもよい。そして、データベースサーバ装置にログインするための固有の I Dとパスワードを利用者に交付し、その IDとパスワードによる認証を条件に、動画像フ アイルの記憶および閲覧がなされるようにするとなおよい。 [0072] 上記実施形態において、動画像ファイルを生成する際、利用者は、第 3の識別コー ドを用いた圧縮動画像データの暗号化の有無を選択できるようになつている。これに 対し、第 3の識別コードの入力を不可避とし、すべての圧縮動画像データに暗号化 処理を施した上で動画像ファイルに内包させるようにしてもよい。
[0073] 上記実施形態において、カメラ装置 10のビデオエンコーダ 21は、 ASIC19とは別 のモジュールとして搭載されている。これに対し、 ASIC19に圧縮画像データの伸張 の機能を持たせ、ビデオエンコーダ 21を搭載しない構成をとつてもよい。

Claims

請求の範囲
[1] あるコード列をキーとして用いた共通鍵暗号化処理を動画像データに施して得た 暗号化動画像データを含む実体データ部と、
上記動画像データに共通鍵復号化処理を施すハードウェアに入力される 2つのコ ード列の各々と照合され、当該入力された 2つのコード列の各々と一致するときに上 記ハードウェアによって共通鍵復号化処理が施される識別コード列である第 1の識別 コード列および第 2の識別コード列、および上記共通鍵暗号化処理に用いられたコ ード列である第 3の識別コード列を含むヘッダ部と、
を有することを特徴とする動画像ファイル。
[2] 前記ヘッダ部は、
前記暗号化動画像データを復号化して得られる動画像データをなす一連の画像 データのフレーム数を示すフレーム数データと、
上記一連の画像データの記録時刻を示す記録時刻データと、
をさらに含むことを特徴とする請求項 1記載の動画像ファイル。
[3] 動画像データを入力する画像データ入力手段と、
第 1、第 2、および第 3の識別コード列を入力するコード列入力手段と、 上記コード列入力手段から入力される第 3の識別コード列をキーとして用いた共通 鍵暗号化処理を施すことにより、暗号化動画像データを取得する暗号化処理手段と 上記コード列入力手段から入力された第 1、第 2、および第 3の識別コード列を含む ヘッダ部と上記暗号化処理手段が取得した暗号化動画像データを含む実体データ 部とを有する動画像ファイルを生成するファイル生成手段と、
を備えた画像データ処理装置。
[4] 識別コード列の入力を求めるメッセージを出力するメッセージ出力手段と、
上記メッセージ出力手段からメッセージを出力した後に、第 1、第 2、および第 3の識 別コード列が前記コード列入力手段から再び入力されると、入力された第 1および第 2の識別コード列の各々が前記生成した動画像ファイルのヘッダ部に含まれる第 1お よび第 2の識別コード列の各々と一致するか否か判断する判断手段と、 識別コード列の各々がー致すると上記判断手段が判断したとき、前記生成した動 画像ファイルの実体データ部に含まれる暗号化動画像データに、上記入力された第 3の識別コード列をキーとして用いた共通鍵復号化処理を施すことにより、動画像デ ータを取得する複号化処理手段と、
をさらに備えた請求項 3記載の画像データ処理装置。
PCT/JP2007/072073 2006-11-16 2007-11-14 Fichier d'images mobiles et processeur de données d'image WO2008059860A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-309819 2006-11-16
JP2006309819A JP2008125034A (ja) 2006-11-16 2006-11-16 動画像ファイルおよび画像データ処理装置

Publications (1)

Publication Number Publication Date
WO2008059860A1 true WO2008059860A1 (fr) 2008-05-22

Family

ID=39401666

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/072073 WO2008059860A1 (fr) 2006-11-16 2007-11-14 Fichier d'images mobiles et processeur de données d'image

Country Status (2)

Country Link
JP (1) JP2008125034A (ja)
WO (1) WO2008059860A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104486083A (zh) 2014-12-19 2015-04-01 小米科技有限责任公司 监控录像处理方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003348079A (ja) * 2002-05-27 2003-12-05 Konica Minolta Holdings Inc 画像形成装置
JP2005318412A (ja) * 2004-04-30 2005-11-10 Canon Inc カメラサーバ、情報処理装置、及びネットワークカメラシステム
JP2006191341A (ja) * 2005-01-06 2006-07-20 Onkyo Corp コンテンツ復号化装置、コンテンツ送信装置およびコンテンツ受信装置
JP2006215912A (ja) * 2005-02-04 2006-08-17 Sony Corp ファイルロック/アンロック用プログラム、記録媒体及び電子ファイル転送処理システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003348079A (ja) * 2002-05-27 2003-12-05 Konica Minolta Holdings Inc 画像形成装置
JP2005318412A (ja) * 2004-04-30 2005-11-10 Canon Inc カメラサーバ、情報処理装置、及びネットワークカメラシステム
JP2006191341A (ja) * 2005-01-06 2006-07-20 Onkyo Corp コンテンツ復号化装置、コンテンツ送信装置およびコンテンツ受信装置
JP2006215912A (ja) * 2005-02-04 2006-08-17 Sony Corp ファイルロック/アンロック用プログラム、記録媒体及び電子ファイル転送処理システム

Also Published As

Publication number Publication date
JP2008125034A (ja) 2008-05-29

Similar Documents

Publication Publication Date Title
JP4898225B2 (ja) アプリケーション装置及びアプリケーション装置の電力の復帰方法
US9392315B1 (en) Remote display graphics
US8786717B2 (en) Information processing apparatus, information processing method and program
WO2017159619A1 (ja) サービス提供システム、サービス授受システム、サービス提供方法、及びプログラム
WO2018012444A1 (en) Service providing system, service communicating system, service providing method and recording medium
WO2012163059A1 (zh) 设备重定向的数据传输的方法、装置及系统
US11128623B2 (en) Service providing system, service delivery system, service providing method, and non-transitory recording medium
US11076010B2 (en) Service providing system, service delivery system, service providing method, and non-transitory recording medium
WO2008059860A1 (fr) Fichier d'images mobiles et processeur de données d'image
JP2000059771A (ja) 画像撮像装置および画像データ利用システム
CN105847669B (zh) 通信设备、通信系统及其控制方法
JP3650349B2 (ja) 画像伝送装置
KR101024129B1 (ko) 화상 배신 장치
JP5328875B2 (ja) 通信装置及び通信装置の電力の復帰方法
US9609378B2 (en) IP camera, communication method and communication system
JP6638808B2 (ja) サービス提供システム、サービス授受システム、サービス提供方法、及びプログラム
JP2006332903A (ja) 鍵取得機器、鍵提供機器、鍵交換システム及び鍵交換方法
WO2008059859A1 (fr) Dispositif serveur commandant l'entraînement d'un dispositif, système de commande d'entraînement d'un dispositif et procédé de commande d'entraînement d'un dispositif
EP4290857A1 (en) A method and a device for providing data from a network camera
JP2005227830A (ja) 画像サーバとプログラム
JP2024016164A (ja) 情報処理方法および情報処理システム
JP2008042631A (ja) デジタルカメラ、及びカメラシステム
JP2007257247A (ja) コンテンツ管理方法、および、それを利用した端末装置、出力装置、コンテンツ管理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07831803

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07831803

Country of ref document: EP

Kind code of ref document: A1