WO2014174763A1 - 処理装置、集積回路、処理方法、およびプログラム - Google Patents

処理装置、集積回路、処理方法、およびプログラム Download PDF

Info

Publication number
WO2014174763A1
WO2014174763A1 PCT/JP2014/001811 JP2014001811W WO2014174763A1 WO 2014174763 A1 WO2014174763 A1 WO 2014174763A1 JP 2014001811 W JP2014001811 W JP 2014001811W WO 2014174763 A1 WO2014174763 A1 WO 2014174763A1
Authority
WO
WIPO (PCT)
Prior art keywords
processing
image
information
data
parameter set
Prior art date
Application number
PCT/JP2014/001811
Other languages
English (en)
French (fr)
Inventor
本坂 錦一
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2014174763A1 publication Critical patent/WO2014174763A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • This disclosure relates to proxy processing of information.
  • Patent Document 1 a system in which a mobile terminal requests proxy processing from a computing capability providing device is known (see Patent Document 1).
  • attribute information extracted from information that the proxy request source apparatus has not performed the compression encoding process for example, the sex of the subject is male
  • information that the proxy request source apparatus has performed the compression encoding process There is no mention of the difference in the attribute information (for example, the sex of the subject is female) extracted by the proxy request destination device, and it is considered that the extracted attribute information may be different.
  • the present disclosure provides a processing device that determines that there is no mismatch of extracted attribute information as described above, that is, an appropriate parameter set to be used in the compression encoding process.
  • the processing device compresses and encodes the first uncompressed information based on the first parameter set, and outputs the first compressed and encoded information, and the first compressed and encoded information as the uncompressed code. And outputting attribute information to the first uncompressed information, outputting first extracted attribute data that is the extracted attribute information, and adding attribute to the second uncompressed information If the image and sound processing unit that performs the extraction process and outputs the second extracted attribute data that is the extracted attribute information is the same as the first extracted attribute data and the second extracted attribute data, the first parameter set is set as the confirmed parameter set. Includes a control unit to determine.
  • a recording medium such as a method, an integrated circuit, a computer program, or a computer-readable CD-ROM, and the method, the integrated circuit, the computer program, and the recording medium. You may implement
  • the processing device of the present disclosure can determine an appropriate parameter set used in the compression encoding process.
  • FIG. 1 is an overall configuration diagram of a processing system according to an embodiment.
  • FIG. 2 is a configuration diagram of the image / audio processing apparatus according to the embodiment.
  • FIG. 3 is a flowchart showing a flow of transmitting encoded image data to an external device in the embodiment.
  • FIG. 4 is a flowchart showing a flow of extraction attribute data transmission in the embodiment.
  • FIG. 5 is a flowchart showing a flow of proxy execution request and proxy execution in the embodiment.
  • FIG. 6A is a diagram showing image processing in the image sound processing apparatus according to the embodiment.
  • FIG. 6B is a diagram illustrating image processing in the image / sound processing proxy execution server according to the embodiment.
  • FIG. 7 is a flowchart showing a flow of processing according to the determination result of whether or not proxy execution is performed in the embodiment.
  • FIG. 8 is a flowchart showing the flow of a proxy processing request to the image / sound processing proxy execution server in the embodiment.
  • FIG. 9 is a flowchart showing a flow related to determination of an encoding parameter set in the embodiment.
  • FIG. 10 shows an example of the correspondence table.
  • FIG. 11 is a diagram showing an example of a list of candidate servers to be executed by proxy for image / audio processing
  • FIG. 12 is a diagram showing an example of a list of candidate servers to be executed by proxy for image / audio processing
  • the digitized surveillance camera encodes video captured by the camera to generate encoded data with a reduced amount of data, and sends the encoded data over an IP network.
  • the resolution of video shot with a surveillance camera has been rapidly increased from VGA (Video Graphics Array) to HD (High Definition), Full HD, Ultra HD, so even if the amount of data is reduced by encoding, The load on the network bandwidth and the storage area of the server is increasing, and further reduction of the data amount is required.
  • VGA Video Graphics Array
  • HD High Definition
  • Ultra HD Ultra HD
  • the surveillance camera instead of sending video or audio recorded by the surveillance camera from the surveillance camera to the server, the surveillance camera performs image processing and audio processing in order to extract attribute information and obtain extracted attribute data.
  • Monitoring cameras with the function of sending only the extracted attribute data, which is the extracted attribute information, or sending the captured video or recorded audio when the extracted attribute data is significant information are gradually being commercialized .
  • general surveillance cameras have only had the function of transmitting captured video and recorded audio, but in the future, surveillance cameras will have image processing functions for extracting attribute information and obtaining extracted attribute data. It is imagined that it will become common to have a voice processing function.
  • Image processing and sound processing for extracting attribute information and obtaining extracted attribute data may be executed by a surveillance camera as an application program.
  • Image processing and audio processing for extracting attribute information are often complicated processes, and thus a large amount of hardware resources such as CPU capacity, memory capacity, and dedicated circuits are often required.
  • Patent Document 1 shows a system in which a computing capability providing apparatus performs a proxy process for a portable terminal, but image processing executed by the computing capability providing apparatus is to encode frame data by intraframe coding, and to compress the frame data. It is not assumed that image processing and audio processing for obtaining extracted attribute data by extracting attribute information by performing decoding processing of the image data is performed.
  • an extraction attribute that is attribute information extracted by the proxy request destination device from information that the proxy request source device has performed compression encoding processing
  • the data for example, the subject's gender is female
  • the extracted attribute data for example, the subject's gender is male
  • the processing apparatus includes: an encoder that compresses and encodes first uncompressed information based on a first parameter set, and outputs first compressed encoded information; A first non-compressed encoding of the first compressed encoded information, and a second non-compressed information output unit; an attribute extraction process for the first non-compressed information; and first extracted attribute data that is the extracted attribute information is output If the first extracted attribute data and the second extracted attribute data are equal to each other, the image sound processing unit that performs the attribute extraction process on the second uncompressed information and outputs the second extracted attribute data that is the extracted attribute information,
  • the control part which determines a 1st parameter set as a definite parameter set is included.
  • the processing apparatus of the present disclosure can determine an appropriate parameter set used in compression encoding. That is, the attribute information extracted from the uncompressed video / audio information that has not undergone the compression encoding process by the processing device is the same as the attribute information extracted from the video / audio information by the image / audio processing proxy execution server. .
  • the determination of the definite parameter set may be performed after the control unit estimates that the usage amount of the hardware resource of the processing device exceeds the maximum allowable usage amount of the hardware resource when the attribute extraction process is performed.
  • the encoding parameter set can be determined at an appropriate time. That is, it is possible to prevent the encoding parameter set from being determined even though the processing apparatus does not request the image / audio processing proxy execution server to perform proxy processing of image processing for attribute extraction.
  • the image / audio processing unit holds a correspondence table indicating encoding parameter set groups corresponding to each of the plurality of attribute extraction processes.
  • Each of the encoding parameter set groups includes a plurality of encoding parameter sets, and includes a plurality of encoding parameter sets.
  • the plurality of attribute extraction processes may include an attribute extraction process
  • the plurality of encoding parameter sets may include a first parameter set.
  • the encoder is a plurality of parameter sets included in an encoding parameter set group corresponding to the attribute extraction process instead of the first parameter set, Based on a second parameter set that is a parameter set other than the first parameter set, the first non-compressed information is compression-encoded and the second compressed encoded information is output, and the decoder performs the second compression-encoding.
  • the information is uncompressed and encoded, the third uncompressed information is output, the audio / video processing unit outputs the third extracted attribute data that is attribute information extracted from the third uncompressed information, and the control unit performs the first extraction If the attribute data and the third extracted attribute data are equal, the second parameter set may be determined as the confirmed parameter set.
  • the processing device includes a proxy execution server determination unit, and the proxy execution server determination unit performs attribute extraction processing on the third compressed encoded information obtained by compressing and encoding the fourth non-compressed information based on the determined parameter set.
  • the candidate list including the candidate server of the image / sound processing proxy server performed on behalf of the processing device is held, the candidate server included in the candidate list is inquired as to whether the attribute extraction processing can be executed, and the processing device After obtaining the compressed information, the fourth uncompressed information may be obtained.
  • the image / sound processing proxy execution server can be determined simply by inquiring the candidate server included in the candidate list to be held.
  • the external device which is a device other than the processing device performs an attribute extraction process on the third compressed encoded information obtained by compressing and encoding the fourth uncompressed information based on the definite parameter set on behalf of the processing device.
  • the candidate list including the candidate server of the voice processing proxy server is held, the external apparatus inquires whether the candidate server included in the candidate list can execute the attribute extraction process, and the processing apparatus acquires the first uncompressed information After that, the fourth uncompressed information may be acquired.
  • the candidate list includes candidate server information corresponding to each of a plurality of attribute extraction processes, and the candidate server specified by the candidate server information is a candidate for an audio / video processing proxy server that performs the corresponding attribute extraction process on behalf of the processing device It may be a server.
  • the processing apparatus can efficiently determine the video / audio processing proxy server.
  • the attribute extraction process is a face identification process
  • the attribute information may include at least one of gender and age category
  • the first parameter set may include image resolution
  • FIG. 1 shows an overall configuration diagram of a processing system 7 according to the embodiment.
  • the processing system 7 includes an audio / video processing apparatus 1, an audio / video data receiving server 4, an audio / video processing data receiving server 5, and an audio / video processing proxy execution server 6.
  • the image / audio processing apparatus 1 acquires data such as image data and audio data from an input device such as a camera or a microphone, and then performs some processing on the data and outputs the processed data to an external apparatus.
  • the external device includes a video / audio data receiving server 4, a video / audio processing data receiving server 5, and a video / audio processing proxy execution server 6.
  • the audio / video processing device 1 and the external device may communicate via an IP network.
  • the image / audio processing apparatus 1 acquires data such as image data and audio data from a camera, a microphone, and the like, encodes this data, and outputs the encoded video / audio data 110 to the video / audio data receiving server 4.
  • the image / audio processing apparatus 1 may encode at least one of image data and audio data.
  • the encoded video / audio data 110 may include at least one of encoded video data and encoded audio data.
  • the image / audio processing apparatus 1 acquires data such as image data and audio data from a camera or a microphone, performs image / audio processing to extract attribute information from the data, and extracts extracted attribute data 120 that is extracted attribute information. And the extracted attribute data 120 is output to the image / sound processing data receiving server 5.
  • the extracted attribute data 120 may include at least one of extracted attribute data generated based on image data and extracted attribute data generated based on audio data. Alternatively, one attribute information may be determined by taking into account both the extracted attribute data generated based on the image data and the extracted attribute data generated based on the audio data, and the determined information may be used as the extracted attribute data 120.
  • the image / audio processing apparatus 1 acquires data such as image data and audio data from a camera or a microphone, encodes the data, and encodes the encoded video / audio data 130 which is the encoded data into the image / audio processing proxy execution server 6. Output to.
  • the encoded video / audio data 130 may include at least one of encoded video data and encoded audio data.
  • the video / audio data receiving server 4 receives the encoded video / audio data 110 transmitted by the video / audio processing apparatus 1.
  • the video / audio data receiving server 4 can decode the received encoded video / audio data 110 and display it on the display.
  • the video / audio data receiving server 4 may decode at least one of the encoded image data and the encoded audio data.
  • the video / audio data receiving server 4 can directly write the received encoded video / audio data 110 to a recording device built in the video / audio data receiving server 4 or a connected recording device. .
  • the image / sound processing data receiving server 5 receives the extracted attribute data 120 transmitted by the image / sound processing apparatus 1 and the extracted attribute data 140 transmitted by the image / sound processing proxy execution server 6.
  • the image / sound processing data receiving server 5 can display the received extracted attribute data 120 and the received extracted attribute data 140 on a display.
  • the image / sound processing data receiving server 5 writes the received extracted attribute data 120 and the received extracted attribute data 140 to a storage device built in the image / sound processing data receiving server 5 or a connected recording device. It can be performed.
  • the image / sound processing data receiving server 5 can analyze a plurality of extracted attribute data stored in the recording device and display the result on the display.
  • the image / audio processing proxy execution server 6 receives the encoded video / audio data 130 transmitted by the image / audio processing device 1, performs image / audio processing to extract attribute information on behalf of the image / audio processing device 1, and performs extraction.
  • the extracted attribute data 140 that is the attribute information thus generated is generated, and the extracted attribute data 140 is output to the image / audio processing data receiving server 5.
  • the image / sound processing proxy execution server 6 may perform at least one of extraction attribute data generation based on encoded video data and extraction attribute data generation based on encoded audio data.
  • the extracted attribute data 140 may include at least one of extracted attribute data generated based on image data and extracted attribute data generated based on audio data. Alternatively, one attribute information may be determined by taking into account both the extracted attribute data generated based on the image data and the extracted attribute data generated based on the audio data, and the determined information may be used as the extracted attribute data 140.
  • the audio / video data receiving server 4, the audio / video processing data receiving server 5, and the audio / video processing proxy execution server 6 are described as individual servers, but the functions performed by these servers are as follows. It may be performed by one server or may be shared by a plurality of servers.
  • the video / audio processing devices other than the video / audio processing device 1 are the video / audio data receiving server 4, the video / audio processing data receiving server 5, and the video / audio processing proxy execution server 6. These functions may be retained and executed.
  • FIG. 2 is a block diagram of the audio / video processing apparatus 1.
  • the image / audio processing apparatus 1 includes an image acquisition unit 10, an audio acquisition unit 20, a communication unit 30, a proxy execution server determination unit 40, an encoder unit 50, a decoder unit 60, an image / audio processing unit 70, a resource A usage calculation unit 80 and a main control unit 100 are included.
  • the image acquisition unit 10 includes a camera and acquires image data captured by the camera.
  • the image acquisition unit 10 includes a video input terminal such as an analog video terminal, an HDMI (registered trademark) (High Definition Multimedia interface) terminal, and receives video transmitted from another device to acquire image data.
  • the image acquisition unit 10 includes a network terminal such as Ethernet, receives video data transmitted via the network, decodes the video data in some cases, and acquires image data.
  • the acquired image data is in RGB format (a format representing the intensity of red, green, and blue), YCbCr format (a format that indicates a color with a value calculated by a conversion formula based on a value expressed in the RGB format, YCbCr is hereinafter referred to as YC), and is output as uncompressed image data such as RAW (signal itself obtained from the image sensor).
  • RGB format a format representing the intensity of red, green, and blue
  • YCbCr format a format that indicates a color with a value calculated by a conversion formula based on a value expressed in the RGB format, YCbCr is hereinafter referred to as YC
  • RAW signal itself obtained from the image sensor
  • the voice acquisition unit 20 includes a microphone and acquires voice data input to the microphone.
  • an audio input terminal such as an analog audio terminal and an HDMI (registered trademark) (High-Definition Multimedia Interface) terminal is provided, and audio data transmitted from another device is received to acquire audio data.
  • the audio acquisition unit 20 includes a network terminal such as Ethernet, receives audio data sent from another device, decodes the audio data in some cases, and acquires the audio data.
  • the acquired audio data is output as uncompressed audio data such as a bit stream format.
  • the communication unit 30 is a means for transmitting / receiving data to / from an external device through a network terminal such as Ethernet, Bluetooth (registered trademark), NFC (Near Field Communication), or the like.
  • the proxy execution server determination unit 40 determines the image / sound processing proxy execution server 6 that is an external device that executes the image / sound processing for extracting the attribute information and obtaining the extracted attribute data instead of the image / sound processing device 1. .
  • the proxy execution server determination unit 40 determines the image / sound processing proxy execution server 6, the proxy execution server determination unit 40 holds an image / sound processing proxy execution candidate server list indicating candidate servers that perform proxy execution of the image / sound processing.
  • the image / audio processing proxy execution server 6 may be determined from the candidate servers included in the audio processing proxy execution candidate server list.
  • FIG. 11 shows a configuration example of the image / sound processing proxy execution candidate server list.
  • the image / audio processing proxy execution candidate server list 1100 includes a candidate server URL group 1110 that performs image / audio processing as a proxy.
  • the search server outside the image / sound processing apparatus 1 is requested to search for a server that performs proxy execution of the image / sound processing, and the image / sound processing proxy execution server 6 is set using the obtained search result (candidate server URL information).
  • the external search server maintains a list similar to the image / sound processing proxy execution candidate server list 1100, and the contents of the proxy process from the image / sound processing apparatus 1, for example, what type of image process (attribute extraction) is the proxy process.
  • Information is obtained, the candidate server in the list is inquired whether this processing is possible, and the URL information of the candidate server that has answered that the proxy processing is possible is sent to the image and sound processing apparatus 1 Good.
  • Encoder unit 50 converts uncompressed image data such as RAW format, RGB format, and YC format into MPEG1 / 2/4, H.264, etc. Coding is performed by an arbitrary image compression method such as H.264, JPEG, or JPEG2000.
  • the encoder unit 50 encodes uncompressed audio data such as a bit stream by an arbitrary audio compression method such as MP3, AC3, or AAC.
  • the decoder unit 60 includes MPEG1, MPEG2, MPEG4, H.264.
  • Image data encoded by an arbitrary image compression method such as H.264, JPEG, or JPEG2000 is decoded into uncompressed image data such as a RAW format, an RGB format, or a YC format.
  • the decoder unit 60 decodes audio data encoded by an arbitrary audio compression method such as MP3, AC3, or AAC into uncompressed audio data such as a bit stream.
  • the image sound processing unit 70 extracts attribute information from the image data acquired by the image acquisition unit 10, the image data decoded by the decoder unit 60, and the image data encoded by the encoder unit 50. Image processing is performed to obtain extracted attribute data.
  • the audio / video processing unit 70 extracts attribute information from the audio data acquired by the audio acquisition unit 20, the audio data decoded by the decoder unit 60, and the audio data encoded by the encoder unit 50. Perform voice analysis to obtain extracted attribute data.
  • image processing means image processing for extracting attribute information to obtain extracted attribute data
  • sound processing is used to extract attribute information and extract extracted attribute data. Means voice processing to get. The extracted attribute data will be described later.
  • the image sound processing unit 70 includes, for example, a correspondence table 1000 as shown in FIG.
  • the correspondence table 1000 includes an encoding parameter set group corresponding to each of a plurality of attribute extraction processes.
  • the encoding parameter set group 1010 corresponds to attribute extraction processing (image processing) for face identification
  • the encoding parameter set group 1020 corresponds to attribute extraction processing (image processing) for license plate recognition.
  • Each of the plurality of encoding parameter set groups includes a plurality of encoding parameter sets.
  • the encoding parameter set group 1010 includes an encoding parameter set 1030 and an encoding parameter set 1040.
  • Each of a plurality of encoding parameter sets includes one or more encoding parameters.
  • the encoding parameter set 1030 includes an encoding parameter 1050 and an encoding parameter 1060.
  • the encoding parameter 1050 is information for specifying the image resolution
  • the encoding parameter 1060 is information for specifying the transfer rate.
  • the encoding parameter set 1030 may include only one encoding parameter, for example, only the encoding parameter 1050 that is information specifying the image resolution.
  • the resource usage calculation unit 80 is a means for calculating the usage of various devices (hardware resources) such as the CPU, RAM, recording medium, and network of the audio / video processing apparatus 1 and the usage per unit time.
  • the resource usage calculation unit 80 may calculate the usage rate per unit time of these various devices (hardware resources).
  • the main control unit 100 controls the image acquisition unit 10, the audio acquisition unit 20, the communication unit 30, the proxy execution server determination unit 40, the encoder unit 50, the decoder unit 60, the image audio processing unit 70, and the resource usage calculation unit 80. A series of processing is realized.
  • the main control unit 100 encodes the image data acquired by the image acquisition unit 10 and the audio data acquired by the audio acquisition unit 20 by the encoder unit 50, and then transmits the encoded data to the video / audio data reception server 4 by the communication unit 30. Control to send.
  • the main control unit 100 controls the image sound processing unit 70 to perform image processing and sound processing on the image data acquired by the image acquisition unit 10 and the sound data acquired by the sound acquisition unit 20, and extracts analysis results. Control to transmit the attribute data 120 from the communication unit 30 to the image / sound processing data reception server 5 is performed.
  • the main control unit 100 When the image processing and the sound processing are executed, the main control unit 100 performs proxy execution on the image / sound processing proxy execution server 6 determined by the proxy execution server determination unit 40 when the usage amount of the hardware resource is exceeded. Request.
  • the main control unit 100 is based on the extracted attribute data that is the result of executing the image processing and sound processing by the image / sound processing proxy execution server 6 and the result of performing the image processing and sound processing by the image / sound processing device 1.
  • Encoding parameter sets are determined such that certain extracted attribute data is the same, and the image data acquired by the image acquisition unit 10 and the audio data acquired by the audio acquisition unit 20 are encoded using the determined encoding parameter set.
  • the communication unit 30 performs control to transmit the encoded video / audio data 130 to the video / audio processing proxy execution server 6.
  • FIG. 3 is a flowchart showing a flow in which encoded image data is transmitted to an external device such as the video / audio data receiving server 4 or the video / audio processing proxy execution server 6.
  • the main control unit 100 instructs the image acquisition unit 10 to acquire the image data P.
  • the image acquisition unit 10 acquires the image data P from a camera included in the image acquisition unit 10 or an image input device such as an external video input terminal (S310).
  • the main control unit 100 instructs the encoder unit 50 to encode the image data P acquired in S310.
  • the encoder unit 50 converts the image data P into H.264. Encoding is performed by an arbitrary image compression method such as H.264 to obtain encoded image data P '(S320).
  • the main control unit 100 instructs the communication unit 30 to transmit the encoded image data P ′ acquired in S320 to an external device such as the video / audio data receiving server 4 or the video / audio processing proxy execution server 6.
  • the communication unit 30 receives the encoded image data P ′ by a protocol that can be received by an external device such as the video / audio data reception server 4 or the video / audio processing proxy execution server 6, for example, HTTP (Hyper Text Transfer Protocol) or , RTP (Realtime Transfer Protocol) is used to transmit to an external device such as the video / audio data receiving server 4 or the video / audio processing proxy execution server 6 (S330).
  • HTTP Hyper Text Transfer Protocol
  • RTP Realtime Transfer Protocol
  • FIG. 4 is a flowchart showing a flow in which image data is subjected to image processing, and extracted attribute data, which is processing result data, is transmitted to the image / audio processing data receiving server 5 which is an external device.
  • the audio / video processing apparatus 1 receives an instruction to acquire, for example, image data from the external apparatus via the communication unit 30 and extract specific attribute information from the image data. If the audio / video processing apparatus 1 does not have a function of extracting specific attribute information, an application program having the function may be obtained from the outside and held by the audio / video processing unit 70 (not shown). )
  • the main control unit 100 instructs the image acquisition unit 10 to acquire the image data P.
  • the image acquisition unit 10 acquires the image data P from a camera included in the image acquisition unit 10 or an image input device such as an external video input terminal (S410).
  • the main control unit 100 instructs the image sound processing unit 70 to perform image processing for extracting specific attribute information from the image data P acquired in S410.
  • the audio / video processing unit 70 that has received the instruction operates, for example, an application program instructed from an external apparatus among a plurality of held application programs, for example, attribute information instructed from the external apparatus for the image data P Are extracted to obtain extracted attribute data A (S420).
  • Image processing is, for example, face identification processing or license plate recognition processing.
  • the extracted attribute data includes, for example, face configuration information of a person recognized in the image (position information of face components such as eyes, nose, mouth, and contour information of the entire face) Etc.). Further, the extracted attribute data may be the age category (infant, child, adult) or gender category (male, female) of the person recognized in the image.
  • One piece of attribute information may be extracted and one piece of extracted attribute data may be generated by one piece of image processing (one piece of image processing application program), or a plurality of pieces of extracted attribute data may be extracted. It may be generated. For example, in one face identification process (one image processing application program), only the age classification of the person with the largest face area may be extracted, or the age classification and gender of the person with the largest face area Both categories may be extracted.
  • image processing one piece of image processing application program
  • the audio processing for extracting the attribute information and obtaining the extracted attribute data is, for example, a word recognition process, and the extracted attribute data may be one word (for example, “Hello”).
  • the main control unit 100 instructs the communication unit 30 to transmit the extracted attribute data A, which is the image processing result acquired in S420, to the image / sound processing data receiving server 5 that is an external device.
  • the communication unit 30 receives the extracted attribute data A, which is the image processing result, in a protocol that can be received by the image / audio processing data receiving server 5 that is an external device, for example, HTTP (Hyper Text Transfer Protocol) or FTP (FTP).
  • HTTP Hyper Text Transfer Protocol
  • FTP FTP
  • transmission is performed to the image / audio processing data receiving server 5 which is an external device (S430).
  • FIG. 5 is a flowchart showing the flow of proxy execution request and proxy execution in the embodiment.
  • the image / sound processing apparatus 1 operates image processing A and image processing B, and the total of the two CPU usage amounts is less than the CPU maximum usage amount, and there is no delay in the image processing A and image processing operations. It is assumed that the process B is being performed. Note that image processing is usually performed in an uncompressed data format such as YC format or RGB format, and therefore image processing is performed in YC format here for both image processing A and image processing B. And
  • the audio / video processing apparatus 1 tries to newly operate the image processing C.
  • the main control unit 100 of the audio / video processing apparatus 1 determines that the sum of the current usage amount of the CPU per unit time and the predicted usage amount per unit time of the CPU of the image processing C is the per unit time of the CPU. It is confirmed whether the maximum usage amount has been exceeded (S510). If not exceeded, the audio / video processing unit 70 starts image processing C. On the other hand, if it exceeds, it is determined that there is a high possibility that the image / audio processing unit 70 does not operate as expected even when the image processing C is started, and the main control unit 100 of the image / audio processing device 1 is an external device. It is determined that the image processing C is executed by proxy.
  • the audio / video processing device 1 searches for an external device that can execute the image processing C as a proxy.
  • the image / sound processing proxy execution server 6 is selected as the external device.
  • the image / sound processing apparatus 1 requests the image / sound processing proxy execution server 6 to execute the image processing C (S520).
  • the audio / video processing apparatus 1 determines an external apparatus that performs image processing C as a proxy
  • the audio / video processing apparatus 1 holds an image / audio processing proxy execution candidate server list 1100 as shown in FIG. 1 may inquire from the first candidate server in the list whether proxy execution of image processing C is possible, and the candidate server that has answered that proxy execution is possible may be determined as the image / sound processing proxy execution server 6.
  • the image / sound processing apparatus 1 performs proxy processing on the candidate server whose URL is (http://303.303.101.101). If this candidate server is not proxy-executable, it inquires whether the candidate server with the URL (http://xxx.co.jp/cgi-bin/proc.cgi) can perform proxy processing. .
  • the image / audio processing device 1 makes an inquiry to a server (hereinafter referred to as an external processing notification server) that teaches an external device that can perform proxy processing of the image processing C, and the external device notified from the external processing notification server
  • the processing proxy execution server 6 may be determined.
  • the external processing notification server holds a list of candidate servers that can execute proxy processing in advance, obtains information for specifying the image processing C from the image and sound processing device 1, and in order from the first candidate server in the list, It may be inquired whether the proxy execution of the image processing C is possible, and the URL of the candidate server that has answered that the proxy execution is possible may be notified to the image sound processing apparatus 1.
  • the image / sound processing proxy execution server 6 that has been requested to execute the image processing C as a proxy performs preparations for executing the image processing C.
  • the image / audio processing apparatus 1 transmits data essential for executing the image processing C by the image / audio processing proxy execution server 6 to the image / audio processing proxy execution server 6.
  • image processing is performed using image data in the YC data format
  • the image data in the YC data format has a large capacity and is not suitable for transmission using a network.
  • the image / audio processing apparatus 1 does not send the image data in the YC data format to the image / audio processing proxy execution server 6 as it is, but compresses and encodes the image data in the YC data format.
  • the image data is transmitted to the image / sound processing proxy execution server 6 (S530).
  • the image / sound processing proxy execution server 6 receives the image compression-encoded image data, decodes the image compression-encoded image data, and returns the decoded image data to the YC data format.
  • Process C is executed to obtain extracted attribute data (S540).
  • FIGS. 6A and 6B are diagrams for explaining this.
  • FIG. 6A is a diagram showing image processing C in the image / sound processing apparatus 1.
  • the image / audio processing apparatus 1 performs image processing C, and the image / audio processing proxy execution server 6 does not perform image processing C.
  • the audio / video processing apparatus 1 performs image processing C on the YC data D1 that is uncompressed data output from the image acquisition unit 10 to obtain extracted attribute data A1 that is image processing result data (S610).
  • FIG. 6B is a diagram showing the image processing C in the image / sound processing proxy execution server 6.
  • the image / audio processing apparatus 1 does not perform the image processing C, but the image / audio processing proxy execution server 6 performs the image processing C as a proxy.
  • the image / audio processing apparatus 1 compresses and encodes (encodes) the YC data D1, which is uncompressed data output from the image acquisition unit 10, and sends it to the image / audio processing proxy execution server 6 (S620).
  • the image / sound processing proxy execution server 6 decodes the received image compression-encoded data to obtain YC data D2 which is uncompressed data.
  • Image processing C is performed on the YC data D2 that is the decoded image data to obtain extracted attribute data A2 that is image processing result data (S630).
  • the YC data D2 is data obtained by image compression encoding (encoding) and then decoding (decoding) the YC data D1, and there is data loss due to image compression encoding. Therefore, the YC data D1 is YC data It is not the same as D2. For this reason, the image processing result data A1 that is the result of performing the image processing C on the YC data D1 and the image processing result data A2 that is the result of performing the image processing C on the YC data D2 may not be the same. . However, it is possible to make A1 and A2 the same by adjusting a parameter set used at the time of image compression encoding such as resolution, compression rate, and compression method.
  • the image sound processing apparatus 1 uses the image compression parameter set such that the extracted attribute data A1 as the image processing result and the extracted attribute data A2 as the image processing result are the same, and the YC data D1 in S620 is used. It is necessary to perform image compression encoding processing.
  • the image / sound processing proxy execution server 6 receives the image data that has been compression-coded by the image / sound processing apparatus 1. Then, the image compression-encoded image data is decoded to obtain decoded image data in the YC data format, and image processing C is performed (S540). Extracted attribute data, which is a result of performing image processing C, is held by the image / sound processing proxy execution server 6 itself or transmitted to the image / sound processing data reception server 5.
  • FIG. 7 is a flowchart showing the flow of processing according to the determination result of the proxy execution.
  • the main control unit 100 determines whether the audio / video processing apparatus 1 executes image processing or the external apparatus performs proxy execution (S710).
  • the external device is the image / sound processing proxy execution server 6.
  • S710 the process of S800 illustrated in FIG. 8 may be performed.
  • the main control unit 100 branches the process based on the result determined in S710 (S720).
  • the image / sound processing proxy execution server 6 determines that the image processing is to be performed as a proxy, the image / sound processing apparatus 1 generates an encoded image and transmits the encoded image to the image / sound processing proxy execution server 6. Perform (S730).
  • the detailed sequence of S730 is the sequence of S310 to S330 shown in FIG.
  • the image / sound processing apparatus 1 determines that the image processing is to be executed, the image / sound processing apparatus 1 performs the image processing, and transmits the extracted attribute data as the image processing result to the image / sound processing data receiving server 5 ( S740).
  • the detailed sequence of S740 is the sequence of S410 to S430 shown in FIG.
  • the processing of S710 and S720 is performed only at a predetermined time (for example, once a day at 7:00) The determination result of whether or not proxy execution is performed may be held. At other times (from 7:10 to 6:50 on the next day), the processing of S710 and S720 may not be performed, and S730 or S740 may be executed according to the stored determination result.
  • FIG. 8 is a flowchart showing the flow of a proxy processing request to the image / sound processing proxy execution server 6.
  • the main control unit 100 acquires a resource (hardware resource) usage amount from the resource usage calculation unit 80, and acquires the acquired resource (hardware resource) usage amount and image processing resource (hardware resource) to be operated from now on. ) It is confirmed whether the total amount of usage does not exceed the allowable value of resource (hardware resource) usage (S810). If not, it is determined that there is no proxy processing request, and this flowchart is terminated. On the other hand, if it exceeds, it is determined that there is a proxy processing request, and the process proceeds to the next step.
  • the resource (hardware resource) usage includes CPU usage, RAM usage, recording area usage, and the like. When the resource usage is the CPU usage, the same confirmation as that shown in S510 may be performed.
  • the main control unit 100 determines an encoding parameter set E for encoding image data to be transmitted.
  • the encoding parameter set includes one or more encoding parameters.
  • the encoding parameter may be, for example, an image resolution, a transfer rate, a compression rate, or a compression method.
  • the encoding parameter is set in the encoder with reference to the correspondence table 1000 before encoding.
  • the correspondence table 1000 holds a plurality of encoding parameter sets for each image processing such as face identification and license plate recognition (for each face identification application program and license plate recognition application).
  • FIG. 10 shows an example in which one encoding parameter set includes a plurality of encoding parameters.
  • the encoding parameter set 1030 includes a plurality of encoding parameters 1050, 1060 and the like.
  • Each encoding parameter set may be one encoding parameter.
  • the encoding parameter set E includes extracted attribute data that is an image processing result obtained by performing image processing in the image / sound processing device 1 and an encoded image received by the image / sound processing proxy execution server 6 from the image / sound processing device 1.
  • the extracted attribute data which is the result of image processing using, is determined to be the same. The detailed sequence of S820 will be described with reference to FIG.
  • the image analysis performed in S820 corresponds to, for example, the image processing C shown in S510, but when the encoding parameter set is determined in S820, it is necessary to perform the image processing C in the audio / video processing apparatus 1. Therefore, in order to perform image processing C, the processing of image processing B may be temporarily interrupted. Further, if the image processing B is periodically repeated, the image processing C may be executed between the end of the current image processing B and the start of the next image processing B.
  • the main control unit 100 instructs the proxy execution server determination unit 40 to determine the image / sound processing proxy execution server 6 that performs proxy processing of image processing (S830).
  • the image / audio processing device 1 determines an external device that performs proxy processing of the image processing C
  • the image / audio processing device 1 uses a candidate list of external devices that can perform proxy processing of the image processing C, for example, an image / audio processing proxy execution candidate server
  • the audio / video processing apparatus 1 holds the list 1100 and inquires from the head external apparatus in the candidate list whether the image processing C can be executed by proxy in order from the candidate external list.
  • the proxy execution server 6 may be determined.
  • the search server outside the image / sound processing apparatus 1 is requested to search for a server that performs proxy execution of the image / sound processing, and the image / sound processing proxy execution server 6 is set using the obtained search result (candidate server URL information).
  • the external search server maintains a list similar to the image / sound processing proxy execution candidate server list 1100, and the proxy processing contents, for example, what kind of image processing (attribute extraction) information is obtained from the image / sound processing apparatus 1. It may be acquired and inquired of a candidate server in the list whether this process is possible, and the URL information of the candidate server that has answered that the proxy process is possible may be sent to the image and sound processing apparatus 1.
  • the image / audio processing apparatus 1 includes an image / audio processing proxy execution candidate including a list of candidate server URLs that can be proxy-executed for each image processing (for each face recognition application, license plate identification application, etc.) as shown in FIG.
  • the server list 1200 may be held.
  • the difference between the image / audio processing proxy execution candidate server list 1100 and the image / audio processing proxy execution candidate server list 1200 is that the image / audio processing proxy execution candidate server list 1200 indicates the URL of a candidate server that performs image / audio processing as a proxy for each image / audio processing. Is to hold.
  • the image / audio processing device 1 inquires from the first candidate server in the candidate server URL group corresponding to the current image processing in the image / audio processing proxy execution candidate server list 1200 whether or not the proxy execution is possible, and performs the proxy execution.
  • the candidate server that has answered that it is possible may be determined as the image / sound processing proxy execution server 6. For example, if the image processing is face identification, among the candidate server URLs included in the candidate server URL group 1210, first, the audio / video processing apparatus 1 has a URL of (http://aaa.co.jp/face.cgi).
  • the server is inquired whether proxy processing is possible, and if this candidate server is not proxy-executable, it inquires of the candidate server whose URL is (http://bbb.co.jp/face.cgi) whether proxy processing is possible. .
  • the selected image / sound processing execution server is the image / sound processing proxy execution server 6.
  • the main control unit 100 sends an image processing request notification from the communication unit 30 to the image / sound processing proxy execution server 6 determined in S830 (S840). At this time, not only a request notification but also a parameter necessary for image processing may be notified.
  • the main control unit 100 sets the encoding parameter set E determined in S820 in the encoder unit 50 (S850). Setting the determined encoding parameter set in the encoding unit means that, for example, when the same image processing is performed periodically thereafter, the labor of setting the parameter set can be saved in the subsequent processing.
  • FIG. 9 is a flowchart showing a flow related to determination of an encoding parameter set.
  • the audio / video processing apparatus 1 receives an instruction to acquire image data from an external apparatus via the communication unit 30 and extract specific attribute information from the image data to obtain extracted attribute data (see FIG. Not shown).
  • the main control unit 100 instructs the image acquisition unit 10 to acquire the image data P (S910).
  • the main control unit 100 instructs the image / sound processing unit 70 to perform image processing on the image data P acquired in S910, and obtains extracted attribute data A as an image processing result (S920).
  • the main control unit 100 selects an encoding parameter set corresponding to image processing with reference to the correspondence table 1000, and temporarily sets the selected encoding parameter set EE in the encoder (S930).
  • the encoded image data PEE is obtained by encoding the image data P with the temporarily set encoding parameter set EE (S940).
  • image data PD is obtained by decoding the encoded image data PEE (S950).
  • the image data PD is subjected to image processing to obtain extracted attribute data AD as a result of image processing (S960).
  • the extracted attribute data A which is the image processing result obtained in S920
  • the extracted attribute data AD which is the image processing result obtained in S960
  • the main control unit 100 sets the temporarily set encoding parameter set EE in the encoder unit 50 as the main setting encoding parameter set EE (S980).
  • FIGS. 3 to 12 an example in which image data is acquired and image processing is performed has been described. However, if image data is replaced with sound data and image processing is replaced with sound processing, sound processing is possible. .
  • each of the above devices may be a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like.
  • a computer program is stored in the RAM or the hard disk unit.
  • Each device achieves its functions by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • a part or all of the components constituting each of the above devices may be configured by one system LSI (Large Scale Integration).
  • the system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, ROM, RAM, and the like. .
  • a computer program is stored in the RAM.
  • the system LSI achieves its functions by the microprocessor operating according to the computer program.
  • a part or all of the constituent elements constituting each of the above devices may be constituted by an IC card or a single module that can be attached to and detached from each device.
  • the IC card or module is a computer system that includes a microprocessor, ROM, RAM, and the like.
  • the IC card or the module may include the super multifunctional LSI described above.
  • the IC card or the module achieves its functions by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
  • the processing apparatus of the present embodiment may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of a computer program.
  • the processing apparatus of the present embodiment is a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray). -Ray (registered trademark) Disc), recorded in a semiconductor memory or the like. Further, it may be a digital signal recorded on these recording media.
  • the processing apparatus may transmit a computer program or a digital signal via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
  • the processing apparatus may be a computer system including a microprocessor and a memory.
  • the memory may store the computer program, and the microprocessor may operate according to the computer program.
  • program or digital signal may be recorded on a recording medium and transferred, or the program or digital signal may be transferred via a network or the like, and may be implemented by another independent computer system.
  • the processing device of the present disclosure is useful as a monitoring device such as a device that can determine an appropriate parameter set used in compression encoding processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

 第1の非圧縮情報を第1のパラメータセットに基づいて圧縮符号化し、第1の圧縮符号化情報を出力するエンコーダ(50)と、第1の圧縮符号化情報を非圧縮符号化し、第2の非圧縮情報を出力するデコーダ(60)と、第1の非圧縮情報に属性抽出処理を行い、抽出した属性情報である第1抽出属性データを出力し、第2の非圧縮情報に属性抽出処理を行い、抽出した属性情報である第2抽出属性データを出力する画像音声処理部(70)と、第1抽出属性データと第2抽出属性データが等しければ、第1のパラメータセットを確定パラメータセットとして決定する制御部(100)を含む処理装置。

Description

処理装置、集積回路、処理方法、およびプログラム
 本開示は情報の代理処理に関するものである。
 従来、携帯端末が演算能力提供装置に代理処理を依頼するシステムが知られている(特許文献1を参照)。
特開2008-123344号公報
 しかしながら、上記従来の構成では、代理依頼元装置が圧縮符号化処理をしていない情報から抽出した属性情報(例えば、被写体の性別が男性)と、代理依頼元装置が圧縮符号化処理をした情報に基づいて代理依頼先装置が抽出した属性情報(例えば、被写体の性別が女性)の異同などについては言及されておらず、これらの抽出された属性情報が異なることがあると考えられる。本開示は、上記したような抽出された属性情報の不一致のないこと、すなわち、圧縮符号化処理で使用される適切なパラメータセットを決定する処理装置を提供する。
 本開示の処理装置は、第1の非圧縮情報を第1のパラメータセットに基づいて圧縮符号化し、第1の圧縮符号化情報を出力するエンコーダと、第1の圧縮符号化情報を非圧縮符号化し、第2の非圧縮情報を出力するデコーダと、第1の非圧縮情報に属性抽出処理を行い、抽出した属性情報である第1抽出属性データを出力し、第2の非圧縮情報に属性抽出処理を行い、抽出した属性情報である第2抽出属性データを出力する画像音声処理部と、第1抽出属性データと第2抽出属性データが等しければ、第1のパラメータセットを確定パラメータセットとして決定する制御部を含む。
 なお、これらの包括的または具体的な態様は、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本開示の処理装置は、圧縮符号化処理で使用される適切なパラメータセットを決定できる。
図1は実施の形態における処理システム全体構成図 図2は実施の形態における画像音声処理装置の構成図 図3実施の形態におけるエンコードされた画像データが外部装置に送信される流れを示すフローチャート 図4は実施の形態における抽出属性データが送信される流れを示すフローチャート 図5は実施の形態における代理実行依頼と代理実行の流れを示すフローチャート 図6Aは実施の形態における画像音声処理装置での画像処理を示す図 図6Bは実施の形態における画像音声処理代理実行サーバでの画像処理を示す図 図7は実施の形態における代理実行有無の判断結果に応じた処理の流れを示すフローチャート 図8は実施の形態における画像音声処理代理実行サーバへの代理処理依頼の流れを示すフローチャート 図9は実施の形態におけるエンコードパラメータセット決定に関する流れを示すフローチャート 図10は対応テーブルの例を示す図 図11は画像音声処理代理実行する候補サーバのリストの例を示す図 図12は画像音声処理代理実行する候補サーバのリストの例を示す図
 (本発明の基礎となった知見)
 本発明者らは、「背景技術」の欄において記載したシステムに関して、以下の問題が生じることを見いだした。
 最近、監視カメラは、他の画像を処理する機器同様、デジタル処理化が進んでいる。デジタル化された監視カメラは、カメラで撮影した映像をエンコードすることで、データ量が削減されたエンコードデータを生成し、エンコードデータをIPネットワークにて送る。
 一方、監視カメラで撮影する映像の解像度について、VGA(Video Graphics Array)からHD(High Definition)、フルHD、ウルトラHDと急激に高解像度化しているため、エンコードによってデータ量を削減しても、ネットワーク帯域やサーバの記憶領域に対する負荷が大きくなっており、データ量のさらなる削減が求められている。
 このような理由から、監視カメラからサーバに、監視カメラが撮像した映像や録音した音声を送るのではなく、監視カメラが属性情報を抽出して抽出属性データを得るために画像処理や音声処理を行い、抽出された属性情報である抽出属性データのみを送るか、その抽出属性データが有意な情報である時に撮像した映像や録音した音声を送る機能を持つ監視カメラが徐々に製品化されている。これまでの一般的な監視カメラは、撮像した映像や録音した音声を送信する機能のみであったが、今後、監視カメラは、属性情報を抽出して抽出属性データを得るための画像処理機能や音声処理機能を持つのが一般的になってくると想像される。
 属性情報を抽出して抽出属性データを得るための画像処理、音声処理は、アプリケーションプログラムとして監視カメラで実行されることが考えられる。属性情報を抽出するための画像処理、音声処理は、複雑な処理であることが多いので、CPU能力やメモリ量、専用回路など多量のハードウェア資源を必要とすることが多い。
 このため、監視カメラの限られたハードウェア資源を用いて、複数の属性情報を抽出するため複数のアプリケーションプログラムを同時に実行させようとする時、監視カメラのハードウェア資源の不足により、いくつかの属性情報を抽出するアプリケーションプログラムが実行できずに、属性情報を抽出するための画像処理、音声処理が実施できないことが考えられる。
 特許文献1は演算能力提供装置が携帯端末の代理処理を行うシステムを示しているが、演算能力提供装置が実行する画像処理はフレームデータをフレーム内符号化によって符号化することであり、圧縮された画像データの復号処理を行い、属性情報を抽出して抽出属性データを得るための画像処理、音声処理を行うことは想定されていない。画像データを圧縮符号化すると情報が欠落するため、圧縮符号化のパラメータセットの設定によっては、代理依頼元装置が圧縮符号化処理をした情報から代理依頼先装置が抽出した属性情報である抽出属性データ(例えば、被写体の性別が女性)と、代理依頼元装置が圧縮符号化処理をしていない情報から抽出した属性情報である抽出属性データ(例えば、被写体の性別が男性)とが異なることがある。
 このような問題を解決するために、本開示の処理装置は、第1の非圧縮情報を第1のパラメータセットに基づいて圧縮符号化し、第1の圧縮符号化情報を出力するエンコーダと、第1の圧縮符号化情報を非圧縮符号化し、第2の非圧縮情報を出力するデコーダと、第1の非圧縮情報に属性抽出処理を行い、抽出した属性情報である第1抽出属性データを出力し、第2の非圧縮情報に属性抽出処理を行い、抽出した属性情報である第2抽出属性データを出力する画像音声処理部と、第1抽出属性データと第2抽出属性データが等しければ、第1のパラメータセットを確定パラメータセットとして決定する制御部を含む。
 これにより、本開示の処理装置は、圧縮符号化で使用される適切なパラメータセットを決定できる。つまり、処理装置が圧縮符号化処理を経ていない非圧縮の映像音声情報から抽出する属性情報と、画像音声処理代理実行サーバが圧縮符号化処理を経た映像音声情報から抽出する属性情報が同一になる。
 また、確定パラメータセットの決定は、属性抽出処理を実施すると処理装置のハードウエア資源の使用量がハードウエア資源の最大使用許容量を超過すると制御部が推定した後に実施されるとしてもよい。
 これにより、適正な時期に符号化パラメータセットを決定することができる。つまり、処理装置が画像音声処理代理実行サーバに属性抽出のための画像処理の代理処理を依頼しないにもかかわらず、符号化パラメータセットを決定することを防止できる。
 また、画像音声処理部は複数の属性抽出処理の各々に対応するエンコードパラメータセットグループを示す対応テーブルを保持し、エンコードパラメータセットグループの各々は複数のエンコードパラメータセットを含み、複数のエンコードパラメータセットの各々は1以上のエンコードパラメータを含み、複数の属性抽出処理は属性抽出処理を含み、複数のエンコードパラメータセットは第1のパラメータセットを含んでもよい。
 これによりパラメータセットを効率よく決定できる。つまり、対応テーブルを保持すると、対応テーブルを保持しないときに比べて、処理装置は仮設定するパラメータセットを迅速に決定できる。
 また、第1抽出属性データと第2抽出属性データが等しくなければ、エンコーダは、第1のパラメータセットに代えて、属性抽出処理に対応するエンコードパラメータセットグループに含まれる複数のパラメータセットであり、第1のパラメータセット以外のパラメータセットである第2のパラメータセットに基づいて、第1の非圧縮情報を圧縮符号化し、第2の圧縮符号化情報を出力し、デコーダは第2の圧縮符号化情報を非圧縮符号化し、第3の非圧縮情報を出力し、画像音声処理部は第3の非圧縮情報から抽出した属性情報である第3抽出属性データを出力し、制御部は第1抽出属性データと第3抽出属性データが等しければ、第2のパラメータセットを確定パラメータセットとして決定するとしてもよい。
 これによりパラメータセットを効率よく決定できる。
 また、処理装置は代理実行サーバ決定部を含み、代理実行サーバ決定部はエンコーダが確定パラメータセットに基づいて第4の非圧縮情報を圧縮符号化した第3の圧縮符号化情報に対する属性抽出処理を処理装置に代わって行う画像音声処理代理サーバの候補サーバを含む候補リストを保持し、候補リストに含まれる候補サーバに属性抽出処理の実行が可能かの問い合わせを行い、処理装置は第1の非圧縮情報を取得した後に、第4の非圧縮情報を取得してもよい。
 これにより、処理装置の画像音声処理代理実行サーバを効率的に決定できる。つまり、保持する候補リストに含まれる候補サーバに問い合わせを行うだけで、画像音声処理代理実行サーバを決定できる。
 また、処理装置以外の装置である外部装置は、第4の非圧縮情報を確定パラメータセットに基づいて圧縮符号化された第3の圧縮符号化情報に対する属性抽出処理を処理装置に代わって行う画像音声処理代理サーバの候補サーバを含む候補リストを保持し、外部装置は候補リストに含まれる候補サーバに属性抽出処理の実行が可能かの問い合わせを行い、処理装置は第1の非圧縮情報を取得した後に、第4の非圧縮情報を取得するようにしてもよい。
 これにより、処理装置の構成を簡素化できる。つまり、候補リストを保持することは必要とせず、画像音声処理代理実行サーバを決定できる。
 また、候補リストは複数の属性抽出処理の各々に対応する候補サーバ情報を含み、候補サーバ情報で特定される候補サーバは対応する属性抽出処理を処理装置に代わって行う画像音声処理代理サーバの候補サーバであるとしてもよい。
 これにより、処理装置は画像音声処理代理サーバを効率的に決定できる。
 また、属性抽出処理は顔識別処理であり、属性情報は性別、年齢区分の少なくとも1つを含み、第1のパラメータセットは画像解像度を含んでもよい。
 なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、構成要素、構成要素の配置位置、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 以下、実施の形態について、図面を参照しながら説明する。
 (実施の形態)
 図1は、実施の形態における処理システム7の全体構成図を示したものである。処理システム7は、画像音声処理装置1、映像音声データ受信サーバ4、画像音声処理データ受信サーバ5、画像音声処理代理実行サーバ6を含む。
 画像音声処理装置1は、カメラやマイクなどの入力デバイスから画像データや音声データなどのデータを取得した後、このデータに対して何らかの加工を施して、外部装置に出力する。外部装置は映像音声データ受信サーバ4、画像音声処理データ受信サーバ5、画像音声処理代理実行サーバ6を含む。画像音声処理装置1と外部装置は、IPネットワークを介して通信してもよい。画像音声処理装置1は、カメラやマイクなどから画像データや音声データなどのデータを取得して、このデータをエンコードし、エンコードされた映像音声データ110を映像音声データ受信サーバ4に出力する。画像音声処理装置1は画像データと音声データの少なくとも一方をエンコードしてもよい。エンコードされた映像音声データ110はエンコードされた映像データとエンコードされた音声データの少なくとも一方を含んでもよい。
 画像音声処理装置1は、カメラやマイクから画像データや音声データなどのデータを取得して、このデータから属性情報を抽出するため画像音声処理して、抽出された属性情報である抽出属性データ120を生成し、抽出属性データ120を画像音声処理データ受信サーバ5に出力する。なお、抽出属性データ120は画像データを基に生成した抽出属性データ、音声データを基に生成した抽出属性データの少なくとも一方を含んでもよい。また、画像データを基に生成した抽出属性データと音声データを基に生成した抽出属性データの両方を加味して1つの属性情報を決定し、この決定した情報を抽出属性データ120としてもよい。
 画像音声処理装置1は、カメラやマイクから画像データや音声データなどのデータを取得して、このデータをエンコードし、エンコードしたデータであるエンコードされた映像音声データ130を画像音声処理代理実行サーバ6に出力する。なお、エンコードされた映像音声データ130はエンコードされた映像データとエンコードされた音声データの少なくとも一方を含んでもよい。
 映像音声データ受信サーバ4は、画像音声処理装置1が送信したエンコードされた映像音声データ110を受信する。映像音声データ受信サーバ4は、受信したエンコードされた映像音声データ110を、デコードしてディスプレイ上に表示することができる。映像音声データ受信サーバ4はエンコードされた画像データとエンコードされた音声データの少なくとも一方をデコードしてもよい。また、映像音声データ受信サーバ4は、受信したエンコードされた映像音声データ110を、映像音声データ受信サーバ4が内蔵している記録デバイス、あるいは接続されている記録デバイスにそのまま書き込みを行うことができる。
 画像音声処理データ受信サーバ5は、画像音声処理装置1が送信した抽出属性データ120、画像音声処理代理実行サーバ6が送信した抽出属性データ140を受信する。画像音声処理データ受信サーバ5は、受信した抽出属性データ120、受信した抽出属性データ140を、ディスプレイ上に表示することができる。また、画像音声処理データ受信サーバ5は、受信した抽出属性データ120、受信した抽出属性データ140を、画像音声処理データ受信サーバ5が内蔵している記憶デバイスや、接続されている記録デバイスに書き込みを行うことができる。画像音声処理データ受信サーバ5は記録デバイスに蓄積しておいた複数の抽出属性データを解析して、その結果をディスプレイ上に表示することができる。
 画像音声処理代理実行サーバ6は、画像音声処理装置1が送信したエンコードされた映像音声データ130を受信して、画像音声処理装置1の代理で属性情報を抽出するため画像音声処理を行い、抽出された属性情報である抽出属性データ140を生成し、抽出属性データ140を画像音声処理データ受信サーバ5に出力する。画像音声処理代理実行サーバ6はエンコードされた映像データを基にした抽出属性データ生成とエンコードされた音声データを基にした抽出属性データ生成の少なくとも一方を行ってもよい。抽出属性データ140は画像データを基に生成した抽出属性データ、音声データを基に生成した抽出属性データの少なくとも一方を含んでもよい。また、画像データを基に生成した抽出属性データと音声データを基に生成した抽出属性データの両方を加味して1つの属性情報を決定し、この決定した情報を抽出属性データ140としてもよい。
 なお、図1では、映像音声データ受信サーバ4、画像音声処理データ受信サーバ5、画像音声処理代理実行サーバ6を、個別のサーバとして記述しているが、これらのサーバで実施している機能は、1つのサーバで行っても良いし、複数のサーバで分担して行っても良い。
 また、処理システム7が複数の画像音声処理装置を含む場合、画像音声処理装置1以外の画像音声処理装置が映像音声データ受信サーバ4、画像音声処理データ受信サーバ5、画像音声処理代理実行サーバ6の機能を保持し、実行してもよい。
 図2は、画像音声処理装置1の構成図である。画像音声処理装置1は、画像取得部10と、音声取得部20と、通信部30と、代理実行サーバ決定部40と、エンコーダ部50と、デコーダ部60と、画像音声処理部70と、リソース使用量計算部80と、主制御部100を含む。
 画像取得部10は、カメラを備え、カメラで撮影された画像データを取得する。画像取得部10は、アナログビデオ端子、HDMI(登録商標)(High Definition Multimedia Interface)端子などの映像入力端子を備えていて、別の装置から送出された映像を受信して、画像データを取得する。画像取得部10は、イーサーネットなどのネットワーク端子を備えて、ネットワーク経由で送信された映像データを受信して、場合によっては映像データのデコードを行い、画像データを取得する。なお、取得した画像データは、RGB形式(赤色、緑色、青色の強さを表わす形式)、YCbCr形式(RGB形式で表現された値を元に換算式で計算される値で色を示す形式、以下YCbCrをYCと記す)、RAW(撮像素子から得られる信号そのもの)形式などの無圧縮の画像データとして出力する。
 音声取得部20は、マイクを備えていて、マイクに入力された音声データを取得する。もしくは、アナログ音声端子、HDMI(登録商標)(High-Definition Multimedia Interface)端子などの音声入力端子を備えていて、別の装置から送出された音声を受信して、音声データを取得する。音声取得部20は、イーサーネットなどのネットワーク端子を備えていて、別の装置から送出された音声データを受信して、場合によっては音声データのデコードを行い、音声データを取得する。なお、取得した音声データは、ビットストリーム形式などの、無圧縮の音声データとして出力する。
 通信部30は、イーサーネットや、Bluetooth(登録商標)、NFC(Near Field Communication)などのネットワーク端子を通して、外部装置とデータの送受信を行う手段である。
 代理実行サーバ決定部40は、属性情報を抽出して抽出属性データを得るための画像音声処理を、画像音声処理装置1に代わって実行する外部装置である画像音声処理代理実行サーバ6を決定する。代理実行サーバ決定部40が画像音声処理代理実行サーバ6を決定するに際して、代理実行サーバ決定部40は画像音声処理を代理実行する候補サーバを示す画像音声処理代理実行候補サーバリストを保持し、画像音声処理代理実行候補サーバリストに含まれる候補サーバから画像音声処理代理実行サーバ6を決定するとしてもよい。
 図11は画像音声処理代理実行候補サーバリストの構成例を示す。画像音声処理代理実行候補サーバリスト1100は画像音声処理を代理実行する候補サーバURL群1110を含む。
 また、画像音声処理装置1の外部にある検索サーバに画像音声処理を代理実行するサーバの検索を依頼し、入手した検索結果(候補サーバのURL情報)を用いて画像音声処理代理実行サーバ6を決定してもよい。すなわち、外部検索サーバは画像音声処理代理実行候補サーバリスト1100と同様のリストを保持し、画像音声処理装置1から代理処理の内容、例えばどのような画像処理(属性抽出)の代理処理であるかの情報を取得して、リストにある候補サーバにこの処理が可能かを問い合わせて、代理処理が可能であるとの回答のあった候補サーバのURL情報を画像音声処理装置1に送付してもよい。
 エンコーダ部50は、RAW形式やRGB形式やYC形式などの無圧縮の画像データを、MPEG1/2/4、H.264、JPEG、JPEG2000のような任意の画像圧縮方式により、符号化を行う。エンコーダ部50は、ビットストリームなどの無圧縮の音声データを、MP3、AC3、AACなどの任意の音声圧縮方式で符号化を行う。
 デコーダ部60は、MPEG1、MPEG2、MPEG4、H.264、JPEG、JPEG2000などの任意の画像圧縮方式で符号化された画像データを、RAW形式やRGB形式やYC形式などの無圧縮の画像データに復号化する。デコーダ部60は、MP3、AC3、AACなどの任意の音声圧縮方式で符号化された音声データを、ビットストリームなどの無圧縮の音声データに復号化する。
 画像音声処理部70は、画像取得部10で取得した画像データや、デコーダ部60で復号化された画像データや、エンコーダ部50により符号化された画像データに対して、属性情報を抽出して抽出属性データを得るために画像処理を行う。画像音声処理部70は、音声取得部20で取得した音声データや、デコーダ部60で復号化された音声データや、エンコーダ部50により符号化された音声データに対して、属性情報を抽出して抽出属性データを得るために音声解析を行う。
 本明細書、図面における「画像処理」という語は、属性情報を抽出して抽出属性データを得るための画像処理を意味し、「音声処理」という語は属性情報を抽出して抽出属性データを得るための音声処理を意味する。抽出属性データについは後述する。
 画像音声処理部70は、例えば、図10に示すような対応テーブル1000を含む。対応テーブル1000は複数の属性抽出処理の各々に対応するエンコードパラメータセットグループを含む。例えば、顔識別の属性抽出処理(画像処理)にはエンコードパラメータセットグループ1010、ナンバープレート認識の属性抽出処理(画像処理)にはエンコードパラメータセットグループ1020が対応する。複数のエンコードパラメータセットグループの各々は、複数のエンコードパラメータセットを含む。例えば、エンコードパラメータセットグループ1010はエンコードパラメータセット1030、エンコードパラメータセット1040を含む。
 複数のエンコードパラメータセットの各々は、1以上のエンコードパラメータを含む。例えば、エンコードパラメータセット1030はエンコードパラメータ1050、エンコードパラメータ1060を含む。エンコードパラメータ1050は画像解像度を特定する情報、エンコードパラメータ1060は転送レートを特定する情報である。エンコードパラメータセット1030は1つのエンコードパラメータのみ、例えば、画像解像度を特定する情報であるエンコードパラメータ1050のみを含んでもよい。
 リソース使用量計算部80は、画像音声処理装置1のCPU、RAM、記録媒体、ネットワークなど各種デバイス(ハードウエア資源)の使用量や、単位時間当りの使用量を計算する手段である。リソース使用量計算部80は、それら各種デバイス(ハードウエア資源)の単位時間当りの使用率を計算してもよい。
 主制御部100は、画像取得部10、音声取得部20、通信部30、代理実行サーバ決定部40、エンコーダ部50、デコーダ部60、画像音声処理部70、リソース使用量計算部80を制御して、一連の処理を実現する。例えば、主制御部100は、画像取得部10で取得した画像データや、音声取得部20で取得した音声データを、エンコーダ部50で符号化した後、通信部30で映像音声データ受信サーバ4に送信する制御を行う。
 主制御部100は、画像取得部10で取得した画像データや、音声取得部20で取得した音声データを、画像音声処理部70で画像処理や音声処理を行う制御や、その解析結果である抽出属性データ120を通信部30から画像音声処理データ受信サーバ5に送信する制御を行う。
 主制御部100は、画像処理や音声処理を実行すると、ハードウエア資源の使用量の許容値を超える場合に、代理実行サーバ決定部40で決定した画像音声処理代理実行サーバ6に対して代理実行を依頼する。
 さらにこの場合、主制御部100は、画像音声処理代理実行サーバ6で画像処理や音声処理を実行した結果である抽出属性データと、画像音声処理装置1で画像処理や音声処理を実施した結果である抽出属性データが同じになるようにエンコードパラメータセットを決定して、画像取得部10で取得した画像データや、音声取得部20で取得した音声データを、決定したエンコードパラメータセットを用いてエンコーダ部50で符号化した後、通信部30から、エンコードされた映像音声データ130を画像音声処理代理実行サーバ6に送信する制御を行う。
 図3は、エンコードされた画像データが映像音声データ受信サーバ4や画像音声処理代理実行サーバ6などの外部装置に送信される流れを示すフローチャートである。
 まず、主制御部100は、画像取得部10に画像データPの取得を指示する。指示を受けた画像取得部10は、画像取得部10が備えるカメラ、または、外部映像入力端子などの画像入力デバイスから、画像データPを取得する(S310)。
 続いて、主制御部100は、S310で取得した画像データPを符号化することをエンコーダ部50に指示する。指示を受けたエンコーダ部50は、画像データPを、H.264など任意の画像圧縮方式により符号化を行い、エンコード画像データP’を得る(S320)。
 最後に、主制御部100は、S320で取得したエンコード画像データP’を映像音声データ受信サーバ4や画像音声処理代理実行サーバ6などの外部装置へ送信することを通信部30に指示する。指示を受けた通信部30は、エンコード画像データP’を、映像音声データ受信サーバ4や画像音声処理代理実行サーバ6などの外部装置が受信可能なプロトコル、例えば、HTTP(Hyper Text Transfer Protocol)や、RTP(Realtime Transfer Protocol)、を使って、映像音声データ受信サーバ4や画像音声処理代理実行サーバ6などの外部装置へ送信を行う(S330)。
 図4は、画像データが画像処理され、その処理結果のデータである抽出属性データが外部装置である画像音声処理データ受信サーバ5に送信される流れを示すフローチャートである。
 まず、画像音声処理装置1は通信部30を介して、外部装置から、例えば、画像データを取得して、その画像データから特定の属性情報を抽出するように指示を受ける。画像音声処理装置1が特定の属性情報の抽出を行う機能を備えていなければ、その機能を備えたアプリケーションプログラムを外部から入手し、画像音声処理部70が保持するようにしてもよい(図示せず)。
 次に、主制御部100は、画像取得部10に画像データPの取得を指示する。指示を受けた画像取得部10は、画像取得部10が備えるカメラ、または、外部映像入力端子などの画像入力デバイスから、画像データPを取得する(S410)。
 続いて、主制御部100は、S410で取得した画像データPから特定の属性情報を抽出する画像処理を画像音声処理部70に指示する。指示を受けた画像音声処理部70は、例えば、保持する複数のアプリケーションプログラムのうち、例えば、外部装置から指示されたアプリケーションプログラムを動作させ、画像データPに対し、外部装置から指示された属性情報の抽出を行い、抽出属性データAを得る(S420)。
 画像処理は、例えば、顔識別処理、ナンバープレート認識処理である。画像処理が顔識別処理である場合は、抽出属性データは、例えば、画像中で認識された人物の顔構成情報(目、鼻、口などの顔の構成要素の位置情報や顔全体の輪郭情報など)である。また、抽出属性データは、画像中で認識された人物の年齢区分(幼児、子供、大人)や性別区分(男性、女性)としてもよい。
 1つの画像処理(1つの画像処理アプリケーションプログラム)で、1つの属性情報を抽出し、1つの抽出属性データを生成してもよいし、複数の属性情報を抽出して、複数の抽出属性データを生成してもよい。例えば、1つの顔識別処理(1つの画像処理アプリケーションプログラム)で、最も顔領域の面積が大きい人物の年齢区分のみを抽出してもよいし、最も顔領域の面積が大きい人物の年齢区分と性別区分の両方を抽出してもよい。
 画像処理がナンバープレート認識処理の場合は、例えば、画像中で認識された車のナンバープレートに示された数字や文字(例えば、「5NR43」)を抽出属性データとしてもよい。
 属性情報を抽出して抽出属性データを得るための音声処理は、例えば、単語認識処理であり、抽出属性データは1つの単語(例えば、「Hello」)であってもよい。
 最後に、主制御部100は、S420で取得した画像処理結果である抽出属性データAを外部装置である画像音声処理データ受信サーバ5へ送信することを通信部30に指示する。指示を受けた通信部30は、画像処理結果である抽出属性データAを、外部装置である画像音声処理データ受信サーバ5が受信可能なプロトコル、例えば、HTTP(Hyper Text Transfer Protocol)や、FTP(File Transfer Protocol)や、SMTP(Simple Mail Transfer Protocol)などを使って、外部装置である画像音声処理データ受信サーバ5へ送信を行う(S430)。
 図5は、実施の形態における代理実行依頼と代理実行の流れを示すフローチャートである。
 まず、画像音声処理装置1は、画像処理Aと画像処理Bを動作させており、その2つのCPU使用量の総計はCPU最大使用量を下回っていて、遅延がない状態で画像処理Aと画像処理Bを実施しているとする。なお、画像処理は、通常、YC形式やRGB形式などの無圧縮のデータ形式で行われることがほとんどであるため、ここでは、画像処理Aと画像処理Bともに、YC形式で画像処理が行われるとする。
 次に、画像音声処理装置1は、画像処理Cを新たに動作させようとする。この時、画像音声処理装置1の主制御部100は、現在のCPUの単位時間当たりの使用量と画像処理CのCPUの単位時間当たりの使用量予測値の合計が、CPUの単位時間当たりの最大使用量を超過していないかを確認する(S510)。超過していなければ、画像音声処理部70は画像処理Cを開始する。一方、超過していれば、画像音声処理部70が画像処理Cを開始しても期待通りに動作しない可能性が高いと判断し、画像音声処理装置1の主制御部100は、外部装置で画像処理Cを代理実行すると判断する。
 続いて、画像音声処理装置1は、画像処理Cを代理実行できる外部装置を探索する。ここでは、外部装置として画像音声処理代理実行サーバ6が選択されたとする。そして、画像音声処理装置1は、画像音声処理代理実行サーバ6に対して、画像処理Cの実行を依頼する(S520)。画像音声処理装置1が画像処理Cを代理実行する外部装置を決定するに際して、画像音声処理装置1は例えば図11に示すような画像音声処理代理実行候補サーバリスト1100を保持し、画像音声処理装置1がそのリストの先頭の候補サーバから順番に、画像処理Cの代理実行が可能かを問い合わせていき、代理実行可能と回答した候補サーバを画像音声処理代理実行サーバ6として決定してもよい。例えば、画像音声処理代理実行候補サーバリスト1100に含まれる候補サーバのURLのうち、まず、画像音声処理装置1はURLが(http://303.303.101.101)の候補サーバに代理処理が可能かを問い合わせ、この候補サーバが代理実行不可能なら、次にURLが(http://xxx.co.jp/cgi-bin/proc.cgi)の候補サーバに代理処理が可能かを問い合わせる。
 また、画像音声処理装置1が画像処理Cの代理実行が可能な外部装置を教えるサーバ(以下、外部処理通知サーバと呼ぶ)へ問い合わせを行い、外部処理通知サーバから通知された外部装置を画像音声処理代理実行サーバ6として決定してもよい。
 外部処理通知サーバは、あらかじめ代理処理実行可能な候補サーバのリストを保持しておき、画像音声処理装置1から画像処理Cを特定する情報を得て、そのリストの先頭の候補サーバから順番に、画像処理Cの代理実行が可能かを問い合わせていき、代理実行可能と回答した候補サーバのURLを画像音声処理装置1に通知してもよい。
 なお、画像処理Cの代理実行を依頼された画像音声処理代理実行サーバ6は、画像処理Cを実行するための準備を行う。
 続いて、画像音声処理装置1は、画像音声処理代理実行サーバ6で画像処理Cを実行するために必須であるデータを、画像音声処理代理実行サーバ6に送信する。通常、画像処理はYCデータ形式の画像データを用いて実施されるため、YCデータ形式のデータを画像音声処理代理実行サーバ6に送信するのがよい。しかし、YCデータ形式の画像データは容量が大きいため、ネットワークを用いた送信には向いていない。このため、画像音声処理装置1はYCデータ形式の画像データを画像音声処理代理実行サーバ6にそのまま送るのではなく、そのYCデータ形式の画像データを画像圧縮符号化して、画像圧縮符号化された画像データを画像音声処理代理実行サーバ6に送信する(S530)。
 画像音声処理代理実行サーバ6は、画像圧縮符号化された画像データを受信して、その画像圧縮符号化された画像データを復号化して、YCデータ形式の復号化された画像データに戻し、画像処理Cを実行し、抽出属性データ得る(S540)。
 この時、画像圧縮符号化時に用いたパラメータセットによっては、画像音声処理装置1で画像処理Cを行った結果である抽出属性データと、画像音声処理代理実行サーバ6で画像処理C行った結果である抽出属性データが異なることがある。このことを説明する図が、図6A、図6Bである。
 図6Aは、画像音声処理装置1での画像処理Cを示す図である。画像音声処理装置1で画像処理Cを実施し、画像音声処理代理実行サーバ6では画像処理Cは行わない。
 画像音声処理装置1は、画像取得部10から出力された非圧縮データであるYCデータD1に対し、画像処理Cを行って、画像処理結果データである抽出属性データA1を得る(S610)。
 図6Bは、画像音声処理代理実行サーバ6での画像処理Cを示す図である。画像音声処理装置1で画像処理Cを実施せず、画像音声処理代理実行サーバ6で画像処理Cを代理実行することを示したものである。画像音声処理装置1は、画像取得部10から出力された非圧縮データであるYCデータD1に対し、画像圧縮符号化(エンコード)して、画像音声処理代理実行サーバ6に送る(S620)。
 画像音声処理代理実行サーバ6は、受け取った画像圧縮符号化(エンコード)されたデータを復号化(デコード)して非圧縮データであるYCデータD2を得る。この復号化された画像データであるYCデータD2に画像処理Cを行い、画像処理結果データである抽出属性データA2を得る(S630)。
 ここで、YCデータD2は、YCデータD1を画像圧縮符号化(エンコード)した後に、復号化(デコード)したデータであり、画像圧縮符号化によるデータ欠落があるため、YCデータD1は、YCデータD2と同一のものではない。このため、YCデータD1に対し画像処理Cを実施した結果である画像処理結果データA1と、YCデータD2に対し画像処理Cを実施した結果である画像処理結果データA2は、同じでないことがある。しかし、解像度、圧縮率、圧縮方法など画像圧縮符号化時に使用するパラメータセットを調整することで、A1とA2を同一にすることは可能である。このため、画像音声処理装置1は、画像処理結果である抽出属性データA1と画像処理結果である抽出属性データA2が同じになるような画像圧縮パラメータセットを用いて、S620でのYCデータD1の画像圧縮符号化処理を行う必要がある。
 上述したように、画像音声処理代理実行サーバ6は、画像音声処理装置1が送信した画像圧縮符号化された画像データを受信する。そして、その画像圧縮符号化された画像データを復号化して、YCデータ形式の復号化された画像データを得て、画像処理Cを行う(S540)。画像処理Cを行った結果である抽出属性データは、画像音声処理代理実行サーバ6自身で保持するか、もしくは、画像音声処理データ受信サーバ5へ送信する。
 図7は、代理実行有無の判断結果に応じた処理の流れを示すフローチャートである。
 まず、主制御部100は、画像音声処理装置1が、画像処理を実行するか、外部装置が代理実行するかどうかの判断などを行う(S710)。ここでは外部装置は画像音声処理代理実行サーバ6とする。S710で図8に示すS800の処理を実施してもよい。
 次に、主制御部100は、S710で判断した結果をもとに、処理を分岐させる(S720)。
 もし、画像音声処理代理実行サーバ6が画像処理を代理実行すると判断した場合には、画像音声処理装置1はエンコード画像を生成して、画像音声処理代理実行サーバ6にエンコード画像を送信する処理を行う(S730)。なお、S730の詳細シーケンスは、図3に示すS310~S330のシーケンスとなる。
 もし、画像音声処理装置1が、画像処理を実行すると判断した場合は、画像音声処理装置1は画像処理を行い、画像処理結果である抽出属性データを画像音声処理データ受信サーバ5へ送信する(S740)。なお、S740の詳細シーケンスは、図4に示すS410~S430のシーケンスとなる。
 なお、画像データの取得を10分毎に行い、その画像データの属性抽出を行う場合、S710とS720の処理は予め定められた時期(例えば、1日に1回で7時)にのみ行い、代理実行有無の判断結果を保持してもよい。そして、それ以外の時期(7時10分から翌日の6時50分まで)では、S710,S720の処理は実施せず、その保持された判断結果に従い、S730またはS740を実行するとしてもよい。
 図8は、画像音声処理代理実行サーバ6への代理処理依頼の流れを示すフローチャートである。
 まず、主制御部100は、リソース使用量計算部80からリソース(ハードウエア資源)使用量を取得して、取得したリソース(ハードウエア資源)使用量とこれから動作させる画像処理のリソース(ハードウエア資源)使用量の総計がリソース(ハードウエア資源)使用量の許容値を超えていないかを確認する(S810)。もし、超えていない場合は、代理処理依頼はないと判断し、このフローチャートを終了する。一方、超えている場合は、代理処理依頼があると判断し、次のステップに移行する。ここで、リソース(ハードウエア資源)使用量とは、CPU使用量や、RAM使用量、記録領域使用量などである。リソース使用量がCPU使用量とした場合は、S510で示した内容と同様な確認を行うとしてもよい。
 次に、主制御部100は、送信する画像データをエンコードする際のエンコードパラメータセットEを決定する。(S820)。エンコードパラメータセットは1以上のエンコードパラメータを含む。エンコードパラメータは、例えば、画像解像度、または、転送レート、または、圧縮率、または、圧縮方法であってもよい。エンコードパラメータはエンコードを実施する前に対応テーブル1000を参照してエンコーダに設定する。対応テーブル1000は顔識別やナンバープレート認識などの画像処理毎(顔識別アプリケーションプログラムやナンバープレート認識アプリケーション毎)にエンコードパラメータセットを複数保持する。図10では1つのエンコードパラメータセットが複数のエンコードパラメータを含む例を示す。例えば、エンコードパラメータセット1030は複数のエンコードパラメータ1050、1060などを含む。なお、各エンコードパラメータセットは1つのエンコードパラメータであってもよい。
 ここで、エンコードパラメータセットEは、画像音声処理装置1で画像処理を行った画像処理結果である抽出属性データと、画像音声処理代理実行サーバ6が画像音声処理装置1から受信したエンコードされた画像を用いて画像処理を行った結果である抽出属性データが同じとなるように決定される。なお、S820の詳細シーケンスは、図9にて説明する。
 S820で行う画像解析は例えばS510で示す画像処理Cに該当するが、S820でエンコードパラメータセットを決定する場合は、画像音声処理装置1で画像処理Cを実施する必要がある。そこで、画像処理Cを行うため、画像処理Bの処置を一時中断してもよい。また、画像処理Bが定期的に繰り返されるならば、今回の画像処理Bが終了し、次回の画像処理Bが開始されるまでの間に、画像処理Cを実行してもよい。
 次に、主制御部100は、代理実行サーバ決定部40に、画像処理の代理実行する画像音声処理代理実行サーバ6を決定するように指示する(S830)。画像音声処理装置1が画像処理Cを代理実行する外部装置を決定するに際して、画像音声処理装置1は画像処理Cの代理実行が可能な外部装置の候補リスト、例えば、画像音声処理代理実行候補サーバリスト1100を保持し、画像音声処理装置1がその候補リストの先頭の外部装置から順番に、画像処理Cの代理実行が可能かを問い合わせていき、代理実行可能と回答した外部装置を画像音声処理代理実行サーバ6として決定してもよい。
 また、画像音声処理装置1の外部にある検索サーバに画像音声処理を代理実行するサーバの検索を依頼し、入手した検索結果(候補サーバのURL情報)を用いて画像音声処理代理実行サーバ6を決定してもよい。すなわち、外部検索サーバは画像音声処理代理実行候補サーバリスト1100と同様のリストを保持し、画像音声処理装置1から代理処理の内容、例えばどのような画像処理(属性抽出)であるかの情報を取得して、リストにある候補サーバにこの処理が可能かを問い合わせて、代理処理が可能であるとの回答のあった候補サーバのURL情報を画像音声処理装置1に送付してもよい。
 また、画像音声処理装置1は、例えば、図12に示すような画像処理毎(顔認識アプリケーションやナンバープレート識別アプリケーションなど毎)に代理実行可能な候補サーバURLのリストを含む画像音声処理代理実行候補サーバリスト1200を保持してもよい。画像音声処理代理実行候補サーバリスト1100と画像音声処理代理実行候補サーバリスト1200の違いは、画像音声処理代理実行候補サーバリスト1200は画像音声処理毎に画像音声処理を代理実行する候補サーバのURLを保持することである。
 画像音声処理装置1が画像音声処理代理実行候補サーバリスト1200における現在対象とする画像処理に対応する候補サーバURL群の先頭の候補サーバから順番に、代理実行が可能かを問い合わせていき、代理実行可能と回答した候補サーバを画像音声処理代理実行サーバ6として決定してもよい。例えば、画像処理が顔識別なら、候補サーバURL群1210に含まれる候補サーバURLのうち、まず、画像音声処理装置1はURLが(http://aaa.co.jp/face.cgi)の候補サーバに代理処理が可能かを問い合わせ、この候補サーバが代理実行不可能なら、次にURLが(http://bbb.co.jp/face.cgi)の候補サーバに代理処理が可能かを問い合わせる。ここでは選択した画像音声処理実行サーバは画像音声処理代理実行サーバ6とする。
 続いて、主制御部100は、S830にて決定した画像音声処理代理実行サーバ6に対し、通信部30から、画像処理の依頼通知を行う(S840)。この時、依頼通知だけでなく、画像処理に必要なパラメータを通知しても良い。
 最後に、主制御部100は、S820で決定したエンコードパラメータセットEを、エンコーダ部50に設定する(S850)。決定したエンコードパラメータセットをエンコード部に設定することは、例えば、同じ画像処理を以降定期的に行う場合は、以降の処理でパラメータセット設定の手間が省ける。
 図9は、エンコードパラメータセット決定に関する流れを示すフローチャートである。
 例えば、画像音声処理装置1は通信部30を介して、外部装置から、画像データを取得して、その画像データから特定の属性情報を抽出して抽出属性データを得るように指示を受ける(図示せず)。
 まず、主制御部100は、画像取得部10に対して画像データPを取得するよう指示する(S910)。
 続いて、主制御部100は、画像音声処理部70に対し、S910で取得した画像データPの画像処理を行う指示を出し、画像処理結果である抽出属性データAを得る(S920)。
 主制御部100は、画像処理に対応するエンコードパラメータセットを、対応テーブル1000を参照して選択し、選択したエンコードパラメータセットEEをエンコーダに仮設定する(S930)。
 その仮設定したエンコードパラメータセットEEで画像データPをエンコードして、エンコード画像データPEEを得る(S940)。
 次に、エンコード画像データPEEをデコードすることで画像データPDを得る(S950)。
 その画像データPDに対し、画像処理を行って画像処理結果である抽出属性データADを得る(S960)。
 次に、主制御部100は、S920で得た画像処理結果である抽出属性データAと、ステップS960で得た画像処理結果である抽出属性データADを比較する(S970)。比較した結果、同じ結果だと判断できた場合は、次のステップに進むが、同じ結果だと判断できなかった場合はS930に戻り、これまでに仮設定をしていないエンコードパラメータセットEEを仮設定した上で、S930~S970を再度実行する。例えば、画像処理の種類が顔識別である場合は、対応するエンコードパラメータセットグループ1010に含まれるエンコードパラメータセット1030、すなわち、(画像解像度、転送レート、・・・)=(VGA、1000、・・・)を用いて画像処理を実施し、同じ結果だと判定できなかった場合は、別のエンコードパラメータセット1040、すなわち、(画像解像度、転送レート、・・・)=(フルHD、5000、・・・)を用いて画像処理を実施する。
 エンコードパラメータセットを変更して画像処理を行う処理を、S920で得た画像処理結果である抽出属性データAと、S960で得た画像処理結果である抽出属性データADが同じ結果だと判断できるまで繰り返す。なお、すべてのエンコードパラメータセットで上記の比較をした結果、同じ抽出属性データが得ることができない場合はエラーを返してもよい。
 最後に、主制御部100は、仮設定のエンコードパラメータセットEEを、本設定のエンコードパラメータセットEEとして、エンコーダ部50に設定する(S980)。
 なお、図3~12では、画像データを取得して、画像処理を行う例にて説明を行ったが、画像データを音声データに、画像処理を音声処理に置き換えれば、音声処理が可能である。
 (その他変形例)
 以上のように、本出願において開示する技術の例示として、実施の形態を説明した。しかしながら、本開示における技術は、これに限定されず、以下のような場合も本実施の形態に含まれる。
 (1)上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムであるとしてもよい。RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 (2)上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
 (3)上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
 (4)本実施の形態の処理装置は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、コンピュータプログラムからなるデジタル信号であるとしてもよい。
 また、本実施の形態の処理装置は、コンピュータプログラムまたはデジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray(登録商標) Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されているデジタル信号であるとしてもよい。
 また、本実施の形態の処理装置は、コンピュータプログラムまたはデジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
 また、本実施の形態の処理装置は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、メモリは、上記コンピュータプログラムを記憶しており、マイクロプロセッサは、コンピュータプログラムにしたがって動作するとしてもよい。
 また、プログラムまたはデジタル信号を記録媒体に記録して移送することにより、またはプログラムまたはデジタル信号をネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
 (5)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
 本開示の処理装置は、圧縮符号化処理で使用される適切なパラメータセットを決定することができる装置等、例えば、監視装置として有用である。
 1  画像音声処理装置
 4  映像音声データ受信サーバ
 5  画像音声処理データ受信サーバ
 6  画像音声処理代理実行サーバ
 7  処理システム
 10  画像取得部
 20  音声取得部
 30  通信部
 40  代理実行サーバ決定部
 50  エンコーダ部
 60  デコーダ部
 70  画像音声処理部
 80  リソース使用量計算部
 100  主制御部
 110  エンコードされた映像音声データ
 120  抽出属性データ
 130  エンコードされた映像音声データ
 140  抽出属性データ
 1000  対応テーブル
 1010  エンコードパラメータセットグループ
 1020  エンコードパラメータセットグループ
 1030  エンコードパラメータセット
 1040  エンコードパラメータセット
 1050  エンコードパラメータ
 1060  エンコードパラメータ
 1100  画像音声処理代理実行候補サーバリスト
 1110  候補サーバURL群
 1200  画像音声処理代理実行候補サーバリスト
 1210  候補サーバURL群

Claims (11)

  1.  第1の非圧縮情報を第1のパラメータセットに基づいて圧縮符号化し、第1の圧縮符号化情報を出力するエンコーダと、
     前記第1の圧縮符号化情報を非圧縮符号化し、第2の非圧縮情報を出力するデコーダと、
     前記第1の非圧縮情報に属性抽出処理を行い、抽出した属性情報である第1抽出属性データを出力し、前記第2の非圧縮情報に前記属性抽出処理を行い、抽出した属性情報である第2抽出属性データを出力する画像音声処理部と、
     前記第1抽出属性データと前記第2抽出属性データが等しければ、前記第1のパラメータセットを確定パラメータセットとして決定する制御部を含む
     処理装置。
  2.  前記確定パラメータセットの決定は、前記属性抽出処理を実施すると前記処理装置のハードウエア資源の使用量がハードウエア資源の最大使用許容量を超過すると前記制御部が推定した後に実施される
     請求項1記載の処理装置。
  3.  前記画像音声処理部は複数の属性抽出処理の各々に対応するエンコードパラメータセットグループを示す対応テーブルを保持し、
     前記エンコードパラメータセットグループの各々は複数のエンコードパラメータセットを含み、
     前記複数のエンコードパラメータセットの各々は1以上のエンコードパラメータを含み、
     前記複数の属性抽出処理は前記属性抽出処理を含み、
     前記複数のエンコードパラメータセットは前記第1のパラメータセットを含む
     請求項2記載の処理装置。
  4.  前記第1抽出属性データと前記第2抽出属性データが等しくなければ、前記エンコーダは、前記第1のパラメータセットに代えて、前記属性抽出処理に対応するエンコードパラメータセットグループに含まれる複数のパラメータセットであり、前記第1のパラメータセット以外のパラメータセットである第2のパラメータセットに基づいて、前記第1の非圧縮情報を圧縮符号化し、第2の圧縮符号化情報を出力し、
     前記デコーダは前記第2の圧縮符号化情報を非圧縮符号化し、第3の非圧縮情報を出力し、
     前記画像音声処理部は前記第3の非圧縮情報から抽出した属性情報である第3抽出属性データを出力し、
     前記制御部は前記第1抽出属性データと前記第3抽出属性データが等しければ、前記第2のパラメータセットを確定パラメータセットとして決定する
     請求項3記載の処理装置。
  5.  前記処理装置は代理実行サーバ決定部を含み、
     前記代理実行サーバ決定部は前記エンコーダが前記確定パラメータセットに基づいて第4の非圧縮情報を圧縮符号化した第3の圧縮符号化情報に対する前記属性抽出処理を前記処理装置に代わって行う画像音声処理代理サーバの候補サーバを含む候補リストを保持し、
     前記候補リストに含まれる前記候補サーバに前記属性抽出処理の実行が可能かの問い合わせを行い、
     前記処理装置は前記第1の非圧縮情報を取得した後に、前記第4の非圧縮情報を取得する
     請求項4記載の処理装置。
  6.  前記処理装置以外の装置である外部装置は、第4の非圧縮情報を前記確定パラメータセットに基づいて圧縮符号化された第3の圧縮符号化情報に対する前記属性抽出処理を前記処理装置に代わって行う画像音声処理代理サーバの候補サーバを含む候補リストを保持し、前記外部装置は前記候補リストに含まれる前記候補サーバに前記属性抽出処理の実行が可能かの問い合わせを行い、
     前記処理装置は前記第1の非圧縮情報を取得した後に、前記第4の非圧縮情報を取得する
     請求項4記載の処理装置。
  7.  前記候補リストは複数の属性抽出処理の各々に対応する候補サーバ情報を含み、
     前記候補サーバ情報で特定される候補サーバは対応する属性抽出処理を前記処理装置に代わって行う画像音声処理代理サーバの候補サーバである
     請求項5記載の処理装置。
  8.  前記属性抽出処理は顔識別処理であり、
     前記属性情報は性別、年齢区分の少なくとも1つを含み、
     前記第1のパラメータセットは画像解像度を含む
     請求項7記載の処理装置。
  9.  第1の非圧縮情報を第1のパラメータセットに基づいて圧縮符号化し、第1の圧縮符号化情報を出力するエンコーダと、
     前記第1の圧縮符号化情報を非圧縮符号化し、第2の非圧縮情報を出力するデコーダと、
     前記第1の非圧縮情報に属性抽出処理を行い、抽出した属性情報である第1抽出属性データを出力し、前記第2の非圧縮情報に前記属性抽出処理を行い、抽出した属性情報である第2抽出属性データを出力する画像音声処理部と、
     前記第1抽出属性データと前記第2抽出属性データが等しければ、前記第1のパラメータセットを確定パラメータセットとして決定する制御部を含む
     集積回路。
  10.  第1の非圧縮情報を第1のパラメータセットに基づいて圧縮符号化し、第1の圧縮符号化情報を出力するステップと、
     前記第1の圧縮符号化情報を非圧縮符号化し、第2の非圧縮情報を出力するステップと、
     前記第1の非圧縮情報に属性抽出処理を行い、抽出した属性情報である第1抽出属性データを出力し、前記第2の非圧縮情報に前記属性抽出処理を行い、抽出した属性情報である第2抽出属性データを出力するステップと、
     前記第1抽出属性データと前記第2抽出属性データが等しければ、前記第1のパラメータセットを確定パラメータセットとして決定するステップを含む
     処理方法。
  11.  請求項10記載の処理方法をコンピュータに実行させるためのプログラム。
PCT/JP2014/001811 2013-04-22 2014-03-28 処理装置、集積回路、処理方法、およびプログラム WO2014174763A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013089026A JP2016129269A (ja) 2013-04-22 2013-04-22 画像・音声処理装置、集積回路、およびプログラム
JP2013-089026 2013-04-22

Publications (1)

Publication Number Publication Date
WO2014174763A1 true WO2014174763A1 (ja) 2014-10-30

Family

ID=51728699

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/001811 WO2014174763A1 (ja) 2013-04-22 2014-03-28 処理装置、集積回路、処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US20140313327A1 (ja)
JP (1) JP2016129269A (ja)
WO (1) WO2014174763A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018033103A (ja) * 2016-08-26 2018-03-01 富士通株式会社 フレームレート判定装置、フレームレート判定方法及びフレームレート判定用コンピュータプログラム
JP2019149793A (ja) * 2015-01-15 2019-09-05 日本電気株式会社 情報出力装置、情報出力システム、情報出力方法及びプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3627831A4 (en) * 2017-05-18 2020-06-03 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM
CN109325127B (zh) * 2018-11-28 2021-11-19 创新先进技术有限公司 一种风险识别方法和装置
JP6916224B2 (ja) * 2019-01-31 2021-08-11 Necプラットフォームズ株式会社 画像圧縮パラメータ決定装置、画像伝送システム、方法およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003241796A (ja) * 2002-02-22 2003-08-29 Canon Inc 音声認識システムおよびその制御方法
WO2011135776A1 (ja) * 2010-04-26 2011-11-03 パナソニック株式会社 監視カメラおよび監視システム
JP2014022970A (ja) * 2012-07-19 2014-02-03 Panasonic Corp 画像送信装置、画像送信方法、画像送信プログラム、画像認識認証システム、及び画像受信装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7966274B2 (en) * 2006-08-14 2011-06-21 Neural Id Llc Enhanced learning and recognition operations for radial basis functions
US8532390B2 (en) * 2010-07-28 2013-09-10 International Business Machines Corporation Semantic parsing of objects in video
US20140146172A1 (en) * 2011-06-08 2014-05-29 Omron Corporation Distributed image processing system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003241796A (ja) * 2002-02-22 2003-08-29 Canon Inc 音声認識システムおよびその制御方法
WO2011135776A1 (ja) * 2010-04-26 2011-11-03 パナソニック株式会社 監視カメラおよび監視システム
JP2014022970A (ja) * 2012-07-19 2014-02-03 Panasonic Corp 画像送信装置、画像送信方法、画像送信プログラム、画像認識認証システム、及び画像受信装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019149793A (ja) * 2015-01-15 2019-09-05 日本電気株式会社 情報出力装置、情報出力システム、情報出力方法及びプログラム
US11042667B2 (en) 2015-01-15 2021-06-22 Nec Corporation Information output device, camera, information output system, information output method, and program
US11227061B2 (en) 2015-01-15 2022-01-18 Nec Corporation Information output device, camera, information output system, information output method, and program
JP2018033103A (ja) * 2016-08-26 2018-03-01 富士通株式会社 フレームレート判定装置、フレームレート判定方法及びフレームレート判定用コンピュータプログラム

Also Published As

Publication number Publication date
US20140313327A1 (en) 2014-10-23
JP2016129269A (ja) 2016-07-14

Similar Documents

Publication Publication Date Title
US9906789B2 (en) Encoding or decoding method and apparatus
WO2014174763A1 (ja) 処理装置、集積回路、処理方法、およびプログラム
US9716737B2 (en) Video streaming in a wireless communication system
KR20140034149A (ko) 장면에 기초한 적응적 비트 레이트 제어
US10771788B2 (en) Information processing device and information processing method
JP6179179B2 (ja) 情報処理装置、情報処理方法およびプログラム
US10819951B2 (en) Recording video from a bitstream
WO2021057697A1 (zh) 视频编解码方法和装置、存储介质及电子装置
US10015395B2 (en) Communication system, communication apparatus, communication method and program
WO2012163059A1 (zh) 设备重定向的数据传输的方法、装置及系统
WO2017036061A1 (zh) 一种图像编码方法、图像解码方法及装置
KR102464757B1 (ko) 비디오 데이터를 스트리밍하는 시스템 및 방법
US9674523B2 (en) Methods and apparatus for transcoding digital video
WO2021057480A1 (zh) 视频编解码方法和相关装置
CN113784143A (zh) 视频转码方法、装置、电子设备和计算机可读介质
US10455121B2 (en) Representing advanced color images in legacy containers
WO2018120894A1 (zh) 一种数据流处理方法和智能眼镜系统
TW201212655A (en) Image encoding integrated circuit and image encoding data transmission method thereof
CN108965768B (zh) 多媒体数据的传输方法和系统
WO2017000146A1 (zh) 数据传输装置、路由器和数据传输方法
EP4203479A1 (en) Rendering media streams
CN113782015A (zh) 一种语音交互的方法和装置
CN114666309A (zh) 流媒体的处理方法、传送装置和接收装置

Legal Events

Date Code Title Description
DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14788816

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14788816

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP