WO2013001703A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
WO2013001703A1
WO2013001703A1 PCT/JP2012/003016 JP2012003016W WO2013001703A1 WO 2013001703 A1 WO2013001703 A1 WO 2013001703A1 JP 2012003016 W JP2012003016 W JP 2012003016W WO 2013001703 A1 WO2013001703 A1 WO 2013001703A1
Authority
WO
WIPO (PCT)
Prior art keywords
analysis
analysis engine
engine
control
analysis result
Prior art date
Application number
PCT/JP2012/003016
Other languages
English (en)
French (fr)
Inventor
淑子 松川
亀井 真一郎
清孝 今野
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Publication of WO2013001703A1 publication Critical patent/WO2013001703A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Definitions

  • the present invention relates to an information processing apparatus, and more particularly to an information processing apparatus that can use an analysis result from an analysis engine.
  • the analysis engine performs, for example, a process for detecting a person's presence or a pre-registered person from the input moving image, an image recognition process for analyzing the movement trajectory of the person, or a pre-registered from the input voice.
  • a voice recognition process for detecting the voice of a person is performed and used for various purposes.
  • Patent Document 1 discloses a technique in which when an input image of a camera installed in an elevator is analyzed by an analysis engine and a suspicious person is detected, the recording density of the input image by the camera is increased more than usual. . This makes it easier to search for suspicious persons and to grasp their behavior, and to prevent crimes using elevators.
  • Patent Document 1 merely discloses obtaining an analysis result required in a specific application of an analysis system including an analysis engine. Therefore, there arises a problem that the versatility of the system using the analysis engine cannot be improved.
  • an object of the present invention is to improve the versatility of the system using the analysis engine, which is the above-described problem.
  • an information processing apparatus provides: An analysis result acquisition means for acquiring an analysis result by a predetermined analysis engine; Analysis engine control means for controlling the analysis processing operation by another analysis engine based on the analysis result by the predetermined analysis engine acquired by the analysis result acquisition means,
  • the configuration is as follows.
  • the program which is the other form of this invention is: In the information processing device, An analysis result acquisition means for acquiring an analysis result by a predetermined analysis engine; Analysis engine control means for controlling the analysis processing operation by another analysis engine based on the analysis result by the predetermined analysis engine acquired by the analysis result acquisition means; It is a program for realizing.
  • the analysis engine control method includes: The information processing apparatus acquires an analysis result by a predetermined analysis engine, and controls an analysis processing operation by another analysis engine based on the acquired analysis result by the predetermined analysis engine.
  • the configuration is as follows.
  • the present invention can improve the versatility of an analysis system using an analysis engine by being configured as described above.
  • FIG. 1 It is a block diagram which shows the structure of the information processing system of this invention. It is a flowchart which shows operation
  • FIG. 1 is a block diagram showing the configuration of the information processing system
  • FIGS. 2 to 3 are flowcharts showing the operation of the control device
  • 4 to 14 are diagrams illustrating examples of control rules stored in the control device.
  • the information processing system is a system that includes a plurality of analysis engines and integrates the results analyzed by the respective analysis engines. As shown in FIG. 1, the information processing system includes a first analysis engine 10, a second analysis engine 20, a control device 30, a raw data acquisition device 40, a raw data storage device 50, and an analysis. A result storage device 60.
  • the information processing system in the present invention is not necessarily limited to a system that integrates analysis results of a plurality of analysis engines.
  • the control device 30 may be configured to use the analysis result of at least one analysis engine.
  • FIG. 1 two analysis engines 10 and 20 are illustrated.
  • the information processing system of the present invention may include only one analysis engine, and may include three or more analysis engines. May be.
  • each device will be described in detail.
  • the first analysis engine 10 and the second analysis engine 20 are analysis engines that perform analysis processing on raw data that is analysis target data to be analyzed.
  • each of the analysis engines 10 and 20 includes an image recognition engine that detects a person from moving image data, an action tracking engine that tracks a movement trajectory of the person from moving image data, a voice recognition engine that recognizes utterance contents from audio data, Etc.
  • the analysis engines 10 and 20 are not limited to those described above, and the number is not limited to two.
  • the first analysis engine 10 and the second analysis engine 20 may be analysis engines that perform different analysis processes, or may be analysis engines that perform the same analysis process.
  • the first analysis engine 10 includes a first analysis unit 11, a first buffer interface unit 12, and a first buffer 13.
  • the first analysis unit 11 acquires raw data as analysis target data from a raw data DB (Data Base) 52 of the raw data storage device 50, and analyzes the raw data set for each analysis engine. Processing is performed, and the analysis result data is output to the first buffer interface unit 12. Note that the raw data that is the analysis target data is first acquired by the first raw data acquisition unit 41 provided in the raw data acquisition device 40. The raw data is accumulated in the raw data DB 52 from the raw data acquisition device 40 via the raw data DB interface unit 51 of the raw data storage device 50.
  • a raw data DB Data Base
  • the first buffer interface unit 12 outputs the analysis result data received from the first analysis unit 11 to the first buffer 13 and temporarily accumulates the analysis result data in the first buffer 13.
  • the data is output to the storage device 60.
  • the analysis result storage device 60 accumulates the analysis result data output from the first analysis engine 10 in the analysis result DB (Data (Base) 62 via the analysis result DB interface unit 61.
  • the first buffer interface unit 12 also outputs the analysis result data received from the first analysis unit 11 to the control device 30.
  • the second analysis engine 20 has basically the same configuration as the first analysis engine 10 although the contents of the analysis processing differ from the first analysis engine 10 depending on the type. That is, the second analysis engine 20 includes a second analysis unit 21, a second buffer interface unit 22, and a second buffer 23 as shown in FIG.
  • the second analysis unit 21 acquires raw data as analysis target data from a raw data DB (Data52Base) 52 of the raw data storage device 50, and is set for each analysis engine for the raw data.
  • the analysis process is performed, and the analysis result data is output to the second buffer interface unit 22.
  • the raw data that is the analysis target data is first acquired by the second raw data acquisition unit 42 provided in the raw data acquisition device 40.
  • the raw data is accumulated in the raw data DB 52 from the raw data acquisition device 40 via the raw data DB interface unit 51 of the raw data storage device 50.
  • the second analysis unit 21 executes the analysis process according to the control command. For example, processing such as performing analysis with higher analysis accuracy than normal analysis processing is performed. Specific examples will be described later.
  • the second buffer interface unit 22 outputs the analysis result data received from the second analysis unit 21 to the second buffer 23 and temporarily accumulates the analysis result data in the second buffer 23.
  • the data is output to the storage device 60.
  • the analysis result storage device 60 accumulates the analysis result data output from the second analysis engine 20 in an analysis result DB (DataDBBase) 62 via the analysis result DB interface unit 61.
  • the control device 30 is a server computer that includes an arithmetic device and a storage device. And as shown in FIG. 1, the control apparatus 30 is constructed
  • the program is stored in a storage device or recorded on a computer-readable recording medium.
  • the recording medium is a portable medium such as a flexible disk, an optical disk, a magneto-optical disk, and a semiconductor memory.
  • the analysis result acquisition unit 31 acquires the analysis result data output from the first analysis engine 10 (predetermined analysis engine) as described above, and passes it to the control instruction unit 32.
  • the control instructing unit 32 uses the control content set in the control rule 36 corresponding to the analysis result data from the first analysis engine 10 received from the analysis result acquisition unit 31, and the second The analysis processing operation by the other analysis engine 20 (other analysis engine) is controlled.
  • the control instruction unit 32 refers to the control rule 36 and determines whether or not the analysis process is executed by the second analysis engine 20 according to the value of the analysis result data by the first analysis engine 10 and the analysis process. Control execution timing.
  • the control instruction unit 32 refers to the control rule 36 and performs analysis processing so as to change the analysis accuracy of the analysis processing by the second analysis engine 20 according to the value of the analysis result data by the first analysis engine 10. Control the behavior.
  • control instruction unit 32 refers to the control rule 36 and determines a predetermined portion of the raw data to be analyzed by the second analysis engine 20 according to the value of the analysis result data by the first analysis engine 10. Designation is performed, and the analysis processing operation is controlled so as to perform analysis processing of the designated portion.
  • control instruction unit 32 sets the control rule 36 according to the degree of the analysis process result.
  • the operation of the second analysis engine 20 is controlled as described above with the set control content.
  • control instruction unit 32 The specific control instruction operation by the control instruction unit 32 will be described in detail together with a specific example of data stored as the control rule 36 when the operation is described.
  • the control instruction unit 32 executes the analysis process by the analysis engine selected from the plurality of analysis engines equipped.
  • the analysis processing operation of the selected analysis engine may be controlled in the same manner as described above, such as by controlling the presence or absence of the above.
  • the control instruction unit 32 may control the operation of the first analysis engine 10 itself that has received the analysis result.
  • the analysis result acquisition unit 31 of the control device 30 acquires the analysis result data from one or more other analysis engines in addition to the first analysis engine 10, that is, the control device 30 has a plurality of analysis engines. Analysis result data may be acquired from each.
  • the control instruction unit 32 may control the operation of the other analysis engines as described above with the control content set in the control rule 36 corresponding to the combination of the analysis result data. At this time, the control instruction unit 32 may control the operation of the first analysis engine 10 itself that has received the analysis result.
  • the control instruction unit 32 uses the raw data storage device 50 and the analysis result according to the control content set in the control rule 36 corresponding to the analysis result data acquired from the analysis result acquisition unit 31. Control is performed by the raw data acquisition control unit 33, the raw data storage control unit 34, and the analysis result storage control unit 35 (stored data control means) so as to control storage data such as raw data and analysis result data stored in the storage device 60. Issue a command.
  • the raw data acquisition control unit 33 controls the operation of the raw data acquisition device 40 so as to stop the acquisition of the selected raw data, for example, in response to a control command from the control instruction unit 32.
  • the raw data storage control unit 34 and the analysis result storage control unit 35 are stored in the raw data and analysis result DB 62 stored in the raw data DB 52, for example, in accordance with a control command from the control instruction unit 32. Then, the operation of the raw data storage device 50 and the analysis result storage device 60 is controlled so as to delete the selected raw data and analysis result data.
  • the raw data storage control unit 34 and the analysis result storage control unit 35 perform the raw data and the analysis result on the raw data stored in the raw data DB 52 and the analysis result data stored in the analysis result DB 62.
  • Data may be processed and re-stored. For example, compression or trimming a part of the image data may be performed so that the data capacity of the raw data or analysis result data is reduced.
  • the raw data storage control unit 34 and the analysis result storage control unit 35 may add additional data to the raw data and analysis result data and re-store them.
  • the raw data storage control unit 34 and the analysis result storage control unit 35 are stored in the raw data and analysis result DB 62 stored in the raw data DB 52, for example, in accordance with a control command from the control instruction unit 32.
  • the storage period of the analysis result data may be set to a predetermined period.
  • the raw data storage control unit 34 and the analysis result storage control unit 35 are stored, for example, in the raw data or analysis result DB 62 stored in the raw data DB 52 in accordance with a control command from the control instruction unit 32.
  • the analysis result data may be controlled to be stored in another storage device different from the storage device in which the analysis result data is stored.
  • the raw data storage control unit 34 and the analysis result storage control unit 35 when the analysis result data by the first analysis engine 10 includes a degree indicating the probability of the analysis processing result, The storage state of the raw data stored in the raw data DB 52 and the analysis result data stored in the analysis result DB 62 may be controlled in the same manner as described above with the control content set in the control rule 36 corresponding to the degree. .
  • an analysis result acquisition unit of the control device 30 31 acquires the analysis result data from one or more other analysis engines in addition to the first analysis engine 10, that is, the control device 30 acquires the analysis result data from each of the plurality of analysis engines. Also good.
  • the control instruction unit 32 is stored in the raw data stored in the raw data DB 52 or the analysis result DB 62 with the control content set in the control rule 36 corresponding to the combination of each analysis result data. The storage state of the analysis result data is controlled as described above.
  • the control device 30 may execute both the operation for controlling the analysis engine shown in the flowchart of FIG. 2 and the operation for controlling the stored data shown in the flowchart of FIG. 3, and only one of the operations is performed. May be executed.
  • the first analysis engine 10 is an image recognition engine
  • the second analysis engine 20 is an action tracking engine
  • a control rule 36 having the contents shown in FIG. 4 is stored.
  • the first analysis engine 10 performs analysis processing on image data that is analysis target data (raw data), and recognizes whether the person existing in the image data is “female” or “male”. And the control apparatus 30 acquires the analysis result data (step S1).
  • control device 30 refers to the control rule shown in FIG. 4 and corresponds to the “tracking interval 1 minute (normal)” Is selected.
  • the control content “tracking interval 30 seconds” corresponding to the control rule shown in FIG. 4 is selected (step S2). .
  • the control device 30 controls the analysis processing by the second analysis engine 20 in accordance with the selected control content (step S3).
  • the control content of “tracking interval 1 minute (normal)” is selected, the control is performed as usual, and thus the second analysis engine 20 is not particularly controlled.
  • the second analysis engine 20 performs tracking processing at regular time intervals on moving image data that is analysis target data (raw data).
  • the control content of “tracking interval 30 seconds” is selected, a control command is issued to the second analysis engine 20 to perform tracking processing at “tracking interval 30 seconds”.
  • the tracking process is executed on the moving image data that is the analysis target data (raw data) at “30-second intervals” that is shorter than usual in accordance with the control command. .
  • the first analysis engine 10 is an image recognition engine
  • the second analysis engine 20 is a speech recognition engine
  • a control rule 36 having the contents shown in FIG. 5 is stored.
  • the first analysis engine 10 performs analysis processing on image data that is analysis target data (raw data), and recognizes whether or not there is a “suspicious person” registered in advance in the image data. And the control apparatus 30 acquires the analysis result data (step S1).
  • step S2 when the analysis result from the first analysis engine 10 is “not a suspicious person”, the control device 30 refers to the control rule shown in FIG. Is selected.
  • the analysis result from the first analysis engine 10 is “suspicious person”, the control content “recognition accuracy one level higher than usual” corresponding to the control rule shown in FIG. 5 is referred to. Select (step S2).
  • control device 30 controls the analysis processing by the second analysis engine 20 in accordance with the selected control content (step S3).
  • control content of “normal level recognition accuracy” is selected, the control is performed as usual, and thus the second analysis engine 20 is not particularly controlled.
  • the 2nd analysis engine 20 a speech recognition process is performed with normal precision with respect to the speech data used as analysis object data (raw data).
  • the control content of “recognition accuracy one level higher than normal” is selected, the second analysis engine 20 is controlled to perform the speech recognition process with “recognition accuracy one level higher than normal”. Issue a command.
  • the speech recognition process is executed with the recognition accuracy set to be one level higher than usual with respect to the speech data to be analyzed data (raw data) according to the control command.
  • analysis processing such as voice recognition is performed by shortening the sampling period for the voice data.
  • the first analysis engine 10 is an image recognition engine
  • the second analysis engine 20 is an action tracking engine
  • a control rule 36 having the contents shown in FIG. 6 is stored.
  • analysis processing is performed on image data that is analysis target data (raw data) in the first analysis engine 10 to recognize whether or not there is a “suspicious person” registered in the image data in advance. , “Probability of being a suspicious person” is calculated. And the control apparatus 30 acquires the analysis result data (step S1).
  • the control device 30 refers to the control rule shown in FIG. “Normal”) is selected. Further, when the analysis result from the first analysis engine 10 is “a suspicious person with a probability of 70%”, the control rule shown in FIG. 6 is referred to and the corresponding “tracking interval is 30 seconds”. Select the control content. Further, when the analysis result from the first analysis engine 10 is “100% probability of being a suspicious person”, referring to the control rule shown in FIG. The control content is selected (step S2).
  • the control device 30 controls the analysis processing by the second analysis engine 20 in accordance with the selected control content (step S3).
  • the control content of “tracking interval 1 minute (normal)” is selected, the control is performed as usual, and thus the second analysis engine 20 is not particularly controlled.
  • the second analysis engine 20 performs tracking processing at regular time intervals on moving image data that is analysis target data (raw data).
  • a control command is issued to the second analysis engine 20 to perform the tracking process at “tracking interval 30 seconds”.
  • the tracking process is executed on the moving image data that is the analysis target data (raw data) at “30-second intervals” that is shorter than usual in accordance with the control command.
  • the first analysis engine 10 is an image recognition engine
  • the second analysis engine 20 is a speech recognition engine
  • a third analysis engine (not shown) is an action tracking engine.
  • the analysis result data from the first analysis engine 10 and the third analysis engine is output to the control device 30, and the second analysis engine 20 is controlled by the control device 30 in accordance with the combination of these analysis result data. It will be done. Further, it is assumed that the control rule 36 having the contents shown in FIG. 7 is stored.
  • the first analysis engine 10 performs analysis processing on image data that is analysis target data (raw data), and recognizes whether the person existing in the image data is “female” or “male”.
  • the third analysis engine performs analysis processing on moving image data that is analysis target data (raw data), and tracks the movement trajectory of a person existing in the moving image data.
  • the control apparatus 30 acquires the analysis result data (step S1).
  • the control device 30 determines that the analysis result from the first analysis engine 10 is “female” and the movement trajectory that is the analysis result from the third analysis engine is “from point X to point Z”. Refers to the control rule shown in FIG. 7 and selects the corresponding control content “normal level recognition accuracy”. When the analysis result from the first analysis engine 10 is “female” and the movement trajectory that is the analysis result from the third analysis engine is “from Y point to Z point”, the control rule shown in FIG. , The control content “recognition accuracy one level higher than normal” is selected (step S2).
  • the control device 30 controls the analysis processing by the second analysis engine 20 in accordance with the selected control content (step S3).
  • the control content of “normal level recognition accuracy” is selected, the control is performed as usual, and thus the second analysis engine 20 is not particularly controlled.
  • the 2nd analysis engine 20 a speech recognition process is performed with normal precision with respect to the speech data used as analysis object data (raw data).
  • the control content of “recognition accuracy one level higher than normal” is selected, the second analysis engine 20 is controlled to perform the speech recognition process with “recognition accuracy one level higher than normal”. Issue a command.
  • the speech recognition process is executed with the recognition accuracy set to be one level higher than usual with respect to the speech data to be analyzed data (raw data) according to the control command.
  • the first analysis engine 10 is an image recognition engine
  • the second analysis engine 20 is a behavior tracking engine
  • a third analysis engine (not shown) is a speech recognition engine.
  • the analysis result data from the first analysis engine 10 and the third analysis engine is output to the control device 30, and the second analysis engine 20 is controlled by the control device 30 according to the combination of these analysis result data. It will be controlled. Further, it is assumed that the control rule 36 having the contents shown in FIG. 8 is stored.
  • the first analysis engine 10 performs analysis processing on image data that is analysis target data (raw data), and recognizes whether or not there is a “suspicious person” registered in advance in the image data.
  • the third analysis engine performs analysis processing on speech data that is analysis target data (raw data), and “words” are recognized from the speech data.
  • the control apparatus 30 acquires the analysis result data (step S1).
  • the control device 30 indicates that the analysis result from the first analysis engine 10 is “not a suspicious person” and is registered in advance in “words” detected as the analysis result from the third analysis engine.
  • the control content “tracking interval 1 minute (normal)” corresponding to the control rule shown in FIG. 8 is selected.
  • the analysis result from the first analysis engine 10 is “suspicious person”, and the “keyword (NG word) registered in advance in the“ word ”detected as the analysis result from the third analysis engine is If “exists”, the control content “tracking interval 15 seconds” corresponding to the control rule shown in FIG. 8 is selected (step S2).
  • the control device 30 controls the analysis processing by the second analysis engine 20 in accordance with the selected control content (step S3).
  • the control content of “tracking interval 1 minute (normal)” is selected, the control is performed as usual, and thus the second analysis engine 20 is not particularly controlled.
  • the second analysis engine 20 performs tracking processing at regular time intervals on moving image data that is analysis target data (raw data).
  • a control command is issued to the second analysis engine 20 to perform the tracking process at “tracking interval 15 seconds”.
  • the tracking process is executed on the moving image data that is the analysis target data (raw data) at “15-second intervals”, which is shorter than usual, according to the control command. .
  • the first analysis engine 10 is an image recognition engine
  • the second analysis engine 20 is a behavior tracking engine
  • a third analysis engine (not shown) is a speech recognition engine.
  • the analysis result data from the first analysis engine 10 and the third analysis engine is output to the control device 30, and the second analysis engine 20 is controlled by the control device 30 according to the combination of these analysis result data. It will be controlled. Further, it is assumed that the control rule 36 having the contents shown in FIG. 9 is stored.
  • the first analysis engine 10 performs analysis processing on image data that is analysis target data (raw data), and recognizes whether the person existing in the image data is “female” or “male”.
  • the third analysis engine performs analysis processing on the speech data that is analysis target data (raw data), recognizes “words” from the speech data, and calculates the “probability of being words”.
  • the control apparatus 30 acquires these analysis result data (step S1).
  • the control device 30 indicates that the analysis result from the first analysis engine 10 is “male”, and the “keyword (NG” registered in advance in the “word” detected as the analysis result from the third analysis engine. If “word does not exist”, the control content “tracking interval 1 minute (normal)” corresponding to the control rule shown in FIG. 9 is selected.
  • the analysis result from the first analysis engine 10 is “male”, and the “keyword (NG word) registered in advance in the“ word ”detected as the analysis result from the third analysis engine is 70%. In the case of “exists with probability”, the control content “tracking interval 30 seconds” corresponding to the control rule shown in FIG. 9 is selected.
  • the analysis result from the first analysis engine 10 is “male”, and the “keyword (NG word) registered in advance in the“ word ”detected as the analysis result from the third analysis engine is 100%. If “exists with probability”, the control content “tracking interval 15 seconds” corresponding to the control rule shown in FIG. 9 is selected (step S2).
  • the control device 30 controls the analysis processing by the second analysis engine 20 in accordance with the selected control content (step S3).
  • the control content of “tracking interval 1 minute (normal)” is selected, the control is performed as usual, and thus the second analysis engine 20 is not particularly controlled.
  • the second analysis engine 20 performs tracking processing at regular time intervals on moving image data that is analysis target data (raw data).
  • a control command is issued to the second analysis engine 20 to perform the tracking process at “tracking interval 30 seconds”.
  • the tracking process is executed on the moving image data that is the analysis target data (raw data) at “30-second intervals” that is shorter than usual in accordance with the control command.
  • control instruction unit 32 of the control device 30 controls the second analysis engine 20 in accordance with the analysis result data from the first analysis engine 10 and the like as described above, and can also perform the following control. .
  • control instruction unit 32 when the first analysis engine 10 outputs an analysis result that “female” exists from the image data, the control instruction unit 32 causes the second analysis engine 20 to output the “dress” of the person from the image data. Control to extract and analyze As another example, the control instruction unit 32 performs the second analysis when a “person requiring attention” registered in advance is detected from the image data by face authentication when the first analysis engine 10 enters the room. The engine 20 is controlled to execute the flow line analysis in the office from the moving image data.
  • control instruction unit 32 uses the second analysis engine 20 to generate a sound. Control to start the recognition process.
  • control instruction unit 32 uses the second analysis engine 20 when the certainty of recognition in speech recognition by the first analysis engine 10 is lower than a preset value and insufficient. Control is performed to start face authentication processing from image data.
  • the control instruction unit 32 when the first analysis engine 10 recognizes “person's age and sex” from the image data, the control instruction unit 32 is optimal for age and sex among a plurality of other analysis engines. If so, control is performed to select a preset voice recognition engine and start the voice recognition process. As another example, the control instruction unit 32 distinguishes “human” and “dog” from the voice data by the first analysis engine 10, and among the other analysis engines, “human” or “dog”. A dedicated analysis engine is selected, and control is performed to start a process of detecting a smile from image data using the analysis engine.
  • the first analysis engine 10 can detect a person by analyzing the flow line of the person from data such as RFID by the first analysis engine 10, the flow line location where the person can be detected. Only the face is extracted from the image data by the second analysis engine.
  • the control instruction unit 32 performs voice data at that time. To control the voice recognition by the second analysis engine.
  • control instruction unit 32 estimates the arrival time at a specific place (entrance) when the person can be detected by analyzing the flow line of the person by the first analysis engine 10, Control is performed so that the execution of face recognition processing by the second analysis engine at a specific location is started immediately before that time.
  • the first analysis engine 10 performs analysis processing on image data that is analysis target data (raw data), and recognizes the “existence” of the person and the “identity” of the person in the image data. Then, the control device 30 acquires these analysis result data (step S11). At this time, the analysis target data (raw data) used for the analysis processing is accumulated in the raw data DB 52 of the raw data storage device 50, and the analysis result data as the analysis result is analyzed by the analysis result storage device 60. The result is stored in the DB 62.
  • step S12 when the analysis result from the first analysis engine 10 is “no person detected”, the control instruction unit 32 of the control device 30 refers to the control rule shown in FIG.
  • the control content “DATA DELETION” is selected.
  • the analysis result from the first analysis engine 10 is “identification of extracted person”
  • the control content “raw data deletion” corresponding to the control rule shown in FIG. 10 is referred to. Select (step S12).
  • control instruction unit 32 of the control device 30 performs the raw data storage device 50 and the analysis result storage device 60 via the raw data storage control unit 34 and the analysis result storage control unit 35 according to the selected control content.
  • a control command is issued (step S13).
  • the control content of “DATA DELETION” is selected, the raw data stored in the raw data DB 52 of the raw data storage device 50 and the analysis result data stored in the analysis result DB 62 of the analysis result storage device 60 are displayed. And control to delete.
  • control content of “raw data deletion” is selected, control is performed to delete the raw data stored in the raw data DB 52 of the raw data storage device 50.
  • the first analysis engine 10 performs analysis processing on image data that is analysis target data (raw data), and recognizes whether or not there is a “suspicious person” registered in advance in the image data. And the control apparatus 30 acquires the analysis result data (step S11).
  • control device 30 refers to the control rule shown in FIG. 11 and corresponds to “raw data high compression”. Is selected (step S12).
  • the analysis result from the first analysis engine 10 is “suspicious”, referring to the control rule shown in FIG. 11, there is no control content corresponding to the control rule.
  • control device 30 controls the stored data in accordance with the selected control content (step S13). Therefore, when the control content of “raw data high compression” is selected, among the raw data stored in the raw data DB 52 of the raw data storage device 50, the first analysis engine 10 “not suspicious”. The corresponding raw data analyzed as “is subjected to high compression processing and stored again in the raw data DB. As a result, it is possible to reduce the volume of raw data that is less likely to be checked again.
  • the first analysis engine 10 performs analysis processing on speech data that is analysis target data (raw data), recognizes “words” from the speech data, and calculates the “probability of words”. The Then, the control device 30 acquires these analysis result data (step S11).
  • the control device 30 refers to the control rule shown in FIG. Select the control content of “High level sound quality”.
  • the probability of speech recognition, which is the analysis result from the first analysis engine 10 is “30% or more and less than 70%”, referring to the control rule shown in FIG. Is selected.
  • the probability of speech recognition, which is an analysis result from the first analysis engine 10 is “70% or more”, referring to the control rule shown in FIG. The contents are selected (step S12).
  • the control device 30 controls the stored data in accordance with the selected control content (step S13). Therefore, when the control content of “high level sound quality” is selected, the speech recognition by the first analysis engine 10 among the raw data stored in the raw data DB 52 of the raw data storage device 50 is “30”. The raw data analyzed as “probability of less than%” is processed so as to obtain a high-level sound quality (or nothing is performed so as not to deteriorate the sound quality), and the raw data is stored again. When the control content of “medium level sound quality” is selected, the speech recognition by the first analysis engine 10 among the raw data stored in the raw data DB 52 of the raw data storage device 50 is “30% or more.
  • the raw data analyzed as “probability of less than 70%” is subjected to a compression process or the like so as to obtain an intermediate sound quality, and is stored again in the raw data DB.
  • speech recognition by the first analysis engine 10 among the raw data stored in the raw data DB 52 of the raw data storage device 50 is “70% or more.
  • the raw data analyzed as “probability” is subjected to high compression processing or the like so as to obtain a low-level sound quality and stored again in the raw data DB.
  • the first analysis engine 10 executes analysis processing on image data that is analysis target data (raw data), and recognizes an object existing in the image data. And the control apparatus 30 acquires the analysis result data (step S11).
  • the control device 30 refers to the control rule shown in FIG. 13 and controls corresponding to “retention period 3 years”. Select content.
  • the analysis result from the first analysis engine 10 is “car”
  • the control content “storage period 1 year” corresponding to the control rule shown in FIG. 13 is selected.
  • the analysis result from the first analysis engine 10 is “dog”
  • the control content “save period half year” corresponding to the control rule shown in FIG. 13 is selected (step S12).
  • the control device 30 controls the stored data in accordance with the selected control content (step S13). Therefore, when the control content of “save period 3 years” is selected, the first analysis engine 10 analyzes “person” among the raw data stored in the raw data DB 52 of the raw data storage device 50. The corresponding raw data is set to “save period 3 years” and stored again in the raw data DB. At this time, “retention period 3 years” may also be set for the corresponding analysis result data stored in the analysis result DB 62 of the analysis result storage device 60 and stored again in the analysis result DB. Similarly, when the control content of “save period 1 year” is selected, “save period 1 year” is set for the corresponding raw data and stored again in the raw data DB. When the control content “semi-year” is selected, “save period half-year” is set for the corresponding raw data and stored again in the raw data DB.
  • the first analysis engine 10 performs analysis processing on image data that is analysis target data (raw data), detects a person existing in the image data, and identifies the person. And the control apparatus 30 acquires the analysis result data (step S11).
  • the control device 30 refers to the control rule shown in FIG. 14 and corresponds to the “server on the network”. Select the control content.
  • the control content “tape” corresponding to the control rule shown in FIG. 14 is selected. If the analysis result from the first analysis engine 10 is “outside person”, the control content “disk” corresponding to the control rule shown in FIG. 14 is selected (step S12).
  • the control device 30 controls the stored data in accordance with the selected control content (step S13). Therefore, when the control content of “no person” is selected, the raw data stored in the raw data DB 52 of the raw data storage device 50 is analyzed by the first analysis engine 10 as “no person”. The raw data is stored again in the “server on the network”. At this time, the corresponding analysis result data stored in the analysis result DB 62 of the analysis result storage device 60 may be stored again in the “server on the network”. Similarly, when the control content of “employee” is selected, the corresponding raw data is stored again on “tape”, and when the control content of “external person” is selected, the corresponding raw data is stored. Is stored on the “disk” again. Note that the servers, tapes, and disks on the network are connected to the control device 30.
  • raw data that does not show people is low in necessity, it is stored on a server on a network with low accessibility, and raw data that shows employees is also low in necessity. Therefore, it is stored on a tape with low accessibility.
  • the raw data showing “persons outside the company” needs to be confirmed in the future, so it is stored on a disk with good accessibility.
  • control instruction unit 32 of the control device 30 controls the stored data in accordance with the analysis result data from the first analysis engine 10 and the like as described above, and can also perform the following control.
  • control instruction unit 32 detects the “face part” from the image data by the first analysis engine 10 and cuts out and stores only the “face part” of the raw data to be analyzed, or the raw data Controls to save at a resolution other than the “face part”.
  • control instruction unit 32 detects “words having specific characteristics” set in advance from voice data by the first analysis engine 10, and “ Controls to save only the part of "words with specific characteristics”.
  • control instruction unit 32 detects the “important person” from the image data by the first analysis engine 10 and “circles” the “face part” of the raw data that is the analysis target. "Additional data such as” is added and controlled to be saved.
  • control instruction unit 32 detects a “specific word” preset from the speech data by the first analysis engine 10, and the “specific word” of the raw data to be analyzed "Additional data such as” beep tone "is inserted immediately before the" "part and controlled to be saved.
  • Analysis result acquisition means 101 for acquiring an analysis result by a predetermined analysis engine 111;
  • An analysis engine control unit 102 for controlling an analysis processing operation by another analysis engine 112 based on an analysis result by the predetermined analysis engine 111 acquired by the analysis result acquisition unit 101;
  • An information processing apparatus 100 comprising:
  • (Appendix 2) An information processing apparatus according to attachment 1, wherein The analysis engine control unit controls the execution of analysis processing by another analysis engine based on the analysis result by the predetermined analysis engine acquired by the analysis result acquisition unit. Information processing device.
  • Appendix 3 An information processing apparatus according to appendix 2, wherein The analysis engine control unit controls the execution of analysis processing by an analysis engine selected from a plurality of other analysis engines based on the analysis result by the predetermined analysis engine acquired by the analysis result acquisition unit. Information processing device.
  • Appendix 4 An information processing apparatus according to appendix 2 or 3,
  • the analysis engine control means controls the execution timing of analysis processing by another analysis engine based on the analysis result by the predetermined analysis engine acquired by the analysis result acquisition means.
  • Information processing device
  • Appendix 5 An information processing apparatus according to any one of appendices 1 to 4,
  • the analysis engine control unit controls the operation of the other analysis engine so as to change the analysis accuracy of the analysis process by the other analysis engine based on the analysis result by the predetermined analysis engine acquired by the analysis result acquisition unit.
  • Information processing device Information processing device.
  • the analysis engine control means designates a predetermined location of analysis target data to be analyzed by another analysis engine based on the analysis result by the predetermined analysis engine acquired by the analysis result acquisition means, and is designated Control the operation of other analysis engines to perform analysis processing of Information processing device.
  • Appendix 7 An information processing apparatus according to any one of appendices 1 to 6,
  • the analysis engine control means controls the operation of another analysis engine based on the degree of the analysis result obtained by the predetermined analysis engine acquired by the analysis result acquisition means.
  • Information processing device
  • the analysis result acquisition means acquires analysis results obtained by a plurality of predetermined analysis engines
  • the analysis engine control means controls operations of other analysis engines based on a combination of analysis results obtained by the plurality of predetermined analysis engines.
  • Information processing device
  • An analysis result acquisition means for acquiring an analysis result by a predetermined analysis engine;
  • Analysis engine control means for controlling the analysis processing operation by another analysis engine based on the analysis result by the predetermined analysis engine acquired by the analysis result acquisition means;
  • Appendix 10 The program according to appendix 9, wherein The analysis engine control unit controls the execution of analysis processing by another analysis engine based on the analysis result by the predetermined analysis engine acquired by the analysis result acquisition unit. program.
  • the information processing apparatus acquires an analysis result by a predetermined analysis engine, and controls an analysis processing operation by another analysis engine based on the acquired analysis result by the predetermined analysis engine. Analysis engine control method.
  • An analysis engine control method comprising: The information processing apparatus controls the execution of analysis processing by another analysis engine based on the obtained analysis result by the predetermined analysis engine. Analysis engine control method.
  • the program is stored in a storage device or recorded on a computer-readable recording medium.
  • the recording medium is a portable medium such as a flexible disk, an optical disk, a magneto-optical disk, and a semiconductor memory.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 本発明の情報処理装置100は、所定の解析エンジン111による解析結果を取得する解析結果取得手段101と、解析結果取得手段101により取得した所定の解析エンジン111による解析結果に基づいて、他の解析エンジン112による解析処理動作を制御する解析エンジン制御手段102と、を備える。

Description

情報処理装置
 本発明は、情報処理装置にかかり、特に、解析エンジンからの解析結果を利用することができる情報処理装置に関する。
 近年、情報処理技術の発達に伴い、様々なデータの解析を行う解析エンジンの開発が行われている。解析エンジンは、例えば、入力された動画像から人物の存在や予め登録されている人物の検出処理、その人物の移動軌跡を解析する画像認識処理を行ったり、入力された音声から予め登録されている人物の音声を検出する音声認識処理などを行い、種々の用途に用いられている。
 そして、上述したような解析エンジンにおいて、より解析精度を高めるような工夫も行われている。例えば、特許文献1では、エレベータに設置したカメラの入力画像を解析エンジンにて解析して、不審者を検知すると、カメラによる入力画像の記録密度を通常よりも上げる、という技術が開示されている。これにより、その後の不審者の検索や行動の把握が容易となり、エレベータを利用した犯罪の防止を図っている。
特開2007-331925号公報
 一方で、上述したように様々な解析エンジンが利用されている状況においては、日々刻々と変化する状況に対応して、種々の解析結果が要求されることがある。ところが、上述した特許文献1に開示の技術では、解析エンジンを備えた解析システムの特定の用途において要求された解析結果を得ることが開示されているだけである。従って、解析エンジンを利用したシステムの汎用性の向上を図ることができない、という問題が生じる。
 このため、本発明の目的は、上述した課題である、解析エンジンを利用したシステムの汎用性の向上を図ることにある。
 かかる目的を達成するため本発明の一形態である情報処理装置は、
 所定の解析エンジンによる解析結果を取得する解析結果取得手段と、
 前記解析結果取得手段により取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンによる解析処理動作を制御する解析エンジン制御手段と、を備えた、
という構成をとる。
 また、本発明の他の形態であるプログラムは、
 情報処理装置に、
 所定の解析エンジンによる解析結果を取得する解析結果取得手段と、
 前記解析結果取得手段により取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンによる解析処理動作を制御する解析エンジン制御手段と、
を実現させるためのプログラムである。
 また、本発明の他の形態である解析エンジン制御方法は、
 情報処理装置が、所定の解析エンジンによる解析結果を取得し、取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンによる解析処理動作を制御する、
という構成をとる。
 本発明は、以上のように構成されることにより、解析エンジンを利用した解析システムの汎用性の向上を図ることができる。
本発明の情報処理システムの構成を示すブロック図である。 図1に開示した制御装置の動作を示すフローチャートである。 図1に開示した制御装置の動作を示すフローチャートである。 図1に開示の制御ルールに記憶される情報の一例を示す図である。 図1に開示の制御ルールに記憶される情報の他の例を示す図である。 図1に開示の制御ルールに記憶される情報の一例を示す図である。 図1に開示の制御ルールに記憶される情報の一例を示す図である。 図1に開示の制御ルールに記憶される情報の一例を示す図である。 図1に開示の制御ルールに記憶される情報の一例を示す図である。 図1に開示の制御ルールに記憶される情報の一例を示す図である。 図1に開示の制御ルールに記憶される情報の一例を示す図である。 図1に開示の制御ルールに記憶される情報の一例を示す図である。 図1に開示の制御ルールに記憶される情報の一例を示す図である。 図1に開示の制御ルールに記憶される情報の一例を示す図である。 本発明の付記1の構成を示すブロック図である。
 <実施形態1>
 本発明の第1の実施形態を、図1乃至図14を参照して説明する。図1は、情報処理システムの構成を示すブロック図であり、図2乃至図3は、制御装置の動作を示すフローチャートである。図4乃至図14は、制御装置に記憶された制御ルールの一例を示す図である。
 [構成]
 本発明における情報処理システムは、複数の解析エンジンを搭載し、各解析エンジンで解析された結果を統合するシステムである。そして、情報処理システムは、図1に示すように、第1の解析エンジン10と、第2の解析エンジン20と、制御装置30と、生データ取得装置40と、生データ記憶装置50と、解析結果記憶装置60と、を備えている。
 但し、本発明における情報処理システムは、必ずしも複数の解析エンジンの解析結果を統合するシステムであることに限定されない。特に、制御装置30が、少なくとも1つの解析エンジンの解析結果を利用できる構成であればよい。そして、図1では、2つの解析エンジン10,20を図示しているが、本発明の情報処理システムは、1台の解析エンジンのみを搭載していてもよく、3台以上の解析エンジンを搭載してもよい。以下、各装置について詳述する。
 第1の解析エンジン10と第2の解析エンジン20は、それぞれが解析対象とする解析対象データである生データを解析処理する解析エンジンである。例えば、各解析エンジン10,20は、動画像データから人物の検出を行う画像認識エンジン、動画像データから人物の移動軌跡を追跡する行動追跡エンジン、音声データから発話内容を認識する音声認識エンジン、などである。但し、各解析エンジン10,20は上述したものに限定されず、その数も2つであることに限定されない。また、第1の解析エンジン10と第2の解析エンジン20とがそれぞれ異なる解析処理を行う解析エンジンであってもよく、同一の解析処理を行う解析エンジンであってもよい。
 まず、上記第1の解析エンジン10の構成を説明する。上記第1の解析エンジン10は、図1に示すように、第1の解析部11と、第1のバッファインタフェース部12と、第1のバッファ13と、を備えている。
 上記第1の解析部11は、解析対象データである生データを生データ記憶装置50の生データDB(Data Base)52から取得して、かかる生データに対して解析エンジン毎に設定された解析処理を行い、解析結果データを第1のバッファインタフェース部12に出力する。なお、解析対象データである生データは、まず、生データ取得装置40に装備された第1の生データ取得部41にて取得される。そして、生データは、生データ取得装置40から生データ記憶装置50の生データDBインタフェース部51を介して生データDB52に蓄積されている。
 そして、上記第1のバッファインタフェース部12は、第1の解析部11から受け取った解析結果データを、第1のバッファ13に出力して当該第1のバッファ13に一時的に蓄積し、解析結果記憶装置60に出力する。なお、解析結果記憶装置60では、第1の解析エンジン10から出力された解析結果データを、解析結果DBインタフェース部61を介して解析結果DB(Data Base)62に蓄積する。また、上記第1のバッファインタフェース部12は、第1の解析部11から受け取った解析結果データを、制御装置30にも出力する。
 次に、第2の解析エンジン20の構成を説明する。第2の解析エンジン20は、その種類によって第1の解析エンジン10と解析処理の内容が異なるが、基本的には第1の解析エンジン10と同様の構成をとっている。つまり、上記第2の解析エンジン20は、図1に示すように、第2の解析部21と、第2のバッファインタフェース部22と、第2のバッファ23と、を備えている。
 そして、上記第2の解析部21は、解析対象データである生データを生データ記憶装置50の生データDB(Data Base)52から取得して、かかる生データに対して解析エンジン毎に設定された解析処理を行い、解析結果データを第2のバッファインタフェース部22に出力する。なお、解析対象データである生データは、まず、生データ取得装置40に装備された第2の生データ取得部42にて取得される。そして、生データは、生データ取得装置40から生データ記憶装置50の生データDBインタフェース部51を介して生データDB52に蓄積されている。
 ここで、上記第2の解析部21は、後述するように、制御装置30から解析処理の動作を制御する制御指令を受けると、かかる制御指令に従って解析処理を実行する。例えば、通常の解析処理よりも解析精度を上げて解析を行う、などの処理を行う。具体例については後述する。
 そして、上記第2のバッファインタフェース部22は、第2の解析部21から受け取った解析結果データを、第2のバッファ23に出力して当該第2のバッファ23に一時的に蓄積し、解析結果記憶装置60に出力する。解析結果記憶装置60では、第2の解析エンジン20から出力された解析結果データを、解析結果DBインタフェース部61を介して解析結果DB(Data Base)62に蓄積する。
 次に、制御装置30について説明する。制御装置30は、演算装置と記憶装置を備えたサーバコンピュータである。そして、制御装置30は、図1に示すように、演算装置にプログラムが組み込まれることで構築された、解析結果取得部31と、制御指示部32と、生データ取得制御部33と、生データ記憶制御部34と、解析結果記憶制御部35と、を備えている。また、記憶装置には、制御ルール36が記憶されている。なお、上記プログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されている。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。
 上記解析結果取得部31(解析結果取得手段)は、上述したように第1の解析エンジン10(所定の解析エンジン)から出力された解析結果データを取得して、制御指示部32に渡す。
 上記制御指示部32(解析エンジン制御手段)は、解析結果取得部31から受け取った第1の解析エンジン10からの解析結果データに対応して制御ルール36に設定された制御内容にて、第2の解析エンジン20(他の解析エンジン)による解析処理動作を制御する。例えば、制御指示部32は、制御ルール36を参照して、第1の解析エンジン10による解析結果データの値に応じて、第2の解析エンジン20による解析処理の実行の有無や、解析処理の実行タイミングを制御する。また、制御指示部32は、制御ルール36を参照して、第1の解析エンジン10による解析結果データの値に応じて、第2の解析エンジン20による解析処理の解析精度を変更するよう解析処理動作を制御する。また、制御指示部32は、制御ルール36を参照して、第1の解析エンジン10による解析結果データの値に応じて、第2の解析エンジン20にて解析処理を行う生データの所定箇所を指定して、当該指定された箇所の解析処理を行うよう解析処理動作を制御する。
 また、上記制御指示部32は、第1の解析エンジン10による解析結果データが、解析処理結果の確からしさを表す度合を含む場合には、当該解析処理結果の度合に対応して制御ルール36に設定された制御内容で、第2の解析エンジン20の動作を上述したように制御する。
 なお、上記制御指示部32による具体的な制御指示動作については、制御ルール36として記憶されているデータの具体例と共に、動作説明時に詳述する。
 ここで、情報処理システムが、第1の解析エンジン10、第2の解析エンジン20の他に、さらに別の解析エンジンを1つ又は複数備えている場合について説明する。まず、制御装置30が第1の解析エンジン10のみから解析結果データを取得している場合に、上記制御指示部32は、装備されている複数の解析エンジンから選択した解析エンジンによる解析処理の実行の有無を制御するなど、選択した解析エンジンの解析処理動作を上述同様に制御してもよい。このとき、制御指示部32は、解析結果を受け取った第1の解析エンジン10自体の動作を制御してもよい。
 また、制御装置30の解析結果取得部31が、第1の解析エンジン10の他、さらに1つ又は複数の別の解析エンジンから解析結果データをそれぞれ取得、つまり、制御装置30が複数の解析エンジンからそれぞれ解析結果データを取得していてもよい。その場合に、上記制御指示部32は、各解析結果データの組み合わせに対応して制御ルール36に設定された制御内容にて、他の解析エンジンの動作を上述したように制御してもよい。このとき、制御指示部32は、解析結果を受け取った第1の解析エンジン10自体の動作を制御してもよい。
 また、上記制御指示部32(記憶データ制御手段)は、解析結果取得部31から取得した解析結果データに対応して制御ルール36に設定された制御内容にて、生データ記憶装置50や解析結果記憶装置60に記憶されている生データや解析結果データといった記憶データを制御するよう、生データ取得制御部33、生データ記憶制御部34、解析結果記憶制御部35(記憶データ制御手段)に制御指令を出す。
 上記生データ取得制御部33は、上記制御指示部32からの制御指令に応じて、例えば、選択された生データの取得を停止するよう生データ取得装置40の動作を制御する。
 また、上記生データ記憶制御部34や解析結果記憶制御部35は、上記制御指示部32からの制御指令に応じて、例えば、生データDB52に記憶されている生データや解析結果DB62に記憶されている解析結果データを選択して、当該選択された生データや解析結果データを削除するよう生データ記憶装置50や解析結果記憶装置60の動作を制御する。
 また、上記生データ記憶制御部34や解析結果記憶制御部35は、生データDB52に記憶されている生データや解析結果DB62に記憶されている解析結果データに対して、当該生データや解析結果データを加工して再記憶してもよい。例えば、生データや解析結果データのデータ容量が減少するよう圧縮や画像データの一部をトリミングするなど加工してもよい。あるいは、生データ記憶制御部34や解析結果記憶制御部35は、生データや解析結果データに付加データを追加して再記憶してもよい。
 また、上記生データ記憶制御部34や解析結果記憶制御部35は、上記制御指示部32からの制御指令に応じて、例えば、生データDB52に記憶されている生データや解析結果DB62に記憶されている解析結果データの保存期間を所定の期間に設定してもよい。
 さらに、上記生データ記憶制御部34や解析結果記憶制御部35は、上記制御指示部32からの制御指令に応じて、例えば、生データDB52に記憶されている生データや解析結果DB62に記憶されている解析結果データを、それぞれが記憶されていた記憶装置とは異なる他の記憶装置に記憶するよう制御してもよい。
 また、上記生データ記憶制御部34や解析結果記憶制御部35は、第1の解析エンジン10による解析結果データが、解析処理結果の確からしさを表す度合を含む場合には、当該解析処理結果の度合に対応して制御ルール36に設定された制御内容で、生データDB52に記憶されている生データや解析結果DB62に記憶されている解析結果データの記憶状態を上述同様に制御してもよい。
 ここで、情報処理システムが、第1の解析エンジン10、第2の解析エンジン20の他に、さらに別の解析エンジンを1つ又は複数備えている場合には、制御装置30の解析結果取得部31が、第1の解析エンジン10の他、さらに1つ又は複数の別の解析エンジンから解析結果データをそれぞれ取得、つまり、制御装置30が複数の解析エンジンからそれぞれ解析結果データを取得していてもよい。その場合に、上記制御指示部32は、各解析結果データの組み合わせに対応して制御ルール36に設定された制御内容にて、生データDB52に記憶されている生データや解析結果DB62に記憶されている解析結果データの記憶状態を上述同様に制御する。
 なお、上記生データ記憶制御部34や解析結果記憶制御部35による具体的な制御指示動作については、制御ルール36として記憶されているデータの具体例と共に、動作説明時に詳述する。
 [動作]
 次に、情報処理システムの動作を、図2乃至図3のフローチャートを参照して説明する。ここでは、制御装置30が備える制御ルール36に、それぞれ図4乃至図14に示すデータが記憶されていることとし、情報処理システムの具体的な動作を説明する。なお、以下では、制御装置30が解析エンジンの動作を制御する場合を図2のフローチャートを参照して具体例1-7にて説明し、制御装置30が記憶データを制御する場合を図3のフローチャートを参照して具体例8-13にて説明する。
 なお、制御装置30は、図2のフローチャートに示す解析エンジンを制御する動作と、図3のフローチャートに示す記憶データを制御する動作と、の両方を実行してもよく、いずれか一方の動作のみを実行してもよい。
 (具体例1)
 はじめに、第1の解析エンジン10が画像認識エンジンであり、第2の解析エンジン20が行動追跡エンジンであるとし、また、図4に示す内容の制御ルール36が記憶されていることとする。
 まず、第1の解析エンジン10にて解析対象データ(生データ)である画像データに対する解析処理が実行され、画像データに存在する人物が「女性」か「男性」かが認識される。そして、その解析結果データを、制御装置30が取得する(ステップS1)。
 続いて、制御装置30は、第1の解析エンジン10からの解析結果が「女性」である場合には、図4に示す制御ルールを参照して、それに対応する「追跡間隔1分(通常)」という制御内容を選択する。第1の解析エンジン10からの解析結果が「男性」である場合には、図4に示す制御ルールを参照して、それに対応する「追跡間隔30秒」という制御内容を選択する(ステップS2)。
 その後、制御装置30は、選択された制御内容に従って、第2の解析エンジン20による解析処理を制御する(ステップS3)。「追跡間隔1分(通常)」の制御内容が選択された場合には、通常通りの制御となるので、第2の解析エンジン20に対しては特に制御は行わない。これにより、第2の解析エンジン20では、解析対象データ(生データ)となる動画像データに対して、通常の時間間隔で追跡処理が実行される。一方、「追跡間隔30秒」の制御内容が選択された場合には、「追跡間隔30秒」にて追跡処理を行うよう、第2の解析エンジン20に対して制御指令を出す。これにより、第2の解析エンジン20では、制御指令に従って、解析対象データ(生データ)となる動画像データに対して、通常よりも時間間隔が短い「30秒間隔」で追跡処理が実行される。
 (具体例2)
 次に、第1の解析エンジン10が画像認識エンジンであり、第2の解析エンジン20が音声認識エンジンであるとし、また、図5に示す内容の制御ルール36が記憶されていることとする。
 まず、第1の解析エンジン10にて解析対象データ(生データ)である画像データに対する解析処理が実行され、画像データに予め登録された「不審者」が存在するか否かが認識される。そして、その解析結果データを、制御装置30が取得する(ステップS1)。
 続いて、制御装置30は、第1の解析エンジン10からの解析結果が「不審者ではない」という場合には、図5に示す制御ルールを参照して、それに対応する「通常レベルの認識精度」という制御内容を選択する。第1の解析エンジン10からの解析結果が「不審者である」という場合には、図5に示す制御ルールを参照して、それに対応する「通常より1レベル上の認識精度」という制御内容を選択する(ステップS2)。
 その後、制御装置30は、選択された制御内容に従って、第2の解析エンジン20による解析処理を制御する(ステップS3)。「通常レベルの認識精度」の制御内容が選択された場合には、通常通りの制御となるので、第2の解析エンジン20に対しては特に制御は行わない。これにより、第2の解析エンジン20では、解析対象データ(生データ)となる音声データに対して通常の精度にて音声認識処理が実行される。「通常より1レベル上の認識精度」の制御内容が選択された場合には、「通常より1レベル上の認識精度」にて音声認識処理を行うよう、第2の解析エンジン20に対して制御指令を出す。これにより、第2の解析エンジン20では、制御指令に従って、解析対象データ(生データ)となる音声データに対して、通常よりも1レベル高く設定された認識精度にて、音声認識処理が実行される。例えば、音声データに対してサンプリング周期を短くして音声認識を行うなどの解析処理を行う。
 (具体例3)
 次に、第1の解析エンジン10が画像認識エンジンであり、第2の解析エンジン20が行動追跡エンジンであるとし、また、図6に示す内容の制御ルール36が記憶されていることとする。
 まず、第1の解析エンジン10にて解析対象データ(生データ)である画像データに対する解析処理が実行され、画像データに予め登録された「不審者」が存在するか否かが認識され、また、「不審者である確率」が算出される。そして、その解析結果データを、制御装置30が取得する(ステップS1)。
 続いて、制御装置30は、第1の解析エンジン10からの解析結果が「不審者ではない」という場合には、図6に示す制御ルールを参照して、それに対応する「追跡間隔1分(通常)」という制御内容を選択する。また、第1の解析エンジン10からの解析結果が「70%の確率で不審者である」という場合には、図6に示す制御ルールを参照して、それに対応する「追跡間隔30秒」という制御内容を選択する。また、第1の解析エンジン10からの解析結果が「100%の確率で不審者である」という場合には、図6に示す制御ルールを参照して、それに対応する「追跡間隔15秒」という制御内容を選択する(ステップS2)。
 その後、制御装置30は、選択された制御内容に従って、第2の解析エンジン20による解析処理を制御する(ステップS3)。「追跡間隔1分(通常)」の制御内容が選択された場合には、通常通りの制御となるので、第2の解析エンジン20に対しては特に制御は行わない。これにより、第2の解析エンジン20では、解析対象データ(生データ)となる動画像データに対して、通常の時間間隔で追跡処理が実行される。「追跡間隔30秒」の制御内容が選択された場合には、「追跡間隔30秒」にて追跡処理を行うよう、第2の解析エンジン20に対して制御指令を出す。これにより、第2の解析エンジン20では、制御指令に従って、解析対象データ(生データ)となる動画像データに対して、通常よりも時間間隔が短い「30秒間隔」で追跡処理が実行される。さらに、「追跡間隔15秒」の制御内容が選択された場合には、「追跡間隔15秒」にて追跡処理を行うよう、第2の解析エンジン20に対して制御指令を出す。これにより、第2の解析エンジン20では、制御指令に従って、解析対象データ(生データ)となる動画像データに対して、通常よりもさらに時間間隔が短い「15秒間隔」で追跡処理が実行される。
 (具体例4)
 次に、情報処理システムに3つの解析エンジンが装備されている場合を説明する。このとき、第1の解析エンジン10が画像認識エンジンであり、第2の解析エンジン20が音声認識エンジンであり、さらに図示しない第3の解析エンジンが行動追跡エンジンであることとする。そして、第1の解析エンジン10と第3の解析エンジンからの解析結果データが制御装置30に出力され、これら解析結果データの組み合わせに応じて、第2の解析エンジン20が制御装置30にて制御されることとする。また、図7に示す内容の制御ルール36が記憶されていることとする。
 まず、第1の解析エンジン10にて解析対象データ(生データ)である画像データに対する解析処理が実行され、画像データに存在する人物が「女性」か「男性」かが認識される。また、第3の解析エンジンにて解析対象データ(生データ)である動画像データに対する解析処理が実行され、動画像データに存在する人物の移動軌跡が追跡される。そして、その解析結果データを、制御装置30が取得する(ステップS1)。
 続いて、制御装置30は、第1の解析エンジン10からの解析結果が「女性」であり、第3の解析エンジンからの解析結果である移動軌跡が「X地点からZ地点」である場合には、図7に示す制御ルールを参照して、それに対応する「通常レベルの認識精度」という制御内容を選択する。第1の解析エンジン10からの解析結果が「女性」であり、第3の解析エンジンからの解析結果である移動軌跡が「Y地点からZ地点」である場合には、図7に示す制御ルールを参照して、それに対応する「通常よりも1レベル上の認識精度」という制御内容を選択する(ステップS2)。
 その後、制御装置30は、選択された制御内容に従って、第2の解析エンジン20による解析処理を制御する(ステップS3)。「通常レベルの認識精度」の制御内容が選択された場合には、通常通りの制御となるので、第2の解析エンジン20に対しては特に制御は行わない。これにより、第2の解析エンジン20では、解析対象データ(生データ)となる音声データに対して通常の精度にて音声認識処理が実行される。「通常より1レベル上の認識精度」の制御内容が選択された場合には、「通常より1レベル上の認識精度」にて音声認識処理を行うよう、第2の解析エンジン20に対して制御指令を出す。これにより、第2の解析エンジン20では、制御指令に従って、解析対象データ(生データ)となる音声データに対して、通常よりも1レベル高く設定された認識精度にて、音声認識処理が実行される。
 (具体例5)
 次に、第1の解析エンジン10が画像認識エンジンであり、第2の解析エンジン20が行動追跡エンジンであり、さらに図示しない第3の解析エンジンが音声認識エンジンである場合を説明する。このとき、第1の解析エンジン10と第3の解析エンジンからの解析結果データが制御装置30に出力され、これら解析結果データの組み合わせに応じて、第2の解析エンジン20が制御装置30にて制御されることとする。また、図8に示す内容の制御ルール36が記憶されていることとする。
 まず、第1の解析エンジン10にて解析対象データ(生データ)である画像データに対する解析処理が実行され、画像データに予め登録された「不審者」が存在するか否かが認識される。また、第3の解析エンジンにて解析対象データ(生データ)である音声データに対する解析処理が実行され、音声データから「言葉」が認識される。そして、その解析結果データを、制御装置30が取得する(ステップS1)。
 続いて、制御装置30は、第1の解析エンジン10からの解析結果が「不審者ではない」であり、第3の解析エンジンからの解析結果として検出された「言葉」に予め登録された「キーワード(NGワード)が存在していない」という場合には、図8に示す制御ルールを参照して、それに対応する「追跡間隔1分(通常)」という制御内容を選択する。また、第1の解析エンジン10からの解析結果が「不審者である」であり、第3の解析エンジンからの解析結果として検出された「言葉」に予め登録された「キーワード(NGワード)が存在する」という場合には、図8に示す制御ルールを参照して、それに対応する「追跡間隔15秒」という制御内容を選択する(ステップS2)。
 その後、制御装置30は、選択された制御内容に従って、第2の解析エンジン20による解析処理を制御する(ステップS3)。「追跡間隔1分(通常)」の制御内容が選択された場合には、通常通りの制御となるので、第2の解析エンジン20に対しては特に制御は行わない。これにより、第2の解析エンジン20では、解析対象データ(生データ)となる動画像データに対して、通常の時間間隔で追跡処理が実行される。「追跡間隔15秒」の制御内容が選択された場合には、「追跡間隔15秒」にて追跡処理を行うよう、第2の解析エンジン20に対して制御指令を出す。これにより、第2の解析エンジン20では、制御指令に従って、解析対象データ(生データ)となる動画像データに対して、通常よりも時間間隔が短い「15秒間隔」で追跡処理が実行される。
 (具体例6)
 次に、第1の解析エンジン10が画像認識エンジンであり、第2の解析エンジン20が行動追跡エンジンであり、さらに図示しない第3の解析エンジンが音声認識エンジンである場合を説明する。このとき、第1の解析エンジン10と第3の解析エンジンからの解析結果データが制御装置30に出力され、これら解析結果データの組み合わせに応じて、第2の解析エンジン20が制御装置30にて制御されることとする。また、図9に示す内容の制御ルール36が記憶されていることとする。
 まず、第1の解析エンジン10にて解析対象データ(生データ)である画像データに対する解析処理が実行され、画像データに存在する人物が「女性」か「男性」かが認識される。また、第3の解析エンジンにて解析対象データ(生データ)である音声データに対する解析処理が実行され、音声データから「言葉」が認識されると共に、その「言葉である確率」が算出される。そして、これら解析結果データを、制御装置30が取得する(ステップS1)。
 続いて、制御装置30は、第1の解析エンジン10からの解析結果が「男性」であり、第3の解析エンジンからの解析結果として検出された「言葉」に予め登録された「キーワード(NGワード)が存在していない」という場合には、図9に示す制御ルールを参照して、それに対応する「追跡間隔1分(通常)」という制御内容を選択する。また、第1の解析エンジン10からの解析結果が「男性」であり、第3の解析エンジンからの解析結果として検出された「言葉」に予め登録された「キーワード(NGワード)が70%の確率で存在する」という場合には、図9に示す制御ルールを参照して、それに対応する「追跡間隔30秒」という制御内容を選択する。さらに、第1の解析エンジン10からの解析結果が「男性」であり、第3の解析エンジンからの解析結果として検出された「言葉」に予め登録された「キーワード(NGワード)が100%の確率で存在する」という場合には、図9に示す制御ルールを参照して、それに対応する「追跡間隔15秒」という制御内容を選択する(ステップS2)。
 その後、制御装置30は、選択された制御内容に従って、第2の解析エンジン20による解析処理を制御する(ステップS3)。「追跡間隔1分(通常)」の制御内容が選択された場合には、通常通りの制御となるので、第2の解析エンジン20に対しては特に制御は行わない。これにより、第2の解析エンジン20では、解析対象データ(生データ)となる動画像データに対して、通常の時間間隔で追跡処理が実行される。「追跡間隔30秒」の制御内容が選択された場合には、「追跡間隔30秒」にて追跡処理を行うよう、第2の解析エンジン20に対して制御指令を出す。これにより、第2の解析エンジン20では、制御指令に従って、解析対象データ(生データ)となる動画像データに対して、通常よりも時間間隔が短い「30秒間隔」で追跡処理が実行される。さらに、「追跡間隔15秒」の制御内容が選択された場合には、「追跡間隔15秒」にて追跡処理を行うよう、第2の解析エンジン20に対して制御指令を出す。これにより、第2の解析エンジン20では、制御指令に従って、解析対象データ(生データ)となる動画像データに対して、通常よりもさらに時間間隔が短い「15秒間隔」で追跡処理が実行される。
 (具体例7)
 上記制御装置30の制御指示部32は、上述したように第1の解析エンジン10等からの解析結果データに応じて第2の解析エンジン20を制御するほか、以下のような制御も可能である。
 例えば、制御指示部32は、第1の解析エンジン10によって画像データから「女性」が存在すると解析結果が出力された場合に、第2の解析エンジン20にて画像データからその人物の「服装」を解析して抽出するよう制御する。また、別の例として、制御指示部32は、第1の解析エンジン10による入室時の顔認証で、画像データから予め登録された「要注意人物」が検出された場合に、第2の解析エンジン20にて動画データからオフィス内の動線解析を実行するよう制御する。
 また、別の例として、制御指示部32は、第1の解析エンジン10によって金庫の前のカメラ画像データから「人物」の存在を検出した場合に、第2の解析エンジン20による音声データから音声認識処理を開始するよう制御する。また、別の例として、制御指示部32は、第1の解析エンジン10による音声認識での認識の確信度が予め設定された値よりも低く不十分な場合に、第2の解析エンジン20による画像データからの顔認証処理を開始するよう制御する。
 また、別の例として、制御指示部32は、第1の解析エンジン10によって画像データから「人物の年齢、性別」を認識した場合に、複数の他の解析エンジンのうち、年齢や性別に最適であると予め設定された音声認識エンジンを選択して音声認識処理を開始するよう制御する。また、別の例として、制御指示部32は、第1の解析エンジン10によって音声データから「人間」と「犬」を区別し、複数の他の解析エンジンのうち、「人間」あるいは「犬」に専用の解析エンジンを選択して、かかる解析エンジンを用いて画像データから笑顔を検出する処理を開始するよう制御する。
 また、別の例として、制御指示部32は、第1の解析エンジン10によりRFIDなどのデータから人物の動線を解析して人物が検出できた場合に、かかる人物が検出できた動線場所のみにおいて画像データから第2の解析エンジンにて顔抽出を行うよう制御する。また、別の例として、制御指示部32は、第1の解析エンジン10により画像データから表情を認識して、人物(顧客)が怒っていることが検出できた場合に、その時刻における音声データから第2の解析エンジンにて音声認識を行うよう制御する。
 また、別の例として、制御指示部32は、第1の解析エンジン10により人物の動線を解析して人物が検出できた場合に、特定の場所(入口)への到着時刻を推定し、その時刻の直前に特定の場所における第2の解析エンジンによる顔認識処理の実行を開始するよう制御する。
 (具体例8)
 次に、制御装置30が、蓄積されている生データや解析結果データの記憶状況を制御する場合を、図3のフローチャートを参照して説明する。ここでは、第1の解析エンジン10が画像認識エンジンであることとし、また、図10に示す内容の制御ルール36が記憶されていることとする。
 まず、第1の解析エンジン10にて解析対象データ(生データ)である画像データに対する解析処理が実行され、画像データ内の人物の「存在」や人物の「身元」が認識される。そして、これら解析結果データを、制御装置30が取得する(ステップS11)。なお、このとき、解析処理に用いた解析対象データ(生データ)は、生データ記憶装置50の生データDB52に蓄積されており、解析結果である解析結果データは、解析結果記憶装置60の解析結果DB62に蓄積されている。
 続いて、制御装置30の制御指示部32は、第1の解析エンジン10からの解析結果が「人物未検出」である場合には、図10に示す制御ルールを参照して、それに対応する「データ削除」という制御内容を選択する。また、第1の解析エンジン10からの解析結果が「抽出した人物の身元確認」である場合には、図10に示す制御ルールを参照して、それに対応する「生データ削除」という制御内容を選択する(ステップS12)。
 その後、制御装置30の制御指示部32は、選択された制御内容に従って、生データ記憶制御部34や解析結果記憶制御部35を介して、生データ記憶装置50や解析結果記憶装置60に対して制御指令を出す(ステップS13)。そして、「データ削除」の制御内容が選択された場合には、生データ記憶装置50の生データDB52に蓄積された生データと、解析結果記憶装置60の解析結果DB62に蓄積された解析結果データと、を削除するよう制御する。「生データ削除」の制御内容が選択された場合には、生データ記憶装置50の生データDB52に蓄積された生データを削除するよう制御する。
 (具体例9)
 次に、第1の解析エンジン10が画像認識エンジンであり、図11に示す内容の制御ルール36が記憶されている場合を説明する。
 まず、第1の解析エンジン10にて解析対象データ(生データ)である画像データに対する解析処理が実行され、画像データに予め登録された「不審者」が存在するか否かが認識される。そして、その解析結果データを、制御装置30が取得する(ステップS11)。
 続いて、制御装置30は、第1の解析エンジン10からの解析結果が「不審者ではない」という場合には、図11に示す制御ルールを参照して、それに対応する「生データ高圧縮」という制御内容を選択する(ステップS12)。第1の解析エンジン10からの解析結果が「不審者である」という場合には、図11に示す制御ルールを参照すると、それに対応する制御内容はない。
 その後、制御装置30は、選択された制御内容に従って、記憶データを制御する(ステップS13)。従って、「生データ高圧縮」の制御内容が選択された場合には、生データ記憶装置50の生データDB52に蓄積されている生データのうち、第1の解析エンジン10で「不審者ではない」と解析された対応する生データに対して、高圧縮処理を施し、生データDBに記憶し直す。これにより、再び確認する必要性の低い生データの容量を削減できる。
 (具体例10)
 次に、第1の解析エンジン10が音声認識エンジンであり、図12に示す内容の制御ルール36が記憶されている場合を説明する。
 まず、第1の解析エンジン10にて解析対象データ(生データ)である音声データに対する解析処理が実行され、音声データから「言葉」が認識されると共に、その「言葉である確率」が算出される。そして、これら解析結果データを、制御装置30が取得する(ステップS11)。
 続いて、制御装置30は、第1の解析エンジン10からの解析結果である音声認識の確率が「30%未満」である場合には、図12に示す制御ルールを参照して、それに対応する「高レベルの音質」という制御内容を選択する。第1の解析エンジン10からの解析結果である音声認識の確率が「30%以上70%未満」である場合には、図12に示す制御ルールを参照して、それに対応する「中レベルの音質」という制御内容を選択する。第1の解析エンジン10からの解析結果である音声認識の確率が「70%以上」である場合には、図12に示す制御ルールを参照して、それに対応する「低レベルの音質」という制御内容を選択する(ステップS12)。
 その後、制御装置30は、選択された制御内容に従って、記憶データを制御する(ステップS13)。従って、「高レベルの音質」の制御内容が選択された場合には、生データ記憶装置50の生データDB52に蓄積されている生データのうち、第1の解析エンジン10による音声認識が「30%未満の確率」と解析された生データに対して、高レベルの音質となるよう処理を施し(あるいは、音質を低下させないよう何もせず)、生データDBに記憶し直す。「中レベルの音質」の制御内容が選択された場合には、生データ記憶装置50の生データDB52に蓄積されている生データのうち、第1の解析エンジン10による音声認識が「30%以上70%未満の確率」と解析された生データに対して、中レベルの音質となるよう圧縮処理などを施し、生データDBに記憶し直す。「低レベルの音質」の制御内容が選択された場合には、生データ記憶装置50の生データDB52に蓄積されている生データのうち、第1の解析エンジン10による音声認識が「70%以上の確率」と解析された生データに対して、低レベルの音質となるよう高圧縮処理などを施し、生データDBに記憶し直す。
 このようにすることにより、音声認識の精度が低く再び確認する必要性の高い生データは高音質のまま保存しておく一方で、音声認識の精度が高く再び確認する必要性の低い生データの容量を削減できる。
 (具体例11)
 次に、第1の解析エンジン10が画像認識エンジンであり、図13に示す内容の制御ルール36が記憶されている場合を説明する。
 まず、第1の解析エンジン10にて解析対象データ(生データ)である画像データに対する解析処理が実行され、画像データ内に存在する物体を認識する。そして、その解析結果データを、制御装置30が取得する(ステップS11)。
 続いて、制御装置30は、第1の解析エンジン10からの解析結果が「人」である場合には、図13に示す制御ルールを参照して、それに対応する「保存期間3年」という制御内容を選択する。第1の解析エンジン10からの解析結果が「車」である場合には、図13に示す制御ルールを参照して、それに対応する「保存期間1年」という制御内容を選択する。第1の解析エンジン10からの解析結果が「犬」である場合には、図13に示す制御ルールを参照して、それに対応する「保存期間半年」という制御内容を選択する(ステップS12)。
 その後、制御装置30は、選択された制御内容に従って、記憶データを制御する(ステップS13)。従って、「保存期間3年」の制御内容が選択された場合には、生データ記憶装置50の生データDB52に蓄積されている生データのうち、第1の解析エンジン10で「人」と解析された対応する生データに対して、「保存期間3年」の設定を行って、生データDBに記憶し直す。このとき、解析結果記憶装置60の解析結果DB62に記憶されている対応する解析結果データに対しても「保存期間3年」の設定を行って、解析結果DBに記憶し直してもよい。同様に、「保存期間1年」の制御内容が選択された場合には、対応する生データに対して、「保存期間1年」の設定を行って生データDBに記憶し直し、「保存期間半年」の制御内容が選択された場合には、対応する生データに対して「保存期間半年」の設定を行って、生データDBに記憶し直す。
 (具体例12)
 次に、第1の解析エンジン10が画像認識エンジンであり、図14に示す内容の制御ルール36が記憶されている場合を説明する。
 まず、第1の解析エンジン10にて解析対象データ(生データ)である画像データに対する解析処理が実行され、画像データ内に存在する人物を検出し、その人物の特定を行う。そして、その解析結果データを、制御装置30が取得する(ステップS11)。
 続いて、制御装置30は、第1の解析エンジン10からの解析結果が「人物なし」である場合には、図14に示す制御ルールを参照して、それに対応する「ネットワーク上のサーバ」という制御内容を選択する。第1の解析エンジン10からの解析結果が「社員」である場合には、図14に示す制御ルールを参照して、それに対応する「テープ」という制御内容を選択する。第1の解析エンジン10からの解析結果が「社外の人」である場合には、図14に示す制御ルールを参照して、それに対応する「ディスク」という制御内容を選択する(ステップS12)。
 その後、制御装置30は、選択された制御内容に従って、記憶データを制御する(ステップS13)。従って、「人物なし」の制御内容が選択された場合には、生データ記憶装置50の生データDB52に蓄積されている生データのうち、第1の解析エンジン10で「人物なし」と解析された生データを、「ネットワーク上のサーバ」に記憶し直す。このとき、解析結果記憶装置60の解析結果DB62に記憶されている対応する解析結果データも「ネットワーク上のサーバ」に記憶し直してもよい。同様に、「社員」の制御内容が選択された場合には、対応する生データを「テープ」に記憶し直し、「社外の人」の制御内容が選択された場合には、対応する生データを「ディスク」に記憶し直す。なお、上記ネットワーク上のサーバやテープ、ディスクは、制御装置30に接続されていることとする。
 このように、「人物が映っていない」生データは必要性が低いため、アクセス性が低いネットワーク上のサーバに保存しておき、また、「社員」が映っている生データも必要性が低いため、アクセス性が低く安価なテープに保存しておく。一方、「社外の人」が映っている生データは、今後確認する必要が出てくるため、アクセス性の良いディスクに保存しておく。
 (具体例13)
 上記制御装置30の制御指示部32は、上述したように第1の解析エンジン10等からの解析結果データに応じて記憶データを制御するほか、以下のような制御も可能である。
 例えば、制御指示部32は、第1の解析エンジン10によって画像データから「顔部分」の検出を行い、その解析対象となった生データの「顔部分」のみを切り出して保存したり、生データの「顔部分」以外の解像度を落として保存するよう制御する。
 また、別の例として、制御指示部32は、第1の解析エンジン10によって音声データから予め設定された「特定の特徴を持つ言葉」の検出を行い、その解析対象となった生データの「特定の特徴を持つ言葉」の部分のみを保存するよう制御する。
 また、別の例として、制御指示部32は、第1の解析エンジン10によって画像データから「重要人物」の検出を行い、その解析対象となった生データの「顔部分」を「円で囲う」などの付加データを追加し、保存するよう制御する。
 また、別の例として、制御指示部32は、第1の解析エンジン10によって音声データから予め設定された「特定の単語」の検出を行い、その解析対象となった生データの「特定の単語」の部分の直前に「発信音」などの付加データを挿入し、保存するよう制御する。
<付記>
 上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における情報処理装置の構成の概略を、図15を参照して説明する。但し、本発明は、以下の構成に限定されない。
(付記1)
 所定の解析エンジン111による解析結果を取得する解析結果取得手段101と、
 前記解析結果取得手段101により取得した所定の解析エンジン111による解析結果に基づいて、他の解析エンジン112による解析処理動作を制御する解析エンジン制御手段102と、
を備えた情報処理装置100。
(付記2)
 付記1に記載の情報処理装置であって、
 前記解析エンジン制御手段は、前記解析結果取得手段により取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンによる解析処理の実行の有無を制御する、
情報処理装置。
(付記3)
 付記2に記載の情報処理装置であって、
 前記解析エンジン制御手段は、前記解析結果取得手段により取得した所定の解析エンジンによる解析結果に基づいて、複数の他の解析エンジンから選択した解析エンジンによる解析処理の実行の有無を制御する、
情報処理装置。
(付記4)
 付記2又は3に記載の情報処理装置であって、
 前記解析エンジン制御手段は、前記解析結果取得手段により取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンによる解析処理の実行タイミングを制御する、
情報処理装置。
(付記5)
 付記1乃至4のいずれかに記載の情報処理装置であって、
 前記解析エンジン制御手段は、前記解析結果取得手段により取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンによる解析処理の解析精度を変更するよう当該他の解析エンジンの動作を制御する、
情報処理装置。
(付記6)
 付記1乃至5のいずれかに記載の情報処理装置であって、
 前記解析エンジン制御手段は、前記解析結果取得手段により取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンにて解析処理を行う解析対象データの所定箇所を指定して、当該指定された箇所の解析処理を行うよう他の解析エンジンの動作を制御する、
情報処理装置。
(付記7)
 付記1乃至6のいずれかに記載の情報処理装置であって、
 前記解析エンジン制御手段は、前記解析結果取得手段により取得した所定の解析エンジンによる解析結果の度合に基づいて、他の解析エンジンの動作を制御する、
情報処理装置。
(付記8)
 付記1乃至7のいずれかに記載の情報処理装置であって、
 前記解析結果取得手段は、複数の所定の解析エンジンによる解析結果をそれぞれ取得し、
 前記解析エンジン制御手段は、前記複数の所定の解析エンジンによる各解析結果の組み合わせに基づいて、他の解析エンジンの動作を制御する、
情報処理装置。
(付記9)
 情報処理装置に、
 所定の解析エンジンによる解析結果を取得する解析結果取得手段と、
 前記解析結果取得手段により取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンによる解析処理動作を制御する解析エンジン制御手段と、
を実現させるためのプログラム。
(付記10)
 付記9に記載のプログラムであって、
 前記解析エンジン制御手段は、前記解析結果取得手段により取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンによる解析処理の実行の有無を制御する、
プログラム。
(付記11)
 情報処理装置が、所定の解析エンジンによる解析結果を取得し、取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンによる解析処理動作を制御する、
解析エンジン制御方法。
(付記12)
 付記11に記載の解析エンジン制御方法であって、
 前記情報処理装置が、取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンによる解析処理の実行の有無を制御する、
解析エンジン制御方法。
 なお、上記各実施形態においてプログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されている。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。
 以上、上記各実施形態を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることができる。
 なお、本発明は、日本国にて2011年6月29日に特許出願された特願2011-143815の特許出願に基づく優先権主張の利益を享受するものであり、当該特許出願に記載された内容は、全て本明細書に含まれるものとする。
10 第1の解析エンジン
11 第1の解析部
12 第1のバッファインタフェース部
13 第1のバッファ
20 第2の解析エンジン
21 第2の解析部
22 第2のバッファインタフェース部
23 第2のバッファ
30 制御装置
31 解析結果取得部
32 制御指示部
33 生データ取得制御部
34 生データ記憶制御部
35 解析結果記憶制御部
36 制御ルール
40 生データ取得装置
41 第1の生データ取得部
42 第2の生データ取得部
50 生データ記憶装置
51 生データDBインタフェース部
52 生データDB
60 解析結果記憶装置
61 解析結果DBインタフェース部
62 解析結果DB
100 情報処理装置
101 解析結果取得手段
102 解析エンジン制御手段
111 所定の解析エンジン
112 他の解析エンジン
 

Claims (12)

  1.  所定の解析エンジンによる解析結果を取得する解析結果取得手段と、
     前記解析結果取得手段により取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンによる解析処理動作を制御する解析エンジン制御手段と、
    を備えた情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記解析エンジン制御手段は、前記解析結果取得手段により取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンによる解析処理の実行の有無を制御する、
    情報処理装置。
  3.  請求項2に記載の情報処理装置であって、
     前記解析エンジン制御手段は、前記解析結果取得手段により取得した所定の解析エンジンによる解析結果に基づいて、複数の他の解析エンジンから選択した解析エンジンによる解析処理の実行の有無を制御する、
    情報処理装置。
  4.  請求項2又は3に記載の情報処理装置であって、
     前記解析エンジン制御手段は、前記解析結果取得手段により取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンによる解析処理の実行タイミングを制御する、
    情報処理装置。
  5.  請求項1乃至4のいずれかに記載の情報処理装置であって、
     前記解析エンジン制御手段は、前記解析結果取得手段により取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンによる解析処理の解析精度を変更するよう当該他の解析エンジンの動作を制御する、
    情報処理装置。
  6.  請求項1乃至5のいずれかに記載の情報処理装置であって、
     前記解析エンジン制御手段は、前記解析結果取得手段により取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンにて解析処理を行う解析対象データの所定箇所を指定して、当該指定された箇所の解析処理を行うよう他の解析エンジンの動作を制御する、
    情報処理装置。
  7.  請求項1乃至6のいずれかに記載の情報処理装置であって、
     前記解析エンジン制御手段は、前記解析結果取得手段により取得した所定の解析エンジンによる解析結果の度合に基づいて、他の解析エンジンの動作を制御する、
    情報処理装置。
  8.  請求項1乃至7のいずれかに記載の情報処理装置であって、
     前記解析結果取得手段は、複数の所定の解析エンジンによる解析結果をそれぞれ取得し、
     前記解析エンジン制御手段は、前記複数の所定の解析エンジンによる各解析結果の組み合わせに基づいて、他の解析エンジンの動作を制御する、
    情報処理装置。
  9.  情報処理装置に、
     所定の解析エンジンによる解析結果を取得する解析結果取得手段と、
     前記解析結果取得手段により取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンによる解析処理動作を制御する解析エンジン制御手段と、
    を実現させるためのプログラム。
  10.  請求項9に記載のプログラムであって、
     前記解析エンジン制御手段は、前記解析結果取得手段により取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンによる解析処理の実行の有無を制御する、
    プログラム。
  11.  情報処理装置が、所定の解析エンジンによる解析結果を取得し、取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンによる解析処理動作を制御する、
    解析エンジン制御方法。
  12.  請求項11に記載の解析エンジン制御方法であって、
     前記情報処理装置が、取得した所定の解析エンジンによる解析結果に基づいて、他の解析エンジンによる解析処理の実行の有無を制御する、
    解析エンジン制御方法。
     
PCT/JP2012/003016 2011-06-29 2012-05-09 情報処理装置 WO2013001703A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011143815 2011-06-29
JP2011-143815 2011-06-29

Publications (1)

Publication Number Publication Date
WO2013001703A1 true WO2013001703A1 (ja) 2013-01-03

Family

ID=47423636

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/003016 WO2013001703A1 (ja) 2011-06-29 2012-05-09 情報処理装置

Country Status (1)

Country Link
WO (1) WO2013001703A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014171187A (ja) * 2013-03-05 2014-09-18 Canon Inc 監視カメラシステム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08320928A (ja) * 1995-05-25 1996-12-03 Sanyo Electric Co Ltd 印鑑照合システム
JP2004056473A (ja) * 2002-07-19 2004-02-19 Matsushita Electric Ind Co Ltd 監視制御装置
JP2005122128A (ja) * 2003-09-25 2005-05-12 Fuji Photo Film Co Ltd 音声認識システム及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08320928A (ja) * 1995-05-25 1996-12-03 Sanyo Electric Co Ltd 印鑑照合システム
JP2004056473A (ja) * 2002-07-19 2004-02-19 Matsushita Electric Ind Co Ltd 監視制御装置
JP2005122128A (ja) * 2003-09-25 2005-05-12 Fuji Photo Film Co Ltd 音声認識システム及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014171187A (ja) * 2013-03-05 2014-09-18 Canon Inc 監視カメラシステム

Similar Documents

Publication Publication Date Title
US11270695B2 (en) Augmentation of key phrase user recognition
JP7384877B2 (ja) コロケーション情報を使用した話者照合
US11861264B2 (en) Portable terminal device and information processing system
CN108573701B (zh) 基于唇部检测的查询端点化
US11605229B2 (en) Inmate tracking system in a controlled environment
CN108962227A (zh) 语音起点和终点检测方法、装置、计算机设备及存储介质
TW201606760A (zh) 從音頻訊號的即時情緒辨識
JP2019053126A (ja) 成長型対話装置
KR20200048201A (ko) 전자 장치 및 이의 제어 방법
US10896688B2 (en) Real-time conversation analysis system
CN113947376B (zh) 基于多重生物特征的c/s打卡方法和装置
JP5849761B2 (ja) 音声認識システム、音声認識方法および音声認識プログラム
CN102067589A (zh) 数字录像机系统及其应用方法
KR20220041891A (ko) 얼굴 정보를 데이터베이스에 입력하는 방법 및 설치
WO2013001703A1 (ja) 情報処理装置
US10007842B2 (en) Same person determination device and method, and control program therefor
WO2013001702A1 (ja) 情報処理装置
WO2017024835A1 (zh) 语音识别方法及装置
KR101933822B1 (ko) 얼굴인식 기반 지능형 스피커, 이를 이용한 능동적인 대화 제공 방법 및 이를 수행하기 위한 기록매체
JP2018087838A (ja) 音声認識装置
CN114282621B (zh) 一种多模态融合的话者角色区分方法与系统
JP5751889B2 (ja) 顔画像認証装置
US11676608B2 (en) Speaker verification using co-location information
JP6558178B2 (ja) 迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム
CN113571060B (zh) 一种基于视听觉融合的多人对话点餐方法及系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12805160

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12805160

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP