WO2021166120A1 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
WO2021166120A1
WO2021166120A1 PCT/JP2020/006517 JP2020006517W WO2021166120A1 WO 2021166120 A1 WO2021166120 A1 WO 2021166120A1 JP 2020006517 W JP2020006517 W JP 2020006517W WO 2021166120 A1 WO2021166120 A1 WO 2021166120A1
Authority
WO
WIPO (PCT)
Prior art keywords
analysis
captured image
information processing
state
unit
Prior art date
Application number
PCT/JP2020/006517
Other languages
English (en)
French (fr)
Inventor
嵩久 榎本
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2020/006517 priority Critical patent/WO2021166120A1/ja
Priority to JP2021571810A priority patent/JP7038933B2/ja
Publication of WO2021166120A1 publication Critical patent/WO2021166120A1/ja
Priority to US17/851,279 priority patent/US20220327680A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Definitions

  • This disclosure relates to a technique for analyzing captured images.
  • Patent Document 1 discloses a technique for acquiring information on the environment of an image acquisition region and switching the object detection method to be used or changing the parameters to be used when the state of the environment changes.
  • the required analysis accuracy often differs depending on the state represented in the captured image.
  • processing such as reproduction, recording, and distribution of the captured image is usually performed. Therefore, there is a constraint condition that the arithmetic resources that can be used for the analysis of the captured image are restricted by other processing.
  • the technique of Patent Document 1 the state represented in such a captured image, the required analysis accuracy, and the constraint conditions are not taken into consideration. Therefore, the technique of Patent Document 1 has a problem that it is not possible to perform an appropriate analysis of a captured image according to a state, required accuracy, and constraint conditions.
  • the main object of the present disclosure is to realize an appropriate analysis of captured images according to a state, required accuracy and constraints.
  • the information processing device is A state estimation unit that estimates the state shown in the captured image, Based on the estimated state, which is the state estimated by the state estimation unit, the required accuracy, which is the analysis accuracy required for the analysis of the captured image, and the constraint conditions for analyzing the captured image, the captured image is displayed.
  • the analysis method at the time of analysis it has an analysis method selection unit that selects one of a plurality of analysis methods.
  • FIG. 1 The figure which shows the functional structure example of the information processing apparatus which concerns on Embodiment 1.
  • FIG. The flowchart which shows the operation example of the information processing apparatus which concerns on Embodiment 1.
  • FIG. 1 The figure which shows the functional structure example of the information processing apparatus which concerns on Embodiment 2.
  • FIG. The figure which shows the specific example of the operation of the information processing apparatus which concerns on Embodiment 2.
  • FIG. The figure which shows the functional structure example of the information processing apparatus which concerns on Embodiment 3.
  • the flowchart which shows the operation example of the information processing apparatus which concerns on Embodiment 3.
  • FIG. The figure which shows the functional structure example of the information processing apparatus which concerns on Embodiment 5.
  • FIG. 1 shows an example of a functional configuration of the information processing apparatus 100 according to the present embodiment.
  • the information processing device 100 is a computer.
  • the operation procedure of the information processing device 100 corresponds to the information processing method.
  • the program that realizes the operation of the information processing device 100 corresponds to the information processing program.
  • the image acquisition unit 101 acquires the captured image 200.
  • the captured image 200 may be a still image or a moving image.
  • the image acquisition unit 101 outputs the acquired captured image 200 to the state estimation unit 102 and the analysis processing unit 106.
  • the state estimation unit 102 simply analyzes the captured image 200 and estimates the state represented by the captured image 200.
  • the process performed by the state estimation unit 102 corresponds to the state estimation process.
  • the required accuracy setting unit 103 sets the analysis accuracy (hereinafter referred to as the required accuracy) required for the analysis of the captured image 200 by the analysis processing unit 106, which will be described later, with reference to the required accuracy DB 107.
  • the process performed by the required accuracy setting unit 103 corresponds to the required accuracy setting process.
  • the constraint condition setting unit 104 sets the constraint condition when the analysis processing unit 106 analyzes the captured image 200 with reference to the constraint information 108.
  • the analysis of the captured image 200 will be mainly described, but the information processing apparatus 100 also consumes arithmetic resources for arithmetic processing other than the analysis of the captured image 200. Therefore, there are restrictions on the arithmetic resources allocated to the analysis of the captured image 200 by the analysis processing unit 106.
  • the constraint condition setting unit 104 sets the constraint condition for the arithmetic resource.
  • the arithmetic resource is a hardware resource of the information processing apparatus 100, which will be described later with reference to FIG.
  • the process performed by the constraint condition setting unit 104 corresponds to the constraint condition setting process.
  • the analysis method selection unit 105 selects an analysis method when the analysis processing unit 106 analyzes the captured image 200. More specifically, the analysis method selection unit 105 is set by the estimated state, which is the state estimated by the state estimation unit 102, the required accuracy set by the required accuracy setting unit 103, and the constraint condition setting unit 104. Based on the constraint conditions, the analysis processing unit 106 selects one of a plurality of analysis methods as the analysis method when analyzing the captured image 200. The process performed by the analysis method selection unit 105 corresponds to the analysis method selection process.
  • the analysis processing unit 106 analyzes the captured image 200. More specifically, the analysis processing unit 106 analyzes the captured image 200 by the analysis method selected by the analysis method selection unit 105. The analysis processing unit 106 performs image analysis using, for example, AI (Artificial Intelligence).
  • AI Artificial Intelligence
  • the required accuracy DB 107 stores the required accuracy table.
  • the required accuracy is described in the required accuracy table.
  • Constraint information 108 is information that is a prerequisite for setting constraint conditions.
  • the constraint information 108 indicates, for example, the amount of arithmetic resources allocated to arithmetic processing other than the analysis of the captured image 200 and the amount of arithmetic resources reserved for allocation.
  • the analysis method DB 109 stores the analysis method table. A plurality of methods are described in the analysis method table, and the analysis accuracy and necessary arithmetic resources that can be realized for each method are described. Details of the analysis method table will be described later with reference to FIG.
  • FIG. 2 shows a configuration example of the information processing device 100 according to the present embodiment.
  • the information processing device 100 includes a processor 901, a main storage device 902, an auxiliary storage device 903, and a communication device 904 as hardware.
  • the auxiliary storage device 903 stores a program that realizes the functions of the image acquisition unit 101, the state estimation unit 102, the required accuracy setting unit 103, the constraint condition setting unit 104, the analysis method selection unit 105, and the analysis processing unit 106. .. These programs are loaded from the auxiliary storage device 903 into the main storage device 902.
  • the processor 901 executes these programs to operate the image acquisition unit 101, the state estimation unit 102, the requirement accuracy setting unit 103, the constraint condition setting unit 104, the analysis method selection unit 105, and the analysis processing unit 106, which will be described later. ..
  • the processor 901 executes a program that realizes the functions of the image acquisition unit 101, the state estimation unit 102, the request accuracy setting unit 103, the constraint condition setting unit 104, the analysis method selection unit 105, and the analysis processing unit 106.
  • the state is schematically represented.
  • the required accuracy DB 107 and the analysis method DB 109 are realized by the main storage device 902 or the auxiliary storage device 903.
  • FIG. 3 shows an example of an analysis method table.
  • method 1, method 2 and method 3 are described as analysis methods that can be performed by the analysis processing unit 106.
  • the analysis processing unit 106 analyzes the photographed image 200 showing a person and calculates the number of people reflected in the photographed image 200. Therefore, in the analysis method table of FIG. 3, method 1, method 2 and method 3 are described as methods for calculating the number of people shown in the captured image 200.
  • the method 1 is a method of [calculating the number of people from the foreground area] of the captured image 200.
  • Method 2 is a method of [detecting a person's head and calculating the number of people] shown in the captured image 200.
  • Method 3 is a method of [detecting a human skeleton and calculating the number of people] shown in the captured image 200. Note that the [Summary] shown in FIG. 3 is an item for explanation, and in actual operation, the [Summary] item may not be included in the analysis method table.
  • the analysis accuracy when the state represented by the captured image 200 is the [high congestion] state, and the state represented by the captured image 200 is the [low congestion] state.
  • arithmetic resources required for analysis are described for each method. For example, when the method 1 is used, if the state represented by the captured image 200 is a [highly congested] state, an analysis accuracy of 76% can be obtained. On the other hand, if the state shown in the captured image 200 is a [low congestion] state, 62% of analysis accuracy can be obtained. Further, when the method 1 is used, [20] is required as an arithmetic resource. Further, when the method 2 is used, [60] is required as an arithmetic resource. Further, when the method 3 is used, [80] is required as an arithmetic resource.
  • step S401 the image acquisition unit 101 acquires the captured image 200. It is assumed that a person is reflected in the captured image 200.
  • the state estimation unit 102 simply analyzes the captured image 200 and estimates the state represented by the captured image 200. More specifically, the state estimation unit 102 estimates whether the state shown in the captured image 200 is the [highly congested] state or the [lowly congested] state shown in FIG. For example, the state estimation unit 102 estimates from the size of the foreground area reflected in the captured image 200 whether the state represented in the captured image 200 is a [high congestion] state or a [low congestion] state. do. Then, the state estimation unit 102 notifies the analysis method selection unit 105 of the estimated estimated state.
  • step S403 the required accuracy setting unit 103 sets the required accuracy.
  • the required accuracy setting unit 103 notifies the analysis method selection unit 105 of the set required accuracy.
  • the constraint condition setting unit 104 sets the constraint condition.
  • the constraint condition setting unit 104 specifies the amount of arithmetic resources used for other arithmetic processing in the information processing apparatus 100 with reference to the constraint information 108, and the arithmetic resources that can be allocated to the analysis processing of the analysis processing unit 106. Set the amount of as a constraint requirement.
  • the constraint condition setting unit 104 notifies the analysis method selection unit 105 of the set constraint condition.
  • step S405 the analysis method selection unit 105 selects the analysis method based on the estimation state, the required accuracy, and the constraint conditions.
  • the analysis method selection unit 105 notifies the analysis processing unit 106 of the selected analysis method.
  • step S406 the analysis processing unit 106 analyzes the captured image 200 by the analysis method selected by the analysis method selection unit 105.
  • FIG. 4 shows an example in which the processes are performed in the order of step S402, step S403, and step S404, steps S402, step S403, and step S404 may be performed in parallel.
  • FIGS. 5 and 6 show specific examples of the operation of the information processing apparatus 100.
  • the operation of the information processing apparatus 100 will be specifically described with reference to FIGS. 5 and 6.
  • the state in which the state estimation unit 102 appears in the captured image 200 is estimated to be a [low congestion] state.
  • the required accuracy setting unit 103 sets [70% or more] as the required accuracy.
  • the constraint condition setting unit 104 sets the arithmetic resource as [Available up to 90] as a constraint condition.
  • the analysis method selection unit 105 refers to the analysis method table of FIG. In the example of FIG. 5, the analysis method selection unit 105 has an accuracy of "96%" at [low congestion] (satisfies [70% or more] of the required accuracy) and an arithmetic resource of "80" (constraint condition). (Satisfying [Available up to 90]) Method 3 is selected.
  • the method 2 also satisfies the required accuracy and constraint conditions.
  • the analysis method selection unit 105 selects a method with higher accuracy. Therefore, the analysis method selection unit 105 selects the method 3. Instead of this, when there are a plurality of selectable methods, the analysis method selection unit 105 may select a method with few calculation resources. In this case, the analysis method selection unit 105 selects method 2.
  • the analysis method selection unit 105 selects a method that meets the selection criteria defined in the analysis method DB 109.
  • the state in which the state estimation unit 102 appears in the captured image 200 is estimated to be a [highly congested] state.
  • the required accuracy setting unit 103 sets [70% or more] as the required accuracy.
  • the constraint condition setting unit 104 sets the arithmetic resource as [Available up to 50] as a constraint condition.
  • the analysis method selection unit 105 refers to the analysis method table of FIG. In the example of FIG. 6, the analysis method selection unit 105 has an accuracy of "76%" at [high congestion] (satisfies [70% or more] of the required accuracy) and an arithmetic resource of "20" (constraint condition). (Satisfying [Available up to 50]) Method 1 is selected.
  • the number of people analysis has been described as an example of the analysis of the captured image 200, but the analysis of the captured image 200 is not limited to the number of people analysis.
  • the state estimation unit 102 classifies the state represented by the captured image 200 into either a “highly congested” state or a “lowly congested” state.
  • the state estimation unit 102 may classify the states represented by the captured image 200 into more states.
  • the analysis method table (FIG. 3)
  • the analysis accuracy is defined in more detail according to the states classified by the state estimation unit 102.
  • the analysis method table may contain more information than the information shown in FIG. 3, regardless of the number of states classified by the state estimation unit 102.
  • the required accuracy setting unit 103 sets the required accuracy
  • the constraint condition setting unit 104 sets the constraint condition.
  • the information processing apparatus 100 may acquire the required accuracy and the constraint conditions from the outside. In this case, the required accuracy setting unit 103 and the constraint condition setting unit 104 are unnecessary.
  • Embodiment 2 In this embodiment, the difference from the first embodiment will be mainly described. The matters not explained below are the same as those in the first embodiment.
  • FIG. 7 shows an example of the functional configuration of the information processing apparatus 100 according to the present embodiment.
  • the state estimation unit 102 notifies the request accuracy setting unit 103 of the estimated state. Then, the required accuracy setting unit 103 sets the required accuracy based on the estimated state.
  • the state in which the state estimation unit 102 appears in the captured image 200 is estimated to be the [low congestion] state.
  • the state estimation unit 102 notifies the request accuracy setting unit 103 that the state appearing in the captured image 200 is a [low congestion] state.
  • the required accuracy setting unit 103 sets [90% or more] as the required accuracy in response to the [low congestion] state appearing in the captured image 200.
  • the constraint condition setting unit 104 sets the arithmetic resource as [up to 80 can be used] as a constraint condition.
  • the analysis method selection unit 105 refers to the analysis method table of FIG. In the example of FIG.
  • the analysis method selection unit 105 has an accuracy of "96%” at [low congestion] (satisfies [90% or more] of the required accuracy) and an arithmetic resource of "80" (constraint condition). (Satisfying [Available up to 90]) Method 3 is selected.
  • the state in which the state estimation unit 102 appears in the captured image 200 is estimated to be the [highly congested] state.
  • the state estimation unit 102 notifies the request accuracy setting unit 103 that the state appearing in the captured image 200 is a [highly congested] state.
  • the required accuracy setting unit 103 sets [70% or more] as the required accuracy in response to the [high congestion] state appearing in the captured image 200.
  • the constraint condition setting unit 104 sets the arithmetic resource as [up to 80 can be used] as a constraint condition.
  • the analysis method selection unit 105 refers to the analysis method table of FIG. In the example of FIG.
  • the analysis method selection unit 105 has an accuracy of "82%” at [high congestion] (satisfies [70% or more] of the required accuracy) and an arithmetic resource of "60" (constraint condition). (Satisfying [Available up to 80]) Method 2 is selected.
  • method 1 also satisfies the required accuracy and constraint conditions.
  • the analysis method selection unit 105 selects a method with higher accuracy. Therefore, the analysis method selection unit 105 selects the method 2.
  • the analysis method selection unit 105 may select a method with few calculation resources. In this case, the analysis method selection unit 105 selects method 1.
  • the analysis method selection unit 105 performs default error processing. For example, if there is a method that does not satisfy the required accuracy but satisfies the constraint condition (hereinafter referred to as "method X"), the analysis method selection unit 105 determines that the method X does not satisfy the required accuracy but satisfies the constraint condition as error processing. This is notified to the user of the information processing apparatus 100. When the user of the information processing apparatus 100 allows the method X, the analysis method selection unit 105 selects the method X.
  • method X a method that does not satisfy the required accuracy but satisfies the constraint condition
  • the analysis method DB 109 defines the content of error processing for each of the cases where only the required accuracy is not satisfied, the case where only the constraint condition is not satisfied, and the case where both the required accuracy and the constraint condition are not satisfied.
  • the analysis method selection unit 105 performs error processing corresponding to each case according to the definition in the analysis method DB 109.
  • Embodiment 3 In this embodiment, the difference from the first embodiment will be mainly described. The matters not explained below are the same as those in the first embodiment.
  • FIG. 10 shows an example of a functional configuration of the information processing apparatus 100 according to the present embodiment.
  • an auxiliary information acquisition unit 110 is added as compared with FIG. Further, the auxiliary information acquisition unit 110 acquires the auxiliary information 300.
  • the auxiliary information acquisition unit 110 outputs the acquired auxiliary information 300 to the state estimation unit 102.
  • the function of the auxiliary information acquisition unit 110 is realized by a program in the same manner as the image acquisition unit 101 and the like, for example.
  • the program that realizes the function of the auxiliary information acquisition unit 110 is executed by the processor 901.
  • the auxiliary information 300 is information other than the captured image 200.
  • the auxiliary information 300 is, for example, information indicating the measurement result of the infrared sensor, information indicating the measurement result of the gravity sensor, and information indicating the measurement result of the temperature sensor. Further, the auxiliary information 300 may be an image taken by a camera different from the captured image 200. For example, when the auxiliary information acquisition unit 110 acquires information indicating the measurement result of the infrared sensor as the auxiliary information 300, the state estimation unit 102 analyzes the measurement result of the infrared sensor and shows it in the captured image 200. The state (high congestion state or low congestion state) can be estimated. Further, the auxiliary information acquisition unit 110 can acquire, for example, precipitation information as auxiliary information 300. In this case, the state estimation unit 102 can estimate that a person is holding an umbrella and estimate the state shown in the captured image 200.
  • FIG. 11 shows an operation example of the information processing apparatus 100 according to the present embodiment.
  • step S410 is added.
  • the auxiliary information acquisition unit 110 acquires the auxiliary information 300.
  • the auxiliary information acquisition unit 110 outputs the acquired auxiliary information 300 to the state estimation unit 102.
  • the state estimation unit 102 estimates the state represented in the captured image 200 by using the auxiliary information 300. Since steps S401 and S403 and subsequent steps are the same as those shown in FIG. 4, the description thereof will be omitted.
  • FIG. 11 shows an example in which the processes are performed in the order of step S401 and step S410, steps S401 and S410 may be performed in parallel.
  • the state represented in the captured image can be estimated more accurately by using the auxiliary information.
  • Embodiment 4 In this embodiment, the difference from the third embodiment will be mainly described. The matters not explained below are the same as those in the third embodiment.
  • the auxiliary information 300 is also used for analysis in the analysis processing unit 106.
  • the auxiliary information acquisition unit 110 outputs the auxiliary information 300 to the analysis processing unit 106.
  • the analysis processing unit 106 analyzes the captured image 200 by using the auxiliary information 300 together with the captured image 200.
  • the analysis processing unit 106 analyzes the measurement result of the infrared sensor and shows it in the captured image 200. The number of people can be calculated more accurately.
  • the analysis processing unit 106 can estimate that a person is holding an umbrella and calculate the number of people.
  • the auxiliary information acquisition unit 110 may output the auxiliary information 300 to the analysis method selection unit 105.
  • the analysis method selection unit 105 selects the analysis method with reference to the auxiliary information. For example, when the auxiliary information acquisition unit 110 acquires the precipitation information as the auxiliary information 300, the analysis method selection unit 105 selects an analysis method that can calculate the number of people even when a person is holding an umbrella.
  • the analysis processing unit can analyze the captured image more accurately by using the auxiliary information.
  • Embodiment 5 In this embodiment, the difference from the first embodiment will be mainly described. The matters not explained below are the same as those in the first embodiment.
  • FIG. 13 shows an example of the functional configuration of the information processing apparatus 100 according to the present embodiment.
  • the analysis item designation unit 111 and the request information DB 112 are added as compared with FIG.
  • the analysis item designation unit 111 is notified of the estimated state by the state estimation unit 102.
  • the analysis item designation unit 111 designates two or more analysis items (for example, [number analysis] and [drunk detection]) based on the notified estimated state.
  • the analysis item is a category of analysis performed by the analysis processing unit 106.
  • the function of the analysis item designation unit 111 is realized by a program in the same manner as the image acquisition unit 101 and the like, for example.
  • the program that realizes the function of the analysis item designation unit 111 is executed by the processor 901.
  • the request information DB 112 stores a request information table. A plurality of states are described in the request information table, and analysis items are described for each state.
  • the analysis item designation unit 111 designates two or more analysis items according to the description in the request information
  • the required accuracy setting unit 103 sets the required accuracy for each analysis item. Further, the analysis method selection unit 105 selects an analysis method for each analysis item.
  • FIG. 14 shows an example of an analysis method table according to the present embodiment.
  • the analysis method table of FIG. 14 corresponds to two analysis items. That is, the analysis method table of FIG. 14 corresponds to two analysis items, "number analysis” and “drunk detection”.
  • the analysis method table for "number analysis” is the same as that shown in FIG.
  • method A and method B are described as analysis methods that can be performed by the analysis processing unit 106.
  • drain detection an example will be described in which the analysis processing unit 106 analyzes the captured image 200 and determines whether or not there is a person who is drunk in the captured image 200.
  • the method A is a method of [detecting from the walking trajectory].
  • Method B is a method of [detecting from a behavior model]. Note that also in FIG. 14, [Summary] is an item for explanation, and in actual operation, the item of [Summary] may not be included in the analysis method table. Further, the analysis accuracy is also described for each method in the analysis method table related to "drunk detection" in FIG. Further, the analysis method table related to "drunkenness detection” in FIG. 14 also describes the calculation resources required for each method. For example, when the method A is used, an analysis accuracy of 60% can be obtained. On the other hand, when the method B is used, an analysis accuracy of 80% can be obtained. Further, when the method A is used, [60] is required as an arithmetic resource. Further, when the method B is used, [70] is required as an arithmetic resource.
  • FIG. 15 shows a specific example of the operation of the information processing device 100 according to the present embodiment.
  • the state estimation unit 102 estimates that the states appearing in the captured image 200 are [low congestion] and [nighttime].
  • the state estimation unit 102 notifies the analysis item designation unit 111 of the estimated state.
  • the analysis item designation unit 111 refers to the request information table. In the present embodiment, it is assumed that [number analysis] is described for [low congestion] and [high congestion], and [drunk detection] is described for [night] in the request information table. ..
  • the analysis item designation unit 111 designates [number analysis] and [drunk detection] as analysis items based on the estimation state and the description of the request information table notified from the state estimation unit 102.
  • the analysis item designation unit 111 also notifies the request accuracy setting unit 103 of [number analysis] and [drunk detection] as analysis items.
  • the required accuracy setting unit 103 sets [90% or more] as the required accuracy of [number analysis]. Further, the required accuracy setting unit 103 sets [50% or more] as the required accuracy of [drunk detection]. Further, the constraint condition setting unit 104 sets the arithmetic resource as [Available up to 130] as a constraint condition.
  • the analysis method selection unit 105 refers to the analysis method table of FIG. In the example of FIG. 15, the analysis method selection unit 105 selects the method 2 whose accuracy at [low congestion] is "96%" (satisfies [90% or more] of the required accuracy) as the method of [number analysis]. do.
  • the analysis method selection unit 105 selects the method B whose accuracy is "80%" (satisfies [50% or more] of the required accuracy) as the method of [drunkenness detection]. Since the total of the calculation resources of the method 2 and the method B is "130" (satisfying the constraint condition [usable up to 130]), the analysis method selection unit 105 can select the method 2 and the method B. The analysis method selection unit 105 can also select the method A as the method of [drunkenness detection], but since the method B satisfies the constraint condition and the analysis accuracy is higher, the analysis method selection unit 105 is described here. Method B shall be selected.
  • the analysis of a plurality of analysis items can be performed with appropriate accuracy for each.
  • Embodiment 6 In this embodiment, the difference from the first embodiment will be mainly described. The matters not explained below are the same as those in the first embodiment.
  • FIG. 16 shows an example of a functional configuration of the information processing apparatus 100 according to the present embodiment.
  • the required accuracy DB 107, the constraint information 108, and the analysis method DB 109 arranged in the information processing apparatus 100 in FIG. 1 are arranged in the external device 500 as the required accuracy DB 501, the constraint information 502, and the analysis method DB 503. That is, in the present embodiment, the required accuracy setting unit 103 acquires the required accuracy table from the required accuracy DB 501 instead of the required accuracy DB 107.
  • the constraint condition setting unit 104 refers to the constraint information 502 instead of the constraint information 108.
  • the analysis method selection unit 105 acquires the analysis method table from the analysis method DB 503 instead of the analysis method DB 109.
  • the configuration of the information processing device 100 can be simplified.
  • Embodiment 7 In this embodiment, the difference from the first embodiment will be mainly described. The matters not explained below are the same as those in the first embodiment.
  • FIG. 17 shows an example of a functional configuration of the information processing apparatus 100 according to the present embodiment.
  • the analysis processing unit 106 arranged in the information processing apparatus 100 in FIG. 1 is arranged in the external device 600 as the analysis processing unit 601.
  • the operation of the analysis processing unit 601 is the same as that of the analysis processing unit 106.
  • the image acquisition unit 101 outputs the captured image 200 to the analysis processing unit 601.
  • the analysis method selection unit 105 notifies the analysis processing unit 601 of the selected analysis method. Then, the analysis method selection unit 105 causes the analysis processing unit 601 to execute the analysis process by the selected analysis method.
  • the constraint condition setting unit 104 sets the constraint condition for the cost required for the analysis of the captured image 200 by the analysis processing unit 601 as the constraint condition. That is, in the first embodiment, since the analysis processing unit 106 performs the analysis processing using the arithmetic resource of the information processing apparatus 100, the constraint condition setting unit 104 sets the constraint condition for the arithmetic resource. In the present embodiment, the analysis processing of the analysis processing unit 601 is not restricted by the arithmetic resources of the information processing apparatus 100. However, when the analysis process is executed by the external device 600, a cost (expense) associated with the analysis process is incurred. Therefore, in the present embodiment, the constraint condition setting unit 104 sets the constraint condition for the cost required for the analysis of the captured image 200 by the external device 600 as the constraint condition.
  • the configuration of the information processing device 100 can also be simplified by the present embodiment.
  • first to seventh embodiments have been described above, two or more of these embodiments may be combined and implemented. Alternatively, one of these embodiments may be partially implemented. Alternatively, two or more of these embodiments may be partially combined and implemented. In addition, the configurations and procedures described in these embodiments may be modified as necessary.
  • the processor 901 shown in FIG. 2 is an IC (Integrated Circuit) that performs processing.
  • the processor 901 is a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or the like.
  • the main storage device 902 shown in FIG. 2 is a RAM (Random Access Memory).
  • the auxiliary storage device 903 shown in FIG. 2 is a ROM (Read Only Memory), a flash memory, an HDD (Hard Disk Drive), or the like.
  • the communication device 904 shown in FIG. 2 is an electronic circuit that executes data communication processing.
  • the communication device 904 is, for example, a communication chip or a NIC (Network Interface Card).
  • the OS (Operating System) is also stored in the auxiliary storage device 903. Then, at least a part of the OS is executed by the processor 901. While executing at least a part of the OS, the processor 901 executes an image acquisition unit 101, a state estimation unit 102, a requirement accuracy setting unit 103, a constraint condition setting unit 104, an analysis method selection unit 105, an analysis processing unit 106, and an auxiliary information acquisition unit. A program that realizes the functions of 110 and the analysis item designation unit 111 is executed. When the processor 901 executes the OS, task management, memory management, file management, communication control, and the like are performed.
  • the processing results of the image acquisition unit 101, the state estimation unit 102, the request accuracy setting unit 103, the constraint condition setting unit 104, the analysis method selection unit 105, the analysis processing unit 106, the auxiliary information acquisition unit 110, and the analysis item specification unit 111 At least one of the information, data, signal value, and variable value indicating the above is stored in at least one of the main storage device 902, the auxiliary storage device 903, the register in the processor 901, and the cache memory. Further, the functions of the image acquisition unit 101, the state estimation unit 102, the request accuracy setting unit 103, the constraint condition setting unit 104, the analysis method selection unit 105, the analysis processing unit 106, the auxiliary information acquisition unit 110, and the analysis item specification unit 111 are realized.
  • the program to be used may be stored in a portable recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, or a DVD. Then, the functions of the image acquisition unit 101, the state estimation unit 102, the request accuracy setting unit 103, the constraint condition setting unit 104, the analysis method selection unit 105, the analysis processing unit 106, the auxiliary information acquisition unit 110, and the analysis item specification unit 111 are realized.
  • a portable recording medium in which the program to be used is stored may be distributed.
  • processing circuit or “process” or “procedure” or “processing”.
  • the information processing device 100 may be realized by a processing circuit.
  • the processing circuit is, for example, a logic IC (Integrated Circuit), a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array).
  • processing circuit Lee the superordinate concept of the processor and the processing circuit is referred to as “processing circuit Lee". That is, the processor and the processing circuit are specific examples of the "processing circuit Lee", respectively.
  • 100 information processing device 101 image acquisition unit, 102 state estimation unit, 103 requirement accuracy setting unit, 104 constraint condition setting unit, 105 analysis method selection unit, 106 analysis processing unit, 107 requirement accuracy DB, 108 constraint information, 109 analysis method DB, 110 Auxiliary information acquisition unit, 111 Analysis item specification unit, 112 Request information DB, 200 Captured image, 300 Auxiliary information, 500 External device, 501 Requirement accuracy DB, 502 Constraint information, 503 Analysis method DB, 600 External device, 601 Information processing unit, 901 processor, 902 main storage device, 903 auxiliary storage device, 904 communication device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

状態推定部(102)は、撮影画像(200)に表されている状態を推定する。解析手法選択部(105)は、状態推定部(102)により推定された状態である推定状態と、撮影画像(200)の解析に要求される解析精度である要求精度と、撮影画像(200)を解析する際の制約条件とに基づき、撮影画像(200)を解析する際の解析手法として、複数の解析手法の中からいずれかの解析手法を選択する。

Description

情報処理装置、情報処理方法及び情報処理プログラム
 本開示は、撮影画像を解析する技術に関する。
 撮影画像を解析する技術として、特許文献1に記載の技術がある。特許文献1では、画像取得領域の環境に関する情報を取得し,環境の状態が変化したときに、使用する物体検出方法を切り替える、あるいは使用するパラメータを変更する技術が開示されている。
特開2008-47991号公報
 一般的に、撮影画像の解析では、撮影画像に表されている状態によって要求される解析精度が異なることが多い。また、撮影画像を解析する装置では、通常、撮影画像の解析の他に、撮影画像の再生、記録、配信等の処理も行っている。このため、撮影画像の解析に使用できる演算リソースが他の処理によって制約されるといった制約条件が存在する。
 しかしながら、特許文献1の技術では、このような撮影画像に表されている状態、要求される解析精度及び制約条件は考慮されていない。このため、特許文献1の技術では、状態、要求精度及び制約条件に応じた適切な撮影画像の解析を行うことができないという課題がある。
 本開示は、上記のような課題を解決することを主な目的の一つとしている。より具体的には、本開示は、状態、要求精度及び制約条件に応じた適切な撮影画像の解析を実現することを主な目的とする。
 本開示に係る情報処理装置は、
 撮影画像に表されている状態を推定する状態推定部と、
 前記状態推定部により推定された状態である推定状態と、前記撮影画像の解析に要求される解析精度である要求精度と、前記撮影画像を解析する際の制約条件とに基づき、前記撮影画像を解析する際の解析手法として、複数の解析手法の中からいずれかの解析手法を選択する解析手法選択部とを有する。
 本開示によれば、状態、要求精度及び制約条件に応じた適切な撮影画像の解析を実現することができる。
実施の形態1に係る情報処理装置の機能構成例を示す図。 実施の形態1に係る情報処理装置のハードウェア構成例を示す図。 実施の形態1に係る解析手法テーブルの例を示す図。 実施の形態1に係る情報処理装置の動作例を示すフローチャート。 実施の形態1に係る情報処理装置の動作の具体例を示す図。 実施の形態1に係る情報処理装置の動作の具体例を示す図。 実施の形態2に係る情報処理装置の機能構成例を示す図。 実施の形態2に係る情報処理装置の動作の具体例を示す図。 実施の形態2に係る情報処理装置の動作の具体例を示す図。 実施の形態3に係る情報処理装置の機能構成例を示す図。 実施の形態3に係る情報処理装置の動作例を示すフローチャート。 実施の形態4に係る情報処理装置の機能構成例を示す図。 実施の形態5に係る情報処理装置の機能構成例を示す図。 実施の形態5に係る解析手法テーブルの例を示す図。 実施の形態5に係る情報処理装置の動作の具体例を示す図。 実施の形態6に係る情報処理装置の機能構成例を示す図。 実施の形態7に係る情報処理装置の機能構成例を示す図。
 以下、実施の形態を図を用いて説明する。以下の実施の形態の説明及び図面において、同一の符号を付したものは、同一の部分又は相当する部分を示す。
 実施の形態1.
***構成の説明***
 図1は、本実施の形態に係る情報処理装置100の機能構成例を示す。
 情報処理装置100はコンピュータである。情報処理装置100の動作手順は、情報処理方法に相当する。また、情報処理装置100の動作を実現するプログラムは、情報処理プログラムに相当する。
 画像取得部101は、撮影画像200を取得する。撮影画像200は静止画像でも動画像でもよい。画像取得部101は、取得した撮影画像200を状態推定部102と解析処理部106に出力する。
 状態推定部102は、撮影画像200を簡易的に解析し、撮影画像200に表されている状態を推定する。
 状態推定部102により行われる処理は状態推定処理に相当する。
 要求精度設定部103は、要求精度DB107を参照して、後述する解析処理部106による撮影画像200の解析に要求される解析精度(以下、要求精度という)を設定する。
 要求精度設定部103により行われる処理は要求精度設定処理に相当する。
 制約条件設定部104は、制約情報108を参照して、解析処理部106が撮影画像200を解析する際の制約条件を設定する。
 本実施の形態では、主に撮影画像200の解析について説明を行うが、情報処理装置100では撮影画像200の解析以外の演算処理にも演算リソースが消費される。従って、解析処理部106による撮影画像200の解析に割り当てられる演算リソースには制約がある。本実施の形態では、制約条件設定部104は、演算リソースについての制約条件を設定する。なお、演算リソースとは、図2を用いて後述する情報処理装置100のハードウェアリソースである。
 制約条件設定部104により行われる処理は制約条件設定処理に相当する。
 解析手法選択部105は、解析処理部106が撮影画像200を解析する際の解析手法を選択する。より具体的には、解析手法選択部105は、状態推定部102により推定された状態である推定状態と、要求精度設定部103により設定された要求精度と、制約条件設定部104により設定された制約条件とに基づき、解析処理部106が撮影画像200を解析する際の解析手法として、複数の解析手法の中からいずれかの解析手法を選択する。
 解析手法選択部105により行われる処理は解析手法選択処理に相当する。
 解析処理部106は、撮影画像200の解析を行う。より具体的には、解析処理部106は、解析手法選択部105により選択された解析手法で撮影画像200の解析を行う。
 解析処理部106は、例えば、AI(Artificial Intelligence)を用いた画像解析を行う。
 要求精度DB107は、要求精度テーブルを記憶している。要求精度テーブルでは要求精度が記述される。
 制約情報108は、制約条件の設定の前提となる情報である。制約情報108には、例えば、撮影画像200の解析以外の演算処理に割り当て済み演算リソース量及び割当てが予約されている演算リソース量が示される。
 解析手法DB109は、解析手法テーブルを記憶している。解析手法テーブルには、複数の手法が記述され、手法ごとに実現可能な解析精度及び必要な演算リソースが記述される。解析手法テーブルの詳細は図3を参照して後述する。
 図2は、本実施の形態に係る情報処理装置100の構成例を示す。
 情報処理装置100は、ハードウェアとして、プロセッサ901、主記憶装置902、補助記憶装置903及び通信装置904を備える。
 補助記憶装置903には、画像取得部101、状態推定部102、要求精度設定部103、制約条件設定部104、解析手法選択部105及び解析処理部106の機能を実現するプログラムが記憶されている。
 これらプログラムは、補助記憶装置903から主記憶装置902にロードされる。そして、プロセッサ901がこれらプログラムを実行して、後述する画像取得部101、状態推定部102、要求精度設定部103、制約条件設定部104、解析手法選択部105及び解析処理部106の動作を行う。
 図3では、プロセッサ901が画像取得部101、状態推定部102、要求精度設定部103、制約条件設定部104、解析手法選択部105及び解析処理部106の機能を実現するプログラムを実行している状態を模式的に表している。
 要求精度DB107及び解析手法DB109は、主記憶装置902又は補助記憶装置903により実現される。
 図3は、解析手法テーブルの例を示す。
 図3の解析手法テーブルでは、解析処理部106で実施可能な解析手法として、手法1、手法2及び手法3が記述されている。本実施の形態では、人が映っている撮影画像200を解析処理部106が解析して撮影画像200に映っている人数を算出する例を説明する。このため、図3の解析手法テーブルでも、撮影画像200に映っている人数を算出する手法として、手法1、手法2及び手法3が記述されている。図3の例では、手法1は撮影画像200の[前景面積から人数を算出する]手法である。手法2は撮影画像200に映っている[人の頭部を検知して人数を算出する]手法である。手法3は撮影画像200に映っている[人の骨格を検知して人数を算出する]方法である。
 なお、図3に示す[概要]は説明のための項目であり、実際の運用では、解析手法テーブルに[概要]の項目は含まれていなくてもよい。
 また、図3の解析手法テーブルでは、手法ごとに、撮影画像200に表されている状態が[高混雑]状態である場合の解析精度、撮影画像200に表される状態が[低混雑]状態である場合の解析精度が記述される。更に、図3の解析手法テーブルでは、手法ごとに、解析に必要な演算リソースが記述される。
 例えば、手法1を用いる場合は、撮影画像200に表されている状態が[高混雑]状態であれば、76%の解析精度が得られる。一方、撮影画像200に表されている状態が[低混雑]状態であれば、62%の解析精度が得られる。また、手法1を用いる場合は、演算リソースとして[20]が必要である。また、手法2を用いる場合は、演算リソースとして[60]が必要である。また、手法3を用いる場合は、演算リソースとして[80]が必要である。
***動作の説明***
 次に、図4を参照して、本実施の形態に係る情報処理装置100の動作例を説明する。
 先ず、ステップS401において、画像取得部101が撮影画像200を取得する。撮影画像200には人が映っているものとする。
 次に、ステップS402において、状態推定部102が撮影画像200を簡易に解析して、撮影画像200に表されている状態を推定する。より具体的には、状態推定部102は、撮影画像200に表れている状態が、図3に示す[高混雑]状態であるか[低混雑]状態であるかを推定する。例えば、状態推定部102は、撮影画像200に映っている前景面積の大きさから、撮影画像200に表されている状態が[高混雑]状態であるか[低混雑]状態であるかを推定する。
 そして、状態推定部102は、推定した推定状態を解析手法選択部105に通知する。
 次に、ステップS403において、要求精度設定部103が要求精度を設定する。
 要求精度設定部103は、設定した要求精度を解析手法選択部105に通知する。
 次に、ステップS404において、制約条件設定部104が制約条件を設定する。
 制約条件設定部104は、制約情報108を参照して情報処理装置100での他の演算処理に用いられている演算リソースの量を特定し、解析処理部106の解析処理に割り当て可能な演算リソースの量を制約要件として設定する。
 制約条件設定部104は、設定した制約条件を解析手法選択部105に通知する。
 次に、ステップS405において、解析手法選択部105が、推定状態、要求精度、制約条件に基づき、解析手法を選択する。
 解析手法選択部105は、選択した解析手法を解析処理部106に通知する。
 次に、ステップS406において、解析処理部106が解析手法選択部105により選択された解析手法で撮影画像200を解析する。
 なお、図4では、処理がステップS402、ステップS403、ステップS404の順に行われる例を示したが、ステップS402、ステップS403、ステップS404は並行して行われてもよい。
 図5及び図6は、情報処理装置100の動作の具体例を示す。
 以下、図5及び図6を参照して、情報処理装置100の動作を具体的に説明する。
 図5では、状態推定部102が撮影画像200に表れている状態を[低混雑]状態と推定している。また、要求精度設定部103が要求精度として[70%以上]を設定している。また、制約条件設定部104が制約条件として、演算リソースを[90まで使用可能]と設定している。
 解析手法選択部105は、図3の解析手法テーブルを参照する。図5の例では、解析手法選択部105は、[低混雑]時精度が「96%」であり(要求精度の[70%以上]を満たす)、演算リソースが「80」である(制約条件の[90まで使用可能]を満たす)手法3を選択する。
 なお、図5の例では、手法2も要求精度及び制約条件を満たす。選択可能な手法が複数存在する場合に、本実施の形態では、解析手法選択部105は、より精度の高い手法を選択する。このため、解析手法選択部105は、手法3を選択する。なお、これに代えて、選択可能な手法が複数存在する場合に、解析手法選択部105が、演算リソースが少ない手法を選択するようにしてもよい。この場合は、解析手法選択部105は、手法2を選択する。
 選択可能な手法が複数存在する場合に、解析精度及び演算リソースのいずれを優先するかの選択基準は例えば解析手法DB109に定義されているものとする。解析手法選択部105は、選択可能な手法が複数存在する場合は、解析手法DB109に定義されている選択基準に適合する手法を選択する。
 図6では、状態推定部102が撮影画像200に表れている状態を[高混雑]状態と推定している。また、要求精度設定部103が要求精度として[70%以上]を設定している。また、制約条件設定部104が制約条件として、演算リソースを[50まで使用可能]と設定している。
 解析手法選択部105は、図3の解析手法テーブルを参照する。図6の例では、解析手法選択部105は、[高混雑]時精度が「76%」であり(要求精度の[70%以上]を満たす)、演算リソースが「20」である(制約条件の[50まで使用可能]を満たす)手法1を選択する。
***実施の形態の効果の説明***
 このように、本実施の形態によれば、状態、要求精度及び制約条件に応じた適切な撮影画像の解析を実現することができる。
 なお、本実施の形態では、撮影画像200の解析の例として人数解析を説明したが、撮影画像200の解析は人数解析に限らない。
 また、本実施の形態では、状態推定部102が撮影画像200に表される状態を「高混雑」状態又は「低混雑」状態のいずれかに分類する例を説明した。しかし、状態推定部102は撮影画像200に表される状態を、より多くの状態に分類してもよい。この場合は、解析手法テーブル(図3)において、状態推定部102で分類される状態に応じて、解析精度がより詳細に規定される。また、解析手法テーブルには、状態推定部102で分類される状態の多寡にかかわらず、図3に示す情報よりも多くの情報が含まれていてもよい。
 また、本実施の形態では、要求精度設定部103が要求精度を設定し、制約条件設定部104が制約条件を設定する。これに代えて、情報処理装置100が、要求精度と制約条件を外部から取得するようにしてもよい。この場合は、要求精度設定部103と制約条件設定部104は不要である。
 実施の形態2.
 本実施の形態では、主に実施の形態1との差異を説明する。
 なお、以下で説明していない事項は、実施の形態1と同様である。
 図7は、本実施の形態に係る情報処理装置100の機能構成例を示す。
 図7では、状態推定部102が要求精度設定部103に推定状態を通知する。そして、要求精度設定部103は、推定状態に基づき要求精度を設定する。
 図8及び図9は、本実施の形態に係る情報処理装置100の動作の具体例を示す。
 図8では、状態推定部102が撮影画像200に表れている状態を[低混雑]状態と推定している。状態推定部102は、要求精度設定部103に撮影画像200に表れている状態が[低混雑]状態であることを通知する。要求精度設定部103は、撮影画像200に表れている状態が[低混雑]状態であることに対応して、要求精度として[90%以上]を設定している。また、制約条件設定部104は、制約条件として、演算リソースを[80まで使用可能]と設定している。
 解析手法選択部105は、図3の解析手法テーブルを参照する。図8の例では、解析手法選択部105は、[低混雑]時精度が「96%」であり(要求精度の[90%以上]を満たす)、演算リソースが「80」である(制約条件の[90まで使用可能]を満たす)手法3を選択する。
 図9では、状態推定部102が撮影画像200に表れている状態を[高混雑]状態と推定している。状態推定部102は、要求精度設定部103に撮影画像200に表れている状態が[高混雑]状態であることを通知する。要求精度設定部103は、撮影画像200に表れている状態が[高混雑]状態であることに対応して、要求精度として[70%以上]を設定している。また、制約条件設定部104は、制約条件として、演算リソースを[80まで使用可能]と設定している。
 解析手法選択部105は、図3の解析手法テーブルを参照する。図9の例では、解析手法選択部105は、[高混雑]時精度が「82%」であり(要求精度の[70%以上]を満たす)、演算リソースが「60」である(制約条件の[80まで使用可能]を満たす)手法2を選択する。
 なお、図9の例では、手法1も要求精度及び制約条件を満たす。選択可能な手法が複数存在する場合に、本実施の形態では、解析手法選択部105は、より精度の高い手法を選択する。このため、解析手法選択部105は、手法2を選択する。なお、これに代えて、選択可能な手法が複数存在する場合に、解析手法選択部105が、演算リソースが少ない手法を選択するようにしてもよい。この場合は、解析手法選択部105は、手法1を選択する。
 なお、要求精度及び制約条件の少なくともいずれかを満たす手法が存在しない場合は、解析手法選択部105は既定のエラー処理を行う。
 例えば、要求精度は満たさないが制約条件は満たす手法(以下、「手法X」という)がある場合は、解析手法選択部105は、エラー処理として手法Xは要求精度を満たさないが制約条件は満たすことを情報処理装置100の利用者に通知する。情報処理装置100の利用者が手法Xを許容する場合は、解析手法選択部105は手法Xを選択する。
 解析手法DB109には、要求精度のみが満たされないケース、制約条件のみが満たされないケース、要求精度及び制約条件の両者が満たされないケースの各々についてエラー処理の内容が定義されているものとする。解析手法選択部105は、解析手法DB109における定義に従って、各ケースに対応するエラー処理を行う。
 本実施の形態によれば、撮影画像に表されている状態に応じた精度を実現可能な解析手法を選択することができる。
 実施の形態3.
 本実施の形態では、主に実施の形態1との差異を説明する。
 なお、以下で説明していない事項は、実施の形態1と同様である。
 図10は、本実施の形態に係る情報処理装置100の機能構成例を示す。
 図10では、図1と比較して補助情報取得部110が追加されている。また、補助情報取得部110が補助情報300を取得する。補助情報取得部110は、取得した補助情報300を状態推定部102に出力する。補助情報取得部110の機能は、例えば、画像取得部101等と同様にプログラムで実現される。補助情報取得部110の機能を実現するプログラムは、プロセッサ901により実行される。
 補助情報300は、撮影画像200以外の情報である。補助情報300は、例えば、赤外線センサーの計測結果を示す情報、重力センサーの計測結果を示す情報、温度センサーの計測結果を示す情報である。また、補助情報300は、撮影画像200とは別のカメラで撮影された画像であってもよい。例えば、補助情報取得部110が赤外線センサーの計測結果を示す情報を補助情報300として取得した場合は、状態推定部102は、赤外線センサーの計測結果を解析して、撮影画像200に表されている状態(高混雑状態か低混雑状態か)を推定することができる。
 また、補助情報取得部110は、例えば、降水情報を補助情報300として取得することができる。この場合は、状態推定部102は、人が傘をさしていることを推定して撮影画像200に表されている状態を推定することができる。
 図11は、本実施の形態に係る情報処理装置100の動作例を示す。
 図11のフローチャートでは、ステップS410が追加されている。
 ステップS410では、補助情報取得部110が補助情報300を取得する。補助情報取得部110は取得した補助情報300を状態推定部102に出力する。
 ステップS402では、状態推定部102が撮影画像200に表されている状態を、補助情報300を用いて推定する。
 ステップS401及びステップS403以降は図4に示したものと同じであるため説明を省略する。
 なお、図11では、処理がステップS401、ステップS410の順に行われる例を示したが、ステップS401、ステップS410は並行して行われてもよい。
 以上、本実施の形態によれば、補助情報を用いることにより撮影画像に表されている状態をより正確に推定することができる。
 実施の形態4.
 本実施の形態では、主に実施の形態3との差異を説明する。
 なお、以下で説明していない事項は、実施の形態3と同様である。
 実施の形態3では、補助情報300を状態推定部102における状態の推定にのみ用いる例を説明した。本実施の形態では、補助情報300を解析処理部106における解析にも用いる。例えば、図12に示すように、補助情報取得部110は補助情報300を解析処理部106に出力する。そして、解析処理部106は、撮影画像200とともに補助情報300を用いて、撮影画像200を解析する。
 例えば、補助情報取得部110が赤外線センサーの計測結果を示す情報を補助情報300として取得した場合は、解析処理部106は、赤外線センサーの計測結果を解析して、撮影画像200に表されている人数をより正確に算出することができる。また、補助情報取得部110が降水情報を補助情報300として取得した場合は、解析処理部106は、人が傘をさしていることを推定して人数を算出することができる。
 また、補助情報取得部110が補助情報300を解析手法選択部105に出力してもよい。この場合は、解析手法選択部105は、補助情報を参照して解析手法を選択する。例えば、補助情報取得部110が降水情報を補助情報300として取得した場合は、解析手法選択部105は、人が傘をさしている状態でも人数を算出できる解析手法を選択する。
 以上、本実施の形態によれば、補助情報を用いることで、解析処理部が、より正確に撮影画像の解析を行うことができる。
 実施の形態5.
 本実施の形態では、主に実施の形態1との差異を説明する。
 なお、以下で説明していない事項は、実施の形態1と同様である。
 図13は、本実施の形態に係る情報処理装置100の機能構成例を示す。
 図13では、図1と比較して解析項目指定部111と要求情報DB112が追加されている。
 解析項目指定部111は状態推定部102から推定状態を通知される。そして、解析項目指定部111は、通知された推定状態に基づき、2以上の解析項目(例えば、[人数解析]と[酔っ払い検知])を指定する。解析項目は解析処理部106が行う解析のカテゴリーである。解析項目指定部111の機能は、例えば、画像取得部101等と同様にプログラムで実現される。解析項目指定部111の機能を実現するプログラムは、プロセッサ901により実行される。
 要求情報DB112には、要求情報テーブルが格納されている。要求情報テーブルには、複数の状態が記述され、また、状態ごとに解析項目が記述される。解析項目指定部111は、要求情報テーブルの記述に従い、2以上の解析項目を指定する。
 本実施の形態では、要求精度設定部103は、解析項目ごとに要求精度を設定する。また、解析手法選択部105は、解析項目ごとに解析手法を選択する。
 図14は、本実施の形態に係る解析手法テーブルの例を示す。
 図14の解析手法テーブルは、2つの解析項目に対応している。つまり、図14の解析手法テーブルは、「人数解析」と「酔っ払い検知」の2つの解析項目に対応している。
 「人数解析」に関する解析手法テーブルは図3に示したものと同じである。
 「酔っ払い検知」に関する解析手法テーブルでは、解析処理部106で実施可能な解析手法として、手法A及び手法Bが記述されている。本実施の形態では、「酔っ払い検知」として、解析処理部106が撮影画像200を解析して撮影画像200に酔っぱらっている状態の人が存在するか否かを判定する例を説明する。図14の例では、手法Aは[歩行軌道から検知]する手法である。手法Bは[行動モデルから検知]する手法である。
 なお、図14でも、[概要]は説明のための項目であり、実際の運用では、解析手法テーブルに[概要]の項目は含まれていなくてもよい。
 また、図14の「酔っ払い検知」に関する解析手法テーブルでも手法ごとに解析精度が記述される。更に、図14の「酔っ払い検知」に関する解析手法テーブルでも手法ごとに必要な演算リソースが記述される。
 例えば、手法Aを用いる場合は、60%の解析精度が得られる。一方、手法Bを用いる場合は、80%の解析精度が得られる。また、手法Aを用いる場合は、演算リソースとして[60]が必要である。また、手法Bを用いる場合は、演算リソースとして[70]が必要である。
 図15は、本実施の形態に係る情報処理装置100の動作の具体例を示す。
 図15では、状態推定部102は撮影画像200に表れている状態を[低混雑]及び[夜間]と推定している。状態推定部102は、推定状態を解析項目指定部111に通知する。
 解析項目指定部111は、要求情報テーブルを参照する。本実施の形態では、要求情報テーブルには、[低混雑]及び[高混雑]に対して[人数解析]が記述され、[夜間]に対して[酔っ払い検知]が記述されているものとする。解析項目指定部111は、状態推定部102から通知された推定状態と要求情報テーブルの記述に基づき、解析項目として[人数解析]と[酔っ払い検知]を指定する。解析項目指定部111は、また、要求精度設定部103に解析項目として[人数解析]と[酔っ払い検知]を通知する。
 図15では、要求精度設定部103は、[人数解析]の要求精度として[90%以上]を設定している。また、要求精度設定部103は、[酔っ払い検知]の要求精度として[50%以上]を設定している。
 また、制約条件設定部104は、制約条件として、演算リソースを[130まで使用可能]と設定している。
 解析手法選択部105は、図14の解析手法テーブルを参照する。図15の例では、解析手法選択部105は、[人数解析]の手法として、[低混雑]時精度が「96%」である(要求精度の[90%以上]を満たす)手法2を選択する。また、解析手法選択部105は、[酔っ払い検知]の手法として、精度が「80%」である(要求精度の[50%以上]を満たす)手法Bを選択する。手法2と手法Bの演算リソースの合計が「130」である(制約条件の[130まで使用可能]を満たす)ので、解析手法選択部105は、手法2と手法Bを選択可能である。
 なお、解析手法選択部105は、[酔っ払い検知]の手法として手法Aも選択可能であるが、手法Bは制約条件を満たすとともに、解析精度がより高いので、ここでは、解析手法選択部105は手法Bを選択するものとする。
 以上、本実施の形態によれば、複数の解析項目の解析をそれぞれに適切な精度で実施することができる。
 実施の形態6.
 本実施の形態では、主に実施の形態1との差異を説明する。
 なお、以下で説明していない事項は、実施の形態1と同様である。
 図16は、本実施の形態に係る情報処理装置100の機能構成例を示す。
 図16では、図1で情報処理装置100内に配置されている要求精度DB107、制約情報108及び解析手法DB109が要求精度DB501、制約情報502及び解析手法DB503として外部装置500に配置されている。
 つまり、本実施の形態では、要求精度設定部103は、要求精度DB107の代わりに要求精度DB501から要求精度テーブルを取得する。
 また、制約条件設定部104は、制約情報108の代わりに制約情報502を参照する。
 また、解析手法選択部105は、解析手法DB109の代わりに解析手法DB503から解析手法テーブルを取得する。
 本実施の形態によれば、情報処理装置100の構成を簡素化することができる。
 実施の形態7.
 本実施の形態では、主に実施の形態1との差異を説明する。
 なお、以下で説明していない事項は、実施の形態1と同様である。
 図17は、本実施の形態に係る情報処理装置100の機能構成例を示す。
 図17では、図1で情報処理装置100内に配置されている解析処理部106が解析処理部601として外部装置600に配置されている。
 解析処理部601の動作は解析処理部106と同じである。
 本実施の形態では、画像取得部101は解析処理部601に撮影画像200を出力する。また、解析手法選択部105は、選択した解析手法を解析処理部601に通知する。そして、解析手法選択部105は解析処理部601に選択した解析手法で解析処理を実行させる。
 本実施の形態では、制約条件設定部104は、制約条件として、解析処理部601での撮影画像200の解析に要するコストについての制約条件を設定する。つまり、実施の形態1では、解析処理部106は情報処理装置100の演算リソースを用いて解析処理を行うため、制約条件設定部104は、演算リソースについての制約条件を設定した。本実施の形態では、解析処理部601の解析処理に情報処理装置100の演算リソースについての制約は発生しない。しかし、外部装置600で解析処理を実行させると、解析処理に伴うコスト(費用)が発生する。このため、本実施の形態では、制約条件設定部104は、制約条件として、外部装置600での撮影画像200の解析に要するコストについての制約条件を設定する。
 本実施の形態によっても、情報処理装置100の構成を簡素化することができる。
 以上、実施の形態1~7を説明したが、これらの実施の形態のうち、2つ以上を組み合わせて実施しても構わない。
 あるいは、これらの実施の形態のうち、1つを部分的に実施しても構わない。
 あるいは、これらの実施の形態のうち、2つ以上を部分的に組み合わせて実施しても構わない。
 また、これらの実施の形態に記載された構成及び手順を必要に応じて変更してもよい。
***ハードウェア構成の補足説明***
 最後に、情報処理装置100のハードウェア構成の補足説明を行う。
 図2に示すプロセッサ901は、プロセッシングを行うIC(Integrated Circuit)である。
 プロセッサ901は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)等である。
 図2に示す主記憶装置902は、RAM(Random Access Memory)である。
 図2に示す補助記憶装置903は、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)等である。
 図2に示す通信装置904は、データの通信処理を実行する電子回路である。
 通信装置904は、例えば、通信チップ又はNIC(Network Interface Card)である。
 また、補助記憶装置903には、OS(Operating System)も記憶されている。
 そして、OSの少なくとも一部がプロセッサ901により実行される。
 プロセッサ901はOSの少なくとも一部を実行しながら、画像取得部101、状態推定部102、要求精度設定部103、制約条件設定部104、解析手法選択部105、解析処理部106、補助情報取得部110及び解析項目指定部111の機能を実現するプログラムを実行する。
 プロセッサ901がOSを実行することで、タスク管理、メモリ管理、ファイル管理、通信制御等が行われる。
 また、画像取得部101、状態推定部102、要求精度設定部103、制約条件設定部104、解析手法選択部105、解析処理部106、補助情報取得部110及び解析項目指定部111の処理の結果を示す情報、データ、信号値及び変数値の少なくともいずれかが、主記憶装置902、補助記憶装置903、プロセッサ901内のレジスタ及びキャッシュメモリの少なくともいずれかに記憶される。
 また、画像取得部101、状態推定部102、要求精度設定部103、制約条件設定部104、解析手法選択部105、解析処理部106、補助情報取得部110及び解析項目指定部111の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD等の可搬記録媒体に格納されていてもよい。そして、画像取得部101、状態推定部102、要求精度設定部103、制約条件設定部104、解析手法選択部105、解析処理部106、補助情報取得部110及び解析項目指定部111の機能を実現するプログラムが格納された可搬記録媒体を流通させてもよい。
 また、画像取得部101、状態推定部102、要求精度設定部103、制約条件設定部104、解析手法選択部105、解析処理部106、補助情報取得部110及び解析項目指定部111の「部」を、「回路」又は「工程」又は「手順」又は「処理」に読み替えてもよい。
 また、情報処理装置100は、処理回路により実現されてもよい。処理回路は、例えば、ロジックIC(Integrated Circuit)、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)である。
 なお、本明細書では、プロセッサと処理回路との上位概念を、「プロセッシングサーキットリー」という。
 つまり、プロセッサと処理回路とは、それぞれ「プロセッシングサーキットリー」の具体例である。
 100 情報処理装置、101 画像取得部、102 状態推定部、103 要求精度設定部、104 制約条件設定部、105 解析手法選択部、106 解析処理部、107 要求精度DB、108 制約情報、109 解析手法DB、110 補助情報取得部、111 解析項目指定部、112 要求情報DB、200 撮影画像、300 補助情報、500 外部装置、501 要求精度DB、502 制約情報、503 解析手法DB、600 外部装置、601 解析処理部、901 プロセッサ、902 主記憶装置、903 補助記憶装置、904 通信装置。

Claims (14)

  1.  撮影画像に表されている状態を推定する状態推定部と、
     前記状態推定部により推定された状態である推定状態と、前記撮影画像の解析に要求される解析精度である要求精度と、前記撮影画像を解析する際の制約条件とに基づき、前記撮影画像を解析する際の解析手法として、複数の解析手法の中からいずれかの解析手法を選択する解析手法選択部とを有する情報処理装置。
  2.  前記複数の解析手法の各々は、複数の状態の状態ごとに解析精度が異なっており、
     前記状態推定部は、
     前記撮影画像に表されている状態として、前記複数の状態のうちのいずれかの状態を推定し、
     前記解析手法選択部は、
     前記推定状態での解析精度が前記要求精度を満たし、更に、前記制約条件を満たす、解析手法を選択する請求項1に記載の情報処理装置。
  3.  前記解析手法選択部は、
     前記推定状態に基づき設定された前記要求精度に基づき、前記複数の解析手法の中からいずれかの解析手法を選択する請求項1に記載の情報処理装置。
  4.  前記状態推定部は、
     前記撮影画像を用いて前記撮影画像に表されている状態を推定する請求項1に記載の情報処理装置。
  5.  前記情報処理装置は、更に、
     前記撮影画像以外の情報を補助情報として取得する補助情報取得部を有し、
     前記状態推定部は、
     前記補助情報を用いて前記撮影画像に表されている状態を推定する請求項1に記載の情報処理装置。
  6.  前記情報処理装置は、更に、
     前記撮影画像について2以上の解析項目を指定する解析項目指定部を有し、
     前記解析手法選択部は、
     前記2以上の解析項目の解析項目ごとに要求精度を取得し、
     前記2以上の解析項目の解析項目ごとに解析手法を選択する請求項1に記載の情報処理装置。
  7.  前記解析項目指定部は、
     前記推定状態に基づき、前記2以上の解析項目を指定する請求項6に記載の情報処理装置。
  8.  前記情報処理装置は、更に、
     前記解析手法選択部により選択された解析手法により前記撮影画像を解析する解析処理部を有する請求項1に記載の情報処理装置。
  9.  前記情報処理装置は、更に、
     前記撮影画像以外の情報を補助情報として取得する補助情報取得部を有し、
     前記解析処理部は、
     前記補助情報を用いて、前記撮影画像を解析する請求項8に記載の情報処理装置。
  10.  前記解析手法選択部は、
     演算リソースについての制約条件に基づき、前記複数の解析手法の中からいずれかの解析手法を選択する請求項1に記載の情報処理装置。
  11.  前記解析手法選択部は、
     選択した解析手法を外部装置に通知し、選択した解析手法による前記撮影画像の解析を前記外部装置に実行させる請求項1に記載の情報処理装置。
  12.  前記解析手法選択部は、
     前記外部装置での前記撮影画像の解析に要するコストについての制約条件に基づき、前記複数の解析手法の中からいずれかの解析手法を選択する請求項11に記載の情報処理装置。
  13.  コンピュータが、撮影画像に表されている状態を推定し、
     前記コンピュータが、推定された状態である推定状態と、前記撮影画像の解析に要求される解析精度である要求精度と、前記撮影画像を解析する際の制約条件とに基づき、前記撮影画像を解析する際の解析手法として、複数の解析手法の中からいずれかの解析手法を選択する情報処理方法。
  14.  撮影画像に表されている状態を推定する状態推定処理と、
     前記状態推定処理により推定された状態である推定状態と、前記撮影画像の解析に要求される解析精度である要求精度と、前記撮影画像を解析する際の制約条件とに基づき、前記撮影画像を解析する際の解析手法として、複数の解析手法の中からいずれかの解析手法を選択する解析手法選択処理とをコンピュータに実行させる情報処理プログラム。
PCT/JP2020/006517 2020-02-19 2020-02-19 情報処理装置、情報処理方法及び情報処理プログラム WO2021166120A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2020/006517 WO2021166120A1 (ja) 2020-02-19 2020-02-19 情報処理装置、情報処理方法及び情報処理プログラム
JP2021571810A JP7038933B2 (ja) 2020-02-19 2020-02-19 情報処理装置、情報処理方法及び情報処理プログラム
US17/851,279 US20220327680A1 (en) 2020-02-19 2022-06-28 Information processing apparatus, information processing method, and computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/006517 WO2021166120A1 (ja) 2020-02-19 2020-02-19 情報処理装置、情報処理方法及び情報処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/851,279 Continuation US20220327680A1 (en) 2020-02-19 2022-06-28 Information processing apparatus, information processing method, and computer readable medium

Publications (1)

Publication Number Publication Date
WO2021166120A1 true WO2021166120A1 (ja) 2021-08-26

Family

ID=77390819

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/006517 WO2021166120A1 (ja) 2020-02-19 2020-02-19 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (3)

Country Link
US (1) US20220327680A1 (ja)
JP (1) JP7038933B2 (ja)
WO (1) WO2021166120A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144124A1 (ja) * 2011-04-19 2012-10-26 日本電気株式会社 撮影画像処理システム、撮影画像処理方法、携帯端末及び情報処理装置
JP2015106913A (ja) * 2013-12-03 2015-06-08 日本電気株式会社 解析処理システム
WO2017061155A1 (ja) * 2015-10-08 2017-04-13 ソニー株式会社 情報処理装置、情報処理方法及び情報処理システム
WO2018179151A1 (ja) * 2017-03-29 2018-10-04 日本電気株式会社 映像解析装置、映像解析方法、および映像解析プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144124A1 (ja) * 2011-04-19 2012-10-26 日本電気株式会社 撮影画像処理システム、撮影画像処理方法、携帯端末及び情報処理装置
JP2015106913A (ja) * 2013-12-03 2015-06-08 日本電気株式会社 解析処理システム
WO2017061155A1 (ja) * 2015-10-08 2017-04-13 ソニー株式会社 情報処理装置、情報処理方法及び情報処理システム
WO2018179151A1 (ja) * 2017-03-29 2018-10-04 日本電気株式会社 映像解析装置、映像解析方法、および映像解析プログラム

Also Published As

Publication number Publication date
JP7038933B2 (ja) 2022-03-18
US20220327680A1 (en) 2022-10-13
JPWO2021166120A1 (ja) 2021-08-26

Similar Documents

Publication Publication Date Title
EP3908181A1 (en) Surgical workflow and activity detection based on surgical videos
JP5142135B2 (ja) データを分類する技術
JP6945639B2 (ja) 画像処理方法及び装置
US8320609B2 (en) Device and method for attaching additional information
US20230214989A1 (en) Defect detection method, electronic device and readable storage medium
CN115526911A (zh) 数据处理装置、运动检测方法、集成电路制造系统
CN113939844A (zh) 基于多分辨率特征融合的用于在显微镜图像上检测组织病变的计算机辅助诊断系统
US11250563B2 (en) Hierarchical processing technique for lesion detection, classification, and segmentation on microscopy images
CN115828162A (zh) 一种分类模型训练的方法、装置、存储介质及电子设备
WO2021166120A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2008047280A2 (en) Dominant color descriptors
JP2011141866A (ja) データ分類装置、データ分類システムおよびプログラム
US20080181524A1 (en) Image evaluation method, apparatus, and program
CN116757278A (zh) 一种预测模型的训练方法、装置、存储介质及电子设备
CN111488776A (zh) 对象检测方法、对象检测装置和电子设备
WO2019065582A1 (ja) 画像データ判別システム、画像データ判別プログラム、画像データ判別方法、及び撮像システム
US20080181525A1 (en) Image evaluation method, apparatus, and program
CN113609074A (zh) 医学影像文件入库归档的方法及相关装置
US10372750B2 (en) Information processing apparatus, method, program and storage medium
CN107735800B (zh) 一种图像处理方法以及相关装置
JP4934380B2 (ja) 画像評価装置および方法並びにプログラム
WO2018168303A1 (ja) 画像評価装置,画像評価方法および画像評価プログラム
CN114245023B (zh) 一种聚焦处理方法及装置、摄像装置和存储介质
CN116363390B (zh) 一种红外弱小目标检测方法、装置、存储介质及电子设备
CN115795342B (zh) 一种业务场景分类的方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20920340

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021571810

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20920340

Country of ref document: EP

Kind code of ref document: A1