WO2021246062A1 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
WO2021246062A1
WO2021246062A1 PCT/JP2021/015553 JP2021015553W WO2021246062A1 WO 2021246062 A1 WO2021246062 A1 WO 2021246062A1 JP 2021015553 W JP2021015553 W JP 2021015553W WO 2021246062 A1 WO2021246062 A1 WO 2021246062A1
Authority
WO
WIPO (PCT)
Prior art keywords
image processing
image
person
target area
predetermined
Prior art date
Application number
PCT/JP2021/015553
Other languages
English (en)
French (fr)
Inventor
学 中野
祥治 西村
美孝 日下田
陽太郎 野田
茂樹 篠田
裕三 仙田
慎 冨永
真澄 石川
大典 生藤
香菜 瀧澤
健一 石井
義之 佐藤
英司 有田
翔大 山本
晋哉 山崎
功充 納富
有紀 中村
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US18/007,969 priority Critical patent/US20230307138A1/en
Priority to JP2022528471A priority patent/JP7494907B2/ja
Publication of WO2021246062A1 publication Critical patent/WO2021246062A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0635Risk analysis of enterprise or organisation activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/10Movable barriers with registering means
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, and a program.
  • Patent Document 1 describes a first subject and a second subject in a system that adjusts the environment in a space so that the reach of droplets from the first subject is out of the breathing area of the second subject. It is described that the position and orientation of the face is determined by image processing.
  • One of the objects of the present invention is to present an appropriate coping method or take an appropriate measure to reduce the possibility of contracting an infectious disease in a target place.
  • An image processing means for calculating a proximity index, which is an index relating to a proximity state of a plurality of people reflected in the image, by processing an image of a target area.
  • a control means for causing a predetermined device to perform a predetermined control, and
  • An image processing apparatus comprising the above is provided.
  • the computer Image processing that calculates a proximity index, which is an index related to the proximity state of a plurality of people reflected in the image, by processing the image of the target area.
  • a proximity index which is an index related to the proximity state of a plurality of people reflected in the image.
  • the computer An image processing function that calculates a proximity index, which is an index related to the proximity state of a plurality of people reflected in the image, by processing the image of the target area.
  • a control function that causes a predetermined device to execute a predetermined control, and Is provided.
  • An image processing means for specifying an attribute of the person reflected in the image by processing an image of the person who is moved or placed in a predetermined place.
  • An image processing device including a control means for causing an output device to output information that proposes at least one of the movement and placement of the person so that the predetermined place becomes a predetermined state according to the specified attribute.
  • the computer Image processing that identifies the attributes of the person reflected in the image by processing the image of the person who is moved or placed in a predetermined place.
  • Image processing that causes an output device to output information that proposes at least one of the movement and placement of the person so that the predetermined place becomes a predetermined state according to the specified attribute. The method is provided.
  • An image processing function that identifies the attributes of the person reflected in the image by processing the image of the person who is moved or placed in a predetermined place.
  • FIG. 1 is a diagram for explaining a usage environment of the image processing apparatus 10 according to the embodiment.
  • the image processing device 10 is used together with the image pickup device 20.
  • the image pickup device 20 is, for example, a fixed camera, and repeatedly photographs an area (hereinafter referred to as a target area) in which a plurality of people, for example, an unspecified number of people come and go. Therefore, the image generated by the image pickup apparatus 20 includes a plurality of people.
  • the frame rate of the image generated by the image pickup apparatus 20 is arbitrary, but may be, for example, a frame rate that constitutes a moving image. Then, the image pickup apparatus 20 transmits the generated image to the image processing apparatus 10.
  • the image processing device 10 processes the image generated by the image pickup device 20 to process the distance between people in the target area, that is, the distance between a certain person (hereinafter referred to as a reference person) and the person closest to the person. (Hereinafter referred to as the first distance) is calculated. Then, the image processing apparatus 10 uses this first distance to generate information on the risk of getting an infectious disease in the target area or the safety factor of not getting an infectious disease (hereinafter referred to as infection risk information).
  • infection risk information information on the risk of getting an infectious disease in the target area or the safety factor of not getting an infectious disease
  • the image processing device 10 is connected to one image pickup device 20.
  • the image processing device 10 may be connected to a plurality of image pickup devices 20.
  • the plurality of image pickup devices 20 are capturing images of different target areas.
  • each of the plurality of image pickup devices 20 transmits an image to the outside in association with information for identifying the image pickup device 20 (hereinafter referred to as image pickup device identification information).
  • image pickup device identification information information for identifying the image pickup device 20
  • FIG. 2 is a diagram showing an example of the functional configuration of the image processing device 10.
  • the image processing device 10 shown in this figure includes an image processing unit 110, a risk information generation unit 120, and a control unit 160.
  • the image processing unit 110 acquires and processes an image generated by the image pickup apparatus 20, that is, an image obtained by capturing an image of a target area. As an example, the image processing unit 110 calculates the first distance described above, with at least a part of the plurality of people reflected in the image as the reference person described above. A specific example of the first distance calculation method will be described later.
  • the image processing unit 110 also performs other processing on the image as necessary to generate various information.
  • the image processing unit 110 acquires the image in association with the image pickup device identification information of the image pickup device 20 that generated the image.
  • the risk information generation unit 120 calculates a proximity index, which is an index related to the proximity state of a plurality of people reflected in an image. Then, when the proximity index satisfies the standard, the control unit 160 causes a predetermined device to execute a predetermined control.
  • an example of the proximity index is, for example, the risk of getting an infectious disease in the target area or the safety factor itself without getting an infectious disease.
  • This risk or safety factor is indicated by, for example, infection risk information generated by the risk information generation unit 120. Specific examples of infection risk information will be described later.
  • the "criteria of proximity index" for example, the situation where the risk of getting an infectious disease is increased, the situation where a sign of an increasing risk is detected, and the measures for avoiding the risk of getting an infectious disease are necessary.
  • infectious disease-free completeness rate is declining, signs of a decrease in infectious disease-free completeness have been detected, and actions need to be taken to increase the infectious disease-free completeness rate. It is also a criterion for detecting one.
  • the predetermined device is various controlled devices 30 to which the predetermined control is executed. By controlling the controlled device 30, it is possible to eliminate the proximity state of people in the target area.
  • the controlled device 30 can be considered in various ways, and is exemplified below, but is not limited thereto.
  • (Device example 1) At least one of the entrance gate and the exit gate of the target area (Device example 2)
  • Display devices such as electric bulletin boards and liquid crystal displays in the target area (Device example 3) Self-registration and semi-self-registration of stores (target area) (device example 3)
  • Device example 4) Automatic ticket vending machines in station premises, movie theaters, theaters, amusement parks, museums, aquariums, tourist facilities, cafeterias, etc.
  • target area check-in reception machines at airports (target area), hospitals (target area) Automatic reception machine, automatic accounting device, amusement machine (device example 5) of a game center (target area) such as a game center or pachinko, and a display device for an administrator of the target area.
  • target area check-in reception machines at airports (target area), hospitals (target area) Automatic reception machine, automatic accounting device, amusement machine (device example 5) of a game center (target area) such as a game center or pachinko, and a display device for an administrator of the target area.
  • game center such as a game center or pachinko
  • Target areas are shopping malls, airports (security checkpoints, boarding waiting rooms, lounges, tenants, observatories, etc.), stations (around ticket vending machines, ticket gates, premises (including homes and aisles), etc.), hospitals (waiting rooms, etc.) Accounting places, halls, aisles, etc.), stores, movie theaters, theaters, amusement parks, museums, aquariums, tourist facilities, temples, libraries, study schools, public facilities (offices, etc.), cafeterias, restaurants, banks, etc. Examples include, but are not limited to, game centers, playgrounds such as pachinko, sports gyms, gymnasiums, schools (classrooms, aisles, etc.), offices (workplaces, conference rooms, halls, aisles, etc.), factories, laboratories, etc.
  • the risk information generation unit 120 uses the first distance to generate infection risk information in the target area to be photographed by the image pickup apparatus 20. As an example, the risk information generation unit 120 determines whether or not the first distance is equal to or less than the reference value, and generates infection risk information using the determination result.
  • This reference value is set based on the so-called social distance. Social distance is the physical distance that should be maintained between neighbors to prevent the transmission of an infectious disease.
  • the size of the reference value is set based on the main transmission route of the target infectious disease. For example, for infectious diseases mainly by droplet infection, a value of 1.5 m or more and 6 m or less is used as a reference value. For infectious diseases mainly caused by contact transmission, a value of 50 cm or more and 1.5 m or less is used as a reference value.
  • the infection risk information indicates, for example, the risk of getting an infectious disease in the target area or the safety factor itself without getting an infectious disease.
  • a method of generating infection risk information from the above-mentioned determination result for example, there is the following method.
  • the risk information generation unit 120 calculates the number of combinations of people whose first distance is equal to or less than the reference value for each image, and increases the risk indicated by the infection risk information as the number increases. Using this method, the risk information generation unit 120 can generate infection risk information for each image.
  • the risk information generation unit 120 calculates the amount of occurrence per unit time of the combination of people whose first distance is equal to or less than the reference value, and the risk indicated by the infection risk information increases as the amount of occurrence increases. Increase. In this method, the risk information generation unit 120 uses the processing results of a plurality of images generated at different timings. (Method 3) In the method 2, the risk information generation unit 120 uses the amount generated per unit time and per unit area.
  • the image processing unit 110 can calculate the duration of time when the first distance is equal to or less than the reference value by processing a plurality of images that are continuous in time.
  • the risk information generation unit 120 may increase the risk indicated by the infection risk information as the length of this continuous time increases.
  • the risk information generation unit 120 may calculate the density of people per unit area in the target area, and may increase the risk indicated by the infection risk information as the density increases.
  • the risk information generation unit 120 may use the fact that the first distance is equal to or less than the reference value as infection risk information.
  • the image processing unit 110 stores the image generated by the image pickup device 20 in the storage unit 150.
  • the image processing unit 110 may store the information generated by processing the image in the storage unit 150 in association with the image.
  • the storage unit 150 is a part of the image processing device 10.
  • the storage unit 150 may be an external device of the image processing device 10.
  • the image processing unit 110 may generate the above information by processing the image stored in the storage unit 150.
  • the image generated by the image pickup apparatus 20 can be temporarily stored in the storage unit 150, and then read out from the storage unit 150 at a desired timing for processing. Regardless of the presence or absence of the storage unit 150, the image processing unit 110 can acquire the image generated by the image pickup device 20 from the image pickup device 20 and process it in real time.
  • FIG. 3 is a diagram showing an example of information stored in the storage unit 150.
  • the storage unit 150 uses information (for example, the date and time itself or a frame number) for specifying the date and time when the image generated by the image pickup apparatus 20 (described as image data in FIG. 3) is generated. I remember it by associating it with. Further, the storage unit 150 stores the image generated by the image pickup apparatus 20 together with the information obtained by processing the image (described as the analysis result in FIG. 3).
  • the analysis result may include infection risk information.
  • FIG. 4 is a diagram showing a hardware configuration example of the image processing device 10.
  • the image processing device 10 includes a bus 1010, a processor 1020, a memory 1030, a storage device 1040, an input / output interface 1050, and a network interface 1060.
  • the bus 1010 is a data transmission path for the processor 1020, the memory 1030, the storage device 1040, the input / output interface 1050, and the network interface 1060 to transmit and receive data to and from each other.
  • the method of connecting the processors 1020 and the like to each other is not limited to the bus connection.
  • the processor 1020 is a processor realized by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or the like.
  • the memory 1030 is a main storage device realized by a RAM (RandomAccessMemory) or the like.
  • the storage device 1040 is an auxiliary storage device realized by an HDD (Hard Disk Drive), SSD (Solid State Drive), memory card, ROM (Read Only Memory), or the like.
  • the storage device 1040 stores a program module that realizes each function of the image processing device 10 (for example, an image processing unit 110, a risk information generation unit 120, a control unit 160, and an attribute specifying unit 170).
  • the processor 1020 reads each of these program modules into the memory 1030 and executes them, each function corresponding to the program module is realized.
  • the storage device 1040 also functions as a storage unit 150.
  • the input / output interface 1050 is an interface for connecting the image processing device 10 and various input / output devices.
  • the network interface 1060 is an interface for connecting the image processing device 10 to the network.
  • This network is, for example, LAN (Local Area Network) or WAN (Wide Area Network).
  • the method of connecting the network interface 1060 to the network may be a wireless connection or a wired connection.
  • the image processing device 10 may communicate with the image pickup device 20 via the network interface 1060.
  • FIG. 5 is a flowchart showing a first example of processing performed by the image processing device 10.
  • the image processing unit 110 of the image processing device 10 acquires an image to be processed (step S10).
  • the image to be processed is an image of a target area. At least one person is shown in this image.
  • the risk information generation unit 120 processes this image and calculates an index regarding the proximity state of a plurality of people included in the image (step S300).
  • the image processing unit 110 uses the height and position of the person whose distance is to be calculated in the image, and the vertical orientation of the image pickup device 20 that generated the image, to obtain the first distance. Is calculated.
  • the image processing unit 110 uses a value preset as the height of the person (hereinafter referred to as the reference height).
  • the control unit 160 determines whether or not the proximity index generated in step S300 satisfies the standard (step S310).
  • the control unit 160 causes the controlled device 30 to execute a predetermined control (step S320).
  • the controlled device detects the situation where the proximity of people in the target area is getting closer and the risk of getting an infectious disease is increasing, or the situation where the complete rate of not getting an infectious disease is decreasing. 30 is made to execute a predetermined control.
  • the process in step S320 causes various controlled devices 30 to execute measures for alleviating the proximity state in the target area, as will be described in detail later, and is different depending on the characteristics of the target area.
  • step S320 is bypassed and the present process ends.
  • the people in the target area are not in a dense state, the risk of getting an infectious disease has not increased, or the complete rate of not having an infectious disease has not decreased, so measures to alleviate the proximity state. It is judged that it is not necessary to do.
  • control methods for the controlled device 30 performed in step S320 of FIG. 5 can be considered and are exemplified below, but are not limited thereto.
  • the controlled device 30 is the above-mentioned (device example 1), and is, for example, an entrance gate to a target area. Then, when the proximity index satisfies the criterion (YES in step S310), the control unit 160 closes the entrance gate to restrict the entrance (step S320).
  • the target area is, for example, a station, an airport security checkpoint, a hospital, a facility, a store, an amusement park, an amusement park, a bank, an office building, a factory, or a library, but is not limited thereto.
  • the target area may be a further partitioned area within these facilities, for example, in the case of a hospital, each sectioned area such as a reception floor, a consultation waiting room, an examination waiting floor, an accounting floor, and an aisle.
  • the control unit 160 may control an entrance gate that restricts entry into each section.
  • the controlled device 30 is the above-mentioned (device example 1), and is, for example, an entrance gate and an exit gate provided for a person to enter or leave the target area.
  • the entrance gate and the exit gate are provided at a plurality of places. It is assumed that at least one of the entrance gates and exit gates provided at multiple locations has a limited usage time.
  • the control unit 160 changes the limited usage time (step S320). Changing the usage time means extending or shifting the restricted usage time.
  • the target area is, for example, a station, an airport security checkpoint, a hospital, a facility, a store, an amusement park, an amusement park, a bank, an office building, a factory, a library, or the like. However, it is not limited to these.
  • the controlled device 30 is the above-mentioned (device example 3) and (device example 4), and is, for example, an automatic ticket vending machine in a store (target area), a semi-self-registration, a station yard, or the like (target area). , Check-in reception machines at airports (target areas), automatic reception machines at hospitals (target areas), automatic accounting equipment, etc. A plurality of these devices are installed in the target area. Then, when the proximity index satisfies the criterion (YES in step S310), the control unit 160 operates the controlled device 30 which has been stopped (step S320). The control unit 160 may instruct the control means of the controlled device 30 to operate the controlled device 30 or instruct the power switching device of the controlled device 30 to turn on the power.
  • the waiting time is shortened and the staying time of the person in the target area is shortened by increasing the number of operating units of the controlled device 30 related to the person in the target area. be able to.
  • the controlled device 30 is the above-mentioned (device example 2), and is, for example, a display device such as an electric bulletin board or a liquid crystal display in the target area. Then, when the proximity index satisfies the criterion (YES in step S310), the control unit 160 causes the display device to display information for guiding to another place from the target area, information for prompting to leave the target area, and the like (YES). Step S320).
  • the target area is, for example, a station, an airport security checkpoint, a hospital, a facility, a store, an amusement park, an amusement park, a bank, an office building, a factory, a library, or the like. However, it is not limited to these.
  • the controlled device 30 is the above-mentioned (device example 5), and is, for example, a display device for an administrator of a target area.
  • the manager may not be a manager in the position but a person who substantially manages the place.
  • the administrator is a person who takes measures to alleviate the proximity state of the target area (an example of a predetermined state) according to the information output to the display device.
  • the control unit 160 provides the display device with countermeasure information indicating measures for alleviating the proximity state of the target area (an example of a predetermined state). Display (step S320).
  • the target area is, for example, a station, an airport security checkpoint, a hospital, a facility, a store, an amusement park, an amusement park, a bank, an office building, a factory, a library, or the like. However, it is not limited to these.
  • Countermeasure example 1 Instruct to increase and allocate clerk to the manned cash register of the store (target area).
  • Countermeasure example 2 Instruct to increase the number of staff and assign staff at the airport security checkpoint (target area).
  • Countermeasure example 3 Instruct guidance or placement of guidance staff in the target area.
  • Countermeasure example 4 Instruct to restrict admission to the target area (for example, inside a station or a store). Alternatively, inform at least one of the manager and the user of the target area of the date and time when the admission should be restricted.
  • Countermeasure example 5 Instruct to increase the number of operating units of each controlled device 30 in the target area.
  • FIG. 6 is a diagram showing an example of the functional configuration of the image processing device 10.
  • the image processing device 10 shown in this figure includes a display control unit 130 instead of the control unit 160 of FIG. Further, as an example of the controlled device 30 in FIG. 2, the image processing device 10 controls the display unit 140.
  • the display control unit 130 has processed a display for recognizing a combination of people whose first distance is equal to or less than a reference value, that is, a combination of a reference person and a person closest to that person. After superimposing on the image, this display and the image are displayed on the display unit 140.
  • the display unit 140 has a display. In the example shown in this figure, the display unit 140 is a part of the image processing device 10, but may be outside the image processing device 10.
  • the display unit 140 may also include the above-mentioned (device example 2) and (device example 5).
  • FIG. 7 is a flowchart showing a second example of the processing of the risk information generation unit 120. This process may be executed in parallel with the process of FIG.
  • the image processing unit 110 of the image processing device 10 acquires an image to be processed (step S10). Then, the image processing unit 110 processes this image and calculates the above-mentioned first distance for each person included in the image (step S20). In this calculation, the image processing unit 110 uses the height and position of the person whose distance is to be calculated in the image, and the vertical orientation of the image pickup device 20 that generated the image, to obtain the first distance. Is calculated. At this time, as will be described in detail later, the image processing unit 110 uses a value preset as the height of the person (hereinafter referred to as the reference height).
  • the risk information generation unit 120 generates infection risk information using the first distance generated in step S20.
  • An example of a method for generating infection risk information is as described with reference to FIG. 2 (step S30).
  • the display control unit 130 causes the display unit 140 to display the generated infection risk information (step S40).
  • the display control unit 130 may display the infection risk information as well as the image (which may be a moving image) used when generating the infection risk information (step S40). An example of the image displayed here will be described later.
  • FIG. 8 is a diagram showing an example of the first distance calculation method performed in step S20 of FIG. 7.
  • the image processing unit 110 identifies a reference person. Then, the processing shown in this figure is performed for each of the people located around the person.
  • the image processing unit 110 calculates the height t in the image of the reference person or a person located around the person. Here, for example, it is represented by the number of pixels.
  • the image processing unit 110 calculates the distance d in the image from the reference person to the person located in the surroundings. Here, d is expressed in the same unit as t (for example, the number of pixels).
  • the image processing unit 110 calculates d / t and multiplies this value by the above-mentioned reference height to calculate the distance between the reference person and the person located around the reference person.
  • the distance calculated for that person will be the first distance.
  • the above-mentioned distance is calculated for each of the plurality of people, and the minimum value of the distance is the first distance.
  • the standard height is set in advance. This standard height may be changed depending on the place (for example, the country) where the image pickup apparatus 20 is installed. For example, as the standard height, the average height of an adult in the country where the target image pickup device 20 is installed is used.
  • the storage unit 150 stores information for specifying the reference height for each image pickup device identification information. Then, the image processing unit 110 acquires the image pickup device identification information of the image pickup device 20 that generated the image to be processed, and reads out the reference height corresponding to the image pickup device identification information from the storage unit 150 and uses it.
  • the image processing unit 110 can estimate the attribute (for example, at least one of the gender and the age group) of the person whose height t is calculated by the image processing, the reference height may be changed by this attribute.
  • the image processing unit 110 When calculating the first distance, the image processing unit 110 preferably performs a process of correcting this distortion.
  • the image processing unit 110 performs distortion correction processing according to the position of a person in the image.
  • the distortion of an image is caused by, for example, an optical system (for example, a lens) of the image pickup device 20 and a vertical orientation (for example, an angle with respect to a horizontal plane) of the image pickup device 20. Therefore, the content of the strain correction process according to the position of a person in the image is set according to the optical system (for example, a lens) of the image pickup apparatus 20 and the vertical orientation of the image pickup apparatus 20.
  • the image processing unit 110 uses the size of this object instead of the height of a person.
  • the first distance may be calculated.
  • FIG. 9 is a diagram showing a first example of an image displayed on the display unit 140 in step S40 of FIG. 7.
  • the display control unit 130 causes the display unit 140 to display the image (which may be a moving image) used when generating the infection risk information together with the infection risk information.
  • the display control unit 130 superimposes a display for recognizing a combination of people whose first distance is equal to or less than a reference value on an image, and then displays the display and the image on the display unit 140. Let me.
  • the display control unit 130 causes the display unit 140 to display a mark indicating a combination of people recognized by the image processing unit 110. Then, the display control unit 130 changes the mode of this mark depending on whether or not the first distance is equal to or less than the reference value. More specifically, in the example shown in this figure, the two persons constituting the combination of persons are surrounded by a circle or an ellipse. The display color of the circle or ellipse and the mode of the line (solid line, dotted line, alternate long and short dash line, etc.) change depending on whether or not the first distance is equal to or less than the reference value.
  • the combination of people to be calculated for the first distance changes as time elapses.
  • the person P 1 is the partner when calculating the first distance, but at the timing of FIG. 10 after that, the person P 4 calculates the first distance. It is the other party when you do.
  • the display control unit 130 causes each person to display a mark indicating a range of recommended values (for example, the above-mentioned reference value) of the social distance centered on the person.
  • a mark indicating a range of recommended values for example, the above-mentioned reference value
  • the display control unit 130 causes each person to display a mark indicating a range of recommended values (for example, the above-mentioned reference value) of the social distance centered on the person.
  • the display control unit 130 displays, for example, a mark in a normal state in blue when changing the display color, and displays these two marks in red when the two marks overlap.
  • the display control unit 130 superimposes the above mark on the image (which may be a moving image) used when generating the infection risk information.
  • the arrangement of people is shown in a plan view, and the above mark is superimposed on the plan view.
  • the display control unit 130 may display the display shown in FIG. 23 and the display shown in FIG. 24 on the display unit 140 at the same time.
  • the display shown in FIGS. 9, 10, 23, and 24 may be performed using real-time moving images or images.
  • the display shown in these may be performed on the display unit 140 installed near the target area, for example, or may be used as the content of the Internet or broadcasting.
  • FIG. 11 is a flowchart showing a third example of processing performed by the image processing device 10.
  • the image processing unit 110 calculates the first distance
  • the second distance is also calculated (step S22)
  • the second distance is further used to generate infection risk information (step S30). It is the same as the example shown in FIG. 7 except that.
  • the second distance is the distance between the reference person and the person who is the second closest to that person.
  • the method for calculating the second distance is the same as the method for calculating the first distance, except that the distance to the person closest to the second person is selected instead of the first method.
  • the risk information generation unit 120 makes it possible to increase the risk (decrease the safety factor) as the second distance becomes closer when generating the infection risk information.
  • the image processing unit 110 may further generate a distance (third distance) between the reference person and the third closest person. In this case, the risk information generation unit 120 further generates infection risk information using the third distance.
  • FIG. 12 is a flowchart showing a fourth example of processing performed by the image processing device 10.
  • the example shown in this figure is an example shown in FIG. 7 or 11 except that the risk information generation unit 120 further uses information other than the distance between people when generating infection risk information. Is similar to.
  • step S10 and step S20 are the same as the example shown in FIG. 7 (or FIG. 11).
  • the image processing unit 110 processes the image to generate additional information necessary for generating the infection risk information.
  • the information generated here is at least one of the specific result of the orientation of the human face, the specific result of the presence / absence of an attachment to the face and its type, and the specific result of the movement of the human mouth (step S24). ..
  • People's face orientation includes at least one of the reference person's face orientation and the person's face orientation closest to that person. Then, the risk information generation unit 120 increases the risk indicated by the infection risk information (decreases the safety factor) as the human face approaches the direction facing the other party.
  • the image processing unit 110 and the risk information generation unit 120 further calculate the direction of the face of the person to be the partner when calculating the second distance and the third distance. You may use the direction of the face of the person who is the other party.
  • Presence / absence of wear on the face includes at least one of the presence / absence of a wear on a reference person and the presence / absence of a wear on the person closest to that person. Then, when a specific type of attachment is detected, the risk information generation unit 120 lowers the risk indicated by the infection risk information (increases the safety factor) as compared with other cases.
  • the particular type of attachment is one that covers at least one (preferably both) of the mouth and nose, such as a mask or muffler.
  • the image processing unit 110 and the risk information generation unit 120 are with a person who is a partner when calculating the second distance and a partner when calculating the third distance. You may do the same for someone who becomes.
  • “Mouth movement” is at least the movement of the mouth. If the mouth is moving, the person is likely to be speaking. Therefore, the risk information generation unit 120 increases the risk indicated by the infection risk information when the mouth is moving in at least one of the reference person and the person closest to the reference person, as compared with the other cases. (Lower the safety factor).
  • the image processing unit 110 and the risk information generation unit 120 further calculate the movement of the mouth of the other person when calculating the second distance and the third distance. You may use the movement of the mouth of the person who is the other party at the time.
  • FIG. 13 is a flowchart showing a fifth example of processing performed by the image processing device 10.
  • the image processing apparatus 10 also performs the processing shown in this figure.
  • the image pickup device 20 is a fixed camera. Therefore, each position in the image corresponds to a specific position in the target area.
  • the image processing unit 110 stores this correspondence in advance.
  • the risk information generation unit 120 calculates a proximity index which is an index regarding the proximity state of a plurality of people. When the proximity index satisfies the standard, the control unit 160 causes the controlled device 30 to execute a predetermined control.
  • the image processing unit 110 of the image processing apparatus 10 specifies a position in the image where the first distance is equal to or less than the reference value in step S20 of FIGS. 7 and 12 or step S22 of FIG. Thereby, the position where the first distance is equal to or less than the reference value in the target area is specified. Then, the image processing unit 110 stores the information indicating the position in the storage unit 150 in association with the processed image.
  • the risk information generation unit 120 of the image processing device 10 processes the information stored in the storage unit 150, so that the number of times the first distance becomes equal to or less than the reference value in the target period (an example of the above-mentioned proximity index). Are aggregated by position in the target area.
  • the length of the target period may be, for example, one day, one week, or one month.
  • the risk information generation unit 120 acquires information for specifying the target image pickup apparatus 20, and information for specifying the start and end of the target period. This acquisition is performed, for example, by inputting from the user.
  • the risk information generation unit 120 reads out the analysis result of the image generated by the target image pickup apparatus 20 during the target period from the storage unit 150.
  • the information read out here includes information indicating a position where the first distance is equal to or less than the reference value. This information is generated for each image (step S110).
  • the target area is divided into multiple parts in advance. Then, the risk information generation unit 120 counts the number of times that the first distance becomes equal to or less than the reference value for each of these plurality of parts (step S120). Of the information stored in the storage unit 150, the above-mentioned "position where the first distance is equal to or less than the reference value" may be information indicating this portion.
  • the risk information generation unit 120 outputs information indicating a portion where the count number exceeds the reference value.
  • the part indicated by this information is the part at high risk of infection, that is, the place of caution.
  • the risk information generation unit 120 outputs information indicating this portion.
  • This output destination is, for example, a display control unit 130.
  • the display control unit 130 generates display information for displaying the information indicated by this portion (step S130), and causes the display unit 140 to display the display information (step S140).
  • the image processing unit 110 can calculate the duration of time when the first distance is equal to or less than the reference value by processing a plurality of images that are continuous in time.
  • the image processing unit 110 may perform the above-mentioned processing by counting the number of times that the state in which the first distance is equal to or less than the reference value continues for the reference time or longer.
  • the output performed by the risk information generation unit 120 is used to identify a place where people are likely to be crowded in the target area and to improve such a place (for example, to improve the flow line of a person).
  • this output is used as reference data for changing the arrangement and number of objects (for example, a waiting room bench) arranged indoors (for example, a waiting room or a corridor).
  • the flow lines to be improved include, for example, a flow line from the waiting room to the examination room in the hospital and a flow line from the entrance of the hospital to the treatment room.
  • examples of indoors include facilities such as hospitals, government offices, stations, and airports, but stores, such as large-scale stores such as shopping malls (including cases where they are attached to airports and stations). You may.
  • the output performed by the risk information generation unit 120 identifies a place where people are likely to be crowded in a building that is a large-scale store. And this specific result is used as reference data when changing the arrangement of tenants and the flow line so that people do not crowd in the place.
  • the unit for setting the "place of caution” is set by dividing one target area into a plurality of parts.
  • a plurality of image pickup devices 20 are connected to the image processing device 10, and the plurality of image pickup devices 20 may photograph different places in the same facility.
  • the unit for setting the "location requiring attention" may be the imaging region (that is, one target region) of one imaging device 20.
  • the image processing unit 110 is not for each of the plurality of parts described above, but for each image pickup device 20 the number of times the first distance is equal to or less than the reference value, or the number of times this state is continued for the reference time or longer. Just count.
  • FIG. 14 shows an example of a screen displayed on the display unit 140 in step S140 of FIG.
  • the display unit 140 displays a plan view of the target area.
  • the display control unit 130 causes the display unit 140 to display the portion where the count number in step S120 is equal to or greater than the reference value in this plan view so as to be distinguishable from the other portions.
  • a plurality of values may be set stepwise as a reference value regarding the number of counts.
  • the risk information generation unit 120 identifies which of the reference values the count number in step S120 exceeds, and outputs information indicating the specified value.
  • the display control unit 130 may change the display mode of the portion according to this output. For example, the portion exceeding only the lowest reference value may be shown in green, and the portion exceeding only the highest reference value may be shown in red.
  • FIG. 15 is a flowchart showing a sixth example of processing performed by the image processing device 10.
  • the image processing apparatus 10 also performs the processing shown in this figure. Further, the image processing apparatus 10 may further perform the processing shown in FIG.
  • the risk information generation unit 120 of the image processing device 10 specifies the timing at which the risk of contracting an infectious disease increases (the timing at which the safety factor decreases). This timing is set, for example, by day of the week, by time zone, or by day of the week and time zone.
  • step S110 is the same as the process described with reference to FIG.
  • the risk information generation unit 120 counts the number of times the first distance becomes equal to or less than the reference value for each timing (in addition, the risk information generation unit 120 further counts as shown in FIG. 13). Counting may be performed for each timing for each of a plurality of parts in the target area.
  • the risk information generation unit 120 outputs information indicating the timing when the count number exceeds the reference value.
  • the timing indicated by this information eg, time zone or day of the week
  • the risk information generation unit 120 outputs information indicating this timing to the display control unit 130.
  • the display control unit 130 generates display information for displaying the information indicating this timing (step S130), and causes the display unit 140 to display the display information (step S140).
  • the display unit 140 may be provided at the entrance of the store or inside the show window. In this way, a person trying to enter the store can recognize when the store seems to be busy. Further, the display control unit 130 may publish the display information generated in step S130 on the Internet. In this way, the person who wants to go to the store can recognize the timing when the store seems to be busy.
  • the display control unit 130 may display the current infection risk information on the display unit 140. Then, the display shown in FIGS. 9, 10, 23 and 24 may be performed using a real-time moving image or an image.
  • FIG. 16 is a flowchart showing a seventh example of processing performed by the image processing device 10.
  • the image processing apparatus 10 also performs the processing shown in this figure. Further, the image processing apparatus 10 may further perform at least one of the processes shown in FIGS. 13 and 15.
  • the risk information generation unit 120 stores at least one of the history of past infection risk information and the result of statistical processing of the history for each of a plurality of image pickup devices 20, that is, for each of a plurality of target areas. It is stored in 150. It should be noted that these plurality of target areas are related to each other in the flow of people. As an example, these plurality of target areas may be adjacent to each other or may be along the same road or railway (subway).
  • the risk information generation unit 120 statistically processes this history. Then, using the result of statistical processing of the history of infection risk information and the current infection risk information, an estimation result of infection risk information at a predetermined timing in the future is generated.
  • the predetermined timing may be, for example, 1 hour later, 3 hours later, or 5 hours later, but is preferably within 24 hours.
  • the result of statistical processing of the history is, for example, a model generated by machine learning, but is not limited to this. When the current infection risk information is input, this model outputs the estimation result of the infection risk information at a predetermined timing in the future.
  • the risk information generation unit 120 generates current infection risk information for each of the plurality of target areas by processing the current images generated by each of the plurality of image pickup devices 20 installed in different target areas (1). Step S210). At this time, the risk information generation unit 120 may further process the images generated between the present and the predetermined time ago.
  • the risk information generation unit 120 acquires the result of statistically processing the history of infection risk information in each of these plurality of target areas. This acquisition may be performed by reading from the storage unit 150, or may be performed by statistically processing the history of infection risk information on the spot. Next, the risk information generation unit 120 generates an estimation result of the infection risk information at a predetermined timing in the future by using the result of statistically processing the history of the infection risk information and the current infection risk information (step S220).
  • the display control unit 130 generates display information for displaying the current infection risk information generated by the risk information generation unit 120 and the estimation result of the infection risk information at a predetermined timing in the future (step S230).
  • the display unit 140 uses this display information to display the estimation result of the current infection risk information and the infection risk information at a predetermined timing in the future (step S240).
  • a person who sees this display can set the timing when he / she takes an action (for example, the timing when he / she gets on a train or the timing when he / she goes to a destination) to the timing when the risk of infection is low.
  • the risk information generation unit 120 identifies the tendency of increase / decrease in the current infection risk information instead of statistical processing when generating the estimation result of the infection risk information at a predetermined timing in the future, and uses this specific result. You may.
  • the risk information generation unit 120 identifies this tendency of increase / decrease by using, for example, the transition of the number of times that the first distance from the past to the present becomes equal to or less than the reference value.
  • FIG. 17 shows the current infection risk information displayed on the display unit 140.
  • the risk information generation unit 120 generates infection risk information for each of a plurality of target areas.
  • a plurality of target areas are areas in which one large area is divided into a plurality of areas.
  • the display control unit 130 causes the display unit 140 to display the target area in which the risk indicated by the infection risk information is equal to or higher than the reference value in a state in which the target area can be distinguished from other target areas.
  • the display control unit 130 may display the transition of the infection risk information from the past to the present.
  • FIG. 18 shows future infection risk information displayed on the display unit 140.
  • the display control unit 130 causes the display unit 140 to display the target area in which the risk indicated by the future infection risk information is equal to or higher than the reference value in a state in which it can be distinguished from other target areas.
  • the current infection risk information around the target area may be used when generating future infection risk information of the target area. can. This is because a person in one target area may move to another target area after a few hours.
  • the displays shown in FIGS. 17 and 18 may be published on the Internet or may be included in the broadcast contents of television.
  • the image processing unit 110 of the image processing device 10 acquires and processes an image generated by the image pickup device 20, that is, an image including a plurality of people, and thereby at least one of the plurality of people. For the person in the department, the distance to the person closest to the person (first distance) is calculated. Then, when the proximity index satisfies the standard, the control unit 160 causes a predetermined device to execute a predetermined control. For example, in a situation where the risk of contracting an infectious disease is high, the control unit 160 closes the entrance gate to restrict entry to the target area or increases the number of operating cash registers in the store as a measure to reduce the risk of contracting an infectious disease. Alternatively, information suggesting an increase in the number of counters at the airport security checkpoint can be displayed on the display unit 140. Therefore, it is possible to easily grasp or implement means for reducing the possibility of contracting an infectious disease at a target place.
  • the risk information generation unit 120 uses the first distance to generate infection risk information in the target area to be photographed by the image pickup apparatus 20. Therefore, the risk of contracting an infectious disease in the target area can be easily grasped.
  • the risk information generation unit 120 outputs a place where the proximity index, which is an index related to the proximity state of a plurality of people, meets the standard. This output is displayed, for example, on the display unit 140. This makes it easier to see where you may get an infection.
  • FIG. 19 is a diagram showing an example of the functional configuration of the image processing device 10.
  • the image processing apparatus 10 of the present embodiment is different from the above-described embodiment in that it has a configuration that proposes at least one of the movement and arrangement of a person according to the attribute of the person reflected in the image.
  • the image processing device 10 shown in this figure includes an image processing unit 110, an attribute specifying unit 170, and a control unit 160.
  • the image processing unit 110 identifies the attribute of the person reflected in the image by processing the image of the person who is moved or placed in a predetermined place.
  • the attributes are, for example, the age and gender of each person. Further, the image processing unit 110 may specify whether or not each person is injured, whether or not a wheelchair or crutches are used, and the like as attributes.
  • the attribute specifying unit 170 further specifies the attributes of each person based on the attributes specified by the image processing unit 110.
  • the attribute of the person specified by the attribute specifying unit 170 includes the information necessary for the person corresponding to the attribute of the evacuation center to be appropriately sorted.
  • infants are preferably assigned to shelters that have the attribute of having milk preparation facilities and nursing rooms. Therefore, a person whose age is specified to be less than 1 year old by the image processing unit 110 may be further specified by the attribute specifying unit 170 as an infant.
  • the attribute specifying unit 170 may specify that the woman is the mother of the baby.
  • the attribute identification unit 170 may identify a male person in his 30s who is near his mother (the first distance is less than 30 cm) as his father.
  • wheelchair users are preferably assigned to shelters equipped with barrier-free facilities. Therefore, the attribute specifying unit 170 identifies a person who is identified as being in a wheelchair by the image processing unit 110 as a wheelchair user.
  • the attribute specifying unit 170 further groups a plurality of people based on the attributes specified by the image processing unit 110, and specifies the personnel composition (family composition) based on the attributes of each person in the group. May be good.
  • the attribute specifying unit 170 may be grouped by accepting an operation input in which a plurality of people are in the same group, or may be grouped by a group of people whose first distance is equal to or less than a reference value by image processing.
  • the reference value at this time is a value smaller than the reference value used when generating the infection list information in the above embodiment, for example, 30 cm or less.
  • the attribute specifying unit 170 may accept operation input for more detailed attributes of each person.
  • an administrator or each person may be asked to input various attribute information in a format that answers various questions on an input screen (not shown) using an operation terminal (for example, a smartphone or tablet terminal). ..
  • each person may use a terminal to access a website published on the Internet at home or on the go and have them enter various attribute information in the form of answering various questions in an input form. Then, the attribute specifying unit 170 can receive the attribute information input in the input form.
  • the image processing unit 110 acquires the image to be processed by taking a picture of each person using the camera of each person's terminal and uploading the captured image to the website. You may.
  • the attribute specifying unit 170 acquires the attribute information of each person input by the operation and specifies the attribute of each person.
  • the attribute information to be acquired includes each person's medical history, current injury / illness status (including hypertension, diabetes, fracture, injury, infection status, antibody information), presence / absence of allergies, presence / absence of omelet, etc. It may include information such as the necessity of prepared breast milk weaning food and the presence or absence of dietary restrictions.
  • the control unit 160 causes the output device 40 to output information that proposes at least one of the movement and placement of a person so that a predetermined place becomes a predetermined state according to the attribute specified by the attribute specifying unit 170.
  • An example of the output device 40 is the display unit 140 in FIG.
  • the designated place is, for example, an evacuation area where people gather in the event of a disaster.
  • Evacuation areas are, for example, schools (classrooms, gymnasiums), public facilities, hotels, offices, warehouses, and the like.
  • the people who appear in the image to be processed by the image processing unit 110 are (1) people who have been evacuated to the evacuation site, (2) people who have evacuated to the evacuation site and are lined up for reception, and (3) people who are in line at the evacuation site. Includes at least one person who has gathered in place to evacuate from now on, and (4) who is about to evacuate to the evacuation site.
  • the control unit 160 allocates evacuation destinations for people so that the risk of infection at each evacuation site does not increase.
  • the control unit 160 allocates evacuation destinations so as not to exceed the capacity of each evacuation site.
  • the attribute information 152 is stored in the storage unit 150.
  • the evacuation area attribute information 152 includes, for example, the number of people that can be accommodated, the layout of each room (doorway, whether it is close to the toilet), barrier-free suitability, the presence or absence of stairs, elevators, and escalators, and the equipment (nursing room, presence or absence of wheelchair toilets). ), Includes at least one piece of information such as the presence or absence of a nurse, doctor, public health nurse, etc.
  • FIG. 20 is a diagram showing an example of the data structure of the attribute information 152 of each evacuation center.
  • the identification information of each evacuation center for example, the identification information of each evacuation center, the number of people accommodated, and the information indicating whether or not the facility is compatible with wheelchairs (for example, "1" if it is supported).
  • Information indicating whether or not the baby has equipment that supports infants for example, "1" if it does, "0" if it does not), etc. Is remembered.
  • the control unit 160 can allocate an evacuation destination suitable for each person based on the attribute information 152.
  • the attributes of a person eg, infant, elderly, wheelchair user, etc.
  • the attributes of the required shelter eg, for infants, nursing room, resident health care worker, elderly, etc.
  • barrier-free application stationed nurses, presence / absence of wheelchair-accessible toilets for wheelchair users, etc.
  • the attribute specifying unit 170 identifies the attributes of the necessary evacuation shelters corresponding to the attributes of each identified person, and the control unit 160 extracts the evacuation shelters having the attributes as candidates from the attribute information 152. May be good.
  • the extracted evacuation site is a candidate for the evacuation destination of the person concerned.
  • the control unit 160 may display the extracted information on the evacuation site on the display unit 140 as the evacuation destination of the person.
  • the display of the above information by the control unit 160 may be performed for each person, for each group (family), for a predetermined number of people, or for a predetermined period.
  • the attribute may be specified for each person or family, and the evacuation destination may be presented to the person or family (for example, displayed on the display unit 140).
  • the attribute information of a plurality of people is received for a predetermined period, for example, in the morning, and the result of allocating the evacuation destinations to the plurality of people received during the period is presented (for example, printed out on a printer (not shown)). ) May.
  • FIG. 21 is a flowchart showing an eighth example of processing performed by the image processing device 10.
  • the image processing apparatus 10 also performs the processing shown in this figure in addition to the processing shown in FIG. 5, FIG. 7, FIG. 11, FIG. 12, or FIG. Further, the image processing apparatus 10 may further perform at least one of the processes shown in FIGS. 13 and 15.
  • the image processing unit 110 identifies the attributes of the person shown in the image (for example, gender and age, or whether or not a wheelchair is used), and the attribute specifying unit 170 further details each person. Identify the attributes (infants and family (mother and father), etc.) (step S400). Then, the attribute specifying unit 170 stores the attribute information 152 of each target area (in this example, a shelter) in the storage unit 150. It should be noted that these plurality of target areas (evacuations) are related to each other in the flow of people. As an example, these plurality of target areas may be adjacent to each other or may be along the same road or railway (subway).
  • control unit 160 refers to the attribute information 152 and extracts the shelter corresponding to the attribute of the specified person (step S410).
  • the control unit 160 causes the display unit 140 to display at least one evacuation center as a candidate for an evacuation destination (step S420).
  • FIG. 22 is a flowchart showing a ninth example of processing performed by the image processing device 10.
  • steps S430 to S450 are provided between steps S410 and S420 in the flowchart of FIG. 21.
  • the image processing apparatus 10 also performs the processing shown in this figure in addition to the processing shown in FIG. 5, FIG. 7, FIG. 11, FIG. 12, or FIG. Further, the image processing apparatus 10 may further perform at least one of the processes shown in FIGS. 13 and 15.
  • the image processing apparatus 10 further includes the risk information generation unit 120 of FIG.
  • the control unit 160 acquires the infection risk information generated by the risk information generation unit 120 of the above embodiment with respect to the extracted evacuation site (step S430). Specifically, first, the risk information generation unit 120 generates infection risk information for each evacuation area as a target area. The processes of steps S440 to S450 may be repeatedly executed for each evacuation center candidate extracted in step S410.
  • the control unit 160 refers to the infection risk information of the evacuation center of the storage unit 150, and if the proximity index of the evacuation center meets the criteria (YES in step S440), the control unit 160 excludes the evacuation center from the candidates for evacuation destination (YES in step S440). Step S450). In other words, evacuation shelters where many people have already evacuated and the risk of infection is high are excluded from the candidates for evacuation destinations. Then, the control unit 160 causes the display unit 140 to display the evacuation destination candidate (step S420). If the proximity index meets the criteria (NO in step S440), step S450 bypasses and proceeds to step S420.
  • the designated place is a shelter where people evacuate in the event of a disaster, so that the risk of getting an infectious disease at the shelter does not meet the criteria, that is, the risk of infection does not increase.
  • the control unit 160 allocates evacuation destinations for each person so that the safety rate of not suffering from infectious diseases does not decrease.
  • the conditions for allocation are, for example, exemplified below, but are not limited thereto.
  • Allocate so as not to exceed the capacity of the evacuation center.
  • Condition example 2 Allocate to evacuation centers that have equipment suitable for the attributes of people.
  • the criteria of the proximity index of a person having an attribute higher than that of a healthy person for example, an elderly person, hypertension, a diabetic person
  • the standard of the proximity index of a healthy person may be changed.
  • the standard for people at high risk of infection is set lower than the standard for healthy people.
  • the evacuation shelters are less dense than the standard.
  • control unit 160 may display the current infection risk information of the evacuation center identified as a candidate on the display unit 140.
  • a staff member may instruct the evacuation destination after confirming the current situation.
  • control unit 160 may display the attribute information 152 of the evacuation center specified as a candidate on the display unit 140.
  • the image processing unit 110 of the image processing device 10 specifies the attribute of the person reflected in the image by processing the image of the person who is moved or placed in a predetermined place. Then, the attribute specifying unit 170 further specifies the attributes of each person based on the attributes specified by the image processing unit 110.
  • the attribute specifying unit 170 identifies the attributes of a person whose evacuation destination is preferably an evacuation center having specific equipment such as an infant or a wheelchair user.
  • the control unit 160 extracts an evacuation center having an attribute suitable for the attribute of the person as a candidate for an evacuation destination and displays it on the display unit 140. Therefore, the evacuated people can be distributed to appropriate evacuation centers.
  • control unit 160 groups people with a particularly high risk of infectious diseases such as the elderly into the same evacuation destination, or selects an evacuation center with a small capacity, that is, a place with a low risk of infectious disease as an evacuation destination. And output. Therefore, it is possible to protect people who are at high risk of contracting an infectious disease, and it is more likely that the spread of the infection can be prevented. Therefore, it is possible to easily grasp or implement means for reducing the possibility of contracting an infectious disease at a target place.
  • An image processing means for calculating a proximity index, which is an index relating to a proximity state of a plurality of people reflected in the image, by processing an image of a target area.
  • An image processing device comprising a control means for causing a predetermined device to perform a predetermined control when the proximity index satisfies a criterion.
  • the control means is an image processing device that causes an output device to output information regarding the proximity index of the target area.
  • the image processing means is For each person, the first distance, which is the distance to the person closest to the person, is calculated.
  • the proximity index is an image processing device set by using the number of times when the first distance becomes equal to or less than a reference value. 4. 3. 3. In the image processing apparatus described in 1. The proximity index is a reference value set for the number of times, and is a reference value. A plurality of values are set as the reference values, and The control means is an image processing device that causes an output device to output information indicating the value satisfied by the number of times in the target area together with information regarding the proximity index of the target area. 5. 3. 3. Or 4. In the image processing apparatus described in 1. The image processing means calculates the duration of the state when the first distance becomes equal to or less than the reference value by processing the images generated at a plurality of timings.
  • the proximity index is an image processing device set by using the number of times that the state where the first distance is equal to or less than the reference value continues for the reference time or longer. 6. 1. 1. From 5.
  • the predetermined device is an entrance gate to the target area, and is The control means is an image processing device that closes the entrance gate when the proximity index meets the criteria. 7. 1. 1. From 6.
  • In the image processing apparatus according to any one of The control means is an image processing device that causes an output device to output countermeasure information indicating countermeasures for bringing the target area into a predetermined state when the proximity index satisfies a standard. 8. 1. 1. From 7.
  • In the image processing apparatus according to any one of The image processing means further identifies the attributes of the person appearing in the image.
  • the control means is an image processing device that causes an output device to output information that proposes at least one of the movement and placement of the person so that the target area is in a predetermined state according to the specified attribute.
  • the target area includes a plurality of places, and the target area includes a plurality of places.
  • the control means further proposes at least one of the movement and placement of the person in each place so that each place in the target area is in a predetermined state, depending on the attributes of each place in the target area.
  • An image processing device that outputs information to an output device. 10. 1. 1. From 9. In the image processing apparatus according to any one of The image is an image processing device that is an image of a facility. 11. 10. In the image processing apparatus described in 1.
  • the facility is an image processing device such as a shopping mall, an airport, a station, a hospital, or a store.
  • the computer Image processing that calculates a proximity index, which is an index related to the proximity state of a plurality of people reflected in the image, by processing the image of the target area.
  • the image processing method described in 1. the computer For each person, the first distance, which is the distance to the person closest to the person, is calculated. The number of times the first distance becomes equal to or less than the reference value is counted.
  • the proximity index is an image processing method set by using the number of times when the first distance becomes equal to or less than a reference value.
  • 15. 14. In the image processing method described in 1.
  • the proximity index is a reference value set for the number of times, and is a reference value. A plurality of values are set as the reference values, and
  • the computer causes an output device to output information indicating the value satisfied by the number of times in the target area together with information regarding the proximity index of the target area. 16. 14. Or 15.
  • the image processing method described in 1. In the image processing, the computer processes the images generated at a plurality of timings to calculate the duration of the state when the first distance is detected to be equal to or less than the reference value.
  • the proximity index is an image processing method in which a state in which the first distance is equal to or less than a reference value is set by using the number of times that the state continues for a reference time or longer. 17. 12. From 16.
  • the predetermined device is an entrance gate to the target area, and is In the control process, the computer closes the entrance gate when the proximity index meets the criteria, an image processing method. 18. 12. From 17.
  • the computer causes an output device to output countermeasure information indicating countermeasures for bringing the target area into a predetermined state when the proximity index satisfies a reference. 19. 12. From 18.
  • the computer further identifies the attributes of the person appearing in the image.
  • the computer causes an output device to output information suggesting at least one of the movement and placement of the person so that the target area is in a predetermined state according to the specified attribute.
  • Image processing method. 20. 19. In the image processing method described in 1.
  • the target area includes a plurality of places, and the target area includes a plurality of places.
  • the computer further moves and arranges the person in each place so that each place in the target area is in a predetermined state according to the attribute of each place in the target area.
  • the image is an image processing method that is an image taken of a facility. 22. 21.
  • the facility is an image processing method such as a shopping mall, an airport, a station, a hospital, or a store.
  • An image processing function that calculates a proximity index, which is an index related to the proximity state of a plurality of people reflected in the image, by processing the image of the target area.
  • a control function that causes a predetermined device to execute a predetermined control, and A program to have. 24. 23.
  • the control function is a program that causes an output device to output information regarding the proximity index of the target area. 25. 23. Or 24.
  • the program described in The image processing function is For each person, the first distance, which is the distance to the person closest to the person, is calculated. The number of times the first distance becomes equal to or less than the reference value is counted.
  • the proximity index is a program set by using the number of times when the first distance becomes equal to or less than a reference value. 26. 25.
  • the proximity index is a reference value set for the number of times, and is a reference value. A plurality of values are set as the reference values, and
  • the control function is a program that causes an output device to output information indicating the value satisfied by the number of times in the target area together with information regarding the proximity index of the target area. 27. 25. Or 26.
  • the image processing function calculates the duration of the state when the first distance becomes equal to or less than the reference value by processing the images generated at a plurality of timings.
  • the proximity index is a program in which the state in which the first distance is equal to or less than the reference value is set by using the number of times that the state continues for the reference time or more. 28. 23. From 27.
  • the predetermined device is an entrance gate to the target area, and is The control function is a program that closes the entrance gate when the proximity index meets the criteria. 29. 23. From 28.
  • the control function is a program that causes an output device to output countermeasure information indicating countermeasures for bringing the target area into a predetermined state when the proximity index satisfies a standard. 30. 23. From 29.
  • the image processing function further identifies the attribute of the person reflected in the image.
  • the control function further proposes at least one of the movement and placement of the person in each place so that each place in the target area is in a predetermined state according to the attributes of each place in the target area.
  • any one of The image is a program that is an image of a facility. 33. 32.
  • the facility is a program that is a shopping mall, airport, train station, hospital, or store.
  • An image processing means for specifying an attribute of the person reflected in the image by processing an image of the person who is moved or placed in a predetermined place.
  • An image processing device including a control means for causing an output device to output information that proposes at least one of the movement and placement of the person so that the predetermined place becomes a predetermined state according to the specified attribute. .. 35. 34.
  • the predetermined place includes a plurality of places, and the predetermined place includes a plurality of places.
  • the control means further provides the output device with information that suggests at least one of the movement and placement of the person at each location so that each location is in a predetermined state, depending on the attributes of each location.
  • An image processing device that outputs. 36. 34. Or 35.
  • the image processing means calculates a proximity index which is an index regarding the proximity state of a plurality of people reflected in the image.
  • the control means is an image processing device that excludes the place from the target of movement and placement of the person in the proposed information when the proximity index meets the criteria.
  • the computer Image processing that identifies the attributes of the person reflected in the image by processing the image of the person who is moved or placed in a predetermined place. Image processing that causes an output device to output information that proposes at least one of the movement and placement of the person so that the predetermined place becomes a predetermined state according to the specified attribute.
  • the predetermined place includes a plurality of places, and the predetermined place includes a plurality of places.
  • the computer further proposes at least one of the movement and placement of the person at each location so that each location is in a predetermined state, depending on the attributes of each location.
  • the computer processes an image of each of the above locations to calculate a proximity index, which is an index relating to the proximity state of a plurality of people reflected in the image.
  • a proximity index which is an index relating to the proximity state of a plurality of people reflected in the image.
  • the computer excludes the place from the target of movement and placement of the person in the proposed information when the proximity index meets the criteria.
  • An image processing function that identifies the attributes of the person reflected in the image by processing the image of the person who is moved or placed in a predetermined place.
  • the predetermined place includes a plurality of places, and the predetermined place includes a plurality of places.
  • the control function further provides the output device with information that suggests at least one of the movement and placement of the person at each location so that each location is in a predetermined state, depending on the attributes of each location.
  • the image processing function calculates a proximity index, which is an index relating to the proximity state of a plurality of people reflected in the image, by processing an image of each of the above locations.
  • the control function is a program that excludes the place from the target of the movement and placement of the person in the proposed information when the proximity index meets the criteria.
  • Image processing device 20 Image processing device 110 Image processing unit 120 Risk information generation unit 130 Display control unit 140 Display unit 150 Storage unit 160 Control unit 170 Attribute identification unit

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Epidemiology (AREA)
  • General Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Marketing (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Development Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Child & Adolescent Psychology (AREA)
  • Game Theory and Decision Science (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Security & Cryptography (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

画像処理装置(10)は、画像処理部(110)、リスク情報生成部(120)及び制御部(160)を備えている。画像処理部(110)は、撮像装置(20)が生成した画像、すなわち複数の人を含む画像を取得して処理する。一例として、画像処理部(110)は、複数の人の少なくとも一部の人を基準となる人として、その人と、その人に最も近い人との距離(第1距離)を算出する。リスク情報生成部(120)は、第1距離を用いて、撮像装置(20)の撮影対象となっている対象領域における複数の人の近接状態に関する指標である近接指標を算出する。制御部(160)は、近接指標が基準を満たした場合、被制御装置(30)に所定の制御を実行させる。

Description

画像処理装置、画像処理方法、及びプログラム
 本発明は、画像処理装置、画像処理方法、及びプログラムに関する。
 近年は様々な目的で画像処理が用いられている。例えば特許文献1には、空間内の環境を調整して第1対象者からの飛沫の到達範囲が第2対象者の呼吸域から外れるようにするシステムにおいて、第1対象者及び第2対象者の顔の位置及び向きを画像処理によって決定することが記載されている。
国際公開第2020/044826号
 感染症にかかるリスクを減らすためには、感染症にかかる可能性がある状態を回避することが重要である。しかし、感染症にかかる可能性がある状態を回避するための適切な対処方法は、専門家以外の一般には知られていないことが多いため、適切な対処ができなかったり対応が遅れたりすることがある。本発明の目的の一つは、対象とする場所で感染症にかかる可能性を減らすための、適切な対処方法を提示または適切な対策を実行することにある。
 本発明によれば、
 対象領域の画像を処理することにより、前記画像に映る複数の人の近接状態に関する指標である近接指標を算出する画像処理手段と、
 前記近接指標が基準を満たした場合、所定装置に所定の制御を実行させる制御手段と、
を備える画像処理装置が提供される。
 本発明によれば、コンピュータが、
  対象領域の画像を処理することにより、前記画像に映る複数の人の近接状態に関する指標である近接指標を算出する画像処理と、
  前記近接指標が基準を満たした場合、所定装置に所定の制御を実行させる制御処理と、
を行う画像処理方法が提供される。
 本発明によれば、コンピュータに、
  対象領域の画像を処理することにより、前記画像に映る複数の人の近接状態に関する指標である近接指標を算出する画像処理機能と、
  前記近接指標が基準を満たした場合、所定装置に所定の制御を実行させる制御機能と、
を持たせるプログラムが提供される。
 また、本発明によれば、
 所定の場所に移動または配置される人を撮像した画像を処理することにより、前記画像に映る前記人の属性を特定する画像処理手段と、
 特定された前記属性に応じて、前記所定の場所が所定の状態になるように、前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる制御手段と、を備える画像処理装置が提供される。
 本発明によれば、
 コンピュータが、
 所定の場所に移動または配置される人を撮像した画像を処理することにより、前記画像に映る前記人の属性を特定する画像処理と、
 特定された前記属性に応じて、前記所定の場所が所定の状態になるように、前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる出力制御処理と、を行う画像処理方法が提供される。
 本発明によれば、
 コンピュータに、
 所定の場所に移動または配置される人を撮像した画像を処理することにより、前記画像に映る前記人の属性を特定する画像処理機能と、
 特定された前記属性に応じて、前記所定の場所が所定の状態になるように、前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる制御機能と、を持たせるプログラムが提供される。
 本発明によれば、対象とする場所で感染症にかかる可能性を低減するための手段を把握または実行しやすくなる。
実施形態に係る画像処理装置の使用環境を説明するための図である。 画像処理装置の機能構成の一例を示す図である。 記憶部が記憶している情報の一例を示す図である。 画像処理装置のハードウェア構成例を示す図である。 画像処理装置が行う処理の第1例を示すフローチャートである。 画像処理装置の機能構成の一例を示す図である。 画像処理装置が行う処理の第2例を示すフローチャートである。 図7のステップS20で行われる第1距離の算出方法の一例を示す図である。 図7のステップS40において表示部に表示される画像の第1例を示す図である。 図7のステップS40において表示部に表示される画像の第1例を示す図である。 画像処理装置が行う処理の第3例を示すフローチャートである。 画像処理装置が行う処理の第4例を示すフローチャートである。 画像処理装置が行う処理の第5例を示すフローチャートである。 図13のステップS140で表示部に表示される画面の一例を示している。 画像処理装置が行う処理の第6例を示すフローチャートである。 画像処理装置が行う処理の第7例を示すフローチャートである。 表示部に表示される現在の感染リスク情報を示す図である。 表示部に表示される将来の感染リスク情報を示す図である。 画像処理装置の機能構成の一例を示す図である。 記憶部が記憶している情報の一例を示す図である。 画像処理装置が行う処理の第8例を示すフローチャートである。 画像処理装置が行う処理の第9例を示すフローチャートである。 図7のステップS40において表示部に表示される画像の第2例を示す図である。 図7のステップS40において表示部に表示される画像の第2例を示す図である。
 以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
(第1実施形態)
 図1は、実施形態に係る画像処理装置10の使用環境を説明するための図である。画像処理装置10は撮像装置20とともに使用される。
 撮像装置20は例えば固定カメラであり、複数の人、例えば不特定多数の人が往来する領域(以下、対象領域と記載)を繰り返し撮影する。このため、撮像装置20が生成する画像は複数の人を含んでいる。撮像装置20が生成する画像のフレームレートは任意であるが、例えば動画を構成するようなフレームレートであってもよい。そして撮像装置20は、生成した画像を画像処理装置10に送信する。
 画像処理装置10は、撮像装置20が生成した画像を処理することにより、対象領域にいる人の間隔、すなわちある人(以下、基準となる人と記載)と、その人に最も近い人の距離(以下、第1距離と記載)を算出する。そして画像処理装置10は、この第1距離を用いて、対象領域において感染症にかかるリスク又は感染症にかからない安全率に関する情報(以下、感染リスク情報)を生成する。
 図1に示す例において、画像処理装置10は一つの撮像装置20に接続している。ただし画像処理装置10は複数の撮像装置20に接続していてもよい。この場合、複数の撮像装置20は互いに異なる対象領域を撮像している。また、複数の撮像装置20のそれぞれは、当該撮像装置20を識別する情報(以下、撮像装置識別情報と記載)に紐づけて画像を外部に送信する。このようにすると、複数、例えば100か所以上の多数の対象領域のそれぞれについて、感染リスク情報を容易に生成することができる。
 図2は、画像処理装置10の機能構成の一例を示す図である。本図に示す画像処理装置10は、画像処理部110と、リスク情報生成部120と、制御部160と、を備えている。
 画像処理部110は、撮像装置20が生成した画像、すなわち対象領域を撮像した画像を取得して処理する。一例として、画像処理部110は、画像に映る複数の人の少なくとも一部の人を上記した基準となる人として、上記した第1距離を算出する。第1距離の算出方法の具体例については後述する。
 さらに画像処理部110は、必要に応じて画像に対してその他の処理も行い、様々な情報を生成する。
 なお、画像処理装置10が複数の撮像装置20に接続している場合、画像処理部110は、画像を、その画像を生成した撮像装置20の撮像装置識別情報に紐づけて取得する。
 リスク情報生成部120は、画像に映る複数の人の近接状態に関する指標である近接指標を算出する。そして、制御部160は、近接指標が基準を満たした場合、所定装置に所定の制御を実行させる。
 近接指標の一例は、後述するように、例えば対象領域において感染症にかかるリスク又は感染症にかからない安全率そのものである。このリスク又は安全率は、例えばリスク情報生成部120が生成する感染リスク情報によって示される。感染リスク情報の具体例については後述する。ここで、「近接指標の基準」は、例えば、感染症にかかるリスクが高まっている状況、リスクが高まる予兆が検出されている状況、および感染症にかかるリスクを回避するための対処が必要な状況の少なくとも一つを検出するための基準である。あるいは、感染症にかからない完全率が低下してきている状況、感染症にかからない完全率が低下する予兆が検出されている状況、および感染症にかからない完全率を高めるための対処が必要な状況の少なくとも一つを検出するための基準でもある。
 所定装置とは、所定の制御が実行される対象となる様々な被制御装置30である。被制御装置30が制御されることによって、対象領域内で人々の近接状態を解消させることができる。被制御装置30は様々考えられ、以下に例示されるがこれらに限定されない。
(装置例1)対象領域の入場ゲートおよび退場ゲートの少なくとも一方
(装置例2)対象領域内の電光掲示板、液晶ディスプレイ等の表示装置
(装置例3)店舗(対象領域)のセルフレジやセミセルフレジ
(装置例4)駅構内、映画館、劇場、遊園地、博物館、水族館、観光施設、食堂など(対象領域)の自動券売機、空港(対象領域)のチェックイン受付機、病院(対象領域)の自動受付機や自動会計装置、ゲームセンターやパチンコなどの遊技場(対象領域)の遊戯機
(装置例5)対象領域の管理者用の表示装置
 対象領域は、ショッピングモール、空港(保安検査場、搭乗待合室、ラウンジ、テナント、展望台など)、駅(券売機周辺、改札口周辺、構内(ホーム、通路を含む)など)、病院(待合室、会計場所、ホール、通路など)、店舗、映画館、劇場、遊園地、博物館、水族館、観光施設、寺院、図書館、学習塾、公共施設(役所など)、施設内の食堂、飲食店、銀行、ゲームセンター、パチンコなどの遊技場、スポーツジム、体育館、学校(教室、通路など)、オフィス(仕事場、会議室、ホール、通路など)、工場、研究所などが例示されるがこれらに限定されない。
 リスク情報生成部120は、第1距離を用いて、撮像装置20の撮影対象となっている対象領域における感染リスク情報を生成する。一例として、リスク情報生成部120は、第1距離が基準値以下であるか否かを判断し、当該判断結果を用いて感染リスク情報を生成する。この基準値は、いわゆる社会的距離に基づいて定められる。社会的距離は、感染症の感染を防ぐために、隣り合う人の間で保たれるべき物理的距離である。そして基準値の大きさは、対象としている感染症の主な感染経路に基づいて設定される。例えば飛沫感染が主となる感染症に対し、基準値には1.5m以上6m以下の値が用いられる。また、接触感染が主となる感染症については、基準値には50cm以上1.5m以下の値が用いられる。
 なお、感染リスク情報は、例えば対象領域において感染症にかかるリスク又は感染症にかからない安全率そのものを示している。この場合、上記した判断結果から感染リスク情報を生成する方法としては、例えば以下の方法がある。
(方法1)リスク情報生成部120は、第1距離が基準値以下になった人の組み合わせの、数を画像毎に算出し、この数が多くなるにつれて感染リスク情報が示すリスクを高める。この方法を用いると、リスク情報生成部120は、画像毎に感染リスク情報を生成することができる。
(方法2)リスク情報生成部120は、第1距離が基準値以下になった人の組み合わせの、単位時間あたりの発生量を算出し、この発生量が多くなるにつれて感染リスク情報が示すリスクを高める。この方法において、リスク情報生成部120は、異なるタイミングで生成された複数の画像の処理結果を用いる。
(方法3)方法2において、リスク情報生成部120は、単位時間あたりかつ単位面積あたりの発生量を用いる。
 なお、上記した各方法において、画像処理部110は、時間的に連続する複数の画像を処理すると、第1距離が基準値以下になった状態が継続した時間を算出できる。リスク情報生成部120は、この継続した時間の長さが長くなるにつれて、感染リスク情報が示すリスクを高めてもよい。
 なお、第1距離を用いずに感染リスク情報を生成する方法もある。例えば、リスク情報生成部120は、対象領域における単位面積当たりの人の密度を算出し、この密度が多くなるにつれて感染リスク情報が示すリスクを高めてもよい。
 またリスク情報生成部120は、第1距離が基準値以下になったことそのものを、感染リスク情報として用いてもよい。
 また画像処理部110は、撮像装置20が生成した画像を記憶部150に記憶させる。ここで画像処理部110は、画像を処理することによって生成した情報を、当該画像に紐づけて記憶部150に記憶させてもよい。なお、本図に示す例において、記憶部150は画像処理装置10の一部となっている。ただし、記憶部150は画像処理装置10の外部の装置であってもよい。
 画像処理部110は、記憶部150に記憶されている画像を処理することにより、上記した情報を生成してもよい。この場合、撮像装置20が生成した画像をいったん記憶部150に記憶させた後、所望するタイミングで記憶部150から読み出して処理することができる。なお、記憶部150の有無にかかわらず、画像処理部110は、撮像装置20が生成した画像を撮像装置20から取得し、リアルタイムで処理することができる。
 図3は、記憶部150が記憶している情報の一例を示す図である。本図に示す例において、記憶部150は、撮像装置20が生成した画像(図3においては画像データと記載)を、その画像が生成された日時を特定する情報(例えば日時そのもの又はフレーム番号)に紐づけて記憶している。また記憶部150は、撮像装置20が生成した画像を、その画像を処理することによって得られた情報(図3においては解析結果と記載)とともに記憶している。なお、この解析結果は感染リスク情報を含んでいてもよい。
 図4は、画像処理装置10のハードウェア構成例を示す図である。画像処理装置10は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060を有する。
 バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
 プロセッサ1020は、CPU(Central Processing Unit) やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
 メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
 ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040は画像処理装置10の各機能(例えば画像処理部110、リスク情報生成部120、制御部160、及び属性特定部170)を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する各機能が実現される。また、ストレージデバイス1040は記憶部150としても機能する。
 入出力インタフェース1050は、画像処理装置10と各種入出力機器とを接続するためのインタフェースである。
 ネットワークインタフェース1060は、画像処理装置10をネットワークに接続するためのインタフェースである。このネットワークは、例えばLAN(Local Area Network)やWAN(Wide Area Network)である。ネットワークインタフェース1060がネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。画像処理装置10は、ネットワークインタフェース1060を介して撮像装置20と通信してもよい。
 図5は、画像処理装置10が行う処理の第1例を示すフローチャートである。まず画像処理装置10の画像処理部110は、処理対象となる画像を取得する(ステップS10)。処理対象の画像とは、対象領域の画像である。この画像には少なくとも1人が映っている。そしてリスク情報生成部120は、この画像を処理し、画像内に含まれる複数の人の近接状態に関する指標を算出する(ステップS300)。この算出において、画像処理部110は、画像内における、距離の算出対象となっている人の高さ、位置、及びその画像を生成した撮像装置20の上下方向の向きを用いて、第1距離を算出する。この際、詳細を後述するように、画像処理部110は、人の身長としてあらかじめ設定されている値(以下、基準身長と記載)を用いる。
 次いで、制御部160は、ステップS300で生成された近接指標が基準を満たすか否かを判定する(ステップS310)。近接指標が基準を満たす場合(ステップS310のYES)、制御部160は、被制御装置30に所定の制御を実行させる(ステップS320)。つまり対象領域内の人々の近接状態が密になってきていて、感染症にかかるリスクが高まっている状況、または、感染症にかからない完全率が低下してきている状況を検出して、被制御装置30に所定の制御を実行させる。このステップS320における処理は、詳細を後述するように、対象領域における近接状態を緩和させるための対策を様々な被制御装置30に実行させるものであり、対象領域の特性に応じてそれぞれ異なる。
 一方、近接指標が基準を満たさない場合(ステップS310のNO)、ステップS320はバイパスして本処理を終了する。つまり、対象領域内の人々は密状態ではなく、感染症にかかるリスクも高まっていない状況、または、感染症にかからない完全率が低下してきていない状況であるため、近接状態を緩和させるための対策を行う必要がないと判断される。
 図5のステップS320で行われる被制御装置30に対する制御方法は様々考えられ、以下に例示されるがこれらに限定されない。
(制御例1)
 この例では、被制御装置30は上記した(装置例1)であり、例えば、対象領域への入場ゲートである。そして近接指標が基準を満たした場合(ステップS310のYES)、制御部160は、入場ゲートを閉じて入場を制限する(ステップS320)。この例において対象領域は例えば、駅、空港の保安検査場、病院、施設、店舗、遊園地、遊技場、銀行、オフィスビル、工場、図書館が例示されるがこれらに限定されない。対象領域は、これらの施設内のさらに区画された領域、例えば、病院であれば、受付フロア、診察待合室、検査待ちフロア、会計フロア、通路など各々の区画領域であってもよい。制御部160は、各区画内への入場を制限する入場ゲートを制御してもよい。
(制御例2)
 この例では、被制御装置30は、上記した(装置例1)であり、例えば、対象領域に人が入退場するために設けられた入場ゲートおよび退場ゲートである。ここで、入場ゲートおよび退場ゲートは複数箇所に設けられている。複数箇所に設けられた入場ゲートおよび退場ゲートのうち少なくとも1箇所は、利用時間に制限があるとする。そして近接指標が基準を満たした場合(ステップS310のYES)、制御部160は、制限されている利用時間を変更する(ステップS320)。利用時間の変更とは、制限されている利用時間を延長したり、ずらしたりすることである。この処理により、人が対象領域に入退場するのに利用できるゲートの数を増やすことで、人の流れを分散させ入退場時の人の流れの停滞を解消して近接状態を緩和させる。この例においても上記(制御例2)と同様に対象領域は例えば、駅、空港の保安検査場、病院、施設、店舗、遊園地、遊技場、銀行、オフィスビル、工場、図書館などが例示されるがこれらに限定されない。
(制御例3)
 この例では、被制御装置30は、上記した(装置例3)および(装置例4)であり、例えば、店舗(対象領域)のセルフレジやセミセルフレジ、駅構内など(対象領域)の自動券売機、空港(対象領域)のチェックイン受付機、病院(対象領域)の自動受付機や自動会計装置などである。これらの装置は、対象領域に複数台設置されている。そして近接指標が基準を満たした場合(ステップS310のYES)、制御部160は、稼働停止している被制御装置30を稼働させる(ステップS320)。制御部160は、被制御装置30の制御手段に、被制御装置30の稼働を指示したり、被制御装置30の電源切替装置に電源投入を指示したりしてもよい。
 この例では、対象領域の近接指標が基準を満たす場合に、対象領域において人に関する被制御装置30の稼働台数を増やすことで待ち時間を短くして対象領域内での人の滞在時間を短くすることができる。
(制御例4)
 この例では、被制御装置30は上記した(装置例2)であり、例えば、対象領域内の電光掲示板、液晶ディスプレイ等の表示装置である。そして近接指標が基準を満たした場合(ステップS310のYES)、制御部160は、表示装置に、対象領域からの他の場所に誘導する情報、対象領域からの退出を促す情報などを表示させる(ステップS320)。この例においても上記(制御例2)と同様に対象領域は例えば、駅、空港の保安検査場、病院、施設、店舗、遊園地、遊技場、銀行、オフィスビル、工場、図書館などが例示されるがこれらに限定されない。
(制御例5)
 この例では、被制御装置30は、上記した(装置例5)であり、例えば、対象領域の管理者用の表示装置である。管理者とは、役職上の管理者ではなく、実質的にその場所を管理している人物でよい。言い換えると管理者は、表示装置に出力される情報に従い、対象領域の近接状態を緩和する(所定の状態の一例である)ための対策を行う人物である。そして近接指標が基準を満たした場合(ステップS310のYES)、制御部160は、表示装置に、対象領域の近接状態を緩和する(所定の状態の一例である)ための対策を示す対策情報を表示させる(ステップS320)。この例においても上記(制御例2)と同様に対象領域は例えば、駅、空港の保安検査場、病院、施設、店舗、遊園地、遊技場、銀行、オフィスビル、工場、図書館などが例示されるがこれらに限定されない。
 対策情報に示される対策例は様々考えられ、以下に例示されるがこれら限定されない。
(対策例1)店舗(対象領域)の有人レジへの店員の増員および配置を指示する。
(対策例2)空港の保安検査場(対象領域)の窓口の係人の増員および配置を指示する。
(対策例3)対象領域内に誘導または案内スタッフの配置を指示する。
(対策例4)対象領域(例えば、駅構内や店舗など)への入場規制を行うように指示する。あるいは、入場規制を行うべき日時を、対象領域の管理者および利用者の少なくとも一方に知らせる。
(対策例5)対象領域内の各被制御装置30の稼働台数を増やすように指示する。
 以下、被制御装置30が表示装置の場合について説明する。図6は、画像処理装置10の機能構成の一例を示す図である。本図に示す画像処理装置10は、図2の制御部160に替えて表示制御部130を備えている。また、図2の被制御装置30の例として表示部140を画像処理装置10は制御対象とする。この例では、表示制御部130は、第1距離が基準値以下である人の組み合わせ、すなわち基準となる人とその人に最も近い人の組み合わせを認識させるための表示を、処理対象となった画像に重ねたうえで、この表示及び画像を表示部140に表示させる。表示部140はディスプレイを有している。本図に示す例において、表示部140は画像処理装置10の一部であるが、画像処理装置10の外部にあってもよい。表示部140は、上記した(装置例2)および(装置例5)も含んでよい。
 図7は、リスク情報生成部120の処理の第2例を示すフローチャートである。この処理は、図5の処理と並行して実行されてよい。まず画像処理装置10の画像処理部110は、処理対象となる画像を取得する(ステップS10)。そして画像処理部110は、この画像を処理し、画像内に含まれる人毎に、上記した第1距離を算出する(ステップS20)。この算出において、画像処理部110は、画像内における、距離の算出対象となっている人の高さ、位置、及びその画像を生成した撮像装置20の上下方向の向きを用いて、第1距離を算出する。この際、詳細を後述するように、画像処理部110は、人の身長としてあらかじめ設定されている値(以下、基準身長と記載)を用いる。
 次いでリスク情報生成部120は、ステップS20で生成された第1距離を用いて、感染リスク情報を生成する。感染リスク情報の生成方法の例は、図2を用いて説明した通りである(ステップS30)。そして表示制御部130は、生成した感染リスク情報を表示部140に表示させる(ステップS40)。この際、表示制御部130は、感染リスク情報とともに、その感染リスク情報を生成するときに用いた画像(動画の場合もある)を表示させてもよい(ステップS40)。ここで表示される画像の例については、後述する。
 図8は、図7のステップS20で行われる第1距離の算出方法の一例を示す図である。画像処理部110は、基準となる人を特定する。そして、その人の周囲に位置する人のそれぞれに対して、本図に示す処理を行う。
 まず画像処理部110は、基準となる人、又はその人の周囲に位置する人の画像内における高さtを算出する。ここでは、例えば画素数で表される。次いで画像処理部110は、基準となる人から周囲に位置する人までの画像内における距離dを算出する。ここでdは、tと同じ単位(例えば画素数)で表される。次いで画像処理部110は、d/tを算出し、この値に上記した基準身長を乗ずることにより、基準となる人とその周囲に位置する人の距離を算出する。
 基準となる人の周囲に他の人が一人しかいない場合、その人について算出された距離が第1距離になる。またほかの人が複数いた場合、これら複数の人それぞれについて上記した距離を算出し、その距離の最小値が第1距離になる。
 なお、上記したように、基準身長は予め設定されている。撮像装置20が設置されている場所(例えば国)によって、この基準身長を変えてもよい。例えば基準身長は、対象となっている撮像装置20が設置されている国の成人の平均身長が用いられる。具体的な処理の例として、記憶部150は、基準身長を特定する情報を撮像装置識別情報別に記憶している。そして画像処理部110は、処理対象となっている画像を生成した撮像装置20の撮像装置識別情報を取得し、この撮像装置識別情報に対応する基準身長を記憶部150から読み出して使用する。
 また画像処理部110は、画像処理によって高さtの算出対象となった人の属性(例えば性別及び年齢層の少なくとも一方)が推定できた場合、この属性によって基準身長を変更してもよい。
 なお、ほとんどの画像には、その画像を生成した撮像装置20に固有の歪が生じている。画像処理部110は、第1距離を算出する際、この歪を補正する処理を行うのが好ましい。画像処理部110は、画像内における人の位置に応じたひずみ補正処理を行う。一般的に、画像の歪は、例えば撮像装置20が有する光学系(例えばレンズ)、及びその撮像装置20の上下方向の向き(例えば水平面に対する角度)に起因している。そこで画像内における人の位置に応じたひずみ補正処理の内容は、撮像装置20が有する光学系(例えばレンズ)、及びその撮像装置20の上下方向の向きに応じて設定される。
 なお、本図を用いて説明した処理において、大きさがある程度規格化されている物体が画像に含まれていた場合、画像処理部110は、人の身長の代わりにこの物体の大きさを用いて第1距離を算出してもよい。
 図9は、図7のステップS40において表示部140に表示される画像の第1例を示す図である。表示制御部130は、表示部140に、感染リスク情報とともに、感染リスク情報を生成するときに用いた画像(動画の場合もある)を表示させる。本図に示す例において、表示制御部130は、第1距離が基準値以下である人の組み合わせを認識させるための表示を画像に重ねたうえで、その表示及び画像を、表示部140に表示させる。
 一例として、表示制御部130は、表示部140に、画像処理部110が認識した人の組み合わせを示すマークを表示させている。そして表示制御部130は、このマークの態様を、第1距離が基準値以下であるか否かで変えている。より詳細には、本図に示す例において、人の組み合わせを構成する二人は、円又は楕円で囲まれている。そしてこの円又は楕円の表示色や線の態様(実線、点線、及び一点鎖線など)が、第1距離が基準値以下であるか否かで変わっている。
 なお、表示される画像が動画の場合、図9及び図10に示すように、時間が経過するにつれて、第1距離の算出対象となる人の組み合わせが変わる。例えば図9のタイミングにおいて、人Pにとって、人Pが第1距離を算出するときの相手になっているが、それより後の図10のタイミングでは、人Pが第1距離を算出するときの相手になっている。
 図23及び図24は、図7のステップS40において表示部140に表示される画像の第2例を示す図である。これらの図において、表示制御部130は、人ごとに、当該人を中心とした社会的距離の推奨値(例えば上記した基準値)の範囲を示すマークを表示させる。そしてある人に対応するマークとその近くの人に対応するマークとが重なった場合、すなわちある人とその近くの人の距離が社会的距離の推奨値以下になった場合(例えば図23、図24の人P,P)、これら2人それぞれに対応するマークを、他の人に対応するマーク(例えば図23の人P、図24の人P,P,P,P)とは異なる態様で表示させる。態様の異ならせ方は、例えば表示色を変えたり、マークを構成する線の態様(実線、点線、及び一点鎖線など)を異ならせるなどである。表示制御部130は、表示色を変える場合、例えば通常の状態のマークを青色で表示し、2つのマークが重なっている場合はこれら2つのマークを赤色で表示させる。
 図23に示す例では、表示制御部130は、感染リスク情報を生成するときに用いた画像(動画の場合もある)に、上記したマークを重ねている。一方、図24に示す例では、人の配置を平面図で示したうえで、当該平面図に上記したマークを重ねている。表示制御部130は、図23に示す表示及び図24に示す表示を、同時に表示部140に表示させてもよい。
 図9、図10、図23、及び図24に示す表示は、リアルタイムの動画や画像を用いて行われてもよい。この場合、これらに示した表示は、例えば対象領域の近くに設置された表示部140に対して行われてもよいし、インターネットや放送のコンテンツとして用いられてもよい。
 図11は、画像処理装置10が行う処理の第3例を示すフローチャートである。本図に示す例は、画像処理部110が第1距離を算出するときに第2距離も算出し(ステップS22)、この第2距離をさらに用いて感染リスク情報を生成する(ステップS30)点を除いて、図7に示した例と同様である。
 第2距離は、基準となる人と、その人から2番目に近い人までの距離である。第2距離の算出方法は、1番目ではなく2番目に近い人までの距離を選択する点を除いて、第1距離の算出方法と同様である。そしてリスク情報生成部120は、感染リスク情報を生成する際に、第2距離が近くなるにつれて、リスクが高まる(安全率が下がる)ようにする。なお、画像処理部110は、基準となる人と、その人から3番目に近い人までの距離(第3距離)をさらに生成してもよい。この場合、リスク情報生成部120は、さらに第3距離を用いて感染リスク情報を生成する。
 図12は、画像処理装置10が行う処理の第4例を示すフローチャートである。本図に示す例は、リスク情報生成部120が、感染リスク情報を生成する際に、人と人の間の距離以外の情報をさらに用いる点を除いて、図7又は図11に示した例と同様である。
 具体的には、ステップS10及びステップS20(又はステップS22)は、図7(又は図11)に示した例と同様である。そして画像処理部110は、画像を処理することにより、感染リスク情報を生成するために必要な、追加の情報を生成する。ここで生成される情報は、人の顔の向きの特定結果、顔への装着物の有無及びその種類の特定結果、並びに人の口の動きの特定結果の少なくとも一つである(ステップS24)。
 「人の顔の向き」は、少なくとも、基準となる人の顔の向きと、その人に最も近い人の顔の向きと、の少なくとも一方を含んでいる。そしてリスク情報生成部120は、人の顔が相手に対向する方向に近づくにつれて、感染リスク情報が示すリスクを高める(安全率を下げる)。ここで画像処理部110及びリスク情報生成部120は、第2距離や第3距離を用いる場合、さらに第2距離を算出するときの相手となる人の顔の向きや、第3距離を算出するときの相手となる人の顔の向きを用いてもよい。
 「顔への装着物の有無」は、少なくとも、基準となる人における装着物の有無と、その人に最も近い人における装着物の有無と、の少なくとも一方を含んでいる。そしてリスク情報生成部120は、特定の種類の装着物が検知された場合、それ以外の場合と比較して、感染リスク情報が示すリスクを下げる(安全率を上げる)。ここで特定の種類の装着物は、口及び鼻の少なくとも一方(好ましくは双方)を覆うもの、例えばマスクやマフラーである。ここで画像処理部110及びリスク情報生成部120は、第2距離や第3距離を用いる場合、さらに第2距離を算出するときの相手となる人や、第3距離を算出するときの相手となる人に対して、同様のことを行ってもよい。
 「口の動き」は、少なくとも口が動いていることである。口が動いている場合、その人は話している可能性が高い。そこでリスク情報生成部120は、基準となる人と、その人に最も近い人と、の少なくとも一方において口が動いている場合、それ以外の場合と比較して、感染リスク情報が示すリスクを高める(安全率を下げる)。ここで画像処理部110及びリスク情報生成部120は、第2距離や第3距離を用いる場合、さらに第2距離を算出するときの相手となる人の口の動きや、第3距離を算出するときの相手となる人の口の動きを用いてもよい。
 図13は、画像処理装置10が行う処理の第5例を示すフローチャートである。画像処理装置10は、図5、図7、図11、又は図12に示した処理に加えて、本図に示した処理も行う。
 本図に示す例において、撮像装置20は固定カメラである。このため、画像内の各位置には、対象領域の特定の位置に対応している。画像処理部110は、この対応関係を予め記憶している。上記したように、リスク情報生成部120は、複数の人の近接状態に関する指標である近接指標を算出する。制御部160は、近接指標が基準を満たした場合、被制御装置30に所定の制御を実行させる。
 より詳細には、画像処理装置10の画像処理部110は、図7及び図12のステップS20、又は図11のステップS22において、画像内における第1距離が基準値以下となった位置を特定することにより、対象領域のうち第1距離が基準値以下となった位置を特定する。そして、画像処理部110は、処理された画像に紐づけて、当該位置を示す情報を記憶部150に記憶させる。
 そして画像処理装置10のリスク情報生成部120は、記憶部150に記憶されている情報を処理することにより、対象期間において第1距離が基準値以下となった回数(上記した近接指標の一例)を対象領域内の位置別に集計する。対象期間の長さは、例えば1日でもよいし、1週間でもよいし、一ヵ月でもよい。
 詳細には、まずリスク情報生成部120は、対象となる撮像装置20を特定する情報、対象期間の始まりと終わりを特定する情報を取得する。この取得は、例えばユーザから入力されることにより行われる。次いでリスク情報生成部120は、対象となる撮像装置20が対象期間に生成した画像の解析結果を記憶部150から読み出す。ここで読みだされる情報は、第1距離が基準値以下となった位置を示す情報を含んでいる。この情報は、画像毎に生成されている(ステップS110)。
 また対象領域は、あらかじめ複数の部分に区分けされている。そしてリスク情報生成部120は、これら複数の部分別に、第1距離が基準値以下となった回数をカウントする(ステップS120)。なお、記憶部150が記憶している情報のうち上記した「第1距離が基準値以下となった位置」は、この部分を示す情報であってもよい。
 そしてリスク情報生成部120は、カウント数が基準値以上になった部分を示す情報を出力する。この情報によって示される部分は、感染リスクが高い部分、すなわち要注意場所である。本図に示す例において、リスク情報生成部120は、この部分を示す情報を出力する。この出力先は、例えば表示制御部130である。この場合、表示制御部130は、この部分が示す情報を表示するための表示情報を生成し(ステップS130)、当該表示情報を表示部140に表示させる(ステップS140)。
 図6を用いて説明したように、画像処理部110は、時間的に連続する複数の画像を処理すると、第1距離が基準値以下になった状態が継続した時間を算出できる。この場合、画像処理部110は、第1距離が基準値以下になった状態が基準時間以上継続した回数をカウントして、上記した処理を行ってもよい。
 また、リスク情報生成部120が行う出力は、対象領域内において人が密集しやすい場所を特定し、そのような場所を改善するため(例えば人の動線を改善するため)に用いられる。一例として対象領域が屋内である場合、この出力は、その屋内(例えば待合室や廊下)に配置されている物体(例えば待合室のベンチ)の配置や数を変えるための参考データとして用いられる。なお、改善対象となる動線には、例えば、病院内における待合室から診察室までの動線、病院の入り口から治療室までの動線がある。
 ここで、屋内の例としては、病院、役所、駅、及び空港などの施設が挙げられるが、店舗、例えばショッピングモールなどの大規模店舗(空港や駅に併設されている場合を含む)であってもよい。後者の場合、リスク情報生成部120が行う出力は、大規模店舗となっている建物内において人が密集しやすい場所を特定している。そしてこの特定結果は、テナントの配置や動線を変更して当該場所で人が密集しないようにする際の参考データとして用いられる。
 上述した例において、「要注意場所」を設定するときの単位は、一つの対象領域を複数の部分に分割することによって設定されている。一方、画像処理装置10に複数の撮像装置20が接続しており、これら複数の撮像装置20が同一の施設の互いに異なる場所を撮影していることがある。この場合、「要注意場所」を設定するときの単位は、一つの撮像装置20の撮像領域(すなわち一つの対象領域)であってもよい。このようにするためには、画像処理部110は、上記した複数の部分別ではなく、撮像装置20別に、第1距離が基準値以下になった回数、又はこの状態が基準時間以上継続した回数をカウントすればよい。
 図14は、図13のステップS140で表示部140に表示される画面の一例を示している。本図に示す例において、表示部140は、対象領域の平面図を表示している。そして表示制御部130は、表示部140に、この平面図において、ステップS120におけるカウント数が基準値以上になった部分を、他の部分とは識別可能に表示させる。
 なお、カウント数に関する基準値として、複数の値が段階的に設定されていてもよい。この場合、リスク情報生成部120は、ステップS120におけるカウント数が基準値のうちどの値を超えたかを特定し、特定した値を示す情報を出力する。例えば表示制御部130は、この出力に応じて、当該部分の表示態様を変えてもよい。例えば最も低い基準値のみを超えた部分は緑色で示され、最も高い基準値を超えた部分は赤色で示されてもよい。
 図15は、画像処理装置10が行う処理の第6例を示すフローチャートである。画像処理装置10は、図5、図7、図11、又は図12に示した処理に加えて、本図に示した処理も行う。また画像処理装置10は、さらに図13に示した処理も行ってもよい。
 本図において、画像処理装置10のリスク情報生成部120は、感染症にかかるリスクが高まるタイミング(安全率が下がるタイミング)を特定する。このタイミングは、例えば曜日別、時間帯別、又は曜日かつ時間帯別に設定される。
 本図に示す例において、ステップS110に示した処理は図13を用いて説明した処理と同様である。
 次いでリスク情報生成部120が、タイミング別(に、第1距離が基準値以下となった回数をカウントする(ステップS122)。ここでリスク情報生成部120は、さらに図13に示したように、対象領域内の複数の部分別に、タイミング別のカウントを行ってもよい。
 次いでリスク情報生成部120は、カウント数が基準値以上になったタイミングを示す情報を出力する。この情報によって示されるタイミング(例えば時間帯や曜日)は、感染リスクが高いタイミングである。一例として、リスク情報生成部120は、このタイミングを示す情報を表示制御部130に出力する。すると表示制御部130は、このタイミングを示す情報を表示するための表示情報を生成し(ステップS130)、当該表示情報を表示部140に表示させる(ステップS140)。
 なお、対象領域が店内である場合、表示部140は、当該店の入り口やショーウインドウの中に設けられていてもよい。このようにすると、その店に入ろうとする人は、その店がすいていると思われるタイミングを認識することができる。また表示制御部130は、ステップS130で生成された表示情報をインターネット上で公開してもよい。このようにすると、その店に行こうとする人は、その店がすいていると思われるタイミングを認識することができる。
 また対象領域が店内であり、表示部140が当該店の入り口やショーウインドウの中に設けられている場合、表示制御部130は、表示部140に、現在の感染リスク情報を表示させてもよいし、リアルタイムの動画や画像を用いて図9、図10、図23及び図24に示した表示を行わせてもよい。
 図16は、画像処理装置10が行う処理の第7例を示すフローチャートである。画像処理装置10は、図5、図7、図11、又は図12に示した処理に加えて、本図に示した処理も行う。また画像処理装置10は、さらに図13及び図15に示した処理の少なくとも一方を行ってもよい。
 本図に示す例において、リスク情報生成部120は、過去の感染リスク情報の履歴及び当該履歴を統計処理した結果の少なくとも一方を、複数の撮像装置20別、すなわち複数の対象領域ごとに記憶部150に記憶させている。なお、これら複数の対象領域は、人の流れにおいて互いに関連している。一例として、これら複数の対象領域は互いに隣り合っていてもよいし、同一の道路や鉄道(地下鉄)に沿っていてもよい。
 そしてリスク情報生成部120は、記憶部150が過去の感染リスク情報の履歴のみを記憶している場合、この履歴を統計処理する。そして感染リスク情報の履歴を統計処理した結果、及び現在の感染リスク情報を用いて、将来の所定タイミングにおける感染リスク情報の推定結果を生成する。所定タイミングは、例えば1時間後であってもよいし、3時間後であってもよいし、5時間後であってもよいが、24時間以内であるのが好ましい。履歴を統計処理した結果は、例えば機械学習によって生成されたモデルであるが、これに限定されない。なおこのモデルは、現在の感染リスク情報が入力されると、将来の所定タイミングにおける感染リスク情報の推定結果を出力するものである。
 まずリスク情報生成部120は、互いに異なる対象領域に設置された複数の撮像装置20のそれぞれが生成した現在の画像を処理することにより、複数の対象領域それぞれの現在の感染リスク情報を生成する(ステップS210)。この際、リスク情報生成部120は、現在から所定時間前までの間に生成された画像を、さらに処理してもよい。
 次いでリスク情報生成部120は、これら複数の対象領域それぞれにおける、感染リスク情報の履歴を統計処理した結果を取得する。この取得は、記憶部150から読み出すことにより行われてもよいし、感染リスク情報の履歴をその場で統計処理することにより行われてもよい。次いでリスク情報生成部120は、感染リスク情報の履歴を統計処理した結果、及び現在の感染リスク情報を用いて、将来の所定タイミングにおける感染リスク情報の推定結果を生成する(ステップS220)。
 次いで表示制御部130は、リスク情報生成部120が生成した、現在の感染リスク情報、及び将来の所定タイミングにおける感染リスク情報の推定結果を表示するための表示情報を生成する(ステップS230)。表示部140は、この表示情報を用いて、現在の感染リスク情報、及び将来の所定タイミングにおける感染リスク情報の推定結果を表示する(ステップS240)。この表示を見た人は、自分が行動を起こすタイミング(例えば電車に乗るタイミングや目的地に行くタイミング)を感染リスクが少ないタイミングにすることができる。
 なお、リスク情報生成部120は、将来の所定タイミングにおける感染リスク情報の推定結果を生成する際に、統計処理の代わりに、現在の感染リスク情報の増減の傾向を特定し、この特定結果を用いてもよい。リスク情報生成部120は、この増減の傾向を、例えば、過去から現在までの第1距離が基準値以下となった回数の推移を用いることにより、特定する。
 図17は、表示部140に表示される現在の感染リスク情報を示している。上記したように、リスク情報生成部120は、複数の対象領域別に、感染リスク情報を生成している。本図に示す例において、複数の対象領域は一つの大きな地域を複数に分割した領域である。そして表示制御部130は、表示部140に、感染リスク情報が示すリスクが基準値以上となった対象領域を、他の対象領域から識別可能な状態で表示させている。なお、表示制御部130は、この処理において、過去から現在までの感染リスク情報の推移を表示させてもよい。
 図18は、表示部140に表示される将来の感染リスク情報を示している。本図に示す例において、表示制御部130は、表示部140に、将来の感染リスク情報が示すリスクが基準値以上となった対象領域を、他の対象領域から識別可能な状態で表示させている。ここで、複数の対象領域は、人の流れにおいて互いに関連している場合、ある対象領域の将来の感染リスク情報を生成する際に、その対象領域の周囲の現在の感染リスク情報を用いることもできる。これは、ある対象領域にいる人は、数時間後には他の対象領域に移動することがあるためである。
 なお、図17及び図18に示した表示は、インターネット上で公開されてもよいし、テレビの放送内容に含まれてもよい。
 以上、本実施形態によれば、画像処理装置10の画像処理部110は、撮像装置20が生成した画像、すなわち複数の人を含む画像を取得して処理することにより、複数の人の少なくとも一部の人について、当該人に最も近い人までの距離(第1距離)を算出する。そして制御部160は、近接指標が基準を満たした場合、所定装置に所定の制御を実行させる。例えば、制御部160は感染症にかかるリスクが高い状況において、感染症にかかるリスクを低減させる対策として、入場ゲートを閉じて対象領域への入場を制限したり、店舗のレジの稼働台数を増やしたり、空港の保安検査場の窓口の数を増やすことを提案する情報を表示部140に表示させたりすることができる。このため、対象とする場所で感染症にかかる可能性を低減するための手段を把握または実行しやすくすることができる。
 また、リスク情報生成部120は、第1距離を用いて、撮像装置20の撮影対象となっている対象領域における感染リスク情報を生成する。このため、対象領域において感染症にかかるリスクを容易に把握することができる。
 また、リスク情報生成部120は、複数の人の近接状態に関する指標である近接指標が基準を満たした場所を出力する。この出力は、例えば表示部140に表示される。これにより、感染症にかかる可能性がある場所を把握しやすくなる。
(第2実施形態)
 図19は、画像処理装置10の機能構成の一例を示す図である。本実施形態の画像処理装置10は、画像に写る人の属性に応じて人の移動および配置の少なくとも一方を提案する構成を有する点で上記実施形態と相違する。本図に示す画像処理装置10は、画像処理部110と、属性特定部170と、制御部160とを備えている。
 画像処理部110は、所定の場所に移動または配置される人を撮像した画像を処理することにより、画像に映る人の属性を特定する。属性は、例えば、各人の年齢、性別などである。さらに、画像処理部110は、各人の怪我の有無、車椅子や松葉杖の利用の有無などを属性として特定してもよい。
 属性特定部170は、画像処理部110により特定された属性に基づいて、各人の属性をさらに特定する。
 つまり、属性特定部170により特定される人の属性は、避難所の属性に対応した人が適切に振り分けされるために必要な情報を含むのが好ましい。例えば、乳児は、調乳ができる設備や授乳室があるという属性を有する避難所に振り分けられるのが好ましい。このため、画像処理部110により年齢が1歳未満と特定された人物を、属性特定部170は、さらに当該人物は乳児であると特定してもよい。さらに、画像処理部110により当該乳児を抱いている人が女性でかつ30歳台と特定された場合、属性特定部170は、当該女性は当該乳児の母親であると特定してもよい。さらに属性特定部170は、その母親の傍らに居る(第1距離が30cm未満)男性かつ30歳台の人物は父親と特定してもよい。
 他の例では、車椅子の利用者は、バリアフリーの設備が完備されている避難所に振り分けられるのが好ましい。このため、画像処理部110により車椅子に乗っていることが特定された人物を属性特定部170は車椅子利用者であると特定する。
 属性特定部170は、さらに、画像処理部110により特定された属性に基づいて、複数の人をグループ化して当該グループ内の各人の属性に基づいて、人員構成(家族構成)を特定してもよい。属性特定部170は、複数の人を同じグループとする操作入力を受け付けることによりグループ化してもよいし、画像処理により第1距離が基準値以下となった人の組みをグループ化してもよい。このときの基準値は上記実施形態で感染リスト情報を生成する際に使用した基準値よりも小さい値、例えば、30cm以下とする。
 さらに、属性特定部170は、さらに詳細な各人の属性について操作入力を受け付けてもよい。避難所、役場などで管理者または各人に、操作端末(例えば、スマートフォンやタブレット端末)を用いて、入力画面(不図示)において各種質問に回答する形式で各種属性情報を入力させてもよい。
 さらに、各人が端末を用いて自宅や外出先でインターネット上に公開されているウェブサイトにアクセスして、入力フォームにおいて各種質問に回答する形式で各種属性情報を入力させてもよい。そして属性特定部170は入力フォームに入力された属性情報を受け付けることができる。自宅や外出先の場合、各人の端末のカメラを用いて各人の写真を撮像させて、撮像画像をウェブサイトにアップロードさせることで、画像処理部110は、処理対象となる画像を取得してもよい。
 属性特定部170は、操作入力された各人の属性情報を取得し、各人の属性を特定する。取得される属性情報は、具体的には、各人の既往歴、現在の傷病状態(高血圧、糖尿病、骨折、怪我、感染状況、抗体情報を含む)、アレルギの有無、オムツの利用の有無、調乳母乳離乳食の要否、食事制限の有無などの情報を含んでもよい。
 制御部160は、属性特定部170によって特定された属性に応じて、所定の場所が所定の状態になるように、人の移動および配置の少なくとも一方を提案する情報を出力装置40に出力させる。出力装置40の一例は図7の表示部140である。
 所定の場所は、例えば、災害時などに人が集まる避難場所である。避難場所は、例えば、学校(教室、体育館)、公共施設、ホテル、オフィス、倉庫などである。災害などが発生したとき、人々は最寄りの避難場所にそれぞれ避難する。画像処理部110が画像処理の対象する画像に映る人は、(1)避難場所に避難済みの人、(2)避難場所に避難してきて、受け付けに並んでいる人、(3)避難場所にこれから避難するために所定の場所に集まっている人、および(4)避難場所にこれから避難しようとしている人の少なくとも一つを含む。この例では、制御部160は、各避難場所の感染リスクが高くならないように、人の避難先の割り振りを行う。最も単純な例では、制御部160は、各避難場所の収容人数を超えないように避難先の割り振りを行う。
 各避難場所について、その属性情報152は記憶部150に記憶されている。避難場所の属性情報152は、例えば、収容人数、各部屋の配置(出入口、トイレに近いか否か)、バリアフリー適否、階段、エレベータ、エスカレーターの有無、設備(授乳室、車椅子用トイレの有無)、看護師、医師、保健師などの駐在の有無などの少なくともいずれか一つの情報を含む。
 図20は、各避難所の属性情報152のデータ構造の一例を示す図である。この例では、例えば、各避難所の識別情報と、収容人数と、車椅子に対応している設備を有しているか否かを示す情報(例えば、対応している場合は「1」、対応していない場合は「0」)、乳児に対応している設備を有しているか否かを示す情報(例えば、対応している場合は「1」、対応していない場合は「0」)などが記憶されている。制御部160は、この属性情報152に基づいて、各人にあった避難先を割り振ることができる。
 また、他の例では、人の属性(例えば、乳児、高齢者、車椅子利用者など)に対して、必要な避難所の属性(例えば、乳児に対して授乳室、保健師駐在、高齢者に対してバリアフリー適用、看護師駐在、車椅子利用者に対して車椅子対応トイレの有無など)を対応テーブルに対応付けておいてもよい。属性特定部170は、特定された各人の属性に対応する必要な避難所の属性を特定し、制御部160は、当該属性を有している避難所を属性情報152から候補として抽出してもよい。
 抽出された避難場所が、当該人の避難先の候補となる。制御部160は、この抽出された避難場所の情報を当該人の避難先として表示部140に表示させてもよい。
 制御部160による上記情報の表示は、人毎でもよいし、グループ(家族)毎でもよいし、所定の人数分ずつ、あるいは、所定の期間毎に行われてよい。例えば、一人または家族単位で属性を特定し、避難先を当該人または家族に提示(例えば、表示部140に表示させる)してもよい。あるいは、所定期間、例えば、午前中に複数の人の属性情報を受け付け、当該期間に受け付けた複数の人について、避難先をそれぞれ割り振った結果を提示(例えば、プリンタ(不図示)に印字出力させる)してもよい。
 図21は、画像処理装置10が行う処理の第8例を示すフローチャートである。画像処理装置10は、図5、図7、図11、図12、又は図16に示した処理に加えて、本図に示した処理も行う。また画像処理装置10は、さらに図13及び図15に示した処理の少なくとも一方を行ってもよい。
 本図の例において、画像処理部110は、画像に映る人の属性(例えば、性別と年齢、あるいは、車椅子利用の有無など)を特定し、属性特定部170は、さらに、各人の詳細な属性(乳児と家族(母親と父親)など)を特定する(ステップS400)。そして、属性特定部170は、各対象領域(この例では避難所)の属性情報152を記憶部150に記憶させている。なお、これら複数の対象領域(避難所)は、人の流れにおいて互いに関連している。一例として、これら複数の対象領域は互いに隣り合っていてもよいし、同一の道路や鉄道(地下鉄)に沿っていてもよい。
 そして、制御部160は、属性情報152を参照し、特定された人の属性に対応してる避難所を抽出する(ステップS410)。制御部160は、少なくとも一つの避難所を避難先の候補として表示部140に表示させる(ステップS420)。
 図22は、画像処理装置10が行う処理の第9例を示すフローチャートである。この例では、図21のフローチャートのステップS410とステップS420の間にステップS430~ステップS450を有している。画像処理装置10は、図5、図7、図11、図12、又は図16に示した処理に加えて、本図に示した処理も行う。また画像処理装置10は、さらに図13及び図15に示した処理の少なくとも一方を行ってもよい。この例では、画像処理装置10は、図2のリスク情報生成部120をさらに備えている。
 制御部160は、抽出された避難場所に関して、上記実施形態のリスク情報生成部120により生成される感染リスク情報を取得する(ステップS430)。具体的には、まず、各避難場所を対象領域として、リスク情報生成部120により感染リスク情報を生成させる。ステップS440~ステップS450の処理は、ステップS410で抽出された避難所の候補毎に繰り返し実行されてよい。制御部160は記憶部150の避難所の感染リスク情報を参照し、当該避難所の近接指標が基準を満たしている場合(ステップS440のYES)、当該避難所を避難先の候補から除外する(ステップS450)。つまり、既に多くの人が避難していて感染リスクが高まっている避難所は、避難先の候補から除外する。そして、制御部160は、表示部140に避難先の候補を表示させる(ステップS420)。近接指標が基準を満たしている場合(ステップS440のNO)、ステップS450はバイパスしてステップS420に進む。
 また、この例では、所定の場所は、災害時などに人々が避難する避難所であるため、避難所における感染症にかかるリスクが基準を満たさないように、つまり、感染リスクが高くならないように、または感染症にかからない安全率が低下しないように、制御部160は各人の避難先の割り振りを行うのが好ましい。割り振る際の条件は例えば、以下に例示されるがこれらに限定されない。
(条件例1)避難所の収容人数を超えないように割り振る。
(条件例2)人の属性に適した設備を有している避難所に割り振る。
(条件例3)現在地(撮像装置20の位置情報または携帯端末などから位置情報を取得)から避難所までの移動距離(各避難所間の住所から算出)、移動手段(最寄りの路線、駅、およびバス停等の情報から特定)が、人の属性に適している避難所に割り振る。
(条件例4)高齢者や高血圧や糖尿病など、感染症にかかるリスクが健常者よりも高い人は、同じ避難所に割り振る。あるいは、他の避難所より感染リスクが低い避難所(収容人数が所定人数未満など)に割り振る。これにより、感染症にかかるリスクが高い人を感染症にかかるリスクから守ることができる可能性が高まる。
 また、感染リスクが健常者より高い属性を有している人物(例えば、高齢者、高血圧、糖尿病の人)の近接指標の基準と、健常者の近接指標の基準を変えてもよい。例えば、感染リスクが高い人の基準を健常者の基準より低く設定する。つまり、感染リスクが高い人については、健常者よりも避難所の密状態の程度が低い段階で当該避難所を避難先の候補から除外することで、基準よりも密状態の程度が低い避難所を避難先の候補とすることができる。
 また、候補として特定された避難所の現在の感染リスク情報を、制御部160は、表示部140に表示させてもよい。係員が現在の状況を確認の上で、避難先を指示してもよい。さらに、候補として特定された避難所の属性情報152を、制御部160は表示部140に表示させてもよい。
 以上、本実施形態によれば、画像処理装置10の画像処理部110は、所定の場所に移動または配置される人を撮像した画像を処理することにより、画像に映る人の属性を特定する。そして、属性特定部170は、画像処理部110により特定された属性に基づいて、各人の属性をさらに特定する。属性特定部170は、例えば、乳児や車椅子利用者など特定の設備を有している避難所を避難先とすることが望ましい人の属性を特定する。これにより、制御部160は、当該人の属性に適した属性を有している避難所を避難先の候補として抽出し、表示部140に表示させる。このため、避難してきた人を適切な避難所に振り分けることができる。そして、制御部160は、高齢者など特に感染症にかかるリスクが高い人を同じ避難先にまとめたり、収容人数が少ない避難所、つまり、感染症にかかるリスクが低い場所を避難先として選択したりして出力する。このため、感染症にかかるリスクが高い人を守ることができ、感染拡大を防止できる可能性が高まる。このため、対象とする場所で感染症にかかる可能性を低減するための手段を把握または実行しやすくすることができる。
 以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
 また、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態は、内容が相反しない範囲で組み合わせることができる。
 また、本発明において人物に関する情報を取得、利用する場合は、これを適法に行うものとする。
 上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。

1. 対象領域の画像を処理することにより、前記画像に映る複数の人の近接状態に関する指標である近接指標を算出する画像処理手段と、
 前記近接指標が基準を満たした場合、所定装置に所定の制御を実行させる制御手段と、を備える、画像処理装置。
2. 1.に記載の画像処理装置において、
 前記制御手段は、前記対象領域の前記近接指標に関する情報を出力装置に出力させる、画像処理装置。
3. 1.または2.に記載の画像処理装置において、
 前記画像処理手段は、
  前記人別に、当該人に最も近い前記人までの距離である第1距離を算出し、
  前記第1距離が基準値以下になった回数をカウントし、
 前記近接指標は、前記第1距離が基準値以下になった回数を用いて設定されている画像処理装置。
4. 3.に記載の画像処理装置において、
 前記近接指標は、前記回数に対して設定された基準値であり、
 前記基準値として複数の値が設定されており、
 前記制御手段は、前記対象領域の前記近接指標に関する情報とともに、当該対象領域において前記回数が満たした前記値を示す情報を出力装置に出力させる画像処理装置。
5. 3.又は4.に記載の画像処理装置において、
 前記画像処理手段は、複数のタイミングで生成された前記画像を処理することにより、前記第1距離が基準値以下になった状態を検出したときに、当該状態が継続した時間を算出し、
 前記近接指標は、記第1距離が基準値以下になった状態が基準時間以上継続した回数を用いて設定されている画像処理装置。
6. 1.から5.のいずれか一つに記載の画像処理装置において、
 前記所定装置は、前記対象領域への入場ゲートであり、
 前記制御手段は、前記近接指標が基準を満たした場合、前記入場ゲートを閉じる、画像処理装置。
7. 1.から6.のいずれか一つに記載の画像処理装置において、
 前記制御手段は、前記近接指標が基準を満たした場合、前記対象領域を所定の状態にするための対策を示す対策情報を出力装置に出力させる、画像処理装置。
8. 1.から7.のいずれか一つに記載の画像処理装置において、
 前記画像処理手段は、さらに、前記画像に映る前記人の属性を特定し、
 前記制御手段は、特定された前記属性に応じて、前記対象領域が所定の状態になるように、前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる、画像処理装置。
9. 8.に記載の画像処理装置において、
 前記対象領域は複数の場所を含み、
 前記制御手段は、さらに、前記対象領域の各場所の属性に応じて、前記対象領域の各場所が所定の状態になるように、各前記場所における前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる、画像処理装置。
10. 1.から9.のいずれか一つに記載の画像処理装置において、
 前記画像は、施設を撮影した画像である画像処理装置。
11. 10.に記載の画像処理装置において、
 前記施設はショッピングモール、空港、駅、病院、又は店舗である画像処理装置。
12. コンピュータが、
  対象領域の画像を処理することにより、前記画像に映る複数の人の近接状態に関する指標である近接指標を算出する画像処理と、
  前記近接指標が基準を満たした場合、所定装置に所定の制御を実行させる制御処理と、
を行う画像処理方法。
13 12.に記載の画像処理方法において、
 前記制御処理において、前記コンピュータは、前記対象領域の前記近接指標に関する情報を出力装置に出力させる、画像処理方法。
14. 12.または13.に記載の画像処理方法において、
 前記画像処理において、前記コンピュータは、
  前記人別に、当該人に最も近い前記人までの距離である第1距離を算出し、
  前記第1距離が基準値以下になった回数をカウントし、
 前記近接指標は、前記第1距離が基準値以下になった回数を用いて設定されている、画像処理方法。
15. 14.に記載の画像処理方法において、
 前記近接指標は、前記回数に対して設定された基準値であり、
 前記基準値として複数の値が設定されており、
 前記制御処理において、前記コンピュータは、前記対象領域の前記近接指標に関する情報とともに、当該対象領域において前記回数が満たした前記値を示す情報を出力装置に出力させる、画像処理方法。
16. 14.又は15.に記載の画像処理方法において、
 前記画像処理において、前記コンピュータは、複数のタイミングで生成された前記画像を処理することにより、前記第1距離が基準値以下になった状態を検出したときに、当該状態が継続した時間を算出し、
 前記近接指標は、記第1距離が基準値以下になった状態が基準時間以上継続した回数を用いて設定されている、画像処理方法。
17. 12.から16.のいずれか一つに記載の画像処理方法において、
 前記所定装置は、前記対象領域への入場ゲートであり、
 前記制御処理において、前記コンピュータは、前記近接指標が基準を満たした場合、前記入場ゲートを閉じる、画像処理方法。
18. 12.から17.のいずれか一つに記載の画像処理方法において、
 前記制御処理において、前記コンピュータは、前記近接指標が基準を満たした場合、前記対象領域を所定の状態にするための対策を示す対策情報を出力装置に出力させる、画像処理方法。
19. 12.から18.のいずれか一つに記載の画像処理方法において、
 前記画像処理において、前記コンピュータは、さらに、前記画像に映る前記人の属性を特定し、
 前記制御処理において、前記コンピュータは、特定された前記属性に応じて、前記対象領域が所定の状態になるように、前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる、画像処理方法。
20. 19.に記載の画像処理方法において、
 前記対象領域は複数の場所を含み、
 前記制御処理において、前記コンピュータは、さらに、前記対象領域の各場所の属性に応じて、前記対象領域の各場所が所定の状態になるように、各前記場所における前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる、画像処理方法。
21. 12.から20.のいずれか一つに記載の画像処理方法において、
 前記画像は、施設を撮影した画像である画像処理方法。
22. 21.に記載の画像処理方法において、
 前記施設はショッピングモール、空港、駅、病院、又は店舗である画像処理方法。
23. コンピュータに、
 対象領域の画像を処理することにより、前記画像に映る複数の人の近接状態に関する指標である近接指標を算出する画像処理機能と、
 前記近接指標が基準を満たした場合、所定装置に所定の制御を実行させる制御機能と、
を持たせるプログラム。
24. 23.に記載のプログラムにおいて、
 前記制御機能は、前記対象領域の前記近接指標に関する情報を出力装置に出力させる、プログラム。
25. 23.または24.に記載のプログラムにおいて、
 前記画像処理機能は、
  前記人別に、当該人に最も近い前記人までの距離である第1距離を算出し、
  前記第1距離が基準値以下になった回数をカウントし、
 前記近接指標は、前記第1距離が基準値以下になった回数を用いて設定されているプログラム。
26. 25.に記載のプログラムにおいて、
 前記近接指標は、前記回数に対して設定された基準値であり、
 前記基準値として複数の値が設定されており、
 前記制御機能は、前記対象領域の前記近接指標に関する情報とともに、当該対象領域において前記回数が満たした前記値を示す情報を出力装置に出力させる、プログラム。
27. 25.又は26.に記載のプログラムにおいて、
 前記画像処理機能は、複数のタイミングで生成された前記画像を処理することにより、前記第1距離が基準値以下になった状態を検出したときに、当該状態が継続した時間を算出し、
 前記近接指標は、記第1距離が基準値以下になった状態が基準時間以上継続した回数を用いて設定されている、プログラム。
28. 23.から27.のいずれか一つに記載のプログラムにおいて、
 前記所定装置は、前記対象領域への入場ゲートであり、
 前記制御機能は、前記近接指標が基準を満たした場合、前記入場ゲートを閉じる、プログラム。
29. 23.から28.のいずれか一つに記載のプログラムにおいて、
 前記制御機能は、前記近接指標が基準を満たした場合、前記対象領域を所定の状態にするための対策を示す対策情報を出力装置に出力させる、プログラム。
30. 23.から29.のいずれか一つに記載のプログラムにおいて、
 前記画像処理機能は、さらに、前記画像に映る前記人の属性を特定させ、
 前記制御機能において、特定された前記属性に応じて、前記対象領域が所定の状態になるように、前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる、プログラム。
31. 30.に記載のプログラムにおいて、
 前記対象領域は複数の場所を含み、
 前記制御機能は、さらに、前記対象領域の各場所の属性に応じて、前記対象領域の各場所が所定の状態になるように、各前記場所における前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる、プログラム。
32. 23.から31.のいずれか一つに記載のプログラムにおいて、
 前記画像は、施設を撮影した画像であるプログラム。
33. 32.に記載のプログラムにおいて、
 前記施設はショッピングモール、空港、駅、病院、又は店舗であるプログラム。
34.所定の場所に移動または配置される人を撮像した画像を処理することにより、前記画像に映る前記人の属性を特定する画像処理手段と、
 特定された前記属性に応じて、前記所定の場所が所定の状態になるように、前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる制御手段と、を備える画像処理装置。
35. 34.に記載の画像処理装置において、
 前記所定の場所は複数の場所を含み、
 前記制御手段は、さらに、各前記場所の属性に応じて、各前記場所が所定の状態になるように、各前記場所における前記人の移動および配置の少なくとも一方を提案する情報を前記出力装置に出力させる、画像処理装置。
36. 34.または35.に記載の画像処理装置において、
 前記画像処理手段は、各前記場所の画像を処理することにより、前記画像に映る複数の人の近接状態に関する指標である近接指標を算出し、
 前記制御手段は、前記近接指標が基準を満たした場合、前記提案する情報において、当該場所を、前記人の移動および配置の対象から除外する、画像処理装置。
37. コンピュータが、
 所定の場所に移動または配置される人を撮像した画像を処理することにより、前記画像に映る前記人の属性を特定する画像処理と、
 特定された前記属性に応じて、前記所定の場所が所定の状態になるように、前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる出力制御処理と、を行う画像処理方法。
38. 37.に記載の画像処理方法において、
 前記所定の場所は複数の場所を含み、
 前記出力制御処理において、前記コンピュータは、さらに、各前記場所の属性に応じて、各前記場所が所定の状態になるように、各前記場所における前記人の移動および配置の少なくとも一方を提案する情報を前記出力装置に出力させる、画像処理方法。
39. 37.または38.に記載の画像処理方法において、
 前記画像処理において、前記コンピュータは、各前記場所の画像を処理することにより、前記画像に映る複数の人の近接状態に関する指標である近接指標を算出し、
 前記出力制御処理において、前記コンピュータは、前記近接指標が基準を満たした場合、前記提案する情報において、当該場所を、前記人の移動および配置の対象から除外する、画像処理方法。
40. コンピュータに、
 所定の場所に移動または配置される人を撮像した画像を処理することにより、前記画像に映る前記人の属性を特定する画像処理機能と、
 特定された前記属性に応じて、前記所定の場所が所定の状態になるように、前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる制御機能と、を持たせるプログラム。
41. 40.に記載のプログラムにおいて、
 前記所定の場所は複数の場所を含み、
 前記制御機能は、さらに、各前記場所の属性に応じて、各前記場所が所定の状態になるように、各前記場所における前記人の移動および配置の少なくとも一方を提案する情報を前記出力装置に出力させる、プログラム。
42. 40.または41.に記載のプログラムにおいて、
 前記画像処理機能は、各前記場所の画像を処理することにより、前記画像に映る複数の人の近接状態に関する指標である近接指標を算出し、
 前記制御機能は、前記近接指標が基準を満たした場合、前記提案する情報において、当該場所を、前記人の移動および配置の対象から除外する、プログラム。
 この出願は、2020年6月5日に出願された日本出願特願2020-098402号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10 画像処理装置
20 撮像装置
110 画像処理部
120 リスク情報生成部
130 表示制御部
140 表示部
150 記憶部
160 制御部
170 属性特定部 

Claims (42)

  1.  対象領域の画像を処理することにより、前記画像に映る複数の人の近接状態に関する指標である近接指標を算出する画像処理手段と、
     前記近接指標が基準を満たした場合、所定装置に所定の制御を実行させる制御手段と、を備える、画像処理装置。
  2.  請求項1に記載の画像処理装置において、
     前記制御手段は、前記対象領域の前記近接指標に関する情報を出力装置に出力させる、画像処理装置。
  3.  請求項1または2に記載の画像処理装置において、
     前記画像処理手段は、
      前記人別に、当該人に最も近い前記人までの距離である第1距離を算出し、
      前記第1距離が基準値以下になった回数をカウントし、
     前記近接指標は、前記第1距離が基準値以下になった回数を用いて設定されている画像処理装置。
  4.  請求項3に記載の画像処理装置において、
     前記近接指標は、前記回数に対して設定された基準値であり、
     前記基準値として複数の値が設定されており、
     前記制御手段は、前記対象領域の前記近接指標に関する情報とともに、当該対象領域において前記回数が満たした前記値を示す情報を出力装置に出力させる画像処理装置。
  5.  請求項3又は4に記載の画像処理装置において、
     前記画像処理手段は、複数のタイミングで生成された前記画像を処理することにより、前記第1距離が基準値以下になった状態を検出したときに、当該状態が継続した時間を算出し、
     前記近接指標は、記第1距離が基準値以下になった状態が基準時間以上継続した回数を用いて設定されている画像処理装置。
  6.  請求項1から5のいずれか一項に記載の画像処理装置において、
     前記所定装置は、前記対象領域への入場ゲートであり、
     前記制御手段は、前記近接指標が基準を満たした場合、前記入場ゲートを閉じる、画像処理装置。
  7.  請求項1から6のいずれか一項に記載の画像処理装置において、
     前記制御手段は、前記近接指標が基準を満たした場合、前記対象領域を所定の状態にするための対策を示す対策情報を出力装置に出力させる、画像処理装置。
  8.  請求項1から7のいずれか一項に記載の画像処理装置において、
     前記画像処理手段は、さらに、前記画像に映る前記人の属性を特定し、
     前記制御手段は、特定された前記属性に応じて、前記対象領域が所定の状態になるように、前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる、画像処理装置。
  9.  請求項8に記載の画像処理装置において、
     前記対象領域は複数の場所を含み、
     前記制御手段は、さらに、前記対象領域の各場所の属性に応じて、前記対象領域の各場所が所定の状態になるように、各前記場所における前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる、画像処理装置。
  10.  請求項1から9のいずれか一項に記載の画像処理装置において、
     前記画像は、施設を撮影した画像である画像処理装置。
  11.  請求項10に記載の画像処理装置において、
     前記施設はショッピングモール、空港、駅、病院、又は店舗である画像処理装置。
  12.  コンピュータが、
      対象領域の画像を処理することにより、前記画像に映る複数の人の近接状態に関する指標である近接指標を算出する画像処理と、
      前記近接指標が基準を満たした場合、所定装置に所定の制御を実行させる制御処理と、
    を行う画像処理方法。
  13.  請求項12に記載の画像処理方法において、
     前記制御処理において、前記コンピュータは、前記対象領域の前記近接指標に関する情報を出力装置に出力させる、画像処理方法。
  14.  請求項12または13に記載の画像処理方法において、
     前記画像処理において、前記コンピュータは、
      前記人別に、当該人に最も近い前記人までの距離である第1距離を算出し、
      前記第1距離が基準値以下になった回数をカウントし、
     前記近接指標は、前記第1距離が基準値以下になった回数を用いて設定されている、画像処理方法。
  15.  請求項14に記載の画像処理方法において、
     前記近接指標は、前記回数に対して設定された基準値であり、
     前記基準値として複数の値が設定されており、
     前記制御処理において、前記コンピュータは、前記対象領域の前記近接指標に関する情報とともに、当該対象領域において前記回数が満たした前記値を示す情報を出力装置に出力させる、画像処理方法。
  16.  請求項14又は15に記載の画像処理方法において、
     前記画像処理において、前記コンピュータは、複数のタイミングで生成された前記画像を処理することにより、前記第1距離が基準値以下になった状態を検出したときに、当該状態が継続した時間を算出し、
     前記近接指標は、記第1距離が基準値以下になった状態が基準時間以上継続した回数を用いて設定されている、画像処理方法。
  17.  請求項12から16のいずれか一項に記載の画像処理方法において、
     前記所定装置は、前記対象領域への入場ゲートであり、
     前記制御処理において、前記コンピュータは、前記近接指標が基準を満たした場合、前記入場ゲートを閉じる、画像処理方法。
  18.  請求項12から17のいずれか一項に記載の画像処理方法において、
     前記制御処理において、前記コンピュータは、前記近接指標が基準を満たした場合、前記対象領域を所定の状態にするための対策を示す対策情報を出力装置に出力させる、画像処理方法。
  19.  請求項12から18のいずれか一項に記載の画像処理方法において、
     前記画像処理において、前記コンピュータは、さらに、前記画像に映る前記人の属性を特定し、
     前記制御処理において、前記コンピュータは、特定された前記属性に応じて、前記対象領域が所定の状態になるように、前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる、画像処理方法。
  20.  請求項19に記載の画像処理方法において、
     前記対象領域は複数の場所を含み、
     前記制御処理において、前記コンピュータは、さらに、前記対象領域の各場所の属性に応じて、前記対象領域の各場所が所定の状態になるように、各前記場所における前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる、画像処理方法。
  21.  請求項12から20のいずれか一項に記載の画像処理方法において、
     前記画像は、施設を撮影した画像である画像処理方法。
  22.  請求項21に記載の画像処理方法において、
     前記施設はショッピングモール、空港、駅、病院、又は店舗である画像処理方法。
  23.  コンピュータに、
      対象領域の画像を処理することにより、前記画像に映る複数の人の近接状態に関する指標である近接指標を算出する画像処理機能と、
      前記近接指標が基準を満たした場合、所定装置に所定の制御を実行させる制御機能と、
    を持たせるプログラム。
  24.  請求項23に記載のプログラムにおいて、
     前記制御機能は、前記対象領域の前記近接指標に関する情報を出力装置に出力させる、プログラム。
  25.  請求項23または24に記載のプログラムにおいて、
     前記画像処理機能は、
      前記人別に、当該人に最も近い前記人までの距離である第1距離を算出し、
      前記第1距離が基準値以下になった回数をカウントし、
     前記近接指標は、前記第1距離が基準値以下になった回数を用いて設定されているプログラム。
  26.  請求項25に記載のプログラムにおいて、
     前記近接指標は、前記回数に対して設定された基準値であり、
     前記基準値として複数の値が設定されており、
     前記制御機能は、前記対象領域の前記近接指標に関する情報とともに、当該対象領域において前記回数が満たした前記値を示す情報を出力装置に出力させる、プログラム。
  27.  請求項25又は26に記載のプログラムにおいて、
     前記画像処理機能は、複数のタイミングで生成された前記画像を処理することにより、前記第1距離が基準値以下になった状態を検出したときに、当該状態が継続した時間を算出し、
     前記近接指標は、記第1距離が基準値以下になった状態が基準時間以上継続した回数を用いて設定されている、プログラム。
  28.  請求項23から27のいずれか一項に記載のプログラムにおいて、
     前記所定装置は、前記対象領域への入場ゲートであり、
     前記制御機能は、前記近接指標が基準を満たした場合、前記入場ゲートを閉じる、プログラム。
  29.  請求項23から28のいずれか一項に記載のプログラムにおいて、
     前記制御機能は、前記近接指標が基準を満たした場合、前記対象領域を所定の状態にするための対策を示す対策情報を出力装置に出力させる、プログラム。
  30.  請求項23から29のいずれか一項に記載のプログラムにおいて、
     前記画像処理機能は、さらに、前記画像に映る前記人の属性を特定させ、
     前記制御機能において、特定された前記属性に応じて、前記対象領域が所定の状態になるように、前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる、プログラム。
  31.  請求項30に記載のプログラムにおいて、
     前記対象領域は複数の場所を含み、
     前記制御機能は、さらに、前記対象領域の各場所の属性に応じて、前記対象領域の各場所が所定の状態になるように、各前記場所における前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる、プログラム。
  32.  請求項23から31のいずれか一項に記載のプログラムにおいて、
     前記画像は、施設を撮影した画像であるプログラム。
  33.  請求項32に記載のプログラムにおいて、
     前記施設はショッピングモール、空港、駅、病院、又は店舗であるプログラム。
  34.  所定の場所に移動または配置される人を撮像した画像を処理することにより、前記画像に映る前記人の属性を特定する画像処理手段と、
     特定された前記属性に応じて、前記所定の場所が所定の状態になるように、前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる制御手段と、を備える画像処理装置。
  35.  請求項34に記載の画像処理装置において、
     前記所定の場所は複数の場所を含み、
     前記制御手段は、さらに、各前記場所の属性に応じて、各前記場所が所定の状態になるように、各前記場所における前記人の移動および配置の少なくとも一方を提案する情報を前記出力装置に出力させる、画像処理装置。
  36.  請求項34または35に記載の画像処理装置において、
     前記画像処理手段は、各前記場所の画像を処理することにより、前記画像に映る複数の人の近接状態に関する指標である近接指標を算出し、
     前記制御手段は、前記近接指標が基準を満たした場合、前記提案する情報において、当該場所を、前記人の移動および配置の対象から除外する、画像処理装置。
  37.  コンピュータが、
     所定の場所に移動または配置される人を撮像した画像を処理することにより、前記画像に映る前記人の属性を特定する画像処理と、
     特定された前記属性に応じて、前記所定の場所が所定の状態になるように、前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる出力制御処理と、を行う画像処理方法。
  38.  請求項37に記載の画像処理方法において、
     前記所定の場所は複数の場所を含み、
     前記出力制御処理において、前記コンピュータは、さらに、各前記場所の属性に応じて、各前記場所が所定の状態になるように、各前記場所における前記人の移動および配置の少なくとも一方を提案する情報を前記出力装置に出力させる、画像処理方法。
  39.  請求項37または38に記載の画像処理方法において、
     前記画像処理において、前記コンピュータは、各前記場所の画像を処理することにより、前記画像に映る複数の人の近接状態に関する指標である近接指標を算出し、
     前記出力制御処理において、前記コンピュータは、前記近接指標が基準を満たした場合、前記提案する情報において、当該場所を、前記人の移動および配置の対象から除外する、画像処理方法。
  40.  コンピュータに、
     所定の場所に移動または配置される人を撮像した画像を処理することにより、前記画像に映る前記人の属性を特定する画像処理機能と、
     特定された前記属性に応じて、前記所定の場所が所定の状態になるように、前記人の移動および配置の少なくとも一方を提案する情報を出力装置に出力させる制御機能と、を持たせるプログラム。
  41.  請求項40に記載のプログラムにおいて、
     前記所定の場所は複数の場所を含み、
     前記制御機能は、さらに、各前記場所の属性に応じて、各前記場所が所定の状態になるように、各前記場所における前記人の移動および配置の少なくとも一方を提案する情報を前記出力装置に出力させる、プログラム。
  42.  請求項40または41に記載のプログラムにおいて、
     前記画像処理機能は、各前記場所の画像を処理することにより、前記画像に映る複数の人の近接状態に関する指標である近接指標を算出し、
     前記制御機能は、前記近接指標が基準を満たした場合、前記提案する情報において、当該場所を、前記人の移動および配置の対象から除外する、プログラム。
PCT/JP2021/015553 2020-06-05 2021-04-15 画像処理装置、画像処理方法、及びプログラム WO2021246062A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/007,969 US20230307138A1 (en) 2020-06-05 2021-04-15 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2022528471A JP7494907B2 (ja) 2020-06-05 2021-04-15 画像処理装置、画像処理方法、及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-098402 2020-06-05
JP2020098402 2020-06-05

Publications (1)

Publication Number Publication Date
WO2021246062A1 true WO2021246062A1 (ja) 2021-12-09

Family

ID=78830337

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/015553 WO2021246062A1 (ja) 2020-06-05 2021-04-15 画像処理装置、画像処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US20230307138A1 (ja)
JP (1) JP7494907B2 (ja)
WO (1) WO2021246062A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114463941A (zh) * 2021-12-30 2022-05-10 中国电信股份有限公司 防溺水告警方法、装置及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009015596A (ja) * 2007-07-04 2009-01-22 Mitsubishi Space Software Kk チケッティングシステム、チケッティングプログラム及びチケッティング方法
JP2010211510A (ja) * 2009-03-10 2010-09-24 Oki Networks Co Ltd 入退場管理装置、入退場管理方法、およびプログラム
WO2019031002A1 (ja) * 2017-08-08 2019-02-14 ソニー株式会社 制御システムおよび制御方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6447108B2 (ja) * 2014-12-24 2019-01-09 富士通株式会社 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム
JP2017052578A (ja) * 2015-09-07 2017-03-16 株式会社日立ビルシステム エレベーター用乗りかご到着時の降車状況予測提示方法及び装置
CN207228938U (zh) * 2017-07-12 2018-04-13 东北林业大学 一种新型智能密码防盗门
JP2019111625A (ja) * 2017-12-25 2019-07-11 カシオ計算機株式会社 情報処理装置、ロボット、情報処理方法及びプログラム
JP6915673B2 (ja) * 2018-01-31 2021-08-04 日本電気株式会社 情報処理システム
US10572738B2 (en) * 2018-05-16 2020-02-25 360Ai Solutions Llc Method and system for detecting a threat or other suspicious activity in the vicinity of a person or vehicle
CN109584409B (zh) * 2018-10-11 2022-02-01 深圳市上和科技有限公司 一种通道匝系统
KR101988486B1 (ko) 2018-10-29 2019-06-12 한국건설기술연구원 감염병 확산방지를 위한 상시 검역 및 방역 기능의 스마트 터널
GB2578789A (en) * 2018-11-09 2020-05-27 Sony Corp A method, apparatus and computer program for image processing
CN109712719A (zh) 2018-12-29 2019-05-03 杭州平普智能科技有限公司 一种基于传染病源的人群隔离方法和装置
CN110047173A (zh) * 2019-02-25 2019-07-23 深圳市赛亿科技开发有限公司 智能门锁的控制方法及控制系统、计算机可读存储介质
CN111005647B (zh) * 2019-11-07 2021-04-27 宁波顺超轴承有限公司 一种地铁屏蔽门

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009015596A (ja) * 2007-07-04 2009-01-22 Mitsubishi Space Software Kk チケッティングシステム、チケッティングプログラム及びチケッティング方法
JP2010211510A (ja) * 2009-03-10 2010-09-24 Oki Networks Co Ltd 入退場管理装置、入退場管理方法、およびプログラム
WO2019031002A1 (ja) * 2017-08-08 2019-02-14 ソニー株式会社 制御システムおよび制御方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Automated Social Distancing Detection helps your workplace reopen safely", CAMIO, CAMIOLOG, INC., XP009532563, Retrieved from the Internet <URL:https://web.archive.org/web/20200520061113/https://www.camio.com/sd> [retrieved on 20210623] *
ANONYMOUS: "Social Distancing Alert System using AI ", LEEWAYHERTZ.COM, 20 May 2020 (2020-05-20), pages 1 - 13, XP055876691, Retrieved from the Internet <URL:https://www.leewayhertz.com/social-distancing-alert-system-ai/> [retrieved on 20220106] *
IKETANI, TSUBASA: "AI Measurements of Group Density, Video Analysis Solutions in Coronavirus Measures [AI measures crowd density, a video analysis solution that leads to measures against the new corona]", MONOIST, JP, XP009532562, Retrieved from the Internet <URL:https://web.archive.org/web/20200516035132/https://monoist.atmarkit.co.jp/mn/articles/2005/11/news043.html> *
MARCO CRISTANI; ALESSIO DEL BUE; VITTORIO MURINO; FRANCESCO SETTI; ALESSANDRO VINCIARELLI: "The Visual Social Distancing Problem", ARXIV.ORG, 11 May 2020 (2020-05-11), 201 Olin Library Cornell University Ithaca, NY 14853 , XP081666892 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114463941A (zh) * 2021-12-30 2022-05-10 中国电信股份有限公司 防溺水告警方法、装置及系统

Also Published As

Publication number Publication date
JPWO2021246062A1 (ja) 2021-12-09
JP7494907B2 (ja) 2024-06-04
US20230307138A1 (en) 2023-09-28

Similar Documents

Publication Publication Date Title
US11544953B2 (en) Methods and systems for identifying the crossing of a virtual barrier
US11363966B2 (en) Detecting unauthorized visitors
US11317853B2 (en) Method and system for determining whether a caretaker takes appropriate measures to prevent patient bedsores
US20210142633A1 (en) Methods and systems for detecting prohibited objects
JP6524518B2 (ja) 避難誘導装置、避難誘導方法、及び避難誘導プログラム
WO2021246062A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2024014971A (ja) 情報処理装置、表示方法、及びプログラム
Sugalski et al. Development and use of mobile containment units for the evaluation and treatment of potential Ebola virus disease patients in a United States hospital
JP7264065B2 (ja) 被監視者監視支援システムおよび被監視者監視支援方法
JP2021196889A (ja) ケア情報処理プログラム、ケア情報処理装置、およびケア情報処理システム
WO2021246079A1 (ja) 画像処理装置、画像処理方法、及びプログラム
Deb et al. Redesign of a railway coach for safe and independent travel of elderly
JP7433500B2 (ja) 移動管理システム、情報処理装置、プログラム
JP7251546B2 (ja) レポート出力プログラム、レポート出力方法、およびレポート出力装置
JP2021174190A (ja) コンピューターで実行される方法、プログラムおよび介護情報提供装置
WO2019163318A1 (ja) 監視記録作成支援システムおよび監視記録作成支援方法
JP2024090075A (ja) 配車システム
JP2023121961A (ja) 情報処理装置、情報処理システム、契約サービス提示方法、および制御プログラム
JP2023108852A (ja) 表示装置、表示システム、表示方法、および表示プログラム
TW202223911A (zh) 智慧醫院管理決策支援系統
JP2022190241A (ja) 情報処理装置、情報処理システム、解析結果提供方法、および制御プログラム
JP2021176038A (ja) 情報処理装置および情報処理プログラム
Mlekoday Rebuilding the ed
JP2020140418A (ja) 携帯端末の制御プログラム、携帯端末および見守りシステム
JP2021060730A (ja) 制御プログラム、情報処理装置、および情報処理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21817917

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022528471

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21817917

Country of ref document: EP

Kind code of ref document: A1