WO2022264357A1 - 混雑度特定装置、制御方法、及び非一時的なコンピュータ可読媒体 - Google Patents

混雑度特定装置、制御方法、及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2022264357A1
WO2022264357A1 PCT/JP2021/023032 JP2021023032W WO2022264357A1 WO 2022264357 A1 WO2022264357 A1 WO 2022264357A1 JP 2021023032 W JP2021023032 W JP 2021023032W WO 2022264357 A1 WO2022264357 A1 WO 2022264357A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
person
congestion
target vehicle
areas
Prior art date
Application number
PCT/JP2021/023032
Other languages
English (en)
French (fr)
Inventor
大地 佐藤
篤史 北裏
健一 阿部
ショウソ チョウ
大輔 川崎
薫 山根
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US18/274,590 priority Critical patent/US20240135716A1/en
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/023032 priority patent/WO2022264357A1/ja
Priority to JP2023528877A priority patent/JPWO2022264357A5/ja
Publication of WO2022264357A1 publication Critical patent/WO2022264357A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present disclosure relates to technology for grasping the degree of vehicle congestion.
  • Patent Literature 1 discloses a technique for accurately calculating the occupancy rate of a vehicle by using an image generated by a surveillance camera that captures the inside of the vehicle and calculating the occupancy rate by two methods.
  • a first method of calculating the occupancy rate is to use the total area of the vehicle occupied by each person.
  • a second method of calculating the occupancy rate is a method of calculating the ratio between the total number of people riding in the vehicle and the maximum number of people that can ride in the vehicle.
  • Patent Document 1 With the method of Patent Document 1, it is difficult to accurately identify the degree of vehicle congestion unless all persons in the vehicle are accurately detected.
  • the present disclosure has been made in view of this problem, and its object is to provide a new technique for identifying the degree of vehicle congestion.
  • the congestion degree identification device of the present disclosure includes an acquisition unit that acquires a captured image generated by a camera that captures an image of the inside of a target vehicle, and using the captured image, for each person in the target vehicle, Using a position specifying unit that specifies the area in which the person is located from among a plurality of areas in the vehicle, and the number of the people located in each of the two or more areas, the location of the target vehicle is determined. and a congestion degree identification unit that identifies the congestion degree.
  • the control method of the present disclosure is executed by a computer.
  • the control method includes an acquisition step of acquiring a captured image generated by a camera that captures an image of the inside of a target vehicle, and using the captured image, for each person in the target vehicle, a plurality of people in the target vehicle.
  • a position specifying step of specifying the area in which the person is located from among the areas, and specifying the degree of congestion of the target vehicle by using the number of the people located in each of the two or more areas. and a congestion degree identification step.
  • the non-transitory computer-readable medium of the present disclosure stores a program that causes a computer to execute the control method of the present disclosure.
  • a new technology for identifying the degree of vehicle congestion is provided.
  • FIG. 4 is a diagram exemplifying an overview of the operation of the congestion degree identifying device of Embodiment 1;
  • FIG. 2 is a block diagram illustrating the functional configuration of the congestion degree identification device of Embodiment 1;
  • FIG. It is a block diagram which illustrates the hardware constitutions of the computer which implement
  • 4 is a flow chart illustrating the flow of processing executed by the congestion degree identification device of the first embodiment; It is a figure which illustrates area information in a table form.
  • 10 is a diagram illustrating a case where an area overlapping a person is identified as an area where the person is located; 7 is a flowchart illustrating a flow of processing for identifying the degree of congestion of target vehicles based on the number of people in each area and the total number of people detected from captured images; 7 is a flowchart illustrating a flow of processing for identifying the degree of congestion of target vehicles based on the number of people in each area and the total number of people detected from captured images; It is a figure which illustrates congestion degree information in a table format.
  • predetermined values such as predetermined values and threshold values are stored in advance in a storage device or the like that can be accessed from a device that uses the values.
  • the storage unit is composed of one or more arbitrary number of storage devices.
  • FIG. 1 is a diagram illustrating an overview of the operation of the congestion degree identifying device 2000 of the first embodiment.
  • FIG. 1 is a diagram for facilitating an understanding of the overview of the congestion degree identifying device 2000, and the operation of the congestion degree identifying device 2000 is not limited to that shown in FIG.
  • the congestion degree identifying device 2000 identifies the degree of congestion for each of one or more vehicles of the target train.
  • the target train is any train for which the degree of congestion of vehicles is to be specified.
  • a vehicle whose degree of congestion is to be specified is hereinafter referred to as a target vehicle.
  • all the vehicles that make up the target train may be treated as the target vehicles, or only some of the vehicles that make up the target train may be treated as the target vehicles.
  • the degree of congestion of the target vehicle is specified based on the number of persons 30 in each of the multiple areas 20.
  • the area 20 is a partial area of the target vehicle, such as an area in front of the entrance/exit, a seat area, or an aisle area.
  • the target vehicle has seven areas 20-1 to 20-7.
  • Area 20-1 is an area in front of the boarding gate.
  • Areas 20-2 to 20-5 are seat areas.
  • Area 20-6 and area 20-7 are areas of passages, respectively.
  • a person 30 is any person in the target vehicle, such as a passenger. However, a person other than a passenger, such as a crew member riding in the target vehicle, may also be treated as the person 30 .
  • the congestion degree identification device 2000 acquires the captured image 50 .
  • the captured image 50 is generated by a camera provided inside the target vehicle (hereinafter referred to as an in-vehicle camera) so as to capture an image of the inside of the target vehicle.
  • an in-vehicle camera is set at a relatively high position such as the ceiling of the target vehicle so as to overlook the inside of the target vehicle.
  • the congestion degree identifying device 2000 By analyzing the captured image 50, the congestion degree identifying device 2000 identifies in which area 20 each person 30 captured by the in-vehicle camera is located. Furthermore, the congestion degree identifying device 2000 identifies the number of persons 30 in each of the two or more areas 20, and identifies the degree of congestion of the target vehicle based on the identified number of people.
  • a plurality of in-vehicle cameras that capture images of different locations are provided for one target vehicle.
  • the target vehicle has four entrances on each of the left and right sides.
  • one vehicle is provided with four in-vehicle cameras.
  • the congestion degree of the target vehicle may be identified using all four in-vehicle cameras, or may be identified using only some of the in-vehicle cameras. Details of this point will be described later.
  • the left and right entrances/exits are treated as one set.
  • the congestion level identification device 2000 of the present embodiment it is identified in which area 20 the person 30 in the target vehicle is located among the plurality of areas 20 included in the target vehicle. Then, based on the number of persons 30 in each of the two or more areas 20, the degree of congestion of the target vehicle is identified. As described above, according to the congestion degree identifying device 2000 of the present embodiment, a new technology for identifying the congestion degree of vehicles is provided.
  • the congestion level identification device 2000 identifies the number of persons 30 in each area 20 . Therefore, for example, by focusing on the number of people 30 in an area 20 that is less affected by obstacles (area 20 where most of them can be imaged by an in-vehicle camera), the existence of people 30 that cannot be detected by obstacles can be detected. , the influence on the accuracy of the degree of congestion of vehicles can be reduced.
  • the congestion degree identification device 2000 identifies the degree of congestion of the target vehicle based on the number of persons 30 in each of the two or more areas 20 .
  • a method of specifying the degree of congestion of target vehicles by focusing on only one specific area 20 is also conceivable. However, if only one specific area 20 is focused on, there is a possibility of erroneously determining that the entire vehicle is congested when only that area 20 happens to be congested.
  • the congestion level identification device 2000 uses the number of persons 30 in each of two or more areas 20. Therefore, even if only a specific area 20 happens to be congested, the situation of other areas 20 is also taken into consideration, so the degree of vehicle congestion can be specified more accurately.
  • the congestion degree identification device 2000 of this embodiment will be described in more detail below.
  • FIG. 2 is a block diagram illustrating the functional configuration of the congestion level identification device 2000 of the first embodiment.
  • Congestion degree identification device 2000 has acquisition unit 2020 , position identification unit 2040 , and congestion degree identification unit 2060 .
  • the acquisition unit 2020 acquires the captured image 50 .
  • the position specifying unit 2040 uses the captured image 50 to specify the area 20 where each person 30 is located.
  • the congestion degree identification unit 2060 identifies the number of persons 30 in each of the two or more areas 20, and identifies the congestion degree of the target vehicle based on the number.
  • Each functional configuration unit of the congestion degree identification device 2000 may be implemented by hardware (eg, hardwired electronic circuit, etc.) that implements each functional configuration unit, or may be implemented by a combination of hardware and software (eg, : a combination of an electronic circuit and a program that controls it, etc.).
  • hardware e.g, hardwired electronic circuit, etc.
  • software e.g, : a combination of an electronic circuit and a program that controls it, etc.
  • FIG. 3 is a block diagram illustrating the hardware configuration of the computer 500 that implements the congestion degree identification device 2000.
  • Computer 500 is any computer.
  • the computer 500 is a stationary computer such as a PC (Personal Computer) or a server machine.
  • the computer 500 is a portable computer such as a smart phone or a tablet terminal.
  • the computer 500 may be a dedicated computer designed to realize the congestion degree identifying device 2000, or may be a general-purpose computer.
  • the computer 500 implements each function of the congestion degree identifying device 2000.
  • the application is composed of a program for realizing each functional component of the congestion degree identifying device 2000 .
  • the acquisition method of the above program is arbitrary.
  • the program can be acquired from a storage medium (DVD disc, USB memory, etc.) in which the program is stored.
  • the program can be obtained by downloading the program from a server device that manages the storage device in which the program is stored.
  • Computer 500 has bus 502 , processor 504 , memory 506 , storage device 508 , input/output interface 510 and network interface 512 .
  • the bus 502 is a data transmission path through which the processor 504, memory 506, storage device 508, input/output interface 510, and network interface 512 exchange data with each other.
  • the method of connecting the processors 504 and the like to each other is not limited to bus connection.
  • the processor 504 is various processors such as a CPU (Central Processing Unit), GPU (Graphics Processing Unit), or FPGA (Field-Programmable Gate Array).
  • the memory 506 is a main memory implemented using a RAM (Random Access Memory) or the like.
  • the storage device 508 is an auxiliary storage device implemented using a hard disk, SSD (Solid State Drive), memory card, ROM (Read Only Memory), or the like.
  • the input/output interface 510 is an interface for connecting the computer 500 and input/output devices.
  • the input/output interface 510 is connected to an input device such as a keyboard and an output device such as a display device.
  • a network interface 512 is an interface for connecting the computer 500 to a network.
  • This network may be a LAN (Local Area Network) or a WAN (Wide Area Network).
  • the storage device 508 stores a program that implements each functional component of the congestion degree identification device 2000 (a program that implements the application described above).
  • the processor 504 reads this program into the memory 506 and executes it, thereby realizing each functional component of the congestion degree identifying device 2000 .
  • the congestion degree identification device 2000 may be realized by one computer 500 or may be realized by a plurality of computers 500. In the latter case, the configuration of each computer 500 need not be the same, and can be different.
  • the in-vehicle camera generates a plurality of captured images 50 by repeatedly capturing images.
  • the in-vehicle camera may be a video camera that generates video data, or a still camera that generates still images.
  • the captured image 50 is a video frame forming video data.
  • a part or all of the functions of the congestion degree identification device 2000 may be realized by an in-vehicle camera.
  • a camera that realizes part or all of the functions of the congestion degree identification device 2000 in this way for example, a camera called an IP (Internet Protocol) camera, a network camera, or an intelligent camera can be used.
  • IP Internet Protocol
  • the acquisition unit 2020 and the position specifying unit 2040 are implemented with an in-vehicle camera.
  • the in-vehicle camera detects the person 30 from the captured image 50 by analyzing the captured image 50 generated by itself, and determines in which area 20 the person 30 is located. Then, information indicating in which area 20 each person 30 is located is provided to a device that implements the congestion level identification unit 2060 . Then, this device specifies the degree of congestion of the target vehicle.
  • FIG. 4 is a flowchart illustrating the flow of processing executed by the congestion level identification device 2000 of the first embodiment.
  • the acquisition unit 2020 acquires the captured image 50 (S102).
  • the position specifying unit 2040 detects the person 30 from the captured image 50 (S104). For each person 30 detected from the captured image 50, the position specifying unit 2040 specifies the area 20 where the person 30 is located (S106).
  • the congestion degree identification unit 2060 identifies the number of persons 30 in each of the two or more areas 20, and identifies the congestion degree of the target vehicle based on the number (S108).
  • the degree of congestion of target vehicles can change over time. Therefore, it is preferable that the congestion degree identification device 2000 repeatedly identifies the congestion degree of the target vehicle (the series of processes illustrated in FIG. 4).
  • the congestion degree identification device 2000 periodically acquires the captured image 50 and uses the captured image 50 to identify the congestion degree of the target vehicle.
  • the congestion degree identification device 2000 acquires the captured image 50 when a specific event occurs, and uses the captured image 50 to identify the congestion degree of the target vehicle.
  • the event that triggers the identification of the degree of congestion is, for example, the event "the target train leaves the station".
  • the degree of congestion of the target vehicle can change greatly as people get on and off when the target train stops at the station. On the other hand, it is considered that the degree of congestion of the target vehicle does not change much while the target train is running. Therefore, the captured image 50 is acquired when the target train departs from the station, and the congestion degree of the target vehicle is determined at an appropriate timing by using the captured image 50 to determine the congestion level of the target vehicle. be able to.
  • the congestion degree identifying device 2000 may identify the congestion degree of the target vehicle after a predetermined time (for example, 30 seconds) has elapsed from the time when the target train departs, instead of when the target train departs. By doing so, the degree of congestion of the target vehicle is specified after the movement of the person 30 within the target vehicle has decreased. Therefore, it is possible to specify the congestion degree of the target vehicle with higher accuracy.
  • a predetermined time for example, 30 seconds
  • the acquisition unit 2020 acquires the captured image 50 (S102).
  • the in-vehicle camera is configured to store the generated captured image 50 in a storage unit accessible also from the congestion level identification device 2000 .
  • the acquisition unit 2020 acquires the captured image 50 by accessing the storage unit.
  • the in-vehicle camera is configured to transmit the captured image 50 to the congestion degree identification device 2000 .
  • the acquisition unit 2020 acquires the captured image 50 by receiving the captured image 50 transmitted by the in-vehicle camera.
  • the position specifying unit 2040 is realized by an in-vehicle camera, the in-vehicle camera acquires the captured image 50 generated by itself.
  • the position specifying unit 2040 detects the person 30 from the captured image 50 (S104). More specifically, the position specifying unit 2040 detects an image area representing the person 30 (hereinafter referred to as person area) from the captured image 50 .
  • a feature amount representing a feature on a person's image is determined in advance and stored in an arbitrary storage unit in a manner that the congestion level identification device 2000 can obtain.
  • the position specifying unit 2040 detects from the captured image 50 an image area having a feature amount that matches this feature amount, and treats each detected image area as a person area.
  • the feature amount of a person may be the feature amount of the entire body, or the feature amount of a characteristic part (for example, the face).
  • the position specifying unit 2040 may detect a person area from the captured image 50 using a learned model (hereinafter referred to as person detection model).
  • person detection model is trained in advance so that when an image is input, a person region included in the image is output. Any type of model, such as a neural network, can be used for the person detection model.
  • the position specifying unit 2040 specifies in which area 20 each person 30 detected from the captured image 50 is located (S106). For example, the position specifying unit 2040 specifies an image area on the captured image 50 representing each area 20 . Then, for each person 30 detected from the captured image 50, the position specifying unit 2040 specifies the area 20 where the person 30 is located based on the person area of the person 30 and the image area representing each area 20. do.
  • the position specifying unit 2040 acquires information (hereinafter referred to as area information) representing the positional relationship between the area 20 and the image area on the captured image 50. do.
  • area information is generated in advance by an administrator of the congestion degree identifying device 2000 or the like, and is stored in an arbitrary storage unit in a form that can be acquired from the congestion degree identifying device 2000 .
  • FIG. 5 is a diagram exemplifying area information in a table format.
  • the area information 100 in FIG. 5 has three columns of area identification information 102, area name 104, and image area 106.
  • FIG. Area identification information 102 indicates area identification information.
  • the area name 104 indicates the name of the area.
  • the image area 106 indicates which part of the captured image 50 the corresponding area 20 corresponds to. In this example, it is assumed that the shape of the area 20 is rectangular. Thus, image area 106 indicates the upper left and lower right coordinates of the image area corresponding to area 20 .
  • the size of the captured image 50 may differ depending on the resolution of the in-vehicle camera. Therefore, for example, the image area 106 may represent the position of the corresponding area 20 by relative coordinates on the image so that the area information 100 does not depend on the resolution of the in-vehicle camera.
  • relative coordinates are expressed with reference to the vertical or horizontal length of the image. As a specific example, assume that the vertical length of the image is a reference length of 1, and the image area 106 indicates "upper left: (x1, y1), lower right: (x2, y2)". In this case, if the vertical length of the captured image 50 is h, the image area representing the corresponding area 20 in the captured image 50 is "upper left (h*x1, h*y1), lower right (h*x2 ,2*y)”.
  • each area 20 on the captured image 50 may differ depending on the type of target vehicle. Therefore, for example, the area information 100 is prepared for each type of vehicle. In this case, the position specifying unit 2040 acquires the captured image 50 corresponding to the type of target vehicle.
  • the arrangement of the areas 20 in the captured image 50 may differ depending on the position of the in-vehicle camera.
  • the arrangement of the area 20 can be different. Therefore, for example, the area information 100 may be prepared for each pair of the type of vehicle and the position of the in-vehicle camera.
  • the position specifying unit 2040 acquires the area information 100 corresponding to "the type of target vehicle and the position of the in-vehicle camera that generated the captured image 50".
  • any method can be used to identify the type of target vehicle and the position of the in-vehicle camera that generated the captured image 50 .
  • identification information of an in-vehicle camera information in which the type of vehicle in which the in-vehicle camera is installed and the information representing the position in the vehicle in which the in-vehicle camera is installed are associated with each other is defined as the degree of congestion. It is stored in advance in an arbitrary storage unit in a form that can be acquired from the specific device 2000 .
  • the position specifying unit 2040 acquires information associated with the identification information of the in-vehicle camera that generated the captured image 50 from the storage unit, thereby determining the type of the target vehicle and the type of the in-vehicle camera that generated the captured image 50. position can be specified.
  • the position specifying unit 2040 determines the area where the person 30 is located based on the person region of the person 30 and the image region representing each area 20 for each person 30. Identify 20. For example, the position specifying unit 2040 calculates coordinates representing the position of the person 30 on the captured image 50 based on the person area of the person 30 . Then, the position specifying unit 2040 specifies the area 20 represented by the image area including the coordinates as the area 20 where the person 30 is located. For example, the coordinates representing the position of the person 30 are represented by a predetermined position (for example, center position) in the person area of the person 30 .
  • the position specifying unit 2040 specifies an area 20 in which the central position of the person 30 is included in the image area representing the area 20 .
  • the position specifying unit 2040 then specifies that the person 30 is located in the specified area 20 .
  • the position specifying unit 2040 specifies an area 20 in which the image area representing the area 20 overlaps with the image area representing the person 30 as the area 20 where the person 30 is located.
  • the fact that the image area representing the person 30 and the image area representing the area 20 overlap will also be referred to as "the person 30 and the area 20 overlap”.
  • FIG. 6 is a diagram illustrating a case where the area 20 overlapping the person 30 is identified as the area 20 where the person 30 is located.
  • person region 32 representing person 30 overlaps the image region representing area 20-1. Therefore, the position specifying unit 2040 specifies that the person 30 is located in the area 20-1.
  • the position specifying unit 2040 specifies the area 20 where the person 30 is located from among the areas 20 overlapping with the person 30 based on a predetermined rule.
  • the area 20 with the highest priority among the areas 20 overlapping with the person 30 is specified as the area 20 where the person 30 is located.
  • priority is assigned to each area 20 in advance. For example, priority is assigned in order of "the area in front of the boarding gate, the area of the back seat, the area of the front seat, and the aisle area". In this case, for example, it is assumed that the person area 32 overlaps both the area 20 in front of the entrance and the area 20 in the back seat.
  • the position specifying unit 2040 specifies that the person 30 is positioned in the area 20 in front of the boarding gate, which has a higher priority.
  • Another predetermined rule is "identify the area 20 having the largest overlapping area with the person 30 as the area 20 where the person 30 is located".
  • the position specifying unit 2040 calculates the area of the overlapping portion between the image area representing the area 20 and the person area 32 for each area 20 that overlaps the person 30 . Then, the position specifying unit 2040 specifies the area 20 having the largest calculated area as the area 20 where the person 30 is located.
  • a learned model (hereinafter referred to as an area classification model) may be used to identify the area 20 where the person 30 is located.
  • the area classification model identifies the area 20 in which the person 30 is located in response to input of the captured image 50 and information specifying the person area 32 of the person 30 (for example, upper left and upper right coordinates). is pre-trained to output
  • the position specifying unit 2040 uses the area classification model to specify the area 20 where the person 30 is located.
  • the area classification model is learned in advance using multiple training data.
  • the training data has, for example, a pair of "captured image obtained from an in-vehicle camera, information specifying a human area" as input data, and a correct label (identification information of area 20) as correct output data.
  • Area classification models can be any type of model, such as neural networks.
  • the layout of the area 20 may differ depending on the type of vehicle and the position of the in-vehicle camera (such as the front entrance/exit). Therefore, for example, an area classification model is prepared for each pair of "type of vehicle, position of in-vehicle camera".
  • the position specifying unit 2040 compares the captured image 50 and the person of the person 30 with respect to the area classification model corresponding to the type of the target vehicle and the position of the in-vehicle camera that generated the captured image 50 (for example, "first entrance/exit"). Enter the location of the region. Then, the position specifying unit 2040 acquires the identification information of the area 20 output from the area classification model, thereby specifying that the person 30 is located in the area 20 specified by the identification information.
  • the congestion degree identification unit 2060 identifies the congestion degree of the target vehicle based on the number of people in each of the two or more areas 20 (S108). Several methods for specifying the degree of congestion of target vehicles will be specifically exemplified below.
  • the congestion level identification unit 2060 compares the number of persons 30 in each of the two or more areas 20 with the threshold in accordance with a predetermined order, and based on the comparison result, determines whether the target vehicle is congested. Determine degree.
  • the congestion level identifying unit 2060 may further use the total number of people 30 detected from the captured image 50 to identify the congestion level of the target vehicle. For example, the congestion level identification unit 2060 calculates the total number of persons 30 in each area 20 and treats the total as the total number of persons 30 . However, the congestion level identification unit 2060 may treat the total number of persons 30 in each of an arbitrary number of two or more areas 20 as the total number of persons 30 instead of all areas 20 .
  • FIGS. 7 and 8 illustrate the flow of processing for identifying the degree of congestion of target vehicles based on the number of persons 30 in each area 20 and the total number of persons 30 detected from the captured image 50. It is a flow chart.
  • the degree of congestion is classified into levels 1 to 5, and the higher the numerical value of the level, the higher the degree of congestion. That is, level 5 is the most congested state and level 1 is the least congested state.
  • the area captured by the in-vehicle camera includes seven areas 20, as illustrated in FIG.
  • the congestion level identification unit 2060 determines that "the total number of persons 30 (total number of people) detected from the captured image 50 is equal to or less than the threshold Th1, and the number of persons 30 detected from the entrance/exit area is equal to or less than the threshold Th2.” It is determined whether or not the condition is satisfied (S202). If this condition is not satisfied (S202: NO), S212 shown in FIG. 8 is executed. FIG. 8 will be described later.
  • the congestion level identification unit 2060 determines that the condition "the total number of people is equal to or less than the threshold Th3 and the number of people in the back seat area is equal to or less than Th4" is satisfied. It is determined whether or not it is set (S204). Note that the threshold Th3 is set so as to satisfy, for example, Th1>Th3. If the condition of S204 is satisfied (S204: YES), the congestion degree identification unit 2060 determines that the congestion degree of the target vehicle is level 1. On the other hand, if the condition of S204 is not satisfied (S204: NO), S208 is executed.
  • the congestion level identification device 2000 adopts a method of dividing the target vehicle into a plurality of areas 20 and identifying the number of people in each area 20, the area 20 can accurately count the number of persons 30 in this manner. It becomes possible to pay attention.
  • the position of the advertisement is determined, for example, by the type of vehicle and the position of the in-vehicle camera. Therefore, for example, which of the area 20-2 and the area 20-3 is to be used for comparison with the threshold value Th4 is determined in advance for a pair of the type of vehicle and the position of the in-vehicle camera.
  • Congestion level identification unit 2060 determines which of area 20-2 and area 20-3 is to be used as the back seat area based on the type of target vehicle and the position of the in-vehicle camera that generated captured image 50. Identify.
  • the congestion level identification unit 2060 compares the number of persons 30 in the area 20-2 and the number of persons 30 in the area 20-3, and determines the larger number as the threshold Th4 can be used for comparison. This is because it is considered that the more accurately the number of persons 30 can be detected in the area 20, the more persons 30 are detected.
  • the threshold value Th4 it is preferable to set the threshold value Th4 to be different between when one area 20 is used and when two areas 20 are used. However, this does not apply when statistical values (average value, maximum value, etc.) of the number of people in the two areas 20 are used instead of the sum of the number of people in the two areas 20 .
  • the congestion degree identification unit 2060 determines that the condition that "the total number of people is equal to or less than the threshold Th3 and the number of people in the front seat area is equal to or less than the threshold Th5" is satisfied. It is determined whether or not it is satisfied (S208). If the condition of S208 is satisfied (S208: YES), the congestion degree identification unit 2060 determines that the congestion degree of the target vehicle is level 1 (S206). On the other hand, if the condition of S208 is not satisfied (S208: NO), the congestion degree identification unit 2060 determines that the congestion degree of the target vehicle is level 2 (S210).
  • Th4 and Th5 may be set to the same value, or may be set to different values.
  • the captured image 50 of FIG. 1 there are two seat areas in the front like the seat areas in the back. Therefore, like the front seat area, one or both of these two areas 20 may be used for comparison with the threshold Th5.
  • the method of determining the area to be used for comparison with the threshold Th5 from the two front seat areas is the same as the method to determine the seating area to be used for comparison with the threshold Th4 from the two rear seat areas. .
  • the determination focused on the number of people in the back seat area (S204) is performed prior to the determination focused on the number of people in the front seat area (S208). This is because the face of the person 30 located in the back seat area is captured more clearly by the in-vehicle camera than the person 30 located in the front seat area, and thus can be detected with higher accuracy. .
  • the processing performed by the congestion level identification device 2000 can be reduced.
  • the time required for processing by the congestion degree identification device 2000 can be shortened.
  • the congestion level identification unit 2060 determines that "the total number of people is equal to or less than the threshold Th6, and the number of people 30 detected from the entrance/exit area is the threshold It is determined whether or not the condition "is less than or equal to Th7" is satisfied (S212).
  • the threshold Th6 is set so as to satisfy, for example, Th6>Th1.
  • the threshold Th7 is set to satisfy, for example, Th7>Th2.
  • the congestion degree identification unit 2060 identifies that the congestion degree is level 3. On the other hand, if the condition of S212 is not satisfied (S212: NO), the congestion degree identification unit 2060 determines whether or not the condition that "the total number of people is equal to or less than the threshold Th8" is satisfied (S216).
  • the threshold Th8 is set, for example, to satisfy Th8>Th6.
  • the congestion degree identification unit 2060 determines that the congestion degree of the target vehicle is level 4. On the other hand, if the condition of S216 is not satisfied (S216: NO), the congestion degree identification unit 2060 determines that the congestion degree of the target vehicle is level 5 (S220).
  • the method of identifying the degree of congestion of target vehicles is not limited to the method of comparing the number of persons 30 in the area 20 with a threshold. For example, from the number of persons 30 in each area 20, a score representing the degree of congestion of the target vehicle (hereinafter referred to as a congestion degree score) is calculated, and based on the congestion degree score, the degree of congestion of the target vehicle is specified.
  • a congestion degree score representing the degree of congestion of the target vehicle
  • a regression model for calculating the congestion degree score from the number of persons 30 in each area 20 is determined in advance.
  • the congestion degree identification unit 2060 can calculate the congestion degree of the target vehicle by inputting the number of persons 30 in each area 20 into the regression model. For example, this regression model is represented by the following formula (1).
  • Equation (1) S represents the congestion score.
  • A represents a set of identifiers for areas 20 within the subject vehicle.
  • i represents the identifier of the area 20;
  • ⁇ [i] is a weight given to the area 20 whose identifier is i (hereinafter referred to as area i).
  • N[i] is the number of persons 30 in area i.
  • the above regression model is learned in advance using the training data "the number of people in each area 20, the correct congestion score". Through this learning, the weight ⁇ [i] assigned to each area 20 is determined.
  • the weight assigned to each area 20 reflects whether or not the number of persons 30 in that area 20 can be accurately grasped.
  • the area 20 where it is difficult to accurately grasp the number of people 30 in the area 20 due to obstacles such as advertisements the correlation between the degree of congestion of vehicles and the number of people 30 detected therein is relatively high. expected to be smaller. Therefore, in the regression model obtained as a result of learning, the weight assigned to such areas 20 is considered to be relatively small.
  • the degree of congestion of vehicles and the number of persons 30 in the area are considered to have a relatively large correlation. Therefore, in the regression model obtained as a result of learning, the weight assigned to such area 20 is considered to be relatively large.
  • the congestion degree identification device 2000 adopts a method of dividing the target vehicle into a plurality of areas 20 and identifying the number of people in each area 20, thereby grasping the influence on the congestion degree for each area 20. It becomes possible to Therefore, the congestion degree of the target vehicle can be specified more accurately than the case where the congestion degree of the target vehicle is specified by paying attention to the number of people in the entire target vehicle.
  • formula (1) is a linear regression model
  • the model of the congestion degree score calculation formula is not limited to a linear regression model.
  • the congestion degree identification unit 2060 may convert the congestion degree score into the congestion degree level described above. For example, the numerical range of the congestion degree score is divided in advance into a plurality of non-overlapping partial ranges, and a level is assigned to each partial range. In this case, after calculating the congestion degree score, the congestion degree identification unit 2060 identifies a partial range that includes the congestion degree score, and sets the congestion degree level corresponding to the identified partial range as the congestion degree level of the target vehicle. Identify.
  • the degree of congestion of the target vehicle is specified based on the number of persons 30 detected from one captured image 50.
  • the target vehicle may be provided with a plurality of in-vehicle cameras. Therefore, at a certain point in time, multiple captured images 50 can be generated for the target vehicle. Therefore, the congestion degree identification device 2000 may identify the congestion degree of the target vehicle using the captured image 50 obtained from one or more of the plurality of in-vehicle cameras of the target vehicle.
  • the congestion degree identification device 2000 uses only a specific one of a plurality of in-vehicle cameras installed in the target vehicle to identify the congestion degree of the target vehicle.
  • the congestion degree of the target vehicle is specified from one captured image 50 by the various methods described above.
  • the congestion degree identifying device 2000 uses the captured images 50 obtained from each of the plurality of in-vehicle cameras to perform processing for identifying the congestion degree of the target vehicle described above for each captured image 50, and the result is Identify the overall congestion degree based on Specifically, the congestion degree identification device 2000 collects statistical values (average, mode, median, maximum, minimum, etc.) of the congestion degree identified for each captured image 50 as a comprehensive object. It is used as the congestion degree of vehicles.
  • the congestion degree specified for each captured image 50 is also referred to as a partial congestion degree.
  • the comprehensive congestion degree of the target vehicle which is identified using the partial congestion degree identified by each in-vehicle camera in the target vehicle, is also referred to as the overall congestion degree.
  • the congestion degree identifying device 2000 identifies the partial congestion degree for each of these four locations, and then identifies the total congestion degree using these statistical values.
  • each in-vehicle camera identifies the partial congestion degree, collects the results, and identifies the overall congestion degree. good too.
  • the device that identifies the overall congestion degree may be any one of the in-vehicle cameras, or may be another device (such as a server device communicably connected to each in-vehicle camera).
  • the congestion degree identifying device 2000 may treat a set of partial congestion degrees identified for the target vehicle as information representing the congestion degree of the target vehicle.
  • the congestion degree identification device 2000 identifies the partial congestion degree for each of the four in-vehicle cameras, and treats a set of the four identified partial congestion degrees as the congestion degree of the target vehicle.
  • the congestion degree identification device 2000 generates and outputs information representing the results of the various processes described above. For example, the congestion degree identification device 2000 identifies the congestion degree of each vehicle of the target train by treating each vehicle of the target train as a target vehicle. Then, the congestion level identification device 2000 generates and outputs information indicating the congestion level of each vehicle of the target train (hereinafter referred to as congestion level information). However, the congestion degree information may be generated only for a specific vehicle instead of for all vehicles of the target train.
  • FIG. 9 is a diagram exemplifying congestion degree information in a table format.
  • the congestion degree information 200 in FIG. 9 has four columns of vehicle identification information 202 , entrance/exit identification information 204 , partial congestion degree 206 , and overall congestion degree 208 .
  • the vehicle identification information 202 indicates vehicle identification information.
  • the entrance/exit identification information 204 indicates the number assigned to the entrance/exit.
  • the degree of partial congestion 206 indicates the degree of partial congestion identified for the corresponding set of entrances and exits.
  • the total congestion degree 208 indicates the total congestion degree specified for the corresponding vehicle.
  • the congestion degree identification device 2000 generates congestion degree information 200 for each of a plurality of trains.
  • the congestion degree identification device 2000 generates congestion degree information 200 for each different time for one train.
  • the congestion degree information 200 is stored in any storage unit.
  • the congestion degree information 200 is displayed on any display device.
  • the congestion degree information 200 is transmitted to arbitrary terminals.
  • the terminal may be a customer's terminal, a driver's terminal, or a terminal provided at a facility that manages train operations.
  • the congestion degree information 200 received by the terminal is displayed on the terminal's display device or the like.
  • customers can use a web page or a predetermined application on their own terminal to specify a particular train and find out how crowded that train is.
  • the customer's terminal transmits a request indicating the identification information of the specified train to the congestion level identification device 2000 .
  • the congestion level identification device 2000 that has received this request generates congestion level information 200 for the specified train and transmits it to the customer's terminal. By viewing the received congestion level information 200, the customer can grasp the congestion level of the train that the customer wants to use.
  • the congestion level identification device 2000 may generate the congestion level information 200 at the various timings described above and store them in the storage unit. . In this case, the congestion degree identification device 2000 reads the congestion degree information 200 that matches the request from the customer from the storage unit, and provides the read congestion degree information 200 to the customer.
  • the congestion degree information 200 be converted into a format that facilitates understanding of the information using patterns, graphics, and the like. This conversion may be performed by the congestion level identification device 2000 or may be performed by each terminal that receives the congestion level information 200 .
  • the congestion degree information 200 does not necessarily have to be provided in real time. For example, once a day, the congestion degree identification device 2000 generates the congestion degree information 200 at each of a plurality of timings for each vehicle of each train operated on that day. This result can be used, for example, by a railroad company for business management purposes. For example, by grasping the degree of congestion of each train for each day of the week and each time period, it is possible to appropriately set fares according to the day of the week and time period.
  • the program includes instructions (or software code) that, when read into a computer, cause the computer to perform one or more functions described in the embodiments.
  • the program may be stored in a non-transitory computer-readable medium or tangible storage medium.
  • computer readable media or tangible storage media may include random-access memory (RAM), read-only memory (ROM), flash memory, solid-state drives (SSD) or other memory technology, CDs - ROM, digital versatile disc (DVD), Blu-ray disc or other optical disc storage, magnetic cassette, magnetic tape, magnetic disc storage or other magnetic storage device.
  • the program may be transmitted on a transitory computer-readable medium or communication medium.
  • transitory computer readable media or communication media include electrical, optical, acoustic, or other forms of propagated signals.
  • Appendix 1 an acquisition unit that acquires a captured image generated by a camera that captures an image of the inside of a target vehicle; a position identifying unit that uses the captured image to identify, for each person in the target vehicle, the area in which the person is located from among a plurality of areas in the target vehicle; and a congestion degree identification unit that identifies the degree of congestion of the target vehicle by using the number of persons located in each of the two or more areas.
  • (Appendix 2) area information in which a position of an image region representing the area in the captured image is associated with each of the areas is stored in a storage unit; The position specifying unit using the area information to specify an image region representing each area in the captured image; detecting a person region representing each person from the captured image; The congestion level identification device according to appendix 1, wherein, for each person, the area in which the person area of the person is included in the corresponding image area is specified as the area in which the person is located.
  • (Appendix 3) A priority order is defined for the plurality of areas, The position specifying unit When there are a plurality of areas including the person area of the person in the corresponding image area, the area with the highest priority among the plurality of areas is specified as the area where the person is located.
  • the congestion degree identification device according to appendix 2.
  • the storage unit stores the area information for each type of vehicle, 4.
  • the congestion degree identifying unit compares the total number of people detected from the captured image with the number of people located in the area representing the front of the entrance/exit of the target vehicle with threshold values, and performs the comparison. 5.
  • the congestion degree identification device according to any one of appendices 1 to 4, wherein the congestion degree of the target vehicle is identified based on the result.
  • the congestion level identification unit reduces the total number to a second threshold. 3 thresholds, and comparing the number of people located in the area representing seats with a fourth threshold, and determining the degree of congestion of the target vehicle based on the result of the comparison. 6.
  • the congestion degree identification device according to 5.
  • the crowding level identification unit determines the number of persons in the area in which the person can be detected with the highest accuracy among the plurality of areas. 7.
  • the congestion degree identification device according to any one of appendices 1 to 6, which is used to identify the congestion degree of vehicles.
  • Appendix 8 A control method implemented by a computer, comprising: an acquisition step of acquiring a captured image generated by a camera that captures the interior of the target vehicle; a position specifying step of specifying, for each person in the target vehicle, the area in which the person is located from among a plurality of areas in the target vehicle, using the captured image; and a congestion degree identification step of identifying the degree of congestion of the target vehicle using the number of persons located in each of the two or more areas.
  • the control method according to appendix 9. (Appendix 11) The storage unit stores the area information for each type of vehicle, 11. The control method according to appendix 9 or 10, wherein in the position specifying step, the area information corresponding to the type of the target vehicle is used. (Appendix 12) In the congestion degree identifying step, the total number of people detected from the captured image and the number of people located in the area representing the front of the entrance/exit of the target vehicle are compared with thresholds, respectively, and the comparison is performed. 12. The control method according to any one of appendices 8 to 11, wherein the degree of congestion of the target vehicle is specified based on the result.
  • the control method according to any one of appendices 8 to 13, which is used to identify the degree of vehicle congestion.
  • Appendix 15 to the computer, an acquisition step of acquiring a captured image generated by a camera that captures the interior of the target vehicle; a position specifying step of specifying, for each person in the target vehicle, the area in which the person is located from among a plurality of areas in the target vehicle, using the captured image;
  • a non-temporary computer-readable medium storing a program for executing a congestion degree identifying step of identifying the congestion degree of the target vehicle using the number of people located in each of the two or more areas. .
  • the computer-readable medium of Clause 16 wherein: (Appendix 18) The storage unit stores the area information for each type of vehicle, 18. The computer-readable medium of Clause 16 or 17, wherein the locating step utilizes the area information corresponding to the vehicle type of interest. (Appendix 19) In the congestion degree identifying step, the total number of people detected from the captured image and the number of people located in the area representing the front of the entrance/exit of the target vehicle are compared with thresholds, respectively, and the comparison is performed. 19. The computer-readable medium of any one of Clauses 15-18, wherein the degree of congestion of the vehicle of interest is determined based on results.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

混雑度特定装置(2000)は、対象車両内を撮像する車内カメラによって生成された撮像画像(50)を取得する。混雑度特定装置(2000)は、撮像画像(50)を用い、対象車両内にいる人物(30)それぞれについて、対象車両内の複数のエリア(20)の中から、その人物(30)が位置するエリア(20)を特定する。混雑度特定装置(2000)は、2つ以上のエリア(20)それぞれに位置する人物(30)の数を用いて、対象車両の混雑度合いを特定する。

Description

混雑度特定装置、制御方法、及び非一時的なコンピュータ可読媒体
 本開示は、車両の混雑度合いを把握する技術に関する。
 列車の車両の混雑度合いを特定するためのシステムが開発されている。例えば特許文献1は、車両内を撮像する監視カメラによって生成された画像を利用し、2通りの方法で乗車率を算出することで、車両の乗車率を精度よく算出する技術を開示している。乗車率を算出する第1の方法は、各人物が占有している車両内の面積の合計値を利用する方法である。また、乗車率を算出する第2の方法は、車両に乗車している人の総数と車両の最大乗車可能人数との比率で算出する方法である。
特開2013-025523号公報
 特許文献1の方法では、車両の中にいる全ての人物を正確に検出しないと、車両の混雑度合いを正確に特定することが難しい。本開示はこの課題に鑑みてなされたものであり、その目的は、車両の混雑度合いを特定する新たな技術を提供することである。
 本開示の混雑度特定装置は、対象の車両内を撮像するカメラによって生成された撮像画像を取得する取得部と、前記撮像画像を用い、前記対象の車両内にいる人物それぞれについて、前記対象の車両内の複数のエリアの中から、その人物が位置している前記エリアを特定する位置特定部と、2つ以上の前記エリアそれぞれに位置する前記人物の数を用いて、前記対象の車両の混雑度合いを特定する混雑度特定部と、を有する。
 本開示の制御方法は、コンピュータによって実行される。当該制御方法は、対象の車両内を撮像するカメラによって生成された撮像画像を取得する取得ステップと、前記撮像画像を用い、前記対象の車両内にいる人物それぞれについて、前記対象の車両内の複数のエリアの中から、その人物が位置している前記エリアを特定する位置特定ステップと、2つ以上の前記エリアそれぞれに位置する前記人物の数を用いて、前記対象の車両の混雑度合いを特定する混雑度特定ステップと、を有する。
 本開示の非一時的なコンピュータ可読媒体は、本開示の制御方法をコンピュータに実行させるプログラムを格納している。
 本開示によれば、車両の混雑度合いを特定する新たな技術が提供される。
実施形態1の混雑度特定装置の動作の概要を例示する図である。 実施形態1の混雑度特定装置の機能構成を例示するブロック図である。 混雑度特定装置を実現するコンピュータのハードウエア構成を例示するブロック図である。 実施形態1の混雑度特定装置によって実行される処理の流れを例示するフローチャートである。 エリア情報をテーブル形式で例示する図である。 人物と重複しているエリアが、人物が位置するエリアとして特定されるケースを例示する図である。 各エリアの中にいる人物の数と、撮像画像から検出された人物の総数とに基づいて、対象車両の混雑度を特定する処理の流れを例示するフローチャートである。 各エリアの中にいる人物の数と、撮像画像から検出された人物の総数とに基づいて、対象車両の混雑度を特定する処理の流れを例示するフローチャートである。 混雑度情報をテーブル形式で例示する図である。
 以下では、本開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。また、特に説明しない限り、所定値や閾値などといった予め定められている値は、その値を利用する装置からアクセス可能な記憶装置などに予め格納されている。さらに、特に説明しない限り、記憶部は、1つ以上の任意の数の記憶装置によって構成される。
 図1は、実施形態1の混雑度特定装置2000の動作の概要を例示する図である。ここで、図1は、混雑度特定装置2000の概要の理解を容易にするための図であり、混雑度特定装置2000の動作は、図1に示したものに限定されない。
 混雑度特定装置2000は、対象列車の1つ以上の車両それぞれについて、その混雑度合いを特定する。対象列車は、車両の混雑度合いを特定する対象となる任意の列車である。以下、混雑度合いを特定する対象となっている車両を、対象車両と呼ぶ。ここで、対象列車を構成する車両全てがそれぞれ対象車両として扱われてもよいし、対象列車を構成する車両の一部のみが対象車両として扱われてもよい。
 対象車両の混雑度の特定は、複数のエリア20それぞれの中にいる人物30の数に基づいて特定される。エリア20は、対象車両の一部の領域であり、例えば、乗降口前のエリア、座席のエリア、又は通路のエリアなどである。例えば図1の例において、対象車両は7つのエリア20-1からエリア20-7を有している。エリア20-1は、乗降口前のエリアである。エリア20-2からエリア20-5はそれぞれ、座席のエリアである。エリア20-6及びエリア20-7はそれぞれ、通路のエリアである。
 人物30は、対象車両の中にいる任意の人であり、例えば乗客である。ただし、対象車両に乗っている乗務員などといった乗客以外の人も、人物30として扱われてよい。
 混雑度特定装置2000は、撮像画像50を取得する。撮像画像50は、対象車両の中を撮像するように、対象車両の中に設けられているカメラ(以下、車内カメラ)によって生成される。例えば車内カメラは、対象車両の天井などといった比較的高い位置に、対象車両の中を俯瞰するように設定されている。
 混雑度特定装置2000は、撮像画像50を解析することで、車内カメラによって撮像された各人物30が、どのエリア20に位置しているのかを特定する。さらに、混雑度特定装置2000は、2つ以上のエリア20それぞれについて、その中にいる人物30の数を特定し、特定した人数に基づいて、対象車両の混雑度合いを特定する。
 なお、1つの対象車両について、それぞれ異なる場所を撮像する複数の車内カメラが設けられることが考えられる。例えば図1の例において、対象車両が、左右それぞれに4つの乗降口を有しているとする。この場合、1つの車両に車内カメラが4つ設けられることとなる。このような場合、対象車両の混雑度は、4つの車内カメラ全てを利用して特定されてもよいし、一部の車内カメラのみを利用して特定されてもよい。この点の詳細については後述する。なお、以下の説明では、左右の乗降口を1セットとして扱う。
<作用効果の一例>
 本実施形態の混雑度特定装置2000によれば、対象車両の中にいる人物30について、対象車両に含まれる複数のエリア20のうち、どのエリア20に位置しているのかが特定される。そして、2つ以上のエリア20それぞれの中にいる人物30の数に基づいて、対象車両の混雑度が特定される。このように本実施形態の混雑度特定装置2000によれば、車両の混雑度合いを特定する新たな技術が提供される。
 ここで、車両の中には広告などの障害物があるため、車両内の全ての人を車内カメラで撮像することは難しい。そして、車両の中にいる人の総数や総面積のみに着目して混雑度合いを特定するという特許文献1の方法では、障害物によって検出できない人の存在が、車両の混雑度合いの精度に与える影響が大きいと考えられる。
 この点、混雑度特定装置2000では、エリア20ごとにその中の人物30の数が特定される。そのため例えば、障害物による影響が少ないエリア20(車内カメラによってそのほとんどを撮像できているエリア20)にいる人物30の数に特に着目するなどといった方法により、障害物によって検出できない人物30の存在が、車両の混雑度合いの精度に与える影響を小さくすることができる。
 また、混雑度特定装置2000では、2つ以上のエリア20それぞれの中にいる人物30の数に基づいて、対象車両の混雑度合いが特定される。この点、特定の1つのエリア20だけに着目して対象車両の混雑度合いを特定するという方法も考えられる。しかしながら、特定の1つのエリア20だけに着目すると、偶然そのエリア20だけ混雑している場合に、車両全体が混雑していると誤って判断してしまう可能性がある。
 例えば、ほとんど乗客がいない車両に何人かの乗客のグループが乗っているとする。ここで、同一のグループに属する乗客は通常、同じエリア20の中にいると考えられる。そのため、車両全体としては空いているのに、特定のエリア20の中だけ混雑しているという状況になりうる。
 この点、混雑度特定装置2000では、2つ以上のエリア20それぞれの中にいる人物30の数を利用する。そのため、特定のエリア20だけが偶然混雑している場合であっても、その他のエリア20の状況も考慮されることから、車両の混雑度合いをより正確に特定することができる。
 以下、本実施形態の混雑度特定装置2000について、より詳細に説明する。
<機能構成の例>
 図2は、実施形態1の混雑度特定装置2000の機能構成を例示するブロック図である。混雑度特定装置2000は、取得部2020、位置特定部2040、及び混雑度特定部2060を有する。取得部2020は撮像画像50を取得する。位置特定部2040は、撮像画像50を利用して、各人物30が位置するエリア20を特定する。混雑度特定部2060は、2つ以上のエリア20それぞれについて、その中にいる人物30の数を特定し、その数に基づいて対象車両の混雑度を特定する。
<ハードウエア構成の例>
 混雑度特定装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、混雑度特定装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
 図3は、混雑度特定装置2000を実現するコンピュータ500のハードウエア構成を例示するブロック図である。コンピュータ500は、任意のコンピュータである。例えばコンピュータ500は、PC(Personal Computer)やサーバマシンなどといった、据え置き型のコンピュータである。その他にも例えば、コンピュータ500は、スマートフォンやタブレット端末などといった可搬型のコンピュータである。コンピュータ500は、混雑度特定装置2000を実現するために設計された専用のコンピュータであってもよいし、汎用のコンピュータであってもよい。
 例えば、コンピュータ500に対して所定のアプリケーションをインストールすることにより、コンピュータ500で、混雑度特定装置2000の各機能が実現される。上記アプリケーションは、混雑度特定装置2000の各機能構成部を実現するためのプログラムで構成される。なお、上記プログラムの取得方法は任意である。例えば、当該プログラムが格納されている記憶媒体(DVD ディスクや USB メモリなど)から、当該プログラムを取得することができる。その他にも例えば、当該プログラムが格納されている記憶装置を管理しているサーバ装置から、当該プログラムをダウンロードすることにより、当該プログラムを取得することができる。
 コンピュータ500は、バス502、プロセッサ504、メモリ506、ストレージデバイス508、入出力インタフェース510、及びネットワークインタフェース512を有する。バス502は、プロセッサ504、メモリ506、ストレージデバイス508、入出力インタフェース510、及びネットワークインタフェース512が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ504などを互いに接続する方法は、バス接続に限定されない。
 プロセッサ504は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ506は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス508は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。
 入出力インタフェース510は、コンピュータ500と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース510には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続される。
 ネットワークインタフェース512は、コンピュータ500をネットワークに接続するためのインタフェースである。このネットワークは、LAN(Local Area Network)であってもよいし、WAN(Wide Area Network)であってもよい。
 ストレージデバイス508は、混雑度特定装置2000の各機能構成部を実現するプログラム(前述したアプリケーションを実現するプログラム)を記憶している。プロセッサ504は、このプログラムをメモリ506に読み出して実行することで、混雑度特定装置2000の各機能構成部を実現する。
 混雑度特定装置2000は、1つのコンピュータ500で実現されてもよいし、複数のコンピュータ500で実現されてもよい。後者の場合において、各コンピュータ500の構成は同一である必要はなく、それぞれ異なるものとすることができる。
<<車内カメラについて>>
 車内カメラは、繰り返し撮像を行うことで、撮像画像50を複数生成する。ここで、車内カメラは、ビデオデータを生成するビデオカメラであってもよいし、静止画像を生成するスチルカメラであってもよい。前者の場合、撮像画像50は、ビデオデータを構成するビデオフレームである。
 混雑度特定装置2000の機能の一部又は全部は、車内カメラで実現されてもよい。このように混雑度特定装置2000の機能の一部又は全部を実現するカメラとしては、例えば、IP(Internet Protocol)カメラ、ネットワークカメラ、又はインテリジェントカメラなどと呼ばれるカメラを利用することができる。
 混雑度特定装置2000の機能の一部を車内カメラで実現する場合、例えば、取得部2020及び位置特定部2040が車内カメラで実現される。この場合、車内カメラは、自身で生成した撮像画像50を解析することにより、その撮像画像50から人物30を検出し、人物30がどのエリア20に位置するのかを決定する。そして、各人物30がどのエリア20に位置するのかを示す情報が、混雑度特定部2060を実現する装置に提供される。そして、この装置により、対象車両の混雑度が特定される。
<処理の流れ>
 図4は、実施形態1の混雑度特定装置2000によって実行される処理の流れを例示するフローチャートである。取得部2020は撮像画像50を取得する(S102)。位置特定部2040は、撮像画像50から人物30を検出する(S104)。位置特定部2040は、撮像画像50から検出された各人物30について、その人物30が位置するエリア20を特定する(S106)。混雑度特定部2060は、2つ以上のエリア20それぞれについて、その中にいる人物30の数を特定し、その数に基づいて対象車両の混雑度合いを特定する(S108)。
<対象車両の混雑度の特定を行う契機>
 対象車両の混雑度は、時間と共に変化しうる。そこで混雑度特定装置2000は、対象車両の混雑度の特定(図4で例示しした一連の処理)を繰り返し行うことが好適である。
 対象車両の混雑度の特定を行う契機は様々である。例えば混雑度特定装置2000は、定期的に撮像画像50を取得し、その撮像画像50を利用して、対象車両の混雑度を特定する。その他にも例えば、混雑度特定装置2000は、特定のイベントが発生したことを契機に撮像画像50を取得し、その撮像画像50を利用して、対象車両の混雑度を特定する。
 混雑度の特定を行う契機とするイベントは、例えば、「対象列車が駅を出発する」というイベントである。対象車両の混雑度は、対象列車が駅に停車した際に人が乗り降りすることで、大きく変化しうる。一方で、対象列車が走行している間は、対象車両の混雑度はあまり変化しないと考えられる。そこで、対象列車が駅を出発したことに応じて撮像画像50を取得し、その撮像画像50を用いて対象車両の混雑度合いを把握することにより、対象車両の混雑度合いを適切なタイミングで把握することができる。
 なお、対象列車が駅を出発した直後は、ドアが閉まる直前に対象列車に乗った人などが、対象車両内を移動する可能性がある。そこで混雑度特定装置2000は、対象列車が出発した時点の代わりに、対象列車が出発した時点から所定時間(例えば30秒)経過後に、対象車両の混雑度の特定を行ってもよい。こうすることで、対象車両内における人物30の移動が少なくなってから、対象車両の混雑度の特定が行われる。よって、対象車両の混雑度をより高い精度で特定することができる。
<撮像画像50の取得:S102>
 取得部2020は撮像画像50を取得する(S102)。ここで、撮像画像50を取得する方法は様々である。例えば、車内カメラは、生成した撮像画像50を、混雑度特定装置2000からもアクセス可能な記憶部に格納するように構成される。この場合、取得部2020は、当該記憶部にアクセスすることで、撮像画像50を取得する。その他にも例えば、車内カメラは、混雑度特定装置2000に対して撮像画像50を送信するように構成される。この場合、取得部2020は、車内カメラによって送信される撮像画像50を受信することで、撮像画像50を取得する。また、位置特定部2040が車内カメラで実現される場合、当該車内カメラは、自身で生成した撮像画像50を取得する。
<人物30の検出:S104>
 位置特定部2040は、撮像画像50から人物30を検出する(S104)。より具体的には、位置特定部2040は、撮像画像50の中から、人物30を表す画像領域(以下、人物領域)を検出する。
 ここで、人物領域を画像から検出する方法には、様々な既存の手法を利用することができる。例えば、人の画像上の特徴を表す特徴量を予め定めておき、混雑度特定装置2000が取得可能な態様で、任意の記憶部に格納しておく。位置特定部2040は、この特徴量とマッチする特徴量を持つ画像領域を撮像画像50から検出し、検出された各画像領域を、人物領域として扱う。なお、人の特徴量は、身体全体の特徴量であってもよいし、特徴的な部位(例えば顔)の特徴量であってもよい。
 その他にも例えば、位置特定部2040は、学習済みモデル(以下、人物検出モデル)を利用して、撮像画像50から人物領域を検出してもよい。人物検出モデルは、画像が入力されたことに応じ、その画像の中に含まれる人物領域を出力するように、予め学習されている。人物検出モデルには、ニューラルネットワークなどといった任意の種類のモデルを利用することができる。
<人物30の位置の特定:S106>
 位置特定部2040は、撮像画像50から検出された各人物30について、その人物30がどのエリア20に位置しているかを特定する(S106)。例えば位置特定部2040は、各各エリア20を表す撮像画像50上の画像領域を特定する。そして、位置特定部2040は、撮像画像50から検出された各人物30について、その人物30の人物領域と、各エリア20を表す画像領域とに基づいて、その人物30が位置するエリア20を特定する。
 各エリア20を表す撮像画像50上の画像領域を特定するために、例えば位置特定部2040は、エリア20と撮像画像50上の画像領域との位置関係を表す情報(以下、エリア情報)を取得する。エリア情報は、混雑度特定装置2000の管理者などによって事前に生成され、混雑度特定装置2000から取得可能な態様で、任意の記憶部に格納されている。
 図5は、エリア情報をテーブル形式で例示する図である。図5のエリア情報100は、エリア識別情報102、エリア名称104、及び画像領域106という3つの列を有する。エリア識別情報102はエリアの識別情報を示す。エリア名称104はエリアの名称を示す。画像領域106は、対応するエリア20が撮像画像50上のどの部分に該当するのかを表す。なお、この例では、エリア20の形状が矩形であることを想定している。そこで画像領域106は、エリア20に対応する画像領域の左上と右下の座標を示している。
 ここで、撮像画像50のサイズは、車内カメラの解像度によって異なりうる。そこで例えば、車内カメラの解像度にエリア情報100が依存しないように、画像領域106は、対応するエリア20の位置を画像上の相対座標で表してもよい。例えば相対座標は、画像の縦又は横の長さを基準として表される。具体的な例として、画像の縦の長さを基準の長さ1とし、画像領域106が「左上:(x1,y1)、右下:(x2,y2)」を示しているとする。この場合、撮像画像50の縦の長さが h であれば、その撮像画像50において、対応するエリア20を表す画像領域は「左上(h*x1,h*y1)、右下(h*x2,2*y)」で表される。
 各エリア20の撮像画像50上における配置は、対象車両の種類によって異なりうる。そこで例えば、エリア情報100は、車両の種類ごとに用意される。この場合、位置特定部2040は、対象車両の種類に対応する撮像画像50を取得する。
 また、同一の車両についての撮像画像50であっても、車内カメラの位置によって、撮像画像50におけるエリア20の配置が異なりうる。例えば、先頭の乗降口付近の天井に設けられている車内カメラによって生成される撮像画像50と、先頭から2番目の乗降口付近の天井に設けられている車内カメラによって生成される撮像画像50との間で、エリア20の配置が異なりうる。そこで例えば、エリア情報100は、車両の種類と車内カメラの位置とのペアごとに用意されてもよい。この場合、位置特定部2040は、「対象車両の種類、撮像画像50を生成した車内カメラの位置」に対応するエリア情報100を取得する。
 ここで、対象車両の種類や撮像画像50を生成した車内カメラの位置を特定する方法は任意である。例えば、車内カメラの識別情報に対し、その車内カメラが設置されている車両の種類と、その車内カメラが設置されている車両内の位置を表す情報とが対応づけられている情報を、混雑度特定装置2000から取得可能な態様で、任意の記憶部に予め格納しておく。位置特定部2040は、この記憶部から、撮像画像50を生成した車内カメラの識別情報に対応づけられている情報を取得することにより、対象車両の種類と、撮像画像50を生成した車内カメラの位置とを特定することができる。
 各エリア20を表す画像領域を特定した後、位置特定部2040は、各人物30について、その人物30の人物領域と、各エリア20を表す画像領域とに基づいて、その人物30が位置するエリア20を特定する。例えば位置特定部2040は、人物30の人物領域に基づいて、撮像画像50上の人物30の位置を表す座標を算出する。そして、位置特定部2040は、エリア20のうち、当該座標を含む画像領域で表されているエリア20を、人物30が位置するエリア20として特定する。例えば人物30の位置を表す座標は、人物30の人物領域における所定の位置(例えば中心位置など)で表される。
 例えば所定の位置が中心位置であるとする。この場合、位置特定部2040は、エリア20の中から、そのエリア20を表す画像領域に人物30の中心位置が含まれているものを特定する。そして、位置特定部2040は、特定したエリア20に人物30が位置していると特定する。
 その他にも例えば、位置特定部2040は、エリア20のうち、そのエリア20を表す画像領域が、人物30を表す画像領域と重複しているものを、人物30が位置するエリア20として特定する。以下、記載を簡潔にするため、人物30を表す画像領域とエリア20を表す画像領域とが重複していることを、「人物30とエリア20とが重複している」とも表記する。
 図6は、人物30と重複しているエリア20が、人物30が位置するエリア20として特定されるケースを例示する図である。図6において、人物30を表す人物領域32は、エリア20-1を表す画像領域と重複している。そのため、位置特定部2040は、人物30がエリア20-1に位置していると特定する。
 ここで、人物30が複数のエリア20それぞれと重複することも考えられる。この場合、位置特定部2040は、所定のルールに基づいて、人物30と重複しているエリア20の中から、人物30が位置しているエリア20を特定する。
 例えば所定のルールとしては、「人物30と重複しているエリア20のうち、優先順位が最も高いエリア20を、人物30が位置しているエリア20として特定する」というルールを採用することができる。この場合、予め各エリア20に対して優先順位を割り当てておく。例えば、「乗降口前のエリア、奥の座席のエリア、手前の座席のエリア、通路のエリア」という順に高い優先順位を割り当てておく。この場合において、例えば人物領域32が、乗降口前のエリア20と、奥の座席のエリア20との両方と重複していたとする。この場合、位置特定部2040は、より優先順位の高い乗降口前のエリア20に、人物30が位置していると特定する。
 その他の所定のルールとしては、「人物30と重複している面積が最大であるエリア20を、人物30が位置しているエリア20として特定する」というものが挙げられる。この場合、位置特定部2040は、人物30と重複している各エリア20について、そのエリア20を表す画像領域と人物領域32との重複部分の面積を算出する。そして、位置特定部2040は、算出した面積が最大であるエリア20を、人物30が位置しているエリア20として特定する。
 人物30が位置しているエリア20の特定には、学習済みモデル(以下、エリア分類モデル)が利用されてもよい。エリア分類モデルは、撮像画像50と、人物30の人物領域32を特定する情報(例えば、左上と右上の座標)とが入力されたことに応じて、その人物30が位置するエリア20の識別情報を出力するように予め学習されている。この場合、位置特定部2040は、撮像画像50から検出された各人物30について、エリア分類モデルを用いて、その人物30が位置するエリア20を特定する。ここで、エリア分類モデルを利用する場合、エリア情報100を利用して各エリア20を表す画像領域を特定する必要はない。
 エリア分類モデルは、複数の訓練データを用いて予め学習される。訓練データは、例えば、「車内カメラから得られた撮像画像、人物領域を特定する情報」のペアを入力データとして有し、なおかつ、正解のラベル(エリア20の識別情報)を正解の出力データとして有する。エリア分類モデルには、ニューラルネットワークなどといった任意の種類のモデルを利用することができる。
 なお、前述した通り、エリア20の配置は車両の種類や車内カメラの位置(先頭の乗降口など)によって異なりうる。そこで例えば、「車両の種類、車内カメラの位置」のペアごとに、エリア分類モデルを用意しておく。位置特定部2040は、対象車両の種類と、撮像画像50を生成した車内カメラの位置(例えば「先頭の乗降口」など)とに対応するエリア分類モデルに対し、撮像画像50と人物30の人物領域の位置とを入力する。そして位置特定部2040は、エリア分類モデルから出力されたエリア20の識別情報を取得することで、その識別情報で特定されるエリア20に人物30が位置していることを特定する。
<混雑度の特定:S108>
 混雑度特定部2060は、2つ以上のエリア20それぞれの中にいる人の数に基づいて、対象車両の混雑度合いを特定する(S108)。以下、対象車両の混雑度を特定するいくつかの方法を具体的に例示する。
 例えば、混雑度合いの判定の際に利用するエリア20の順序を予め定めておく。そして、混雑度特定部2060は、予め定められている順序に従って、2つ以上のエリア20それぞれの中の人物30の数を閾値と比較していき、その比較結果に基づいて、対象車両の混雑度を特定する。
 ここで、混雑度特定部2060は、対象車両の混雑度合いの特定に、撮像画像50から検出された人物30の総数をさらに利用してもよい。例えば混雑度特定部2060は、全てのエリア20それぞれの中にいる人物30の数の合計値を算出し、当該合計値を人物30の総数として扱う。ただし、混雑度特定部2060は、全てのエリア20ではなく、2つ以上の任意の数のエリア20それぞれの中にいる人物30の数の合計値を、人物30の総数として扱ってもよい。
 図7及び図8は、各エリア20の中にいる人物30の数と、撮像画像50から検出された人物30の総数とに基づいて、対象車両の混雑度を特定する処理の流れを例示するフローチャートである。ここで、図7及び図8の例において、混雑度はレベル1から5に分類されており、レベルの数値が大きいほど混雑度が高い。すなわち、レベル5が最も混雑した状態であり、レベル1が最も混雑していない状態である。また、車内カメラによって撮像されているエリアは、図1で例示したように、7つのエリア20を含んでいる。
 まず図7について説明する。混雑度特定部2060は、「撮像画像50から検出された人物30の総数(総人数)が閾値 Th1 以下であり、なおかつ、乗降口エリアから検出された人物30の数が閾値 Th2 以下である」という条件が満たされているか否かを判定する(S202)。この条件が満たされていない場合(S202:NO)、図8に示すS212が実行される。図8については後述する。
 S202の条件が満たされている場合(S202:YES)、混雑度特定部2060は、「総人数が閾値 Th3 以下であり、なおかつ、奥の座席エリアの人数が Th4 以下である」という条件が満たされているか否かを判定する(S204)。なお、閾値 Th3 は、例えば、Th1>Th3 を満たすように設定される。S204の条件が満たされている場合(S204:YES)、混雑度特定部2060は、対象車両の混雑度がレベル1であると判定する。一方、S204の条件が満たされていない場合(S204:NO)、S208が実行される。
 ここで、図1の撮像画像50において、奥の座席エリアは、エリア20-2とエリア20-3の2つである。閾値 Th4 との比較には、これら2つのエリア20のうち、どちらか一方のみが利用されてもよいし、双方が利用されてもよい。前者の場合、2つのエリア20のうち、広告などの障害物が少なく、その中にいる人物30の数をより正確に把握できる方のエリア20(図1ではエリア20-3)が利用されることが好ましい。混雑度特定装置2000では、対象車両を複数のエリア20に分け、各エリア20の人数を特定するという方法を採用していることから、このように、人物30の数を正確にできるエリア20に着目するということが可能となる。
 ここで、広告の位置などは、例えば、車両の種類や車内カメラの位置によって定まる。そこで例えば、車両の種類と車内カメラの位置のペアに対し、エリア20-2とエリア20-3のうち、どちらを閾値 Th4 との比較に利用するのかを、予め定めておく。混雑度特定部2060は、対象車両の種類と、撮像画像50を生成した車内カメラの位置とに基づいて、奥の座席エリアとして、エリア20-2とエリア20-3のどちらを利用するのかを特定する。
 その他にも例えば、混雑度特定部2060は、エリア20-2の中にいる人物30の数とエリア20-3の中にいる人物30の数とを比較し、より多い方の数を閾値 Th4 との比較に利用してもよい。より正確に人物30の数を検出できるエリア20ほど、検出される人物30の数が多いと考えられるためである。
 なお、片方のエリア20を利用する場合と、2つのエリア20を利用する場合とでは、閾値 Th4 の値を互いに異なるものとすることが好適である。ただし、2つのエリア20の人数の和の代わりに、2つのエリア20の人数の統計値(平均値や最大値など)を利用する場合はこの限りでない。
 S204の条件が満たされていない場合(S204:NO)、混雑度特定部2060は、「総人数が閾値 Th3 以下であり、なおかつ、手前の座席エリアの人数が閾値 Th5 以下である」という条件が満たされているか否かを判定する(S208)。S208の条件が満たされている場合(S208:YES)、混雑度特定部2060は、対象車両の混雑度がレベル1であると判定する(S206)。一方、S208の条件が満たされていない場合(S208:NO)、混雑度特定部2060は、対象車両の混雑度がレベル2であると判定する(S210)。ここで、Th4 と Th5 は、互いに同じ値に設定されてもよいし、互いに異なる値に設定されてもよい。
 図1の撮像画像50において、手前の座席エリアは、奥の座席エリアと同様に2つある。そこで、手前の座席エリアと同様に、閾値 Th5 と比較に利用されるのは、これら2つのエリア20のうち、どちらか一方であってもよいし、双方であってもよい。前者の場合において、2つの手前の座席エリアから閾値 Th5 との比較に利用するエリアを決める方法は、2つの奥の座席エリアから閾値 Th4 との比較に利用する座席エリアを決める方法と同様である。
 ここで、図7の処理フローでは、奥の座席エリアの人数に着目した判定(S204)が、手前の座席エリアの人数に着目した判定(S208)よりも先に行われている。これは、奥の座席エリアに位置する人物30の方が、手前の座席エリアに位置する人物30よりも、その顔が車内カメラによってはっきりと撮像されるため、より高い精度で検出できるためである。このように、人物30の検出の精度が高いエリアに着目した判定を先に行うことで、混雑度特定装置2000によって行われる処理を少なくすることができる。混雑度特定装置2000が処理に要する時間を短くすることができる。
 ただし、奥の座席エリアの人数に着目した判定を先に行うことは、必須の要件ではない。そのため、手前の座席エリアの人数に着目した判定と奥の座席エリアの人数に着目した判定の順序を、図7とは逆にしてもよい。
 次に図8について説明する。図7のS202の条件が満たされていない場合(S202:NO)、混雑度特定部2060は、「総人数が閾値 Th6 以下であり、なおかつ、乗降口エリアから検出された人物30の数が閾値 Th7 以下である」という条件が満たされているか否かを判定する(S212)。ここで、閾値 Th6 は、例えば、Th6>Th1 を満たすように設定される。また、閾値 Th7 は、例えば、Th7>Th2 を満たすように設定される。
 S212の条件が満たされている場合(S212:YES)、混雑度特定部2060は、混雑度がレベル3であると特定する。一方、S212の条件が満たされていない場合(S212:NO)、混雑度特定部2060は、「総人数が閾値 Th8 以下である」という条件が満たされているか否かを判定する(S216)。ここで、閾値 Th8 は、例えば、Th8>Th6 を満たすように設定される。
 S216の条件が満たされている場合(S216:YES)、混雑度特定部2060は、対象車両の混雑度がレベル4であると判定する。一方、S216の条件が満たされていない場合(S216:NO)、混雑度特定部2060は、対象車両の混雑度がレベル5であると判定する(S220)。
 なお、上述した閾値間の大小関係はあくまで例示であり、必須のものではない。
 対象車両の混雑度合いを特定する方法は、エリア20の中にいる人物30の数と閾値とを比較するという方法に限定されない。例えば、各エリア20の中にいる人物30の数から、対象車両の混雑度合いを表すスコア(以下、混雑度スコア)を算出し、当該混雑度スコアに基づいて、対象車両の混雑度が特定されてもよい。この場合、例えば、各エリア20の中にいる人物30の数から混雑度スコアを算出する回帰モデルを予め定めておく。混雑度特定部2060は、各エリア20の中にいる人物30の人数を回帰モデルに入力することで、対象車両の混雑度を算出することができる。例えばこの回帰モデルは、以下の式(1)で表される。
Figure JPOXMLDOC01-appb-M000001
 式(1)において、S は混雑度スコアを表す。A は対象車両の中にあるエリア20の識別子の集合を表す。i はエリア20の識別子を表す。α[i] は、識別子が i であるエリア20(以下、エリアi)に付されている重みである。N[i] は、エリアiの中にいる人物30の数である。
 上記回帰モデルは、「各エリア20の人数、正解の混雑度スコア」という訓練データを利用して、予め学習しておく。この学習により、各エリア20に付される重みα[i] が決定される。
 ここで、各エリア20に付される重みには、そのエリア20の中にいる人物30の数を正確に把握できているか否かが反映されると考えられる。広告などの障害物により、その中の人物30の数を正確に把握することが難しいエリア20については、車両の混雑度合いと、その中から検出される人物30の数との相関が、比較的小さくなると考えられる。そのため、学習の結果得られる回帰モデルにおいて、このようなエリア20に付される重みは、比較的小さくなると考えられる。一方、その中の人物30の数を正確に把握できるエリア20については、車両の混雑度合いと、その中の人物30の数との相関が、比較的大きくなると考えられる。そのため、学習の結果得られる回帰モデルにおいて、このようなエリア20に付される重みは、比較的大きくなると考えられる。
 このように混雑度特定装置2000では、対象車両を複数のエリア20に分け、各エリア20ごとの人数を特定するという方法を採用していることにより、混雑度に与える影響をエリア20ごとに把握することが可能となる。そのため、対象車両全体の人数に着目して対象車両の混雑度を特定する場合と比較し、対象車両の混雑度をより正確に特定することができる。
 なお、式(1)は線形回帰モデルであるが、混雑度スコアの算出式のモデルは、線形回帰モデルに限定されない。
 ここで、混雑度特定部2060は、混雑度スコアを前述した混雑度レベルに変換してもよい。例えば予め、混雑度スコアの数値範囲を、互いに重複しない複数の部分範囲に分割し、各部分範囲に対してレベルを割り当てておく。この場合、混雑度特定部2060は、混雑度スコアを算出した後、その混雑度スコアが含まれる部分範囲を特定し、特定した部分範囲に対応する混雑度レベルを、対象車両の混雑度レベルとして特定する。
 上述の説明では、1つの撮像画像50から検出された人物30の数に基づいて、対象車両の混雑度が特定されている。しかしながら前述したように、対象車両には車内カメラが複数設けられていることがある。そのため、ある特定の時点において、対象車両について複数の撮像画像50が生成されうる。そこで混雑度特定装置2000は、対象車両の複数の車内カメラの1つ以上から得られた撮像画像50を利用して、対象車両の混雑度を特定してもよい。
 例えば混雑度特定装置2000は、対象車両に設けられている複数の車内カメラのうち、特定の1つのみを、対象車両の混雑度合いの特定に利用する。この場合、前述した種々の方法により、1つの撮像画像50から、対象車両の混雑度が特定される。
 その他にも例えば、混雑度特定装置2000は、複数の車内カメラそれぞれから得られた撮像画像50を用いて、撮像画像50ごとに前述した対象車両の混雑度を特定する処理を行い、その結果に基づいて総合的な混雑度を特定する。具体的には、混雑度特定装置2000は、撮像画像50ごとに特定された混雑度の統計値(平均値、最頻値、中央値、最大値、又は最小値など)を、総合的な対象車両の混雑度として利用する。以下、撮像画像50ごとに特定される混雑度のことを、部分混雑度とも呼ぶ。また、対象車両内の各車内カメラによって特定された部分混雑度を用いて特定される、対象車両の総合的な混雑度のこと、総合混雑度とも呼ぶ。
 例えば、対象車両において4セットの乗降口があるとする。そして、車内カメラが先頭の乗降口付近、先頭から2番目の乗降口付近、先頭から3番目の乗降口付近、及び末尾の乗降口付近という4箇所に車内カメラが設けられているとする。この場合、混雑度特定装置2000は、これら4箇所それぞれについて部分混雑度を特定した後、これらの統計値を用いて、総合混雑度を特定する。なお、混雑度特定装置2000の機能の一部を車内カメラで実現する場合、各車内カメラがそれぞれ部分混雑度の特定を行い、その結果を収集して、総合混雑度が特定されるようにしてもよい。総合混雑度の特定を行う装置は、いずれかの車内カメラであってもよいし、他の装置(各車内カメラと通信可能に接続されているサーバ装置など)であってもよい。
 その他にも例えば、混雑度特定装置2000は、対象車両について特定される部分混雑度の集合を、対象車両の混雑度を表す情報として扱ってもよい。上述の例の場合、混雑度特定装置2000は、4箇所の車内カメラそれぞれについて部分混雑度を特定し、特定された4つの部分混雑度の集合を、対象車両の混雑度として扱う。
<結果の出力>
 混雑度特定装置2000は、前述した種々の処理の結果を表す情報を生成して出力する。例えば混雑度特定装置2000は、対象列車の各車両を対象車両として扱うことで、対象列車の各車両についての混雑度を特定する。そして混雑度特定装置2000は、対象列車の各車両の混雑度を示す情報(以下、混雑度情報)を生成し、出力する。ただし、混雑度情報は、対象列車の全ての車両ではなく、特定の車両のみを対象として生成されてもよい。
 図9は、混雑度情報をテーブル形式で例示する図である。図9の混雑度情報200は、車両識別情報202、乗降口識別情報204、部分混雑度206、及び総合混雑度208という4つの列を有する。車両識別情報202は、車両の識別情報を示す。乗降口識別情報204は、乗降口に割り当てられた番号を示す。なお、図9の例では、1つの車両に4セットの乗降口が設けられており、各セットについて部分混雑度が特定されることを前提としている。部分混雑度206は、対応する乗降口のセットについて特定された部分混雑度を示す。総合混雑度208は、対応する車両について特定された総合混雑度を示す。
 例えば混雑度特定装置2000は、複数の列車それぞれについて、混雑度情報200を生成する。また混雑度特定装置2000は、1つの列車について、それぞれ異なる時間ごとに混雑度情報200を生成する。例えば、定期的なタイミングや各駅を出発したタイミングなどで、混雑度情報200が生成される。そこで混雑度情報200は、列車の識別情報及び生成時点に対応づけて出力される。例えば、時点 T1 における列車 R1 について生成された混雑度情報200は、「列車識別情報=R1、時点=T1」というペアに対応づけて出力される。
 混雑度情報200の出力態様は様々である。例えば混雑度情報200は、任意の記憶部に格納される。その他にも例えば、混雑度情報200は、任意のディスプレイ装置に表示される。その他にも例えば、混雑度情報200は、任意の端末に送信される。例えば端末は、顧客の端末、運転士の端末、列車の運行を管理している施設に設けられている端末などである。端末によって受信された混雑度情報200は、当該端末のディスプレイ装置などに表示される。
 例えば顧客は、自身の端末で Web ページや所定のアプリケーションを利用して、任意の列車を指定することにより、その列車の混雑度を知ることができる。顧客の端末は、指定された列車の識別情報を示すリクエストを、混雑度特定装置2000へ送信する。このリクエストを受信した混雑度特定装置2000は、指定された列車について混雑度情報200を生成し、顧客の端末へ送信する。顧客は、受信した混雑度情報200を閲覧することで、利用したい列車の混雑度を把握することができる。
 なお、混雑度特定装置2000は、顧客からのリクエストに応じて混雑度情報200を生成する代わりに、前述した種々のタイミングで混雑度情報200を生成し、記憶部に格納しておいてもよい。この場合、混雑度特定装置2000は、顧客からのリクエストに合致する混雑度情報200を記憶部から読み出し、読み出した混雑度情報200を顧客へ提供する。
 なお、顧客等に閲覧される際、混雑度情報200は、絵柄や図形などを利用し、情報の把握が容易な形式に変換されることが好ましい。この変換は、混雑度特定装置2000で行われてもよいし、混雑度情報200を受信した各端末で行われてもよい。
 混雑度情報200は、必ずしもリアルタイムで提供される必要はない。例えば混雑度特定装置2000は、一日に一度、その日に運行された各列車の各車両について、複数のタイミングそれぞれにおける混雑度情報200を生成する。この結果は、例えば、鉄道会社が経営管理の目的などで利用することができる。例えば、曜日ごとや時間帯ごとに各列車の混雑度合いを把握することで、曜日や時間帯に応じて運賃の設定を適切に行うことができる。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 なお、上述の例において、プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 対象の車両内を撮像するカメラによって生成された撮像画像を取得する取得部と、
 前記撮像画像を用い、前記対象の車両内にいる人物それぞれについて、前記対象の車両内の複数のエリアの中から、その人物が位置している前記エリアを特定する位置特定部と、
 2つ以上の前記エリアそれぞれに位置する前記人物の数を用いて、前記対象の車両の混雑度合いを特定する混雑度特定部と、を有する混雑度特定装置。
 (付記2)
 各前記エリアに対して、前記撮像画像においてそのエリアを表す画像領域の位置が対応づけられているエリア情報が、記憶部に格納されており、
 前記位置特定部は、
  前記エリア情報を利用して、前記撮像画像において各前記エリアを表す画像領域を特定し、
  前記撮像画像から、各前記人物を表す人物領域を検出し、
  各前記人物について、対応する前記画像領域にその人物の前記人物領域が含まれる前記エリアを、その人物が位置する前記エリアとして特定する、付記1に記載の混雑度特定装置。
 (付記3)
 複数の前記エリアに対して優先順位が定められており、
 前記位置特定部は、
  対応する前記画像領域に前記人物の前記人物領域が含まれる前記エリアが複数存在する場合、それら複数の前記エリアのうち、前記優先順位が最も高い前記エリアを、その人物が位置する前記エリアとして特定する、付記2に記載の混雑度特定装置。
 (付記4)
 前記記憶部には、前記エリア情報が車両の種類ごとに格納されており、
 前記位置特定部は、前記対象の車両の種類に対応する前記エリア情報を利用する、付記2又は3に記載の混雑度特定装置。
 (付記5)
 前記混雑度特定部は、前記撮像画像から検出された前記人物の総数と、前記対象の車両の乗降口前を表す前記エリアに位置する前記人物の数とをそれぞれ閾値と比較し、その比較の結果に基づいて、前記対象の車両の混雑度合いを特定する、付記1から4いずれか一項に記載の混雑度特定装置。
 (付記6)
 前記混雑度特定部は、前記総数が第1の閾値以下であり、なおかつ、前記乗降口前を表す前記エリアに位置する前記人物の数が第2の閾値以下である場合に、前記総数を第3の閾値と比較し、なおかつ、座席を表す前記エリアに位置する前記人物の数を第4の閾値と比較し、その比較の結果に基づいて、前記対象の車両の混雑度合いを特定する、付記5に記載の混雑度特定装置。
 (付記7)
 前記混雑度特定部は、同一の種類の前記エリアが複数存在する場合、それら複数の前記エリアのうち、前記人物を最も精度よく検出できる前記エリアの中にいる前記人物の数を、前記対象の車両の混雑度合いの特定に利用する、付記1から6いずれか一項に記載の混雑度特定装置。
 (付記8)
 コンピュータによって実行される制御方法であって、
 対象の車両内を撮像するカメラによって生成された撮像画像を取得する取得ステップと、
 前記撮像画像を用い、前記対象の車両内にいる人物それぞれについて、前記対象の車両内の複数のエリアの中から、その人物が位置している前記エリアを特定する位置特定ステップと、
 2つ以上の前記エリアそれぞれに位置する前記人物の数を用いて、前記対象の車両の混雑度合いを特定する混雑度特定ステップと、を有する制御方法。
 (付記9)
 各前記エリアに対して、前記撮像画像においてそのエリアを表す画像領域の位置が対応づけられているエリア情報が、記憶部に格納されており、
 前記位置特定ステップにおいて、
  前記エリア情報を利用して、前記撮像画像において各前記エリアを表す画像領域を特定し、
  前記撮像画像から、各前記人物を表す人物領域を検出し、
  各前記人物について、対応する前記画像領域にその人物の前記人物領域が含まれる前記エリアを、その人物が位置する前記エリアとして特定する、付記8に記載の制御方法。
 (付記10)
 複数の前記エリアに対して優先順位が定められており、
 前記位置特定ステップにおいて、
  対応する前記画像領域に前記人物の前記人物領域が含まれる前記エリアが複数存在する場合、それら複数の前記エリアのうち、前記優先順位が最も高い前記エリアを、その人物が位置する前記エリアとして特定する、付記9に記載の制御方法。
 (付記11)
 前記記憶部には、前記エリア情報が車両の種類ごとに格納されており、
 前記位置特定ステップにおいて、前記対象の車両の種類に対応する前記エリア情報を利用する、付記9又は10に記載の制御方法。
 (付記12)
 前記混雑度特定ステップにおいて、前記撮像画像から検出された前記人物の総数と、前記対象の車両の乗降口前を表す前記エリアに位置する前記人物の数とをそれぞれ閾値と比較し、その比較の結果に基づいて、前記対象の車両の混雑度合いを特定する、付記8から11いずれか一項に記載の制御方法。
 (付記13)
 前記混雑度特定ステップにおいて、前記総数が第1の閾値以下であり、なおかつ、前記乗降口前を表す前記エリアに位置する前記人物の数が第2の閾値以下である場合に、前記総数を第3の閾値と比較し、なおかつ、座席を表す前記エリアに位置する前記人物の数を第4の閾値と比較し、その比較の結果に基づいて、前記対象の車両の混雑度合いを特定する、付記12に記載の制御方法。
 (付記14)
 前記混雑度特定ステップにおいて、同一の種類の前記エリアが複数存在する場合、それら複数の前記エリアのうち、前記人物を最も精度よく検出できる前記エリアの中にいる前記人物の数を、前記対象の車両の混雑度合いの特定に利用する、付記8から13いずれか一項に記載の制御方法。
 (付記15)
 コンピュータに、
 対象の車両内を撮像するカメラによって生成された撮像画像を取得する取得ステップと、
 前記撮像画像を用い、前記対象の車両内にいる人物それぞれについて、前記対象の車両内の複数のエリアの中から、その人物が位置している前記エリアを特定する位置特定ステップと、
 2つ以上の前記エリアそれぞれに位置する前記人物の数を用いて、前記対象の車両の混雑度合いを特定する混雑度特定ステップと、を実行させるプログラムが格納されている非一時的なコンピュータ可読媒体。
 (付記16)
 各前記エリアに対して、前記撮像画像においてそのエリアを表す画像領域の位置が対応づけられているエリア情報が、記憶部に格納されており、
 前記位置特定ステップにおいて、
  前記エリア情報を利用して、前記撮像画像において各前記エリアを表す画像領域を特定し、
  前記撮像画像から、各前記人物を表す人物領域を検出し、
  各前記人物について、対応する前記画像領域にその人物の前記人物領域が含まれる前記エリアを、その人物が位置する前記エリアとして特定する、付記15に記載のコンピュータ可読媒体。
 (付記17)
 複数の前記エリアに対して優先順位が定められており、
 前記位置特定ステップにおいて、
  対応する前記画像領域に前記人物の前記人物領域が含まれる前記エリアが複数存在する場合、それら複数の前記エリアのうち、前記優先順位が最も高い前記エリアを、その人物が位置する前記エリアとして特定する、付記16に記載のコンピュータ可読媒体。
 (付記18)
 前記記憶部には、前記エリア情報が車両の種類ごとに格納されており、
 前記位置特定ステップにおいて、前記対象の車両の種類に対応する前記エリア情報を利用する、付記16又は17に記載のコンピュータ可読媒体。
 (付記19)
 前記混雑度特定ステップにおいて、前記撮像画像から検出された前記人物の総数と、前記対象の車両の乗降口前を表す前記エリアに位置する前記人物の数とをそれぞれ閾値と比較し、その比較の結果に基づいて、前記対象の車両の混雑度合いを特定する、付記15から18いずれか一項に記載のコンピュータ可読媒体。
 (付記20)
 前記混雑度特定ステップにおいて、前記総数が第1の閾値以下であり、なおかつ、前記乗降口前を表す前記エリアに位置する前記人物の数が第2の閾値以下である場合に、前記総数を第3の閾値と比較し、なおかつ、座席を表す前記エリアに位置する前記人物の数を第4の閾値と比較し、その比較の結果に基づいて、前記対象の車両の混雑度合いを特定する、付記19に記載のコンピュータ可読媒体。
 (付記21)
 前記混雑度特定ステップにおいて、同一の種類の前記エリアが複数存在する場合、それら複数の前記エリアのうち、前記人物を最も精度よく検出できる前記エリアの中にいる前記人物の数を、前記対象の車両の混雑度合いの特定に利用する、付記15から20いずれか一項に記載のコンピュータ可読媒体。
20      エリア
30      人物
32      人物領域
50      撮像画像
100      エリア情報
102      エリア識別情報
104      エリア名称
106      画像領域
200      混雑度情報
202      車両識別情報
204      乗降口識別情報
206      部分混雑度
208      総合混雑度
500      コンピュータ
502      バス
504      プロセッサ
506      メモリ
508      ストレージデバイス
510      入出力インタフェース
512      ネットワークインタフェース
2000     混雑度特定装置
2020     取得部
2040     位置特定部
2060     混雑度特定部

Claims (21)

  1.  対象の車両内を撮像するカメラによって生成された撮像画像を取得する取得部と、
     前記撮像画像を用い、前記対象の車両内にいる人物それぞれについて、前記対象の車両内の複数のエリアの中から、その人物が位置している前記エリアを特定する位置特定部と、
     2つ以上の前記エリアそれぞれに位置する前記人物の数を用いて、前記対象の車両の混雑度合いを特定する混雑度特定部と、を有する混雑度特定装置。
  2.  各前記エリアに対して、前記撮像画像においてそのエリアを表す画像領域の位置が対応づけられているエリア情報が、記憶部に格納されており、
     前記位置特定部は、
      前記エリア情報を利用して、前記撮像画像において各前記エリアを表す画像領域を特定し、
      前記撮像画像から、各前記人物を表す人物領域を検出し、
      各前記人物について、対応する前記画像領域にその人物の前記人物領域が含まれる前記エリアを、その人物が位置する前記エリアとして特定する、請求項1に記載の混雑度特定装置。
  3.  複数の前記エリアに対して優先順位が定められており、
     前記位置特定部は、
      対応する前記画像領域に前記人物の前記人物領域が含まれる前記エリアが複数存在する場合、それら複数の前記エリアのうち、前記優先順位が最も高い前記エリアを、その人物が位置する前記エリアとして特定する、請求項2に記載の混雑度特定装置。
  4.  前記記憶部には、前記エリア情報が車両の種類ごとに格納されており、
     前記位置特定部は、前記対象の車両の種類に対応する前記エリア情報を利用する、請求項2又は3に記載の混雑度特定装置。
  5.  前記混雑度特定部は、前記撮像画像から検出された前記人物の総数と、前記対象の車両の乗降口前を表す前記エリアに位置する前記人物の数とをそれぞれ閾値と比較し、その比較の結果に基づいて、前記対象の車両の混雑度合いを特定する、請求項1から4いずれか一項に記載の混雑度特定装置。
  6.  前記混雑度特定部は、前記総数が第1の閾値以下であり、なおかつ、前記乗降口前を表す前記エリアに位置する前記人物の数が第2の閾値以下である場合に、前記総数を第3の閾値と比較し、なおかつ、座席を表す前記エリアに位置する前記人物の数を第4の閾値と比較し、その比較の結果に基づいて、前記対象の車両の混雑度合いを特定する、請求項5に記載の混雑度特定装置。
  7.  前記混雑度特定部は、同一の種類の前記エリアが複数存在する場合、それら複数の前記エリアのうち、前記人物を最も精度よく検出できる前記エリアの中にいる前記人物の数を、前記対象の車両の混雑度合いの特定に利用する、請求項1から6いずれか一項に記載の混雑度特定装置。
  8.  コンピュータによって実行される制御方法であって、
     対象の車両内を撮像するカメラによって生成された撮像画像を取得する取得ステップと、
     前記撮像画像を用い、前記対象の車両内にいる人物それぞれについて、前記対象の車両内の複数のエリアの中から、その人物が位置している前記エリアを特定する位置特定ステップと、
     2つ以上の前記エリアそれぞれに位置する前記人物の数を用いて、前記対象の車両の混雑度合いを特定する混雑度特定ステップと、を有する制御方法。
  9.  各前記エリアに対して、前記撮像画像においてそのエリアを表す画像領域の位置が対応づけられているエリア情報が、記憶部に格納されており、
     前記位置特定ステップにおいて、
      前記エリア情報を利用して、前記撮像画像において各前記エリアを表す画像領域を特定し、
      前記撮像画像から、各前記人物を表す人物領域を検出し、
      各前記人物について、対応する前記画像領域にその人物の前記人物領域が含まれる前記エリアを、その人物が位置する前記エリアとして特定する、請求項8に記載の制御方法。
  10.  複数の前記エリアに対して優先順位が定められており、
     前記位置特定ステップにおいて、
      対応する前記画像領域に前記人物の前記人物領域が含まれる前記エリアが複数存在する場合、それら複数の前記エリアのうち、前記優先順位が最も高い前記エリアを、その人物が位置する前記エリアとして特定する、請求項9に記載の制御方法。
  11.  前記記憶部には、前記エリア情報が車両の種類ごとに格納されており、
     前記位置特定ステップにおいて、前記対象の車両の種類に対応する前記エリア情報を利用する、請求項9又は10に記載の制御方法。
  12.  前記混雑度特定ステップにおいて、前記撮像画像から検出された前記人物の総数と、前記対象の車両の乗降口前を表す前記エリアに位置する前記人物の数とをそれぞれ閾値と比較し、その比較の結果に基づいて、前記対象の車両の混雑度合いを特定する、請求項8から11いずれか一項に記載の制御方法。
  13.  前記混雑度特定ステップにおいて、前記総数が第1の閾値以下であり、なおかつ、前記乗降口前を表す前記エリアに位置する前記人物の数が第2の閾値以下である場合に、前記総数を第3の閾値と比較し、なおかつ、座席を表す前記エリアに位置する前記人物の数を第4の閾値と比較し、その比較の結果に基づいて、前記対象の車両の混雑度合いを特定する、請求項12に記載の制御方法。
  14.  前記混雑度特定ステップにおいて、同一の種類の前記エリアが複数存在する場合、それら複数の前記エリアのうち、前記人物を最も精度よく検出できる前記エリアの中にいる前記人物の数を、前記対象の車両の混雑度合いの特定に利用する、請求項8から13いずれか一項に記載の制御方法。
  15.  コンピュータに、
     対象の車両内を撮像するカメラによって生成された撮像画像を取得する取得ステップと、
     前記撮像画像を用い、前記対象の車両内にいる人物それぞれについて、前記対象の車両内の複数のエリアの中から、その人物が位置している前記エリアを特定する位置特定ステップと、
     2つ以上の前記エリアそれぞれに位置する前記人物の数を用いて、前記対象の車両の混雑度合いを特定する混雑度特定ステップと、を実行させるプログラムが格納されている非一時的なコンピュータ可読媒体。
  16.  各前記エリアに対して、前記撮像画像においてそのエリアを表す画像領域の位置が対応づけられているエリア情報が、記憶部に格納されており、
     前記位置特定ステップにおいて、
      前記エリア情報を利用して、前記撮像画像において各前記エリアを表す画像領域を特定し、
      前記撮像画像から、各前記人物を表す人物領域を検出し、
      各前記人物について、対応する前記画像領域にその人物の前記人物領域が含まれる前記エリアを、その人物が位置する前記エリアとして特定する、請求項15に記載のコンピュータ可読媒体。
  17.  複数の前記エリアに対して優先順位が定められており、
     前記位置特定ステップにおいて、
      対応する前記画像領域に前記人物の前記人物領域が含まれる前記エリアが複数存在する場合、それら複数の前記エリアのうち、前記優先順位が最も高い前記エリアを、その人物が位置する前記エリアとして特定する、請求項16に記載のコンピュータ可読媒体。
  18.  前記記憶部には、前記エリア情報が車両の種類ごとに格納されており、
     前記位置特定ステップにおいて、前記対象の車両の種類に対応する前記エリア情報を利用する、請求項16又は17に記載のコンピュータ可読媒体。
  19.  前記混雑度特定ステップにおいて、前記撮像画像から検出された前記人物の総数と、前記対象の車両の乗降口前を表す前記エリアに位置する前記人物の数とをそれぞれ閾値と比較し、その比較の結果に基づいて、前記対象の車両の混雑度合いを特定する、請求項15から18いずれか一項に記載のコンピュータ可読媒体。
  20.  前記混雑度特定ステップにおいて、前記総数が第1の閾値以下であり、なおかつ、前記乗降口前を表す前記エリアに位置する前記人物の数が第2の閾値以下である場合に、前記総数を第3の閾値と比較し、なおかつ、座席を表す前記エリアに位置する前記人物の数を第4の閾値と比較し、その比較の結果に基づいて、前記対象の車両の混雑度合いを特定する、請求項19に記載のコンピュータ可読媒体。
  21.  前記混雑度特定ステップにおいて、同一の種類の前記エリアが複数存在する場合、それら複数の前記エリアのうち、前記人物を最も精度よく検出できる前記エリアの中にいる前記人物の数を、前記対象の車両の混雑度合いの特定に利用する、請求項15から20いずれか一項に記載のコンピュータ可読媒体。
PCT/JP2021/023032 2021-06-17 2021-06-17 混雑度特定装置、制御方法、及び非一時的なコンピュータ可読媒体 WO2022264357A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/274,590 US20240135716A1 (en) 2021-06-17 2021-06-16 Congestion degree determination apparatus, control method, and non-transitory computer-readable medium
PCT/JP2021/023032 WO2022264357A1 (ja) 2021-06-17 2021-06-17 混雑度特定装置、制御方法、及び非一時的なコンピュータ可読媒体
JP2023528877A JPWO2022264357A5 (ja) 2021-06-17 混雑度特定装置、制御方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/023032 WO2022264357A1 (ja) 2021-06-17 2021-06-17 混雑度特定装置、制御方法、及び非一時的なコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2022264357A1 true WO2022264357A1 (ja) 2022-12-22

Family

ID=84526933

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/023032 WO2022264357A1 (ja) 2021-06-17 2021-06-17 混雑度特定装置、制御方法、及び非一時的なコンピュータ可読媒体

Country Status (2)

Country Link
US (1) US20240135716A1 (ja)
WO (1) WO2022264357A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012093592A1 (ja) * 2011-01-07 2012-07-12 株式会社日立国際電気 監視システムおよび占有割合検出方法
JP2013122735A (ja) * 2011-12-12 2013-06-20 Nikon Corp 電子機器
JP2019059315A (ja) * 2017-09-26 2019-04-18 富士通フロンテック株式会社 車両混雑状況通知システム、車両混雑状況通知方法及び車両混雑状況通知装置
JP2020196349A (ja) * 2019-06-03 2020-12-10 Necプラットフォームズ株式会社 混雑状況管理装置、混雑状況管理システム、混雑状況管理方法及びプログラム
JP2021003972A (ja) * 2019-06-26 2021-01-14 株式会社東芝 情報処理装置、駅務システム、駅務機器、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012093592A1 (ja) * 2011-01-07 2012-07-12 株式会社日立国際電気 監視システムおよび占有割合検出方法
JP2013122735A (ja) * 2011-12-12 2013-06-20 Nikon Corp 電子機器
JP2019059315A (ja) * 2017-09-26 2019-04-18 富士通フロンテック株式会社 車両混雑状況通知システム、車両混雑状況通知方法及び車両混雑状況通知装置
JP2020196349A (ja) * 2019-06-03 2020-12-10 Necプラットフォームズ株式会社 混雑状況管理装置、混雑状況管理システム、混雑状況管理方法及びプログラム
JP2021003972A (ja) * 2019-06-26 2021-01-14 株式会社東芝 情報処理装置、駅務システム、駅務機器、及びプログラム

Also Published As

Publication number Publication date
JPWO2022264357A1 (ja) 2022-12-22
US20240135716A1 (en) 2024-04-25

Similar Documents

Publication Publication Date Title
Singh et al. Image classification: a survey
CN108090458B (zh) 人体跌倒检测方法和装置
Zhang et al. Modeling pedestrians’ near-accident events at signalized intersections using gated recurrent unit (GRU)
US20140139633A1 (en) Method and System for Counting People Using Depth Sensor
US8938092B2 (en) Image processing system, image capture apparatus, image processing apparatus, control method therefor, and program
CN109740590B (zh) 基于目标跟踪辅助的roi精确提取方法及系统
US11403879B2 (en) Method and apparatus for child state analysis, vehicle, electronic device, and storage medium
JP6729793B2 (ja) 情報処理装置、制御方法、及びプログラム
CN109492571B (zh) 识别人体年龄的方法、装置及电子设备
CN110490103B (zh) 轨道交通客流密度检测方法及装置
WO2021241587A1 (ja) 乗降者数計数システム及び乗降者数計数装置
CN111611894A (zh) 人员轨迹预测方法、装置、计算机设备及存储介质
Kumtepe et al. Driver aggressiveness detection via multisensory data fusion
CN114677650A (zh) 地铁乘客行人违法行为智能分析方法及装置
WO2022264357A1 (ja) 混雑度特定装置、制御方法、及び非一時的なコンピュータ可読媒体
EP3425606B1 (en) Traffic situation estimation system and traffic situation estimation method
Yanakova et al. Facial recognition technology on ELcore semantic processors for smart cameras
CN113593099A (zh) 闸机控制方法、装置、系统、电子设备及存储介质
US20210075844A1 (en) Information processing device, information processing method, and storage medium
Kielty et al. Neuromorphic seatbelt state detection for in-cabin monitoring with event cameras
Chen et al. An indoor video surveillance system with intelligent fall detection capability
WO2022059223A1 (ja) 映像解析システムおよび映像解析方法
P. Garcia et al. Monitoring of People Capacity in an Establishment using YOLOv3 Algorithm
JP7199623B1 (ja) 情報処理装置
CN111008595A (zh) 一种面向私家车内后排婴儿/宠物趴窗判别及车内氛围识别方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21946034

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18274590

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2023528877

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE