WO2016038872A1 - 情報処理装置、表示方法およびプログラム記憶媒体 - Google Patents

情報処理装置、表示方法およびプログラム記憶媒体 Download PDF

Info

Publication number
WO2016038872A1
WO2016038872A1 PCT/JP2015/004526 JP2015004526W WO2016038872A1 WO 2016038872 A1 WO2016038872 A1 WO 2016038872A1 JP 2015004526 W JP2015004526 W JP 2015004526W WO 2016038872 A1 WO2016038872 A1 WO 2016038872A1
Authority
WO
WIPO (PCT)
Prior art keywords
movement
information
display
arrow
displayed
Prior art date
Application number
PCT/JP2015/004526
Other languages
English (en)
French (fr)
Inventor
明子 大島
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2016547695A priority Critical patent/JP6399096B2/ja
Priority to US15/508,573 priority patent/US10297051B2/en
Publication of WO2016038872A1 publication Critical patent/WO2016038872A1/ja
Priority to US16/365,833 priority patent/US10825211B2/en
Priority to US17/002,451 priority patent/US11315294B2/en
Priority to US17/696,035 priority patent/US11657548B2/en
Priority to US18/135,901 priority patent/US20230252698A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Definitions

  • the present invention relates to a technique for displaying a moving route of an object.
  • trajectory information representing the trajectory of the person's behavior is acquired.
  • information representing the purchase behavior of the customer and information effective for improving the work efficiency of the worker can be obtained.
  • Patent Document 1 discloses customer trend collection that associates customer flow line data recognized by a flow line recognition system constructed in a specific area (monitoring area) of a store with transaction data of the customer processed by a payment apparatus. A method is described.
  • Patent Document 2 describes a customer behavior analysis device having a configuration for collecting the occurrence status of a person who abandoned self-service behavior to select a product from a self-service area.
  • Patent Document 3 describes an attendee flow line simulation device that predicts the state of movement and stay of visitors.
  • the probability that an attendee selects the shortest route or main street is represented by the thickness of an arrow.
  • JP 2011-170565 A Japanese Patent No. 5356615 Japanese Patent Laid-Open No. 06-176004
  • Patent Document 1 when the result of analyzing the behavior and trend of the person is displayed on the display screen, the flow line data of the person as the analysis result is individually displayed for each person.
  • the flow line data is displayed individually for each person, there is a problem that it is difficult to grasp the behavior analysis results of a plurality of persons in the monitored area.
  • Patent Document 2 the result of analyzing the occurrence state of a person (suspended person) who abandoned self-service behavior is displayed, but the movement path of the suspended person is not displayed.
  • Patent Document 3 it is not assumed that a flow line indicating how the visitors actually acted is displayed.
  • the main object of the present invention is to provide a technique for displaying the behavior (movement) status of an object to be monitored in a display mode that is easy for an analyst to understand.
  • an information processing apparatus of the present invention provides: Detecting means for classifying the plurality of objects for each set movement route based on information on the movement of the object to be monitored; Display control means for controlling the display device so that the movement of the object is displayed with an arrow for each movement path on the display screen of the display device having a display screen,
  • the axis of the arrow displayed by the display control means has a thickness corresponding to the number of the objects classified in the corresponding movement path, and the trajectory of the object classified in the corresponding movement path
  • the direction of the arrow represents the traveling direction of the object.
  • the display method of the present invention includes: Based on the information on the movement of the object to be monitored, classify the plurality of objects for each set movement route, The movement of the object is displayed with an arrow for each movement path on the display screen of a display device having a display screen, and the axis of the displayed arrow is on the corresponding movement path. It has a thickness according to the number of the classified objects, has a shape according to the trajectory of the objects classified in the corresponding movement route, and the direction of the arrow indicates the progress of the objects The display device is controlled to indicate a direction.
  • the program storage medium of the present invention includes: On the computer, A process of classifying the plurality of objects for each set movement route based on information on the movement of the object to be monitored; The movement of the object is displayed with an arrow for each movement path on the display screen of a display device having a display screen, and the axis of the displayed arrow is on the corresponding movement path. It has a thickness according to the number of the classified objects, has a shape according to the trajectory of the objects classified in the corresponding movement route, and the direction of the arrow indicates the progress of the objects A computer program for executing processing for controlling the display device is stored so as to indicate the direction.
  • the main object of the present invention is also achieved by the display method of the present invention corresponding to the information processing apparatus of the present invention.
  • the main object of the present invention is also achieved by an information processing apparatus of the present invention, a computer program corresponding to the display method of the present invention, and a program storage medium for storing the computer program.
  • the present invention it is possible to display the behavior (movement) status of an object to be monitored in a display mode that is easy for an analyst to grasp.
  • FIG. 1 is a block diagram illustrating a simplified configuration of an information processing apparatus according to a first embodiment of the present invention. It is a figure showing the example of a display of the analysis result by the information processing apparatus of 1st Embodiment. It is a flowchart showing the operation example of the analysis process in the information processing apparatus of 1st Embodiment. It is a block diagram which simplifies and represents the structure of the information processing apparatus of 2nd Embodiment which concerns on this invention. It is a figure explaining the example of a display of the analysis result by the information processor of a 2nd embodiment. It is a figure explaining the example of a display showing the moving path
  • FIG. 1 is a block diagram showing a simplified configuration of a behavior analysis system including the information processing apparatus according to the first embodiment of the present invention.
  • the direction of the arrow in a figure represents an example and does not limit the direction of the signal between blocks.
  • This behavior analysis system 1 is constructed for the purpose of analyzing the behavior of a person on the floor.
  • the behavior analysis system 1 includes an information processing device 10, a camera 20, and a display device 30.
  • the camera 20 is installed in a state where it can shoot the floor to be monitored.
  • the camera 20 has a function of transmitting a captured image to the information processing apparatus 10.
  • the display device 30 includes a display screen (display) and has a function of displaying information by a control operation of the information processing device 10.
  • the information processing apparatus 10 has a function of analyzing an action of a person on the floor using an image taken by the camera 20 and displaying the analysis result on the display device 30.
  • FIG. 10 an example of the hardware configuration of the information processing apparatus 10 is illustrated together with the camera 20 and the display device 30.
  • the information processing apparatus 10 includes a CPU (Central Processing Unit) 300, a memory 310, an input / output IF (InterFace) 320, and a communication unit 330. These are connected to each other by a bus 340.
  • the input / output IF 320 has a configuration that enables information communication with peripheral devices such as the display device 30.
  • the communication unit 330 enables communication with, for example, the camera 20 by a preset communication method (for example, wireless communication such as wireless LAN (Local Area Network) or communication via an information communication network (for example, the Internet)). It has a configuration.
  • the memory 310 is a storage medium (storage device) that stores data and computer programs (hereinafter also abbreviated as programs).
  • the memory 310 stores a program for controlling the operation of the information processing apparatus 10.
  • the program is stored in, for example, a portable storage medium, and may be written from the portable storage medium to the memory 310, or supplied to the information processing apparatus 10 through the information communication network and written to the memory 310. May be.
  • the CPU 300 can realize various functions by reading a program stored in the memory 310 and executing the program.
  • the information processing apparatus 10 realizes the following functions by the CPU 300.
  • the information processing apparatus 10 includes, as function units, a tracking unit 100, a detection unit 101, a direction calculation unit 102, a time calculation unit 103, an accumulation unit 104, and a display control unit as illustrated in FIG. 105.
  • the tracking unit 100 detects a person who is an object to be monitored from, for example, image processing from a captured image received from the camera 20 (a video (hereinafter, also referred to as a floor video) capturing a floor to be captured (monitored)). It has the function to do.
  • image processing from a captured image received from the camera 20 (a video (hereinafter, also referred to as a floor video) capturing a floor to be captured (monitored)). It has the function to do.
  • the behavior analysis system 1 described in the first embodiment may be used as an object motion analysis system that analyzes the motion of an object instead of a person's behavior.
  • the tracking unit 100 detects an object set as a monitoring target instead of a person from a floor image by the camera 20. To do.
  • the tracking unit 100 has a function of acquiring the position information of the detected person by image processing in each frame in the captured image (moving image). Furthermore, the tracking unit 100 has a function of generating person tracking information by arranging the acquired person position information in time series.
  • the tracking information refers to information related to the identification of the detected person and position information of the person, and information indicating time (for example, information for identifying a frame, time information, and information indicating the order). Information.
  • the detection unit 101 has a function of classifying the generated tracking information for each person. In other words, when receiving the tracking information from the tracking unit 100, the detection unit 101 acquires information related to person identification from the tracking information.
  • the detection part 101 classifies tracking information for every person based on the acquired information. Further, the detection unit 101 outputs the tracking information classified for each person to the direction calculation unit 102 and the time calculation unit 103.
  • the above explanation is based on the assumption that a person moves once on the floor to be monitored. For example, when there is one person who moves on the target floor and it is known in advance that the person moves a plurality of times, the detection unit 101 uses the tracking information, for example, for the first movement and the second movement. Thus, you may classify
  • the direction calculation unit 102 has a function of generating direction information based on the tracking information.
  • the direction information is information related to the moving direction of the person detected from the captured image.
  • the direction calculation unit 102 when receiving the tracking information classified for each person, the direction calculation unit 102 associates tracking information that is continuous in time and space. Then, based on the associated tracking information, the direction calculation unit 102 obtains information related to the movement of the person detected from the captured image (here, the movement start point information in the floor and the movement direction information). calculate. The direction calculation unit 102 outputs direction information including the calculated information to the accumulation unit 104.
  • the time calculation unit 103 has a function of generating time information from the tracking information.
  • the time information is time information related to the movement of the person detected from the captured image.
  • the time calculation unit 103 calculates the movement time in the monitoring target floor for each person based on the tracking information. Then, the time calculation unit 103 outputs time information including the calculated travel time to the accumulation unit 104.
  • the accumulating unit 104 has a function of counting the number of flow line data as follows.
  • the flow line data is information including the starting point information of the movement of the person detected from the captured image, the traveling direction information, and the moving time.
  • the accumulation unit 104 receives direction information from the direction calculation unit 102 and receives time information from the time calculation unit 103.
  • the accumulating unit 104 generates flow line data based on the received direction information and time information. Then, the accumulating unit 104 counts the number of flow line data including similar traveling direction information on the floor to be monitored. Thereafter, the accumulating unit 104 associates the counted number of data with the counted flow line data, and outputs the associated information to the display control unit 105 as an analysis result.
  • the display control unit 105 has a function of causing the display device 30 to display the analysis result.
  • the analysis result is the number of the flow line data including the similar traveling direction information measured by the accumulating unit 104 as described above, and information associated with the flow line data. To express.
  • FIG. 2 is a diagram illustrating a display example of the analysis result by the display control unit 105.
  • the analysis results 301 to 303 shown in FIG. 2 are information on customer movement tendency in the store.
  • the display control unit 105 controls the display device 30 so that the analysis results 301 to 303 are displayed on the floor plan of the store as shown in FIG.
  • the analysis results 301 to 303 are displayed by the display control unit 105 with arrows.
  • the direction of the arrow corresponds to the traveling direction information (person movement direction) included in the analysis results 301 to 303.
  • the thickness of the arrow axis corresponds to the number of data (number of persons) by the accumulating unit 104 included in the analysis results 301 to 303.
  • the length of the axis of the arrow depends on the time information included in the analysis results 301 to 303 (person movement time (for example, the average value of movement times of a plurality of persons having the same traveling (movement) direction)). Note that the movement time of the person may be displayed by other methods.
  • the positions of the starting points of the arrows representing the analysis results 301 to 303 are aligned with the starting point 501.
  • the position of the starting point of this arrow corresponds to the starting position of the person's movement.
  • the display example shown in FIG. 2 is an example, and the analysis results 301 to 303 display the number of data counted by the accumulating unit 104 and the flow line data associated with the number of data. For example, it may be displayed in other display modes.
  • each function of the information processing apparatus 10 may be realized by hardware or a combination of hardware and software.
  • FIG. 3 is a flowchart illustrating an operation example of human behavior analysis processing by the information processing apparatus 10. Note that the flowchart shown in FIG. 3 represents a processing procedure executed by the CPU.
  • the tracking unit 100 When the tracking unit 100 receives a captured video (floor video) from the camera 20, the tracking unit 100 detects a person from the floor video by, for example, image processing (step S101).
  • the tracking unit 100 calculates the position information of the detected person in each frame. Then, the tracking unit 100 generates tracking information based on the calculated position information (Step S102). The tracking unit 100 outputs the generated tracking information toward the detection unit 101.
  • the detection unit 101 classifies the received tracking information for each person (step S103). Then, the detection unit 101 outputs the tracking information classified for each person toward the direction calculation unit 102 and the time calculation unit 103.
  • the direction calculation unit 102 generates direction information (information including movement start point information and movement progress direction information) based on the input tracking information (step S104). Thereafter, the direction calculation unit 102 outputs the generated direction information to the accumulation unit 104.
  • the time calculation unit 103 generates time information (information including the movement time of the person in the person's floor) based on the received tracking information (step S105). Then, the time calculation unit 103 outputs the generated time information to the accumulation unit 104.
  • the accumulating unit 104 generates flow line data based on the received direction information and time information. Thereafter, the accumulating unit 104 counts (calculates) the number of flow line data including similar traveling direction information on the floor to be monitored based on the direction information (step S106). The accumulating unit 104 associates the counted number of data with the counted flow line data, and outputs the information to the display control unit 105 as an analysis result.
  • the display control unit 105 displays the received analysis result on the display device 30 (step S107).
  • the display control unit 105 causes a plurality of pieces of information included in the analysis result (that is, the number of flow line data including similar traveling direction information and the directions included in the flow line data).
  • Information and time information are displayed on the display device 30 together. That is, the information processing apparatus 10 obtains a plurality of pieces of information (for example, attribute information such as a person's moving direction, moving time, and number of people) included in a person's behavior analysis result in a monitored area such as a store or a warehouse. It can be displayed in a display mode that the user can easily grasp.
  • the user of the information processing apparatus 10 according to the first embodiment can easily confirm the ratio of the number of persons toward each traveling direction in the floor to be monitored.
  • the user can easily grasp customer trends in the store and employee behavior trends in the warehouse.
  • the behavior analysis system 1 may also be used as an object motion analysis system that analyzes a motion of an object instead of a human behavior.
  • the tracking unit 100 detects an object set as a monitoring target instead of a person from the floor video by the camera 20.
  • FIG. 4 is a block diagram illustrating a simplified configuration example of the information processing apparatus according to the second embodiment.
  • the direction of the arrow in a figure represents an example and does not limit the direction of the signal between blocks.
  • the information processing apparatus 10 of the second embodiment displays the analysis result of the person's behavior using the direction of the arrow, the thickness of the axis, and the length of the axis. 30 is provided. Furthermore, the information processing apparatus 10 according to the second embodiment has a configuration in which the movement tendency (movement route) of a person is displayed as a moving image using the display device 30.
  • the information processing apparatus 10 includes a hardware configuration as illustrated in FIG.
  • the information processing apparatus 10 includes a tracking unit 100, a detection unit 101, a direction calculation unit 102, a time calculation unit 103, an accumulation unit 104, a display control unit 105, data, and the like as functional units realized by a CPU.
  • a creation unit 201 and a moving image display unit 202 are included. Below, the structure mainly related to a moving image display is demonstrated.
  • the detection unit 101 outputs the tracking information classified for each person to the direction calculation unit 102, the time calculation unit 103, and the data creation unit 201.
  • the data creation unit 201 has a function of generating display data based on the received tracking information. In other words, when receiving the tracking information, the data creation unit 201 calculates (detects) information about the start time, the traveling direction, and the end time related to the movement of the person based on the tracking information.
  • the data creation part 201 produces
  • the display data is data relating to the movement of the person, for example, data in which pairs of coordinate points representing the position of the person detected by the detection unit 101 and time are arranged in time series. Thereafter, the data creation unit 201 outputs the generated display data to the moving image display unit 202.
  • the moving image display unit 202 has a function of displaying a movement tendency of a person with a moving image based on the display data received from the data creation unit 201.
  • FIG. 5 is a diagram for explaining a display example of a person's movement tendency (moving image) based on the display data.
  • the movement tendency of the person based on the display data is represented as flow line information 401-404.
  • the flow line information 401 to 404 in FIG. 5 represents a customer's movement tendency in a plan view of the floor to be monitored in the store.
  • the flow line information 401 to 404 is represented by arrows.
  • the shape of the arrow axis in the longitudinal direction corresponds to the trajectory of the person's movement.
  • the direction of the arrow depends on the direction of movement of the person.
  • the length of the arrow depends on the movement time of the person.
  • the thicknesses of the axes of the arrows representing the flow line information 401 to 404 are the same.
  • the axis of the arrow may be represented with a thickness according to the number of people.
  • the moving image display unit 202 has a function of displaying the flow line information 401 to 404 as shown in FIG.
  • FIG. 6 is a diagram for explaining a display example of a moving image by the moving image display unit 202.
  • the start point of the movement of the person represented by the flow line information 401 is A
  • the end point is B
  • the end point B moves so as to be represented in the order of (a), (b), and (c) in FIG.
  • the moving image display unit 202 causes the display device 30 to display a state of an arrow extending so as to draw a movement trajectory from the start point A to the end point B with a moving image.
  • (a) of FIG. 6 represents the state of the arrow indicating the flow line information 401 displayed immediately after the start of the moving image. That is, the flow line information 401 is displayed as an arrow extending slightly from the starting point A.
  • (B) of FIG. 6 represents a state of an arrow representing the flow line information 401 displayed when the moving image is reproduced about half.
  • (C) of FIG. 6 represents the state of the arrow indicating the flow line information 401 displayed immediately before the end of the moving image.
  • the moving image display unit 202 extends the arrow so as to draw the locus of movement of the end point B as represented in the order of (a), (b), and (c) in FIG.
  • the flow line information 401 is displayed on the display device 30 as a moving image. Then, the operation display unit 202 ends the reproduction of the moving image when the end point B reaches the final point.
  • the display method of the moving line information by the moving image display unit 202 using the moving image is not limited to the above method, and any display method may be used as long as the movement of the person is known.
  • the moving image display unit 202 may have a function of displaying a plurality of flow line information 401 to 404 as shown in FIG.
  • FIG. 7 is a diagram for explaining the order in which the flow line information 401 to 404 by the moving image display unit 202 is displayed on the display device 30 in the order of moving images.
  • the moving image display unit 202 causes the display device 30 to display arrows representing the flow line information 401 to 404 in chronological order according to the order.
  • the moving image display unit 202 causes the display device 30 to display the movement of the arrow based on the flow line information 401 representing the state of the first person movement, for example, in the period T1 in FIG. Then, after the moving image display based on the flow line information 401 is completed, the moving image display unit 202 displays the movement of the arrow based on the flow line information 402 indicating the state of the next movement performed, for example, in the period T2 in FIG. In FIG. 4, the image is displayed on the display device 30 with a moving image.
  • the moving image display unit 202 displays the movement of the arrow based on the flow line information 403 indicating the state of the next movement performed, for example, 7, the video is displayed on the display device 30 with a moving image. Furthermore, after the moving image display based on the flow line information 403 is completed, the moving image display unit 202 displays the movement of the arrow based on the flow line information 404 indicating the state of the next movement performed, for example, in the period in FIG. At T4, the moving image is displayed on the display device 30 as a moving image.
  • the time length of the periods T1 to T4 during which the arrows based on the flow line information 401 to 404 are displayed as moving images depends on the movement time of the person represented by the flow line information 401 to 404. Note that the periods T1 to T4 may be the same length of time as the actual movement of the person or may be shortened by a preset ratio.
  • FIG. 8 is a diagram for explaining another example in which the flow line information 401 to 404 is displayed on the display device 30 by a moving image by the moving image display unit 202.
  • the moving image display unit 202 is a diagram illustrating an example in which a movement of a person started at a different time is displayed on the display device 30 as a moving image, assuming that the movement is started at the same time.
  • the moving image display unit 202 performs moving image display of the flow line information 401 to 404 during the periods T1 to T4 shown in FIG. That is, the moving image display unit 202 starts moving image display of the flow line information 401 to 404 at the same time. That is, the moving image display unit 202 displays the flow line information 401 to 404 with moving images all at once.
  • the time length of the periods T1 to T4 during which the arrows are moved based on the respective flow line information 401 to 404 is different from each flow line information 401. It corresponds to the movement time of the person represented by .about.404.
  • the periods T1 to T4 may be the same length of time as the actual movement of the person or may be shortened by a preset ratio.
  • FIG. 9 is a flowchart illustrating an operation example of the human behavior analysis process performed by the information processing apparatus 10.
  • the flowchart in FIG. 9 represents a processing procedure executed by the CPU in the information processing apparatus 10.
  • the tracking unit 100 detects a person from a captured image (floor image) received from the camera 20 (step S201).
  • the tracking unit 100 calculates position information of the detected person in each frame. Then, the tracking unit 100 generates tracking information based on the calculated position information (step S202). The tracking unit 100 outputs the generated tracking information to the detection unit 101.
  • the detection unit 101 classifies the received tracking information for each person (step S203). Thereafter, the detection unit 101 outputs the tracking information classified for each person toward the data creation unit 201.
  • the data creation unit 201 generates display data relating to the movement of each person based on the received tracking information for each person (step S204). Thereafter, the data creation unit 201 outputs the generated display data to the moving image display unit 202.
  • the moving image display unit 202 displays the moving state (flow line information) of each person on the display device 30 as a moving image based on the received display data (step S205).
  • the information processing apparatus 10 has a function of causing the moving image display unit 202 to display the moving state of the person detected from the captured image of the camera 20 on the display device 30 with a moving image.
  • the information processing apparatus 10 can cause the user of the apparatus 10 to dynamically grasp the movement of the person in the monitored floor. Further, the information processing apparatus 10 can cause the user to dynamically compare the movements of a plurality of persons in the floor to be monitored.
  • the moving image display unit 202 can display the moving state of each person on the display device 30 with moving images in the order of movement.
  • the moving image display unit 202 can cause the moving image display unit 202 to display the movement of each person on the display device 30 with a moving image as if the movement started at the same time.
  • the information processing apparatus 10 can obtain an effect that the user can easily compare the movement direction and the movement time in the movement of each person. .
  • FIG. 11 is a block diagram showing a simplified configuration of an information processing apparatus according to another embodiment of the present invention.
  • the information processing apparatus 5 includes a detection unit 6 and a display control unit 7.
  • the detection unit 6 has a function of classifying information (tracking information) related to the movement of the object to be monitored for each movement route based on the information on the movement route included in the information.
  • the display control unit 7 displays a display device so that an arrow indicating the number of pieces of information (tracking information) classified into each of the movement paths is displayed on the display apparatus with the thickness and the movement path in shape and direction. It has a function to control.
  • the information processing apparatus 5 can display the number of objects moving along a predetermined route and the moving route by providing such a configuration.
  • the display control unit 7 may control the display device so that an arrow having a length corresponding to the travel time included in the flow line information is displayed on the display device.
  • the information processing apparatus 5 can also display the movement time of the object.
  • the information processing apparatus 5 may include a moving image display unit that displays the movement trajectory represented by the flow line information of the target object with a moving image representing how the arrows extend.
  • the information processing apparatus 5 can dynamically display the state of movement of the object in the monitoring target area.
  • the moving image display unit may display the state in which the arrows corresponding to the flow line information of a plurality of objects are extended with moving images in the order in which the movement of the objects is started.
  • the information processing apparatus 5 can display the movement of each object so that the user can dynamically compare the movement.
  • the moving image display unit may simultaneously display the state in which the arrows corresponding to the plurality of flow line information of the target object are extended with moving images.
  • the information processing apparatus 5 can display the movement of each object as if the movement started at the same time.
  • a detection unit having a function as a classification unit for classifying the flow line information of the object for each movement route indicated by the flow line information;
  • a display system comprising: a display control unit configured to display an arrow in which the number of the flow line information classified into a predetermined movement route is thick and the predetermined movement route is reflected in a direction and a shape.
  • Appendix 5 The display system according to appendix 3, wherein the moving image display unit displays a state in which an arrow corresponding to a plurality of pieces of flow line information of an object is extended with a moving image at the same time.
  • a display method comprising: displaying an arrow in which the number of the flow line information classified into a predetermined movement route is thick, and the predetermined movement route is reflected in the direction and shape.
  • Appendix 7 The display method according to appendix 6, wherein an arrow that reflects the movement time indicated by the flow line information is displayed.

Abstract

 監視する対象物の行動(移動)状況を分析者が把握しやすい表示態様でもって表示するために、情報処理装置5は、検知部6と、表示制御部7とを備える。検知部6は、監視する対象物の動きに関する情報に基づいて、複数の対象物を、設定された移動経路ごとに分類する。表示制御部7は、表示装置の表示画面に、対象物の動きが設定の移動経路ごとに矢印でもって表示されるように表示装置を制御する。その表示装置に表示される矢印の軸は、対応する移動経路に分類された対象物の数に応じた太さを持ち、かつ、対応する移動経路に分類された対象物の軌跡に応じた形状を持ち、さらに、矢印の向きは、対象物の進行方向を表す。

Description

情報処理装置、表示方法およびプログラム記憶媒体
 本発明は、対象物の移動経路を表示する技術に関する。
 顧客の購買動向の把握や、従業員の業務効率化の検討などを目的として、店舗や倉庫等の内部において、人物がどのように行動しているかを調査することがある。人物の行動の調査には、人が携帯するRFID(Radio-frequency identification)タグや携帯電話のSIM(Subscriber Identity Module)カード番号等から得られる情報や、監視カメラ等が撮影するカメラ画像が利用される。
 人物の行動を調査する場合には、例えば、人物の行動の軌跡を表す軌跡情報が取得される。この軌跡情報を分析することによって、顧客の購買行動を表す情報や、作業者の業務効率化に有効な情報が得られる。このような情報を得るために軌跡情報を分析者が短時間で容易に分析できる技術の需要は増大することが予測されている。
 特許文献1には、店舗の特定領域(監視領域)に構築された動線認識システムで認識された客の動線データと、決済装置で処理されたその客の取引データとを関連付ける顧客動向収集方法が記載されている。
 特許文献2には、セルフサービスエリアから商品を選び取るセルフサービス行動を途中で断念した人物の発生状況を収集する構成を備えた顧客行動分析装置が記載されている。
 特許文献3には、入場者の移動、滞留の状況を予測する入場者の動線シミュレーション装置が記載されている。この動線シミュレーション装置は、入場者が最短経路またはメインストリートを選択する確率を矢印の太さで表す。
特開2011-170565号公報 特許第5356615号公報 特開平06-176004号公報
 特許文献1に記載されている構成では、表示画面に表されている監視領域(動線領域)に、動線データに基づいた人物の動線が表示される。しかし、特許文献1の構成では、監視領域に複数の人物に関する動線を表示することは想定されていない。
 つまり、特許文献1の構成では、人物の行動、動向を分析した結果を表示画面に表示する場合には、分析結果である人物の動線データは人物別に個々に表示される。このように動線データが人物別に個々に表示される場合、監視対象の領域内における複数の人物の行動分析結果を把握しづらいという課題がある。また、特許文献2に記載されている技術では、セルフサービス行動を途中で断念した人物(中断人物)の発生状況を分析した結果が表示されるが、その中断人物の移動経路は表示されない。さらに、特許文献3に記載されている技術では、入場者が実際にどのように行動したかを表す動線を表示することが想定されていない。
 本発明の主な目的は、監視する対象物の行動(移動)状況を例えば分析者が把握しやすい表示態様でもって表示する技術を提供することにある。
 上記目的を達成するために、本発明の情報処理装置は、
 監視する対象物の動きに関する情報に基づいて、複数の前記対象物を、設定された移動経路ごとに分類する検知手段と、
 表示画面を備える表示装置の前記表示画面に、前記対象物の動きが前記移動経路ごとに矢印でもって表示されるように前記表示装置を制御する表示制御手段と
を備え、
 前記表示制御手段により表示される前記矢印の軸は、対応する前記移動経路に分類された前記対象物の数に応じた太さを持ち、かつ、対応する前記移動経路に分類された前記対象物の軌跡に応じた形状を持ち、さらに、前記矢印の向きは、前記対象物の進行方向を表している。
 また、本発明の表示方法は、
 監視する対象物の動きに関する情報に基づいて、複数の前記対象物を、設定された移動経路ごとに分類し、
 表示画面を備える表示装置の前記表示画面に、前記対象物の動きが前記移動経路ごとに矢印でもって表示されるように、かつ、その表示される前記矢印の軸は、対応する前記移動経路に分類された前記対象物の数に応じた太さを持ち、また、対応する前記移動経路に分類された前記対象物の軌跡に応じた形状を持ち、さらに、前記矢印の向きは、前記対象物の進行方向を表すように、前記表示装置を制御する。
 さらに、本発明のプログラム記憶媒体は、
 コンピュータに、
  監視する対象物の動きに関する情報に基づいて、複数の前記対象物を、設定された移動経路ごとに分類する処理と、
 表示画面を備える表示装置の前記表示画面に、前記対象物の動きが前記移動経路ごとに矢印でもって表示されるように、かつ、その表示される前記矢印の軸は、対応する前記移動経路に分類された前記対象物の数に応じた太さを持ち、また、対応する前記移動経路に分類された前記対象物の軌跡に応じた形状を持ち、さらに、前記矢印の向きは、前記対象物の進行方向を表すように、前記表示装置を制御する処理と
を実行させるコンピュータプログラムが記憶されている。
 なお、本発明の上記主な目的は、本発明の情報処理装置に対応する本発明の表示方法によっても達成される。また、本発明の上記主な目的は、本発明の情報処理装置および本発明の表示方法に対応するコンピュータプログラム、それを記憶するプログラム記憶媒体によっても達成される。
 本発明によれば、監視する対象物の行動(移動)状況を例えば分析者が把握しやすい表示態様でもって表示できる。
本発明に係る第1実施形態の情報処理装置の構成を簡略化して表すブロック図である。 第1実施形態の情報処理装置による分析結果の表示例を表す図である。 第1実施形態の情報処理装置における分析処理の動作例を表すフローチャートである。 本発明に係る第2実施形態の情報処理装置の構成を簡略化して表すブロック図である。 第2実施形態の情報処理装置による分析結果の表示例を説明する図である。 対象物の移動経路を動画でもって表す表示例を説明する図である。 複数の移動経路の表示例を説明する図である。 複数の移動経路の別の表示例を説明する図である。 第2実施形態の情報処理装置における分析結果の動作例を表すフローチャートである。 本発明に係る情報処理装置のハードウェア構成の一例を説明する図である。 本発明に係るその他の実施形態の情報処理装置の構成を簡略化して表すブロック図である。
以下に、本発明に係る実施形態を図面を参照しながら説明する。
 <第1実施形態>
[構成の説明]
 図1は、本発明に係る第1実施形態の情報処理装置を備えた行動分析システムの構成を簡略化して表すブロック図である。なお、図中の矢印の方向は、一例を表すものであり、ブロック間の信号の向きを限定するものではない。
 この行動分析システム1は、フロア内における人物の行動を分析する使用目的でもって構築される。当該行動分析システム1は、情報処理装置10と、カメラ20と、表示装置30とを備えている。
 カメラ20は、監視対象のフロアを撮影可能な状態で設置されている。このカメラ20は、撮影画像を情報処理装置10に送信する機能を備えている。表示装置30は、表示画面(ディスプレイ)を備え、情報処理装置10の制御動作により情報を表示する機能を備えている。
 情報処理装置10は、カメラ20により撮影された画像を利用して、フロア内の人物の行動を分析し、この分析結果を表示装置30に表示させる機能を備えている。図10には、情報処理装置10のハードウェア構成の一例がカメラ20および表示装置30と共に表されている。この図10の例では、情報処理装置10は、CPU(Central Processing Unit)300と、メモリ310と、入出力IF(InterFace)320と、通信部330とを備えている。これらはバス340により相互に接続されている。
 入出力IF320は、表示装置30などの周辺機器との情報通信を可能にする構成を備えている。通信部330は、予め設定された通信手法(例えば無線LAN(Local Area Network)等の無線通信や、情報通信網(例えばインターネット)を介した通信)により、例えばカメラ20との通信を可能にする構成を備えている。
 メモリ310は、データやコンピュータプログラム(以下、略してプログラムとも記す)を記憶する記憶媒体(記憶装置)である。例えば、メモリ310には、情報処理装置10の動作を制御するプログラムが格納される。なお、そのプログラムは、例えば、可搬型記憶媒体に格納されており、当該可搬型記憶媒体からメモリ310に書き込まれてもよいし、情報通信網を通して情報処理装置10に供給されメモリ310に書き込まれてもよい。
 CPU300は、メモリ310に格納されているプログラムを読み出し、当該プログラムを実行することにより、様々な機能を実現することができる。この第1実施形態では、情報処理装置10は、CPU300によって、次のような機能を実現する。
 すなわち、情報処理装置10は、機能部として、図1に表されるような追跡部100と、検知部101と、方向算出部102と、時間算出部103と、累積部104と、表示制御部105とを備えている。
 追跡部100は、カメラ20から受信した撮影画像(撮影(監視)対象のフロアを撮影している映像(以下、フロア映像とも記す。))から監視の対象物である人物を例えば画像処理により検出する機能を有する。
 なお、この第1実施形態で説明する行動分析システム1は、人物の行動ではなく、物体の動きを分析する物体動作分析システムとして使用してもよい。第1実施形態における行動分析システム1をそのように物体動作分析システムとして使用する場合には、追跡部100は、カメラ20によるフロア映像から、人物ではなく、監視対象物に設定された物体を検知する。
 また、追跡部100は、撮影画像(動画)における各フレームにおいて、検知した人物の位置情報を画像処理により取得する機能を備える。さらに、追跡部100は、取得した人物の位置情報を時系列に並べることによって、人物の追跡情報を生成する機能を備える。その追跡情報とは、検知された人物の識別に関わる情報および当該人物の位置情報に、時間を表す情報(例えば、フレームを識別する情報や、時刻情報や、順番を表す情報)が関連付けられている情報である。
 検知部101は、生成された追跡情報を人物ごとに分類する機能を有する。すなわち、検知部101は、追跡部100から追跡情報を受け取ると、当該追跡情報から、人物の識別に関わる情報を取得する。
 そして、検知部101は、その取得した情報に基づいて、追跡情報を人物ごとに分類する。さらに、検知部101は、人物ごとに分類された追跡情報を、方向算出部102と時間算出部103に向けて出力する。
 なお、上記の説明は、監視対象のフロアにおいて、人物が1回移動することを前提にしている。例えば、対象フロアを移動する人物が1人で、その人物が複数回移動することが予め分かっている場合には、検知部101は、追跡情報を、例えば1回目の移動、2回目の移動のように、各回の移動ごとに分類してもよい。
 方向算出部102は、追跡情報に基づいて方向情報を生成する機能を有する。方向情報とは、撮影画像から検知された人物の移動方向に関わる情報である。
 すなわち、方向算出部102は、人物ごとに分類された追跡情報を受け取ると、時間的および空間的に連続する追跡情報を関連付ける。そして、方向算出部102は、その関連付けられた追跡情報に基づいて、撮影画像から検知された人物の移動に関する情報(ここでは、フロア内の移動の起点情報、および、移動の進行方向情報)を算出する。方向算出部102は、その算出した情報が含まれる方向情報を累積部104に向けて出力する。
 時間算出部103は、追跡情報から時間情報を生成する機能を有する。時間情報とは、撮影画像から検知された人物の移動に関わる時間の情報である。
 すなわち、時間算出部103は、検知部101から人物ごとに分類された追跡情報を受け取ると、当該追跡情報に基づいて、人物ごとに、監視対象のフロア内における移動時間を算出する。そして、時間算出部103は、算出した移動時間が含まれる時間情報を累積部104に向けて出力する。
 累積部104は、次のような動線データの数を計数する機能を有する。動線データとは、撮影画像から検知された人物の移動の起点情報、進行方向情報および移動時間を含む情報である。
 すなわち、累積部104は、方向算出部102から方向情報を受け取り、また、時間算出部103から時間情報を受け取る。
 累積部104は、受け取った方向情報と時間情報に基づいて、動線データを生成する。そして、累積部104は、監視対象のフロアにおいて同様な進行方向情報を含む動線データの数を計数する。その後、累積部104は、その計数によるデータ数と、その計数された動線データとを関連付け、当該関連付けられた情報を分析結果として表示制御部105に向けて出力する。
 表示制御部105は、分析結果を表示装置30に表示させる機能を有する。その分析結果とは、上記の如く、累積部104により計測された同様な進行方向情報を含む動線データの数、および、その動線データとが関連付けられた情報であり、人物の移動傾向を表す。
 図2は、表示制御部105による分析結果の表示例を表す図である。
 図2に表される分析結果301~303は、店舗内における顧客の移動傾向に関する情報である。表示制御部105は、分析結果301~303が図2に表されるように店舗におけるフロアの平面図に表示されるように、表示装置30を制御する。
 この例では、分析結果301~303は、表示制御部105によって、矢印でもって表示される。矢印の向きは、分析結果301~303に含まれている進行方向情報(人物の移動方向)に応じている。矢印の軸の太さは、分析結果301~303に含まれている累積部104によるデータ数(人物の数)に応じている。矢印の軸の長さは、分析結果301~303に含まれる時間情報(人物の移動時間(例えば、進行(移動)方向が同様な複数の人物の移動時間の平均値))に応じている。なお、人物の移動時間は、他の手法により表示されてもよい。
 また、図2の例では、分析結果301~303を表す各矢印の始点の位置が、起点501に揃えられている。この矢印の始点の位置は、人物の移動の起点位置に対応している。
 なお、図2に表される表示例は一例であり、分析結果301~303は、累積部104の計数によるデータ数と、このデータ数に関連付けられている動線データとが併せて表示されれば、他の表示態様でもって表示されてもよい。
 なお、第1実施形態では、情報処理装置10における上記機能が、プログラムに従って処理を実行するCPUによって実現される例が説明されている。これに代えて、情報処理装置10の各機能は、ハードウェア、あるいは、ハードウェアとソフトウェアの組み合わせによって実現されてもよい。
[動作の説明]
 以下、第1実施形態の情報処理装置10の動作例を図3のフローチャートを参照して説明する。図3は、情報処理装置10による人物行動分析処理の動作例を表すフローチャートである。なお、図3に表されるフローチャートは、CPUが実行する処理手順を表している。
 追跡部100は、カメラ20から撮影映像(フロア映像)を受け取ると、このフロア映像から例えば画像処理により人物を検知する(ステップS101)。
 その後、追跡部100は、各フレームにおける検出した人物の位置情報を算出する。そして、追跡部100は、算出された位置情報に基づいて追跡情報を生成する(ステップS102)。追跡部100は、生成された追跡情報を、検知部101に向けて出力する。
 検知部101は、受け取った追跡情報を、人物ごとに分類する(ステップS103)。そして、検知部101は、人物ごとに分類された追跡情報を、方向算出部102と時間算出部103に向けて出力する。
 方向算出部102は、入力された追跡情報に基づいて、方向情報(フロア内の移動の起点情報および移動の進行方向情報が含まれる情報)を生成する(ステップS104)。その後、方向算出部102は、その生成した方向情報を累積部104に向けて出力する。
 一方、時間算出部103は、受け取った追跡情報に基づいて、時間情報(人物のフロア内における人物の移動時間が含まれる情報)を生成する(ステップS105)。そして、時間算出部103は、生成した時間情報を累積部104に向けて出力する。
 累積部104は、受け取った方向情報と時間情報に基づいて動線データを生成する。その後、累積部104は、方向情報に基づいて、監視対象のフロアにおける同様な進行方向情報を含む動線データの数を計数(算出)する(ステップS106)。累積部104は、その計数したデータ数と、計数された動線データとを関連付け、当該情報を分析結果として表示制御部105に向けて出力する。
 表示制御部105は、受け取った分析結果を表示装置30に表示させる(ステップS107)。
 第1実施形態における情報処理装置10は、表示制御部105によって、分析結果に含まれる複数の情報(つまり、同様な進行方向情報を含む動線データの数と、その動線データに含まれる方向情報と時間情報)を併せて表示装置30に表示させる。すなわち、情報処理装置10は、店内や倉庫内等の監視対象のエリア内における人物の行動分析結果に含まれる複数の情報(例えば、人物の移動方向、移動時間、人数等の属性情報)を、使用者が容易に把握できる表示態様でもって表示できる。
 よって、第1実施形態における情報処理装置10の使用者は、監視対象のフロア内における各進行方向に向かう人数の比率を容易に確認できる。また、使用者は、店舗における顧客動向や、倉庫における従業員の作業の行動傾向を容易に把握できる。
 <第2実施形態>
[構成の説明]
 以下に、本発明に係る第2実施形態を図面を参照して説明する。なお、この第2実施形態の説明において、第1実施形態の情報処理装置およびそれを備えたシステムを構成する構成部分と同一構成部分には同一符号を付し、その共通部分の重複説明は省略する。
 この第2実施形態では、第1実施形態と同様に、フロア内における人物の行動を分析する行動分析システム1に備えられる情報処理装置20について説明する。ただし、第1実施形態の説明でも述べたと同様に、この第2実施形態における行動分析システム1も、人物行動ではなく、物体の動きを分析する物体動作分析システムとして使用してもよい。この場合には、追跡部100は、カメラ20によるフロア映像から人物ではなく、監視対象に設定された物体を検知する。
 図4は、第2実施形態の情報処理装置の構成例を簡略化して表すブロック図である。なお、図中の矢印の方向は、一例を表すものであり、ブロック間の信号の向きを限定するものではない。
 この第2実施形態の情報処理装置10は、第1実施形態の情報処理装置10と同様に、人物の行動の分析結果を矢印の向きと軸の太さと軸の長さを利用して表示装置30に表す構成を備えている。さらに、この第2実施形態の情報処理装置10は、表示装置30を利用して、人物の移動傾向(移動経路)を動画でもって表示させる構成をも備えている。すなわち、この第2実施形態では、情報処理装置10は、図10に表されるようなハードウェア構成を備える。当該情報処理装置10は、CPUにより実現される機能部として、追跡部100と、検知部101と、方向算出部102と、時間算出部103と、累積部104と、表示制御部105と、データ作成部201と、動画表示部202とを含む。以下では、主に、動画表示に関わる構成について説明する。
 検知部101は、人物ごとに分類した追跡情報を方向算出部102と時間算出部103とデータ作成部201に向けて出力する。
 データ作成部201は、受け取った追跡情報に基づいて表示データを生成する機能を有する。すなわち、データ作成部201は、追跡情報を受け取ると、当該追跡情報に基づいて、人物の移動に係る開始時刻と進行方向と終了時刻の情報を算出(検知)する。
 そして、データ作成部201は、算出した情報に基づいて、表示データを生成する。その表示データは、人物の移動に関するデータであり、例えば、検知部101により検知された人物の位置を表す座標点と、時刻との組が時系列に並べられているデータである。その後、データ作成部201は、その生成した表示データを動画表示部202に向けて出力する。
 動画表示部202は、データ作成部201から受け取った表示データに基づいて、人物の移動傾向を動画でもって表示させる機能を有する。
 図5は、表示データに基づいた人物の移動傾向(動画)の表示例を説明する図である。
 図5の例では、表示データに基づいた人物の移動傾向は、動線情報401~404のように表される。例えば、図5における動線情報401~404は、店舗内における監視対象のフロアの平面図に、顧客の移動傾向を表している。
 図5の例では、動線情報401~404は矢印により表されている。矢印の軸の長手方向の形状は、人物の移動の軌跡に応じている。矢印の向きは、人物の移動の進行方向に応じている。矢印の長さは、人物の移動時間に応じている。なお、図5の例では、動線情報401~404を表す矢印の軸の太さは同様であるが、人物の移動傾向を動画で表示する場合にも、第1実施形態と同様に、その矢印の軸は、人数に応じた太さでもって表されてもよい。
 動画表示部202は、図5に表されているような動線情報401~404を次にように動画でもって表示する機能を持つ。例えば、図5における動線情報401を動画でもって表示する例を図6に表す。図6は、動画表示部202による動画の表示例を説明する図である。
 例えば、動線情報401に表される人物の移動の始点はAであり、終点はBである。この終点Bは、図6の(a),(b),(c)の順に表されるように移動する。動画表示部202は、その始点Aから終点Bの移動の軌跡を描くように伸びていく矢印の様子を動画でもって表示装置30に表示させる。
 すなわち、図6の(a)は、動画の開始直後に表示される動線情報401を表す矢印の様子を表す。つまり、動線情報401は、始点Aから少し伸びた矢印として表示されている。
 図6の(b)は、動画が半分程度再生された頃に表示される動線情報401を表す矢印の様子を表す。
 図6の(c)は、動画の終了直前に表示される動線情報401を表す矢印の様子を表す。
 このように、動画表示部202は、図6の(a),(b),(c)の順に表されるように、終点Bの移動の軌跡を描くように矢印を伸ばしていくことによって、動線情報401を動画により表示装置30に表示させる。そして、動作表示部202は、終点Bが最終点に至ったところで動画の再生を終了する。
 なお、動画表示部202による動線情報の動画による表示手法は、上記手法に限定されず、人物の移動の様子が分かれば、どのような表示方法を用いてもよい。
 例えば、動画表示部202は、図5に表されているような複数の動線情報401~404を動画によって表示装置30に表示させる機能を備えていてもよい。図7は、動画表示部202による動線情報401~404を順に動画により表示装置30に表示させる順を説明する図である。
 すなわち、図5における動線情報401~404にそれぞれ表されている人物の移動は、動線情報401→動線情報402→動線情報403→動線情報404の順に行われているとする。この場合には、動画表示部202は、動線情報401~404を表す矢印を時系列にその順番に従って表示装置30に表示させる。
 つまり、動画表示部202は、最初に行われた人物の移動の様子を表す動線情報401に基づいた矢印の動きを、例えば図7における期間T1において、動画でもって表示装置30に表示させる。そして、動線情報401に基づいた動画表示が終了した後に、動画表示部202は、次に行われた移動の様子を示す動線情報402に基づいた矢印の動きを、例えば図7における期間T2において、動画でもって表示装置30に表示させる。
 さらに、上記同様に、動線情報402に基づいた動画表示が終了した後に、動画表示部202は、次に行われた移動の様子を示す動線情報403に基づいた矢印の動きを、例えば図7における期間T3において、動画でもって表示装置30に表示させる。さらにまた、動線情報403に基づいた動画表示が終了した後に、動画表示部202は、次に行われた移動の様子を示す動線情報404に基づいた矢印の動きを、例えば図7における期間T4において、動画でもって表示装置30に表示させる。
 各動線情報401~404に基づいた矢印を動画表示している期間T1~T4の時間長さは、各動線情報401~404が表す人物の移動時間に応じている。なお、期間T1~T4は、人物が実際に移動した時間と同じ時間の長さであってもよいし、予め設定された割合で短縮された時間でもよい。
 図8は、動画表示部202によって動線情報401~404を動画により表示装置30に表示させる別の例を説明する図である。図8の例では、動画表示部202は、異なる時間に開始された人物の移動を、同一時間に開始されたとして、動画により表示装置30に表示させる例を説明する図である。
 すなわち、動線情報401~404が表す人物の移動は、それぞれ異なる時間に開始されているとする。これに対し、動画表示部202は、動線情報401~404の動画表示を、図8に表す期間T1~T4に行う。すなわち、動画表示部202は、各動線情報401~404の動画表示を、同一時間に開始する。つまり、動画表示部202は、動線情報401~404を、一斉に動画でもって表示する。
 なお、動線情報401~404の動画表示を一斉に開始する場合においても、各動線情報401~404に基づいて矢印を動かしている期間T1~T4の時間長さは、各動線情報401~404が表す人物の移動時間に応じている。なお、期間T1~T4は、人物が実際に移動した時間と同じ時間の長さであってもよいし、予め設定された割合で短縮された時間でもよい。
 第2実施形態の情報処理装置10における上記以外の構成は、第1実施形態と同様である。
[動作の説明]
 以下に、第2実施形態の情報処理装置10の動作例を図9を参照して説明する。図9は、情報処理装置10による人物行動分析処理の動作例を表すフローチャートである。この図9のフローチャートは、情報処理装置10におけるCPUが実行する処理手順を表している。
 例えば、追跡部100は、カメラ20から受け取った撮影画像(フロア映像)から人物を検知する(ステップS201)。
 その後、追跡部100は、各フレームにおける検知した人物の位置情報を算出する。そして、追跡部100は、算出された各位置情報に基づいて、追跡情報を生成する(ステップS202)。追跡部100は、生成した追跡情報を検知部101に向けて出力する。
 検知部101は、受け取った追跡情報を人物ごとに分類する(ステップS203)。その後、検知部101は、人物ごとに分類された追跡情報をデータ作成部201に向けて出力する。
 データ作成部201は、受け取った人物ごとの追跡情報に基づいて、各人物の移動に関する表示データを生成する(ステップS204)。その後、データ作成部201は、生成した表示データを動画表示部202に向けて出力する。
 動画表示部202は、受け取った表示データに基づいて、各人物の移動の様子(動線情報)を動画でもって表示装置30に表示させる(ステップS205)。
 第2実施形態における情報処理装置10は、カメラ20の撮影画像から検知した人物の移動の様子を、動画表示部202によって動画でもって表示装置30に表示させる機能を備えている。
 よって、情報処理装置10は、監視対象のフロア内における人物の移動を当該装置10の使用者に動的に把握させることができる。また、情報処理装置10は、監視対象のフロア内における複数の人物の動きを使用者に動的に比較させることができる。
 さらに、第2実施形態における情報処理装置10は、動画表示部202によって、各人物の移動の様子を、移動が行われた順に動画でもって表示装置30に表示させることができる。また、動画表示部202は、動画表示部202によって、各人物の移動の様子を、同じ時間に移動が開始されたように動画でもって表示装置30に表示させるもできる。このように、同じ時間に移動が開始されたように表示することにより、情報処理装置10は、各人物の移動における移動方向や移動時間を使用者が比較し易くなるという効果を得ることができる。
 <その他の実施形態>
 図11は、本発明に係るその他の実施形態の情報処理装置の構成を簡略化して表すブロック図である。図11の例では、情報処理装置5は、検知部6と、表示制御部7とを備える。検知部6は、監視する対象物の動きに関する情報(追跡情報)を、当該情報に含まれている移動経路の情報に基づき当該移動経路ごとに分類する機能を備える。表示制御部7は、それら各移動経路に分類された情報(追跡情報)の数を太さでもって、かつ、移動経路を形状と向きでもって表す矢印が表示装置に表示されるように表示装置を制御する機能を備える。
 この情報処理装置5は、そのような構成を備えることにより、所定の経路で移動する対象物の数と移動経路を併せて表示できる。
 また、表示制御部7は、動線情報に含まれる移動時間に応じた長さを持つ矢印が表示装置に表示されるように表示装置を制御してもよい。
 このような構成により、情報処理装置5は、対象物の移動時間も併せて表示できる。
 また、情報処理装置5は、対象物の動線情報が表す移動の軌跡を、矢印が伸びていく様子を表す動画でもって表示させる動画表示部を備えていてもよい。
 このような構成により、情報処理装置5は、監視対象の領域における対象物の移動の様子を動的に表示させることができる。
 また、動画表示部は、複数の対象物の動線情報に対応する矢印が伸びていく様子を、対象物の移動が開始された順にそれぞれ動画でもって表示させてもよい。
 このような構成により、情報処理装置5は、各対象物の移動の様子を使用者が動的に比較できるように表示させることができる。
 また、動画表示部は、対象物の複数の動線情報に対応する矢印が伸びていく様子を、同時に動画でもって表示してもよい。
 このような構成により、情報処理装置5は、各対象物の移動の様子を、同じ時間に移動が開始されたように表示させることができる。
 以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
 この出願は、2014年9月11日に出願された日本出願特願2014-184741を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 対象物の動線情報を、前記動線情報が示す移動経路ごとに分類する分類部としての機能を持つ検知部と、
 所定の移動経路に分類された前記動線情報の数が太さに、前記所定の移動経路が向きおよび形状に反映された矢印を表示する表示制御部とを備える
 ことを特徴とする表示システム。
 (付記2)
 表示制御部は、動線情報が示す移動時間が長さに反映された矢印を表示する
 付記1に記載の表示システム。
 (付記3)
 表示システムは、対象物の動線情報が示す移動経路の、始点から終点まで矢印が伸びていく様子を動画でもって表示する動画表示部を備える
 付記1又は付記2に記載の表示システム。
 (付記4)
 動画表示部は、対象物の複数の動線情報に対応する矢印が伸びていく様子を、前記動線情報が示す移動が開始された順にそれぞれ動画でもって表示する
 付記3に記載の表示システム。
 (付記5)
 動画表示部は、対象物の複数の動線情報に対応する矢印が伸びていく様子を、同時に動画でもって表示する
 付記3に記載の表示システム。
 (付記6)
 対象物の動線情報を、前記動線情報が示す移動経路ごとに分類し、
 所定の移動経路に分類された前記動線情報の数が太さに、前記所定の移動経路が向きおよび形状に反映された矢印を表示する
 ことを特徴とする表示方法。
 (付記7)
 動線情報が示す移動時間が長さに反映された矢印を表示する
 付記6に記載の表示方法。
 (付記8)
 コンピュータに、
 対象物の動線情報を、前記動線情報が示す移動経路ごとに分類する分類処理、および
 所定の移動経路に分類された前記動線情報の数が太さに、前記所定の移動経路が向きおよび形状に反映された矢印を表示する表示処理
 を実行させるための表示プログラム。
 (付記9)
 コンピュータに、
 動線情報が示す移動時間が長さに反映された矢印を表示する表示処理を実行させる
 付記8に記載の表示プログラム。
10 情報処理装置
100 追跡部
101 検知部
102 方向算出部
103 時間算出部
104 累積部
105 表示制御部
201 データ作成部
202 動画表示部

Claims (7)

  1.  監視する対象物の動きに関する情報に基づいて、複数の前記対象物を、設定された移動経路ごとに分類する検知手段と、
     表示画面を備える表示装置の前記表示画面に、前記対象物の動きが前記移動経路ごとに矢印でもって表示されるように前記表示装置を制御する表示制御手段と
    を備え、
     前記表示制御手段により表示される前記矢印の軸は、対応する前記移動経路に分類された前記対象物の数に応じた太さを持ち、かつ、対応する前記移動経路に分類された前記対象物の軌跡に応じた形状を持ち、さらに、前記矢印の向きは、前記対象物の進行方向を表している情報処理装置。
  2.  前記表示制御手段は、前記対象物の動きに関する前記情報に基づいて、前記表示装置に表示される前記矢印の軸の長さが、対応する前記移動経路における前記対象物の移動時間に応じた長さとなるように、前記表示装置を制御する請求項1に記載の情報処理装置。
  3.  前記対象物の動きに関する前記情報に基づいて、前記移動経路における前記対象物の動きが、前記矢印が伸びていく様子を表す動画でもって前記表示装置に表示されるように、前記表示装置を制御する動画表示手段をさらに備える請求項1又は請求項2に記載の情報処理装置。
  4.  前記動画表示手段は、前記各移動経路における前記対象物の動きを表す複数の前記矢印が、前記対象物の動きが開始された順でもって順に動きが開始されるように、前記矢印の表示を制御する請求項3に記載の情報処理装置。
  5.  前記動画表示手段は、前記各移動経路における前記対象物の動きを表す複数の前記矢印の動きが同時に開始されるように、前記矢印の表示を制御する請求項3に記載の情報処理装置。
  6.  監視する対象物の動きに関する情報に基づいて、複数の前記対象物を、設定された移動経路ごとに分類し、
     表示画面を備える表示装置の前記表示画面に、前記対象物の動きが前記移動経路ごとに矢印でもって表示されるように、かつ、その表示される前記矢印の軸は、対応する前記移動経路に分類された前記対象物の数に応じた太さを持ち、また、対応する前記移動経路に分類された前記対象物の軌跡に応じた形状を持ち、さらに、前記矢印の向きは、前記対象物の進行方向を表すように、前記表示装置を制御する表示方法。
  7.  コンピュータに、
      監視する対象物の動きに関する情報に基づいて、複数の前記対象物を、設定された移動経路ごとに分類する処理と、
     表示画面を備える表示装置の前記表示画面に、前記対象物の動きが前記移動経路ごとに矢印でもって表示されるように、かつ、その表示される前記矢印の軸は、対応する前記移動経路に分類された前記対象物の数に応じた太さを持ち、また、対応する前記移動経路に分類された前記対象物の軌跡に応じた形状を持ち、さらに、前記矢印の向きは、前記対象物の進行方向を表すように、前記表示装置を制御する処理と
    を実行させるコンピュータプログラムが記憶されているプログラム記憶媒体。
PCT/JP2015/004526 2014-09-11 2015-09-07 情報処理装置、表示方法およびプログラム記憶媒体 WO2016038872A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2016547695A JP6399096B2 (ja) 2014-09-11 2015-09-07 情報処理装置、表示方法およびコンピュータプログラム
US15/508,573 US10297051B2 (en) 2014-09-11 2015-09-07 Information processing device, display method, and program storage medium for monitoring object movement
US16/365,833 US10825211B2 (en) 2014-09-11 2019-03-27 Information processing device, display method, and program storage medium for monitoring object movement
US17/002,451 US11315294B2 (en) 2014-09-11 2020-08-25 Information processing device, display method, and program storage medium for monitoring object movement
US17/696,035 US11657548B2 (en) 2014-09-11 2022-03-16 Information processing device, display method, and program storage medium for monitoring object movement
US18/135,901 US20230252698A1 (en) 2014-09-11 2023-04-18 Information processing device, display method, and program storage medium for monitoring object movement

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-184741 2014-09-11
JP2014184741 2014-09-11

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/508,573 A-371-Of-International US10297051B2 (en) 2014-09-11 2015-09-07 Information processing device, display method, and program storage medium for monitoring object movement
US16/365,833 Continuation US10825211B2 (en) 2014-09-11 2019-03-27 Information processing device, display method, and program storage medium for monitoring object movement

Publications (1)

Publication Number Publication Date
WO2016038872A1 true WO2016038872A1 (ja) 2016-03-17

Family

ID=55458643

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/004526 WO2016038872A1 (ja) 2014-09-11 2015-09-07 情報処理装置、表示方法およびプログラム記憶媒体

Country Status (3)

Country Link
US (5) US10297051B2 (ja)
JP (1) JP6399096B2 (ja)
WO (1) WO2016038872A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018185683A (ja) * 2017-04-26 2018-11-22 富士通株式会社 表示制御プログラム、表示制御方法、及び情報処理装置
JP6969493B2 (ja) * 2018-05-16 2021-11-24 株式会社Jvcケンウッド 映像出力装置、映像出力方法、及びコンピュータプログラム
WO2021014479A1 (ja) * 2019-07-19 2021-01-28 三菱電機株式会社 表示処理装置、表示処理方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11288213A (ja) * 1998-04-03 1999-10-19 Mitsubishi Electric Corp ナビゲーション装置
JP2012052937A (ja) * 2010-09-02 2012-03-15 Casio Comput Co Ltd 測位装置、測位方法、及び、プログラム
JP2012246115A (ja) * 2011-05-30 2012-12-13 Mitsubishi Electric Corp 乗降履歴情報の可視化装置および乗降履歴情報の可視化プログラム
JP2013122652A (ja) * 2011-12-09 2013-06-20 Omron Corp 動向分析システム、データ構造、および表示装置

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06176004A (ja) 1992-07-27 1994-06-24 Takenaka Komuten Co Ltd 入場者の動線シミュレーション装置
US5969755A (en) * 1996-02-05 1999-10-19 Texas Instruments Incorporated Motion based event detection system and method
US6295367B1 (en) * 1997-06-19 2001-09-25 Emtera Corporation System and method for tracking movement of objects in a scene using correspondence graphs
JP3562406B2 (ja) * 1999-10-28 2004-09-08 トヨタ自動車株式会社 経路探索装置
JP2002041339A (ja) 2000-07-25 2002-02-08 Toshiba Corp 情報検索システム
US20020041339A1 (en) * 2000-10-10 2002-04-11 Klaus Diepold Graphical representation of motion in still video images
US7433494B2 (en) * 2002-09-19 2008-10-07 Denso Corporation Moving body detecting apparatus
JP3904000B2 (ja) * 2004-05-26 2007-04-11 コニカミノルタホールディングス株式会社 移動体検出システム及び移動体検出方法
JP2008511066A (ja) * 2004-08-23 2008-04-10 リテイル テク カンパニー リミテッド Rfid基盤のショッピングパターン分析システム及び方法
JP2006279859A (ja) * 2005-03-30 2006-10-12 Hitachi Ltd 移動体移動実態情報提供システム、位置情報収集装置、カーナビ装置および移動体移動実態情報提供方法
JP4389866B2 (ja) * 2005-12-12 2009-12-24 セイコーエプソン株式会社 画像処理方法、画像処理装置、表示装置およびプログラム
US8116564B2 (en) * 2006-11-22 2012-02-14 Regents Of The University Of Minnesota Crowd counting and monitoring
US8107676B2 (en) * 2007-07-30 2012-01-31 International Business Machines Corporation Line length estimation
JP4621716B2 (ja) * 2007-08-13 2011-01-26 東芝テック株式会社 人物行動分析装置,方法及びプログラム
US8009863B1 (en) * 2008-06-30 2011-08-30 Videomining Corporation Method and system for analyzing shopping behavior using multiple sensor tracking
US8885047B2 (en) * 2008-07-16 2014-11-11 Verint Systems Inc. System and method for capturing, storing, analyzing and displaying data relating to the movements of objects
JP2010113692A (ja) * 2008-11-10 2010-05-20 Nec Corp 顧客行動記録装置及び顧客行動記録方法並びにプログラム
JP2010123069A (ja) 2008-11-21 2010-06-03 Panasonic Corp センシングデータ検索装置及び検索画像作成方法
US8231506B2 (en) * 2008-12-05 2012-07-31 Nike, Inc. Athletic performance monitoring systems and methods in a team sports environment
JP4748254B2 (ja) 2009-05-29 2011-08-17 トヨタ自動車株式会社 省燃費運転推奨装置
JP2011170565A (ja) 2010-02-17 2011-09-01 Toshiba Tec Corp 顧客動向収集方法、装置及びプログラム
US20120001828A1 (en) * 2010-06-30 2012-01-05 Gallagher Andrew C Selecting displays for displaying content
US8478048B2 (en) * 2010-07-08 2013-07-02 International Business Machines Corporation Optimization of human activity determination from video
US8702516B2 (en) * 2010-08-26 2014-04-22 Blast Motion Inc. Motion event recognition system and method
US20130002854A1 (en) * 2010-09-17 2013-01-03 Certusview Technologies, Llc Marking methods, apparatus and systems including optical flow-based dead reckoning features
US9390334B2 (en) * 2011-03-31 2016-07-12 Panasonic Intellectual Property Management Co., Ltd. Number of persons measurement device
JP5808576B2 (ja) 2011-05-26 2015-11-10 株式会社トプコン 眼科撮影装置
WO2013025477A1 (en) * 2011-08-12 2013-02-21 Edh Holdings (South Africa) (Pty) Ltd. Ball trajectory and bounce position detection
US8615107B2 (en) * 2012-01-11 2013-12-24 Ecole Polytechnique Federale De Lausanne (Epfl) Method and apparatus for multiple object tracking with K-shortest paths
JP5356615B1 (ja) 2013-02-01 2013-12-04 パナソニック株式会社 顧客行動分析装置、顧客行動分析システムおよび顧客行動分析方法
US20140278688A1 (en) * 2013-03-15 2014-09-18 Disney Enterprises, Inc. Guest movement and behavior prediction within a venue
US20140316848A1 (en) * 2013-04-21 2014-10-23 International Business Machines Corporation Cross-Channel Analytics Combining Consumer Activity on the Web and in Physical Venues
CN105518734A (zh) * 2013-09-06 2016-04-20 日本电气株式会社 顾客行为分析系统、顾客行为分析方法、非暂时性计算机可读介质和货架系统
US20150104149A1 (en) * 2013-10-15 2015-04-16 Electronics And Telecommunications Research Institute Video summary apparatus and method
JP6176100B2 (ja) * 2013-12-11 2017-08-09 株式会社コナミデジタルエンタテインメント ゲームプログラム、ゲームシステム
US20170011410A1 (en) * 2014-02-25 2017-01-12 Nec Corporation Information-processing device, data analysis method, and recording medium
US9311799B2 (en) * 2014-03-18 2016-04-12 Symbol Technologies, Llc Modifying RFID system operation using movement detection
JP5853141B2 (ja) * 2014-03-26 2016-02-09 パナソニックIpマネジメント株式会社 人数計測装置、人数計測システムおよび人数計測方法
JP5789776B2 (ja) 2014-04-28 2015-10-07 パナソニックIpマネジメント株式会社 滞留時間測定装置、滞留時間測定システムおよび滞留時間測定方法
EP2942251B1 (en) * 2014-05-08 2017-04-05 Volvo Car Corporation Method for providing an object prediction representation
JP5866564B1 (ja) * 2014-08-27 2016-02-17 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11288213A (ja) * 1998-04-03 1999-10-19 Mitsubishi Electric Corp ナビゲーション装置
JP2012052937A (ja) * 2010-09-02 2012-03-15 Casio Comput Co Ltd 測位装置、測位方法、及び、プログラム
JP2012246115A (ja) * 2011-05-30 2012-12-13 Mitsubishi Electric Corp 乗降履歴情報の可視化装置および乗降履歴情報の可視化プログラム
JP2013122652A (ja) * 2011-12-09 2013-06-20 Omron Corp 動向分析システム、データ構造、および表示装置

Also Published As

Publication number Publication date
JPWO2016038872A1 (ja) 2017-06-22
US10825211B2 (en) 2020-11-03
US10297051B2 (en) 2019-05-21
US20220207797A1 (en) 2022-06-30
US11315294B2 (en) 2022-04-26
US20170263024A1 (en) 2017-09-14
US20230252698A1 (en) 2023-08-10
JP6399096B2 (ja) 2018-10-03
US20190221015A1 (en) 2019-07-18
US11657548B2 (en) 2023-05-23
US20210042971A1 (en) 2021-02-11

Similar Documents

Publication Publication Date Title
JP6319421B2 (ja) 情報処理装置、データ分析方法、及び、プログラム
US10846537B2 (en) Information processing device, determination device, notification system, information transmission method, and program
US9536153B2 (en) Methods and systems for goods received gesture recognition
US11657548B2 (en) Information processing device, display method, and program storage medium for monitoring object movement
CN101271514B (zh) 一种快速目标检测和目标输出的图像检测方法及装置
US9794508B2 (en) Monitoring device, monitoring system, and monitoring method
JP2010067079A (ja) 行動解析システムおよび行動解析方法
JPWO2014061342A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP2013232181A5 (ja)
KR102260123B1 (ko) 지역내 이벤트감지장치 및 그 장치의 구동방법
JP2015225630A (ja) 作業管理装置、作業管理システムおよび作業管理方法
JP7000759B2 (ja) 案内装置、案内システム、案内方法及びプログラム
JP6469139B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN114764895A (zh) 异常行为检测装置和方法
JP6301759B2 (ja) 顔識別装置及びプログラム
CN110677448A (zh) 关联信息推送方法、装置和系统
JP7318303B2 (ja) 清掃管理プログラム、清掃管理方法及び清掃管理装置
CN116134480A (zh) 图像处理装置、图像处理方法以及程序
CN110223144B (zh) 无人购物的信息处理系统及方法、计算机设备及可读介质
JP2014016969A (ja) 顔照合システム
JP5618366B2 (ja) 監視システム、監視装置、監視方法、及びプログラム
WO2018079457A1 (ja) 動線分類装置、動線分類方法および記録媒体
US20210081678A1 (en) Image processing apparatus and image processing method
JP6926895B2 (ja) 情報処理装置、情報処理システムおよびプログラム
WO2023188264A1 (ja) 情報処理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15840535

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016547695

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15508573

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15840535

Country of ref document: EP

Kind code of ref document: A1