WO2015129210A1 - 情報処理装置、データ分析方法、及び、記録媒体 - Google Patents

情報処理装置、データ分析方法、及び、記録媒体 Download PDF

Info

Publication number
WO2015129210A1
WO2015129210A1 PCT/JP2015/000779 JP2015000779W WO2015129210A1 WO 2015129210 A1 WO2015129210 A1 WO 2015129210A1 JP 2015000779 W JP2015000779 W JP 2015000779W WO 2015129210 A1 WO2015129210 A1 WO 2015129210A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
person
staying
tracking
flow line
Prior art date
Application number
PCT/JP2015/000779
Other languages
English (en)
French (fr)
Inventor
明子 大島
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US15/119,460 priority Critical patent/US20170011410A1/en
Priority to JP2016505047A priority patent/JP6319421B2/ja
Publication of WO2015129210A1 publication Critical patent/WO2015129210A1/ja
Priority to US16/297,942 priority patent/US20190205903A1/en
Priority to US16/297,969 priority patent/US20190205904A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Definitions

  • the present invention relates to data analysis, and more particularly, to an information processing apparatus, data analysis method, and recording medium for analyzing human behavior information.
  • An information processing apparatus that analyzes behavior information uses, for example, image information of a monitoring camera, information from an RFID (Radio Frequency Identification) tag, and information (for example, a number) of a mobile phone SIM (Subscriber Identity Module) card. Then, the information processing apparatus calculates person's action trajectory information based on such information (see, for example, Patent Document 1).
  • the calculated human action trajectory information is used, for example, for analyzing the action of a person in a store or warehouse area.
  • An analyst who analyzes behavior can grasp information effective for purchasing behavior or business efficiency based on person behavior trajectory information.
  • customers in the store are not only looking at the goods while moving. For example, a customer stops to confirm a product. That is, the person may not only move but also stop (stay).
  • the behavior analysis system described in Patent Document 1 displays the flow data of the analyzed person when displaying the result of the person action in the analyzed target area. For this reason, the behavior analysis system described in Patent Literature 1 has a problem in that it is not possible to appropriately display the result of the behavior analysis of the person in the entire target area.
  • An object of the present invention is to provide an information processing apparatus, a data analysis method, and a recording medium that solve the above problems.
  • An information processing apparatus receives analysis information including information related to a position of a person included in a target area, and is first time-series information of the position of the person based on the analysis information.
  • the direction calculating means for calculating the traveling direction information of each person based on the second person tracking information
  • the second person tracking information Based on the staying time calculating means for calculating the staying place information and staying time information of each person, the traveling direction information, the staying place information, and the staying time information, the flow line information and staying information of the person And calculate the image of the target area Again and a processing means for displaying said accumulated information and said flow line information.
  • the data processing method is the first time-series information of the position of the person that receives the analysis information including information related to the position of the person included in the target area and based on the analysis information.
  • the person tracking information is calculated, the person in the first person tracking information is identified, the first person tracking information is classified for each person, and the second person tracking which is time-series information of the position for each person Information is calculated, the direction information of each person is calculated based on the second person tracking information, and the staying place information and the staying time information of each person are calculated based on the second person tracking information. Then, based on the traveling direction information, the staying place information, and the staying time information, the flow line information and staying information of the person are calculated, and the flow line information and the staying information are overlapped with the image of the target area.
  • the stay information is displayed.
  • a computer-readable recording medium receives analysis information including information related to the position of a person included in a target area, and time-series information of the position of the person based on the analysis information
  • the first person tracking information is calculated, the person in the first person tracking information is identified, the first person tracking information is classified for each person, and the time series information of the position for each person is used.
  • the traveling direction information, the stay location information, and the stay time information Based on the process of calculating the stay location information and the stay time information, the traveling direction information, the stay location information, and the stay time information, the flow line information and the stay information of the person are calculated, and the target The flow line information superimposed on the area image Including a program for executing the processing of displaying said accumulated information on the computer.
  • FIG. 1 is a block diagram showing an example of the configuration of the information processing apparatus according to the first embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an example of a display of the information processing apparatus according to the first embodiment.
  • FIG. 3 is a diagram illustrating an example of another configuration of the information processing apparatus according to the first embodiment.
  • FIG. 4 is a block diagram illustrating an example of the configuration of the information processing apparatus according to the second embodiment.
  • FIG. 5 is a diagram illustrating an example of a display of the information processing apparatus according to the second embodiment.
  • FIG. 1 is a block diagram showing an example of the configuration of the information processing apparatus 10 according to the first embodiment of the present invention.
  • the information processing apparatus 10 includes a person detection tracking unit 100, a same person detection unit 101, a direction calculation unit 102, a dwell time calculation unit 103, and a processing unit 104.
  • the person detection tracking unit 100 receives analysis information used for behavior analysis in the target area.
  • the analysis information may include information related to the position.
  • the person detection tracking unit 100 may receive a floor image (hereinafter referred to as “floor image”) from a camera that captures a predetermined floor as a target area as analysis information.
  • the person detection tracking unit 100 may receive the RFID tag position information as the analysis information.
  • floor image a floor image
  • the person detection tracking unit 100 may receive the RFID tag position information as the analysis information.
  • a description will be given using a floor video.
  • the person detection / tracking unit 100 After receiving the floor video, the person detection / tracking unit 100 detects the position of one or more persons from the floor video. For example, the person detection tracking unit 100 may detect the position of the person using image recognition (for example, person image recognition) technology.
  • image recognition for example, person image recognition
  • the person detection tracking unit 100 tracks the position of the person between the frames of the floor video, and calculates time series information of the position of the person.
  • the time series information of the position of the person calculated by the person detection tracking unit 100 is referred to as “first person tracking information”.
  • the person detection tracking unit 100 outputs the first person tracking information to the same person detection unit 101.
  • each person is not specified in the first person tracking information.
  • the same person detection unit 101 receives the first person tracking information from the person detection tracking unit 100. Then, the same person detection unit 101 specifies (detects) all persons included in the first person tracking information. For example, the same person detection unit 101 may use a face recognition technique. Further, the same person detection unit 101 classifies the first person tracking information for each person determined to be the same among the determined persons. Hereinafter, the person tracking information for each person classified by the same person detecting unit 101 is referred to as “second person tracking information”. That is, the same person detecting unit 101 detects time-series information of positions related to the same person as the second person tracking information. The same person detection unit 101 outputs the second person tracking information to the direction calculation unit 102 and the residence time calculation unit 103. The same person detection unit 101 may specify all persons in a predetermined range. For example, when analyzing customer behavior, the same person detection unit 101 may identify each customer excluding employees.
  • the direction calculation unit 102 receives the second person tracking information from the same person detection unit 101. Then, the direction calculation unit 102 is information (travel direction) indicating the travel direction of the person (same person) based on the position information (person tracking information) of each person in time series in the second person tracking information. Information) is calculated as time-series data. Then, the direction calculation unit 102 outputs the traveling direction information calculated for each person to the processing unit 104.
  • the residence time calculation unit 103 receives the second person tracking information from the same person detection unit 101. After reception, the residence time calculation unit 103 calculates residence location information related to the location where the same person stayed and residence time information related to the residence time based on the second person tracking information. Then, the residence time calculation unit 103 outputs the calculated residence location information and residence time information to the processing unit 104.
  • the processing unit 104 receives the traveling direction information from the direction calculating unit 102 and receives the staying location information and the staying time information from the staying time calculating unit 103. Then, the processing unit 104 calculates flow line information and staying information for each person based on the traveling direction information, the staying place information, and the staying time information.
  • the flow line information is information relating to a change in position for each person.
  • the staying information is information regarding staying for each person.
  • the flow line information and the staying information are information used by the processing unit 104 for display. For this reason, the flow line information and the staying information may include information necessary for display in addition to the above information.
  • the processing unit 104 displays an image of the calculated flow line information and staying information superimposed on the image of the target area.
  • the processing unit 104 has no limitation on the number of persons of information to be displayed.
  • the processing unit 104 may display flow line information and staying information regarding all persons.
  • the information processing apparatus 10 displays information regarding all persons in the target area. Therefore, the user of the information processing apparatus 10 can comprehensively grasp the movement information and staying information of the person in the entire target area.
  • the processing unit 104 may receive information on a person to be displayed from an input device of a user of the information processing apparatus 10.
  • the user of the information processing apparatus 10 can grasp movement information and staying information of a predetermined person in the entire target area.
  • the information processing apparatus 10 may display information on a person of an age included in a predetermined range.
  • the display means on which the processing unit 104 displays an image is not particularly limited.
  • the processing unit 104 may display an image on a display unit of the information processing apparatus 10 (not shown).
  • the processing unit 104 may transmit image information to an external device (not shown).
  • the display format of the processing unit 104 is not particularly limited.
  • FIG. 2 is a diagram illustrating an example of the display of the processing unit 104.
  • FIG. 2 assumes a store floor as an example of the target area. Therefore, the gondola (display stand) 500 shown in FIG. 2 displays merchandise. Then, the customer moves between the gondola 500 shown in FIG.
  • the information processing apparatus 10 receives a floor image from a camera (not shown) installed in the store. Each component of the information processing apparatus 10 operates as described above.
  • the processing unit 104 calculates flow line information based on the received direction information of the person. Then, the processing unit 104 replaces the calculated flow line information with continuous points of coordinates on the image (floor map) of the target area. Then, as illustrated in FIG. 2, the processing unit 104 displays human flow line information as flow line information 301, flow line information 302, flow line information 303, and flow line information 304.
  • the processing unit 104 calculates a stay location on the coordinates of the floor map based on the received stay location information of the person. Further, the processing unit 104 calculates a residence time from the received residence time information. Then, as illustrated in FIG. 2, the processing unit 104 displays stay information 305, stay information 306, stay information 307, and stay information 308 indicating the stay location and stay time. In FIG. 2, the values shown in the stay information 305 to 308 are stay times.
  • the processing unit 104 of the present embodiment displays the stay information 305 to 308 as a figure having a size proportional to the stay time.
  • the proportion does not have to be limited to a mathematically exact proportion.
  • the processing unit 104 may display a graphic corresponding to the residence time. For example, the figure of the residence information 306 corresponding to the residence time of “1 s (1 second)” is smaller than the figure of the residence information 305 corresponding to the residence time of “10 s (10 seconds)”.
  • the ratio between the size of the figure and the residence time may deviate from the exact ratio in order to facilitate understanding of the display.
  • the display of the processing unit 104 in the present embodiment is not limited to the display of FIG.
  • the processing unit 104 may change the display color, character size, or line thickness based on the residence time.
  • the processing unit 104 of the present embodiment displays the stay information 305 to 308 indicating the stay place and stay time in addition to the display of the flow line information 301 to 304 based on the progress information.
  • This embodiment can produce an effect of appropriately displaying the result of behavior analysis in the entire target area.
  • the person detection tracking unit 100 detects the position of the person based on the analysis information, and calculates first person tracking information. Then, the same person detection unit 101 classifies the first person tracking information for each person. Then, the direction calculation unit 102 outputs the traveling direction information for each classified person. On the other hand, the residence time calculation unit 103 outputs residence location information and residence time information. This is because the processing unit 104 can display the stay information based on the stay location information and the stay time information in addition to the flow line information based on the traveling direction information.
  • the flow line information indicating the movement of the person and the staying information indicating the staying of the person are displayed. Therefore, an analyst using the information processing apparatus 10 according to the present embodiment can simultaneously grasp the stay position and the stay time in addition to the movement of the person. Therefore, the analyst can perform more appropriate analysis.
  • the present embodiment can achieve an effect of appropriately displaying a detailed behavior analysis of a person in the target area.
  • the reason is that the processing unit 104 displays the flow line information and the staying information of all persons or some persons.
  • the information processing apparatus 10 described above is configured as follows.
  • each component of the information processing apparatus 10 may be configured with a hardware circuit.
  • the information processing apparatus 10 may be configured as a plurality of information processing apparatuses in which the respective constituent units are connected via a network or a bus.
  • the information processing apparatus 10 may configure a plurality of components by a single piece of hardware.
  • the information processing apparatus 10 may be realized as a computer device including a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory).
  • the information processing apparatus 10 may be realized as a computer apparatus that further includes an input / output connection circuit (IOC: Input : Output Circuit) and a network interface circuit (NIC: Network Interface Circuit).
  • IOC Input : Output Circuit
  • NIC Network Interface Circuit
  • FIG. 3 is a block diagram illustrating an example of the configuration of the information processing apparatus 60 according to the modification.
  • the information processing device 60 includes a CPU 610, a ROM 620, a RAM 630, an internal storage device 640, an IOC 650, and a NIC 680, and constitutes a computer.
  • the CPU 610 reads a program from ROM 620.
  • the CPU 610 controls the RAM 630, the internal storage device 640, the IOC 650, and the NIC 680 based on the read program.
  • the computer including the CPU 610 controls these configurations, and implements the functions as the information processing apparatus 10 shown in FIG.
  • each function is a function of the person detection tracking unit 100, the same person detection unit 101, the direction calculation unit 102, the dwell time calculation unit 103, and the processing unit 104.
  • the CPU 610 may use the RAM 630 or the internal storage device 640 as a temporary storage of a program when realizing each function.
  • the CPU 610 may read the program included in the computer-readable storage medium 700 storing the program using a storage medium reading device (not shown). Alternatively, the CPU 610 may receive a program from an external device (not shown) via the NIC 680. Further, the CPU 610 may store the read program or the received program in the RAM 630 and operate based on the stored program.
  • ROM 620 stores programs executed by CPU 610 and fixed data.
  • the ROM 620 is, for example, a P-ROM (Programmable-ROM) or a flash ROM.
  • the RAM 630 temporarily stores programs executed by the CPU 610 and data.
  • the RAM 630 is, for example, a D-RAM (Dynamic-RAM).
  • the internal storage device 640 stores data and programs that the information processing device 60 stores for a long time. Further, the internal storage device 640 may operate as a temporary storage device for the CPU 610.
  • the internal storage device 640 is, for example, a hard disk device, a magneto-optical disk device, an SSD (Solid State Drive), or a disk array device.
  • the ROM 620 and the internal storage device 640 are non-transitory storage media.
  • the RAM 630 is a volatile storage medium.
  • the CPU 610 can operate based on a program stored in the ROM 620, the internal storage device 640, or the RAM 630. That is, the CPU 610 can operate using a nonvolatile storage medium or a volatile storage medium.
  • the IOC 650 mediates data between the CPU 610, the input device 660, and the display device 670.
  • the IOC 650 is, for example, an IO interface card or a USB (Universal Serial Bus) card.
  • the input device 660 is a device that receives an input instruction from an operator of the information processing apparatus 60.
  • the input device 660 is, for example, a keyboard, a mouse, or a touch panel.
  • the input device 660 includes a camera that outputs a floor image.
  • the display device 670 is a device that displays information to the operator of the information processing apparatus 60.
  • the display device 670 is a liquid crystal display, for example.
  • the CPU 610 may display an image displayed by the processing unit 104 on the display device 670. In this case, the display device 670 may be included in the processing unit 104.
  • the NIC 680 relays data exchange with an external device (not shown) via the network.
  • the NIC 680 is, for example, a LAN (Local Area Network) card.
  • the information processing apparatus 60 configured as described above can obtain the same effects as the information processing apparatus 10.
  • the reason is that the CPU 610 of the information processing apparatus 60 can realize the same function as the information processing apparatus 10 based on the program.
  • FIG. 4 is a block diagram illustrating an example of the configuration of the information processing apparatus 20 according to the second embodiment.
  • the information processing apparatus 20 includes a person detection tracking unit 100, a same person detection unit 101, a direction calculation unit 102, a dwell time calculation unit 103, a data accumulation unit 201, and a processing unit 202. including.
  • the person detection tracking unit 100 the same person detection unit 101, the direction calculation unit 102, and the residence time calculation unit 103 are the same as those in the first embodiment, detailed description thereof is omitted.
  • the configuration and operation unique to the present embodiment will be mainly described.
  • the data accumulating unit 201 receives the traveling direction information from the direction calculating unit 102, and receives the staying location information and the staying time information from the staying time calculating unit 103. Then, the data accumulating unit 201 accumulates the number of people who generate traveling direction information (flow line data) in the same traveling direction in the same section. Furthermore, the data accumulating unit 201 accumulates the number of people who have generated the same staying place.
  • the data accumulating unit 201 may hold in advance information on a section in which the number of people in the target area is accumulated. Or the data accumulation part 201 may set the area to accumulate based on stay location information.
  • the data accumulating unit 201 outputs the accumulated number of flow line data in the same traveling direction in the same section and the accumulated number of people in the same staying place to the processing unit 202.
  • the processing unit 202 receives the cumulative number of flow line data in the same traveling direction in the same section and the cumulative number of people in the same staying place. Then, the processing unit 202 displays the flow line information and the staying information on the image of the target area based on the accumulated number of the received flow line data and the accumulated number of people in the same staying place. That is, the processing unit 202 displays flow line information and staying information corresponding to the cumulative number of people.
  • the data accumulating unit 201 may accumulate either the cumulative number of flow line data in the same traveling direction in the same section or the cumulative number of people in the same staying place.
  • the processing unit 202 may perform display based on the information accumulated by the data accumulation unit 201.
  • the display format of the processing unit 202 is not particularly limited.
  • FIG. 5 is a diagram illustrating an example of the display of the processing unit 202.
  • Fig. 5 assumes a store floor as in Fig. 2.
  • the processing unit 202 displays an arrow having a thickness (width) proportional to the cumulative number of people as the flow line information.
  • flow line information 401, flow line information 402, flow line information 403, and flow line information 404 are displayed.
  • the processing unit 202 displays a figure having a size proportional to the cumulative number of people in the same staying place as the staying information display.
  • stay information 405, stay information 406, stay information 407, and stay information 408 are displayed.
  • the proportion need not be limited to a mathematically exact proportion.
  • 10 persons move along the flow line indicated by the arrow of the flow line information 401 and stay at the position indicated by the stay information 405.
  • one person moves along the flow line indicated by the arrow of the flow line information 402 and stays at the position indicated by the stay information 406.
  • the flow line information 401 and the staying information 405 are information corresponding to 10 people.
  • the flow line information 402 and the staying information 406 are information corresponding to one person.
  • the flow line information 401 is represented by a thicker arrow than the flow line information 402.
  • the stay information 405 is represented by a graphic larger than the stay information 406.
  • the processing unit 202 may receive the traveling direction information, the staying location information, and the staying time information, and display the same information as the processing unit 104. . That is, the processing unit 202 may include the function of the processing unit 104. For example, the processing unit 202 may display information corresponding to the flow line information 301 to 304 and the stay information 305 to 306 in addition to the flow line information 401 to 404 and the stay information 405 to 406 corresponding to the cumulative number of people.
  • This embodiment can produce an effect of clarifying the number of persons related to the flow line information and the staying information in addition to the effect of the first embodiment.
  • the data accumulation unit 201 of the present embodiment calculates the cumulative number of flow line data in the same direction and the cumulative number of people in the same staying place in the same section. This is because the processing unit 202 displays flow line information and staying information corresponding to the cumulative number of people.
  • Information processing apparatus 20 Information processing apparatus 60 Information processing apparatus 100 Person detection tracking part 101 Same person detection part 102 Direction calculation part 103 Residence time calculation part 104 Processing part 201 Data accumulation part 202 Processing part 301 Flow line information 302 Flow line information 303 Flow line information 304 Flow line information 305 Retention information 306 Retention information 307 Retention information 308 Retention information 401 Flow line information 402 Flow line information 403 Flow line information 404 Flow line information 405 Retention information 406 Retention information 407 Retention information 408 Retention information 500 Gondola 610 CPU 620 ROM 630 RAM 640 Internal storage device 650 IOC 660 Input device 670 Display device 680 NIC 700 storage media

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

 本発明の情報処理装置は、対象エリアの含まれる人物の位置に関連する情報を含む分析用情報を受信し、分析用情報を基に人物の位置の時系列情報である第1の人物追跡情報を算出する人物検出追跡手段と、第1の人物追跡情報における人物を特定し、人物ごとに第1の人物追跡情報を分類し、人物ごとの位置の時系列情報である第2の人物追跡情報を算出する同一人物検出手段と、第2の人物追跡情報を基に、各人物の進行方向情報を算出する方向算出手段と、第2の人物追跡情報を基に、各人物の滞留場所情報と滞留時間情報とを算出する滞留時間算出手段と、進行方向情報と、滞留場所情報と、滞留時間情報とを基に、人物の動線情報と滞留情報とを算出し、対象エリアの画像と重ねて動線情報と滞留情報とを表示する処理手段とを含む。

Description

情報処理装置、データ分析方法、及び、記録媒体
 本発明は、データの分析に関し、特に、人物の行動情報を分析する情報処理装置、データ分析方法、及び、記録媒体に関する。
 昨今、顧客購買動向把握又は従業員業務効率化検討のため、人物の行動情報を分析する情報処理装置が、用いられている。行動情報を分析する情報処理装置は、例えば、監視カメラの画像情報、RFID(Radio Frequency Identification)タグからの情報、携帯電話SIM(Subscriber Identity Module)カードの情報(例えば、番号)を利用する。そして、情報処理装置は、これらの情報を基に、人物の行動軌跡情報を算出する(例えば、特許文献1を参照)。算出された人物行動軌跡情報は、例えば、店舗又は倉庫のエリア内における人物の行動の分析に用いられる。行動を分析する分析者は、人物行動軌跡情報を基に、購買行動又は業務効率化に有効な情報を把握できる。
 今後、人物に関するデータは、さらに増大(ビッグデータ化)していく。このような社会環境から、行動分析情報の提供に対するニーズが、高まっている。
特開2011-170565号公報
 しかし、店舗内の顧客は、移動しながら商品を見るだけではない。例えば、顧客は、商品を確認するために立ち止まる。つまり、人物は、動くだけではなく、止まる(滞留する)場合もある。
 しかし、特許文献1に記載の行動分析システムは、分析した対象エリアの人物行動の結果を表示する際、分析した人物の動線データを表示していた。そのため、特許文献1に記載の行動分析システムは、対象エリア全体における人物の行動分析の結果を適切に表示することができないという問題点があった。
 本発明の目的は、上記問題点を解決する情報処理装置、データ分析方法、及び、記録媒体を提供することにある。
 本発明の一形態における情報処理装置は、対象エリアの含まれる人物の位置に関連する情報を含む分析用情報を受信し、前記分析用情報を基に人物の位置の時系列情報である第1の人物追跡情報を算出する人物検出追跡手段と、前記第1の人物追跡情報における人物を特定し、人物ごとに前記第1の人物追跡情報を分類し、人物ごとの位置の時系列情報である第2の人物追跡情報を算出する同一人物検出手段と、前記第2の人物追跡情報を基に、各人物の進行方向情報を算出する方向算出手段と、前記第2の人物追跡情報を基に、各人物の滞留場所情報と滞留時間情報とを算出する滞留時間算出手段と、前記進行方向情報と、前記滞留場所情報と、前記滞留時間情報とを基に、人物の動線情報と滞留情報とを算出し、前記対象エリアの画像と重ねて前記動線情報と前記滞留情報とを表示する処理手段とを含む。
 本発明の一形態におけるデータ処理方法は、対象エリアの含まれる人物の位置に関連する情報を含む分析用情報を受信し、前記分析用情報を基に人物の位置の時系列情報である第1の人物追跡情報を算出し、前記第1の人物追跡情報における人物を特定し、人物ごとに前記第1の人物追跡情報を分類し、人物ごとの位置の時系列情報である第2の人物追跡情報を算出し、前記第2の人物追跡情報を基に、各人物の進行方向情報を算出し、前記第2の人物追跡情報を基に、各人物の滞留場所情報と滞留時間情報とを算出し、前記進行方向情報と、前記滞留場所情報と、前記滞留時間情報とを基に、人物の動線情報と滞留情報とを算出し、前記対象エリアの画像と重ねて前記動線情報と前記滞留情報とを表示する。
 本発明の一形態におけるコンピュータに読み取り可能な記録媒体は、対象エリアの含まれる人物の位置に関連する情報を含む分析用情報を受信し、前記分析用情報を基に人物の位置の時系列情報である第1の人物追跡情報を算出する処理と、前記第1の人物追跡情報における人物を特定し、人物ごとに前記第1の人物追跡情報を分類し、人物ごとの位置の時系列情報である第2の人物追跡情報を算出する処理と、前記第2の人物追跡情報を基に、各人物の進行方向情報を算出する処理と、前記第2の人物追跡情報を基に、各人物の滞留場所情報と滞留時間情報とを算出する処理と、前記進行方向情報と、前記滞留場所情報と、前記滞留時間情報とを基に、人物の動線情報と滞留情報とを算出し、前記対象エリアの画像と重ねて前記動線情報と前記滞留情報とを表示する処理とをコンピュータに実行させるプログラムを含む。
 本発明に基づけば、対象エリア全体における行動分析の結果を適切に表示するとの効果を奏することができる。
図1は、本発明における第1の実施形態に係る情報処理装置の構成の一例を示すブロック図である。 図2は、第1の実施形態に係る情報処理装置の表示の一例を示す図である。 図3は、第1の実施形態に係る情報処理装置の別の構成の一例を示す図である。 図4は、第2の実施形態に係る情報処理装置の構成の一例を示すブロック図である。 図5は、第2の実施形態に係る情報処理装置の表示の一例を示す図である。
 次に、本発明の実施形態について、図面を参照して説明する。
 なお、各図面は、本発明の実施形態を説明するものである。ただし、本発明は、各図面の記載に限られるわけではない。また、各図面の同様の構成には、同じ番号を付し、その繰り返しの説明を、省略する場合がある。
 また、以下の説明に用いる図面において、本発明の説明に関係しない部分の構成については、記載を省略し、図示しない場合もある。
 <第1の実施形態>
 図1は、本発明における第1の実施形態に係る情報処理装置10の構成の一例を示すブロック図である。図1に示すように、情報処理装置10は、人物検出追跡部100と、同一人物検出部101と、方向算出部102と、滞留時間算出部103と、処理部104とを含む。
 人物検出追跡部100は、対象エリアにおける行動分析に用いる分析用情報を、受信する。本実施形態に係る分析用情報は、特に制限はない。分析用情報は、位置に関連する情報を含めばよい。例えば、人物検出追跡部100は、分析用情報として、対象エリアである所定のフロアを撮影するカメラから、フロアの映像(以下、「フロア映像」という)を受信しても良い。あるいは、人物検出追跡部100は、分析用情報として、RFIDタグの位置情報を受信しても良い。なお、以下、一例として、フロア映像を用いて説明する。
 フロア映像を受信後、人物検出追跡部100は、フロア映像から1人又は複数の人物の位置を検出する。例えば、人物検出追跡部100は、画像認識(例えば、人物画像認識)の技術を用いて、人物の位置を検出しても良い。
 さらに、人物検出追跡部100は、人物の位置をフロア映像のフレーム間で追跡し、人物の位置の時系列情報を算出する。以下、人物検出追跡部100が算出した人物の位置の時系列情報を、「第1の人物追跡情報」という。人物検出追跡部100は、第1の人物追跡情報を、同一人物検出部101に出力する。ここで、第1の人物追跡情報において、各人物は、特定されていない。
 同一人物検出部101は、人物検出追跡部100から第1の人物追跡情報を受信する。そして、同一人物検出部101は、第1の人物追跡情報に含まれるすべての人物を特定(検出)する。例えば、同一人物検出部101は、顔認識の技術を用いても良い。さらに、同一人物検出部101は、判別した人物の中において同一と判別される人物ごとに、第1の人物追跡情報を分類する。以下、同一人物検出部101が分類した人物ごとの人物追跡情報を、「第2の人物追跡情報」という。つまり、同一人物検出部101は、同一人物に関する位置の時系列情報を、第2の人物追跡情報として検出する。同一人物検出部101は、第2の人物追跡情報を、方向算出部102及び滞留時間算出部103に出力する。なお、同一人物検出部101は、所定の範囲のすべての人物を特定しても良い。例えば、顧客の行動を分析する場合、同一人物検出部101は、従業員を除いた各顧客を特定しても良い。
 方向算出部102は、同一人物検出部101から第2の人物追跡情報を受信する。そして、方向算出部102は、第2の人物追跡情報における各人物の時系列的に連続する位置情報(人物追跡情報)に基づいて、その人物(同一人物)の進行方向を示す情報(進行方向情報)を、時系列データとして算出する。そして、方向算出部102は、人物ごとに算出した進行方向情報を処理部104に出力する。
 滞留時間算出部103は、同一人物検出部101から第2の人物追跡情報を受信する。受信後、滞留時間算出部103は、第2の人物追跡情報を基に、同一人物が滞留した場所に関する滞留場所情報、及び、滞留した時間に関する滞留時間情報を算出する。そして、滞留時間算出部103は、算出した滞留場所情報及び滞留時間情報を、処理部104に出力する。
 処理部104は、方向算出部102から進行方向情報を受信し、滞留時間算出部103から滞留場所情報及び滞留時間情報を受信する。そして、処理部104は、進行方向情報と、滞留場所情報と、滞留時間情報とを基に、人物ごとの動線情報及び滞留情報を算出する。ここで、動線情報は、人物ごとの位置の変化に関する情報である。また、滞留情報は、人物ごとの滞留に関する情報である。ただし、動線情報及び滞留情報は、処理部104が表示に用いる情報である。そのため、動線情報及び滞留情報は、上記の情報に加え、表示に必要な情報を含んでも良い。
 そして、処理部104は、対象エリアの画像に重ねて、算出した動線情報及び滞留情報の画像を表示する。
 ここで、処理部104は、表示する情報の人物の数に制限はない。
 例えば、処理部104は、すべての人物に関する動線情報及び滞留情報を表示しても良い。この場合、情報処理装置10は、対象エリア内のすべての人物に関する情報を表示する。そのため、情報処理装置10の利用者は、対象エリア全体における人物の移動情報及び滞留情報を、総合的に把握することができる。
 あるいは、処理部104は、情報処理装置10の利用者の入力機器から、表示する対象の人物の情報を受信しても良い。この場合、情報処理装置10の利用者は、対象エリア全体における所定の人物の移動情報及び滞留情報を把握することができる。例えば、情報処理装置10は、所定の範囲に含まれる年齢の人物の情報を表示しても良い。
 なお、処理部104が画像を表示する表示手段は、特に制限はない。例えば、処理部104は、図示しない情報処理装置10の表示手段に、画像を表示しても良い。あるいは、処理部104は、図示しない外部の装置に画像情報を送信しても良い。
 また、本実施形態において、処理部104の表示形式は、特に制限はない。
 図2は、処理部104の表示の一例を示す図である。
 図2は、対象エリアの一例として、店舗のフロアを想定している。そのため、図2に示すゴンドラ(陳列台)500は、商品を陳列している。そして、顧客は、図2に示すゴンドラ500の間を移動する。情報処理装置10は、店舗内に設置された図示しないカメラから、フロア映像を受信する。そして、情報処理装置10の各構成は、上記のように動作する。
 その結果、処理部104は、受信した人物の進行方向情報を基に動線情報を算出する。そして、処理部104は、算出した動線情報を、対象エリアの画像(フロア地図)上における座標の連続点に置き換える。そして、処理部104は、図2に示すように、動線情報301、動線情報302、動線情報303、及び、動線情報304として、人物の動線情報を表示する。
 また、処理部104は、受信した人物の滞留場所情報を基に、フロア地図の座標上の滞留場所を算出する。また、処理部104は、受信した滞留時間情報から滞留時間を算出する。そして、処理部104は、図2に示すように、滞留場所及び滞留時間を示す滞留情報305、滞留情報306、滞留情報307、及び、滞留情報308を表示する。図2において、滞留情報305~308に示す値は、滞留時間である。
 また、本実施形態の処理部104は、滞留情報305~308を、滞留時間に比例した大きさの図形として表示する。ただし、ここでの比例は、数学的に正確な比例に限る必要はない。処理部104は、滞留時間に対応した図形を表示すれば良い。例えば、「1s(1秒)」の滞留時間に対応する滞留情報306の図形は、「10s(10秒)」の滞留時間に対応する滞留情報305の図形より小さい。図形の大きさと滞留時間との比は、表示の理解を容易にするため、正確な比から外れていても良い。
 また、本実施形態に処理部104の表示は、図2の表示に限る必要はない。例えば、処理部104は、滞留時間を基に、表示の色、文字の大きさ、又は、線の太さを変化させても良い。
 このように、本実施形態の処理部104は、進行情報を基にした動線情報301~304の表示に加え、滞留場所と滞留時間を表す滞留情報305~308を表示する。
 次に、本実施形態の効果について説明する。
 本実施形態は、対象エリア全体における行動分析の結果を適切に表示するとの効果を奏することができる。
 その理由は、次のとおりである。
 本実施形態の人物検出追跡部100が、分析用情報に基づいて人物の位置を検出し、第1の人物追跡情報を算出する。そして、同一人物検出部101が、人物ごとに、第1の人物追跡情報を分類する。そして、方向算出部102が、分類された人物ごとに進行方向情報を出力する。一方、滞留時間算出部103が、滞留場所情報及び滞留時間情報を出力する。そして、処理部104が、進行方向情報を基にした動線情報に加え、滞留場所情報及び滞留時間情報を基にした滞留情報を表示できるためである。
 つまり、本実施形態は、人物の移動を示す動線情報と、人物の滞留を示す滞留情報とを表示する。そのため、本実施形態の情報処理装置10を利用する分析者は、人物の移動に加え、滞留位置及び滞留時間を同時に把握することができる。そのため、分析者は、より適切な分析を実行できる。
 さらに、本実施形態は、上記効果に加え、対象エリアにおける人物のより細かな行動分析を適切に表示するとの効果を奏することができる。
 その理由は、処理部104が、すべての人物又は一部の人物の動線情報及び滞留情報を表示するためである。
 なお、本実施形態は、店舗を用いて説明した。しかし、本実施形態は、店舗に限らず、倉庫又はオフィスなどの屋内フロア、及び、遊技場などの屋外フロアにも適用可能である。
 (変形例)
 以上説明した情報処理装置10は、次のように構成される。
 例えば、情報処理装置10の各構成部は、ハードウェア回路で構成されても良い。
 また、情報処理装置10は、各構成部をネットワーク又はバスを介して接続した複数の情報処理装置として構成されても良い。
 また、情報処理装置10は、複数の構成部を1つのハードウェアで構成しても良い。
 また、情報処理装置10は、CPU(Central Processing Unit)と、ROM(Read Only Memory)と、RAM(Random Access Memory)とを含むコンピュータ装置として実現されても良い。情報処理装置10は、上記構成に加え、さらに、入出力接続回路(IOC:Input Output Circuit)と、ネットワークインターフェース回路(NIC:Network Interface Circuit)とを含むコンピュータ装置として実現されても良い。
 図3は、変形例に係る情報処理装置60の構成の一例を示すブロック図である。
 情報処理装置60は、CPU610と、ROM620と、RAM630と、内部記憶装置640と、IOC650と、NIC680とを含み、コンピュータを構成している。
 CPU610は、ROM620からプログラムを読み込む。そして、CPU610は、読み込んだプログラムに基づいて、RAM630と、内部記憶装置640と、IOC650と、NIC680とを制御する。そして、CPU610を含むコンピュータは、これらの構成を制御し、図1に示す、情報処理装置10としての各機能を実現する。ここで、各機能とは、人物検出追跡部100と、同一人物検出部101と、方向算出部102と、滞留時間算出部103と、処理部104との機能である。CPU610は、各機能を実現する際に、RAM630又は内部記憶装置640を、プログラムの一時記憶として使用しても良い。
 また、CPU610は、プログラムを記憶したコンピュータ読み取り可能な記憶媒体700が含むプログラムを、図示しない記憶媒体読み取り装置を用いて読み込んでも良い。あるいは、CPU610は、NIC680を介して、図示しない外部の装置からプログラムを受け取っても良い。さらに、CPU610は、読み込んだプログラム又は受け取ったプログラムをRAM630に保存し、保存したプログラムを基に動作しても良い。
 ROM620は、CPU610が実行するプログラム及び固定的なデータを記憶する。ROM620は、例えば、P-ROM(Programmable-ROM)又はフラッシュROMである。
 RAM630は、CPU610が実行するプログラム及びデータを一時的に記憶する。RAM630は、例えば、D-RAM(Dynamic-RAM)である。
 内部記憶装置640は、情報処理装置60が長期的に保存するデータ及びプログラムを記憶する。また、内部記憶装置640は、CPU610の一時記憶装置として動作しても良い。内部記憶装置640は、例えば、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)又はディスクアレイ装置である。
 ここで、ROM620と内部記憶装置640は、不揮発性(non-transitory)の記憶媒体である。一方、RAM630は、揮発性(transitory)の記憶媒体である。そして、CPU610は、ROM620、内部記憶装置640、又は、RAM630に記憶されているプログラムを基に動作可能である。つまり、CPU610は、不揮発性記憶媒体又は揮発性記憶媒体を用いて動作可能である。
 IOC650は、CPU610と、入力機器660及び表示機器670とのデータを仲介する。IOC650は、例えば、IOインターフェースカード又はUSB(Universal Serial Bus)カードである。
 入力機器660は、情報処理装置60の操作者からの入力指示を受け取る機器である。入力機器660は、例えば、キーボード、マウス又はタッチパネルである。また、入力機器660は、フロア画像を出力するカメラを含む。
 表示機器670は、情報処理装置60の操作者に情報を表示する機器である。表示機器670は、例えば、液晶ディスプレイである。CPU610は、処理部104が表示する画像を、表示機器670に表示しても良い。この場合、表示機器670は、処理部104に含まれても良い。
 NIC680は、ネットワークを介した図示しない外部の装置とのデータのやり取りを中継する。NIC680は、例えば、LAN(Local Area Network)カードである。
 このように構成された情報処理装置60は、情報処理装置10と同様の効果を得ることができる。
 その理由は、情報処理装置60のCPU610が、プログラムに基づいて情報処理装置10と同様の機能を実現できるためである。
 <第2の実施形態>
 次に、本発明の第2の実施形態について、図面を参照して説明する。
 図4は、第2の実施形態に係る情報処理装置20の構成の一例を示すブロック図である。図4に示すように、情報処理装置20は、人物検出追跡部100と、同一人物検出部101と、方向算出部102と、滞留時間算出部103と、データ累積部201と、処理部202とを含む。
 ここで、人物検出追跡部100、同一人物検出部101、方向算出部102、及び、滞留時間算出部103は、第1の実施形態と同様のため、詳細な説明を省略する。以下、本実施形態に特有の構成及び動作を中心に説明する。
 データ累積部201は、方向算出部102から進行方向情報を受信し、滞留時間算出部103から滞留場所情報及び滞留時間情報を受信する。そして、データ累積部201は、同一区間で同一進行方向の進行方向情報(動線データ)の発生人数を累積する。さらに、データ累積部201は、同一の滞留場所の発生人数を累積する。なお、データ累積部201は、予め、対象エリアにおける人数を累積する区間の情報を保持しても良い。あるいは、データ累積部201は、滞留場所情報を基に、累積する区間を設定しても良い。
 データ累積部201は、同一区間で同一進行方向の動線データの累積人数と、同一の滞留場所の累積人数とを、処理部202に出力する。
 処理部202は、同一区間で同一進行方向の動線データの累積人数と、同一滞留場所の累積人数とを受信する。そして、処理部202は、対象エリアの画像に重ねて、受信した動線データの累積人数及び同一滞留場所の累積人数を基に、動線情報及び滞留情報を表示する。つまり、処理部202は、累積人数に対応した動線情報及び滞留情報を表示する。
 なお、データ累積部201は、同一区間で同一進行方向の動線データの累積人数又は同一滞留場所の累積人数のいずれか一方を累積しても良い。この場合、処理部202は、データ累積部201が累積した情報を基に、表示を実施すれば良い。
 また、処理部202の表示形式は、特に制限はない。
 図5は、処理部202の表示の一例を示す図である。
 図5は、図2と同様に、店舗のフロアを想定している。
 例えば、処理部202は、動線情報の表示として、累積人数に比例した太さ(幅)の矢印を表示する。図4では、動線情報401、動線情報402、動線情報403、及び、動線情報404が、表示されている。
 また、処理部202は、滞留情報の表示として、同一滞留場所の累積人数に比例した大きさの図形を表示する。図4では、滞留情報405、滞留情報406、滞留情報407、及び、滞留情報408が、表示されている。
 ただし、本実施形態でも、比例は、数学的に正確な比例に限る必要はない。
 図5に示す表示について、さらに説明する。
 例えば、図5において、10人の人物が、動線情報401の矢印で示される動線に沿って移動し、滞留情報405で示す位置に滞留している。同様に、1人の人物が、動線情報402の矢印で示される動線に沿って移動し、滞留情報406で示す位置に滞留している。動線情報401及び滞留情報405は、10人に対応する情報である。動線情報402及び滞留情報406は、1人に対応する情報である。そのため、動線情報401は、動線情報402より太い矢印で表されている。同様に、滞留情報405は、滞留情報406より大きな図形で表されている。
 なお、処理部202は、第1の実施形態の処理部104と同様に、進行方向情報、滞留場所情報、及び、滞留時間情報を受信し、処理部104と同様の情報を表示しても良い。つまり、処理部202は、処理部104の機能を含んでも良い。例えば、処理部202は、累積人数に対応する動線情報401~404及び滞留情報405~406に加え、動線情報301~304及び滞留情報305~306に相当する情報を表示しても良い。
 次に本実施形態の効果について説明する。
 本実施形態は、第1の実施形態の効果に加え、動線情報及び滞留情報に関係する人数を明確にする効果を奏することができる。
 その理由は、次のとおりである。
 本実施形態のデータ累積部201が、同一区間で同一方向の動線データの累積人数及び同一の滞留場所の累積人数を算出する。そして、処理部202が、累積人数に対応した動線情報及び滞留情報を表示するためである。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成及び詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2014年 2月25日に出願された日本出願特願2014-034036を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 10  情報処理装置
 20  情報処理装置
 60  情報処理装置
 100  人物検出追跡部
 101  同一人物検出部
 102  方向算出部
 103  滞留時間算出部
 104  処理部
 201  データ累積部
 202  処理部
 301  動線情報
 302  動線情報
 303  動線情報
 304  動線情報
 305  滞留情報
 306  滞留情報
 307  滞留情報
 308  滞留情報
 401  動線情報
 402  動線情報
 403  動線情報
 404  動線情報
 405  滞留情報
 406  滞留情報
 407  滞留情報
 408  滞留情報
 500  ゴンドラ
 610  CPU
 620  ROM
 630  RAM
 640  内部記憶装置
 650  IOC
 660  入力機器
 670  表示機器
 680  NIC
 700  記憶媒体

Claims (7)

  1.  対象エリアの含まれる人物の位置に関連する情報を含む分析用情報を受信し、前記分析用情報を基に人物の位置の時系列情報である第1の人物追跡情報を算出する人物検出追跡手段と、
     前記第1の人物追跡情報における人物を特定し、人物ごとに前記第1の人物追跡情報を分類し、人物ごとの位置の時系列情報である第2の人物追跡情報を算出する同一人物検出手段と、
     前記第2の人物追跡情報を基に、各人物の進行方向情報を算出する方向算出手段と、
     前記第2の人物追跡情報を基に、各人物の滞留場所情報と滞留時間情報とを算出する滞留時間算出手段と、
     前記進行方向情報と、前記滞留場所情報と、前記滞留時間情報とを基に、人物の動線情報と滞留情報とを算出し、前記対象エリアの画像と重ねて前記動線情報と前記滞留情報とを表示する処理手段と
     を含む情報処理装置。
  2.  前記処理手段が、
     表示する前記滞留時間の図形の大きさを、前記滞留時間の長さを基に決定する
     請求項1に記載の情報処理装置。
  3.  前記処理手段が、
     すべての人物又は一部の人物の前記動線情報及び前記滞留情報を表示する
     請求項1又は請求項2に記載の情報処理装置。
  4.  前記進行方向情報における同一区間で同一方向の動線データの発生人数を累積するデータ累積手段を含み、
     前記処理手段が、
     表示する前記動線情報の図形の幅を、累積した前記動線データの累積人数を基に決定する
     請求項1ないし3のいずれか1項に記載の情報処理装置。
  5.  前記データ累積手段が、
     同一の滞留場所の発生人数を累積し、
     前記処理手段が、
     表示する前記滞留情報の図形の大きさを、追跡した前記同一の滞留場所の累積人数を基に決定する
     請求項4に記載の情報処理装置。
  6.  対象エリアの含まれる人物の位置に関連する情報を含む分析用情報を受信し、前記分析用情報を基に人物の位置の時系列情報である第1の人物追跡情報を算出し、
     前記第1の人物追跡情報における人物を特定し、人物ごとに前記第1の人物追跡情報を分類し、人物ごとの位置の時系列情報である第2の人物追跡情報を算出し、
     前記第2の人物追跡情報を基に、各人物の進行方向情報を算出し、
     前記第2の人物追跡情報を基に、各人物の滞留場所情報と滞留時間情報とを算出し、
     前記進行方向情報と、前記滞留場所情報と、前記滞留時間情報とを基に、人物の動線情報と滞留情報とを算出し、前記対象エリアの画像と重ねて前記動線情報と前記滞留情報とを表示する
     データ分析方法。
  7.  対象エリアの含まれる人物の位置に関連する情報を含む分析用情報を受信し、前記分析用情報を基に人物の位置の時系列情報である第1の人物追跡情報を算出する処理と、
     前記第1の人物追跡情報における人物を特定し、人物ごとに前記第1の人物追跡情報を分類し、人物ごとの位置の時系列情報である第2の人物追跡情報を算出する処理と、
     前記第2の人物追跡情報を基に、各人物の進行方向情報を算出する処理と、
     前記第2の人物追跡情報を基に、各人物の滞留場所情報と滞留時間情報とを算出する処理と、
     前記進行方向情報と、前記滞留場所情報と、前記滞留時間情報とを基に、人物の動線情報と滞留情報とを算出し、前記対象エリアの画像と重ねて前記動線情報と前記滞留情報とを表示する処理と
     をコンピュータに実行させるプログラムを含むコンピュータに読み取り可能な記録媒体。
PCT/JP2015/000779 2014-02-25 2015-02-19 情報処理装置、データ分析方法、及び、記録媒体 WO2015129210A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US15/119,460 US20170011410A1 (en) 2014-02-25 2015-02-19 Information-processing device, data analysis method, and recording medium
JP2016505047A JP6319421B2 (ja) 2014-02-25 2015-02-19 情報処理装置、データ分析方法、及び、プログラム
US16/297,942 US20190205903A1 (en) 2014-02-25 2019-03-11 Information-processing device, data analysis method, and recording medium
US16/297,969 US20190205904A1 (en) 2014-02-25 2019-03-11 Information-processing device, data analysis method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-034036 2014-02-25
JP2014034036 2014-02-25

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US15/119,460 A-371-Of-International US20170011410A1 (en) 2014-02-25 2015-02-19 Information-processing device, data analysis method, and recording medium
US16/297,942 Continuation US20190205903A1 (en) 2014-02-25 2019-03-11 Information-processing device, data analysis method, and recording medium
US16/297,969 Continuation US20190205904A1 (en) 2014-02-25 2019-03-11 Information-processing device, data analysis method, and recording medium

Publications (1)

Publication Number Publication Date
WO2015129210A1 true WO2015129210A1 (ja) 2015-09-03

Family

ID=54008547

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/000779 WO2015129210A1 (ja) 2014-02-25 2015-02-19 情報処理装置、データ分析方法、及び、記録媒体

Country Status (3)

Country Link
US (3) US20170011410A1 (ja)
JP (1) JP6319421B2 (ja)
WO (1) WO2015129210A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017123024A (ja) * 2016-01-06 2017-07-13 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
WO2017170084A1 (ja) * 2016-03-31 2017-10-05 日本電気株式会社 動線表示システム、動線表示方法およびプログラム記録媒体
WO2019162988A1 (ja) * 2018-02-20 2019-08-29 株式会社ソシオネクスト 表示制御装置、表示制御システム、表示制御方法、及びプログラム
JP2020144746A (ja) * 2019-03-08 2020-09-10 本田技研工業株式会社 情報分析装置及び情報分析方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6399096B2 (ja) 2014-09-11 2018-10-03 日本電気株式会社 情報処理装置、表示方法およびコンピュータプログラム
US10510125B2 (en) 2016-11-17 2019-12-17 International Business Machines Corporation Expense compliance checking based on trajectory detection
KR102138553B1 (ko) 2017-07-19 2020-07-28 미쓰비시덴키 가부시키가이샤 행동 가시화 장치 및 행동 가시화 방법
CN110766101B (zh) * 2018-07-26 2023-10-20 杭州海康威视数字技术股份有限公司 确定移动轨迹的方法和装置
CN110969050A (zh) * 2018-09-29 2020-04-07 上海小蚁科技有限公司 员工的工作状态检测方法、装置、存储介质、终端
CN111308463B (zh) * 2020-01-20 2022-06-07 京东方科技集团股份有限公司 人体检测方法、装置、终端设备、存储介质及电子设备
CN116157833A (zh) * 2020-09-23 2023-05-23 Jvc建伍株式会社 图像处理装置及图像处理程序
CN112733814B (zh) * 2021-03-30 2021-06-22 上海闪马智能科技有限公司 一种基于深度学习的行人徘徊滞留检测方法、系统及介质
CN114743345A (zh) * 2022-03-22 2022-07-12 广东电力通信科技有限公司 一种基于电子地图的核心场所智能管控平台

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009146166A (ja) * 2007-12-14 2009-07-02 Hitachi Ltd 作業標準化支援システムおよび作業標準化支援方法
JP2010055594A (ja) * 2008-07-31 2010-03-11 Nec Software Kyushu Ltd 動線管理システムおよびプログラム
JP2011103062A (ja) * 2009-11-11 2011-05-26 Kozo Keikaku Engineering Inc 主要動線出力装置、主要動線出力方法およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007163391A (ja) * 2005-12-16 2007-06-28 Liti R & D:Kk 動線表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009146166A (ja) * 2007-12-14 2009-07-02 Hitachi Ltd 作業標準化支援システムおよび作業標準化支援方法
JP2010055594A (ja) * 2008-07-31 2010-03-11 Nec Software Kyushu Ltd 動線管理システムおよびプログラム
JP2011103062A (ja) * 2009-11-11 2011-05-26 Kozo Keikaku Engineering Inc 主要動線出力装置、主要動線出力方法およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KOSUKE NAKANO: "Hito no Kodo' o Bunseki suru Ichi Joho Solution", GEKKAN JIDO NINSHIKI, vol. 23, no. 7, 10 June 2010 (2010-06-10), pages 19 - 23 *
YASUHIRO KOTAKI: "RFID o Riyo shita, Ido Dosen no Mieruka Tool", GEKKAN JIDO NINSHIKI, vol. 26, no. 8, 10 July 2013 (2013-07-10), pages 36 - 41 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017123024A (ja) * 2016-01-06 2017-07-13 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
US11276210B2 (en) 2016-03-31 2022-03-15 Nec Corporation Flow line display system, flow line display method, and program recording medium
WO2017170084A1 (ja) * 2016-03-31 2017-10-05 日本電気株式会社 動線表示システム、動線表示方法およびプログラム記録媒体
JPWO2017170084A1 (ja) * 2016-03-31 2019-01-10 日本電気株式会社 動線表示システム、動線表示方法および動線表示プログラム
US10740934B2 (en) 2016-03-31 2020-08-11 Nec Corporation Flow line display system, flow line display method, and program recording medium
JP7131587B2 (ja) 2016-03-31 2022-09-06 日本電気株式会社 情報処理システム、情報処理装置、情報処理方法およびプログラム
JP2021002840A (ja) * 2016-03-31 2021-01-07 日本電気株式会社 情報処理システム、情報処理装置、情報処理方法およびプログラム
WO2019162988A1 (ja) * 2018-02-20 2019-08-29 株式会社ソシオネクスト 表示制御装置、表示制御システム、表示制御方法、及びプログラム
JPWO2019162988A1 (ja) * 2018-02-20 2021-02-25 株式会社ソシオネクスト 表示制御装置、表示制御システム、表示制御方法、及びプログラム
US11321949B2 (en) 2018-02-20 2022-05-03 Socionext Inc. Display control device, display control system, and display control method
JP7147835B2 (ja) 2018-02-20 2022-10-05 株式会社ソシオネクスト 表示制御装置、表示制御システム、表示制御方法、及びプログラム
JP2020144746A (ja) * 2019-03-08 2020-09-10 本田技研工業株式会社 情報分析装置及び情報分析方法
JP7149206B2 (ja) 2019-03-08 2022-10-06 本田技研工業株式会社 情報分析装置及び情報分析方法

Also Published As

Publication number Publication date
US20170011410A1 (en) 2017-01-12
JP6319421B2 (ja) 2018-05-09
US20190205903A1 (en) 2019-07-04
JPWO2015129210A1 (ja) 2017-03-30
US20190205904A1 (en) 2019-07-04

Similar Documents

Publication Publication Date Title
JP6319421B2 (ja) 情報処理装置、データ分析方法、及び、プログラム
US10402634B2 (en) Information processing device, information processing method, and computer program product
JP6172380B2 (ja) Pos端末装置、posシステム、商品認識方法及びプログラム
US10846537B2 (en) Information processing device, determination device, notification system, information transmission method, and program
US10334965B2 (en) Monitoring device, monitoring system, and monitoring method
US9767346B2 (en) Detecting an attentive user for providing personalized content on a display
CA3160731A1 (en) Interactive behavior recognizing method, device, computer equipment and storage medium
CA3014403A1 (en) Tracking and/or analyzing facility-related activities
US9727791B2 (en) Person detection system, method, and non-transitory computer readable medium
CA2958888A1 (en) Reducing the search space for recognition of objects in an image based on wireless signals
JP6233624B2 (ja) 情報処理システム、情報処理方法及びプログラム
US11657548B2 (en) Information processing device, display method, and program storage medium for monitoring object movement
US20140140572A1 (en) Parallel face detection and tracking system
US20190113349A1 (en) Systems and methods for autonomous generation of maps
US11030540B2 (en) User activity recognition through work surfaces using radio-frequency sensors
JP2021185533A (ja) 動線判定装置、動線判定システム、動線判定方法及びプログラム
US10726378B2 (en) Interaction analysis
CN108446693B (zh) 待识别目标的标记方法、系统、设备及存储介质
US20230230379A1 (en) Safety compliance system and method
JP6741877B2 (ja) タグ情報を用いた物品管理システム
JP2016224884A (ja) 情報処理装置、及びプログラム
CN115457441A (zh) 进行远程视频面签的风险识别方法
CN103700163A (zh) 确定对象的方法及三维传感器
JP2009076001A (ja) 行動把握方法、行動分析方法、情報処理装置、システムおよびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15755381

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15119460

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2016505047

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15755381

Country of ref document: EP

Kind code of ref document: A1