JP6531804B2 - INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM - Google Patents

INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM Download PDF

Info

Publication number
JP6531804B2
JP6531804B2 JP2017171525A JP2017171525A JP6531804B2 JP 6531804 B2 JP6531804 B2 JP 6531804B2 JP 2017171525 A JP2017171525 A JP 2017171525A JP 2017171525 A JP2017171525 A JP 2017171525A JP 6531804 B2 JP6531804 B2 JP 6531804B2
Authority
JP
Japan
Prior art keywords
person
captured image
camera
determination unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017171525A
Other languages
Japanese (ja)
Other versions
JP2018092598A (en
Inventor
哲夫 井下
哲夫 井下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2017171525A priority Critical patent/JP6531804B2/en
Publication of JP2018092598A publication Critical patent/JP2018092598A/en
Application granted granted Critical
Publication of JP6531804B2 publication Critical patent/JP6531804B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は情報処理装置、制御方法、及びプログラムに関する。   The present invention relates to an information processing apparatus, a control method, and a program.

店舗において、陳列されている商品が盗まれることがある。そこで、商品の盗難を防ぐため、警備員が店舗内を歩き回って警備を行ったり、監視カメラの映像を監視したりしている。   In a store, goods displayed may be stolen. Therefore, in order to prevent the theft of the product, security guards walk around the store to perform security guards and monitor the video of the surveillance camera.

しかし、人手で行う監視には多くの労力を要する。また、商品が陳列されている場所全てを常に人手で監視することは難しく、監視漏れが発生する可能性がある。   However, manual monitoring requires much effort. In addition, it is difficult to always manually monitor all the places where goods are displayed, and there is a possibility that a monitoring omission may occur.

そこで、情報処理技術を活用した盗難防止のためのシステムが開発されている。例えば特許文献1は、タグが取り付けられた商品を持ってゲートを通る人物の顔を、ゲート付近に設けられたカメラで撮像し、撮像された顔を監視カメラの映像から検索するシステムを開示している。   Therefore, a system for preventing theft utilizing information processing technology has been developed. For example, Patent Document 1 discloses a system for capturing a face of a person passing a gate by holding a product attached with a tag with a camera provided near the gate, and searching the captured face from an image of a monitoring camera. ing.

特許文献2は、万引き等の不正行為の調査対象とする商品について、不正行為が行われたか否かを判定するシステムを開示している。具体的には、特許文献2のシステムは、(1)調査対象の商品の売り場において或る人物が所定時間以上滞在し、(2)その人物がその商品を手に取った後、その商品を商品棚へ戻さず、なおかつ(3)その人物が店舗を出た場合に、その人物の購入履歴を検索する。そして、その人物がその商品を購入したことを示す購入履歴が無い場合、特許文献2のシステムは、不正行為が行われたと判定する。   Patent Document 2 discloses a system for determining whether or not a fraudulent act has been performed on a product to be investigated for fraudulent acts such as shoplifting. Specifically, in the system of Patent Document 2, (1) a person stays in a department of a product to be surveyed for a predetermined time or more, and (2) the person picks up the product, and then takes the product. (3) If the person leaves the store without searching the product shelf, the purchase history of the person is searched. Then, if there is no purchase history indicating that the person has purchased the product, the system of Patent Document 2 determines that an illegal act has been performed.

特開2011−233133号公報JP, 2011-233133, A 特開2009−284167号公報JP, 2009-284167, A

特許文献1のシステムは、商品に付けられているタグを検出することにより、盗難の発生を検出する。そのため、このシステムを導入するためには、各商品にタグを付ける作業が必要となり、システムの導入に要する労力が大きい。   The system of Patent Document 1 detects the occurrence of theft by detecting a tag attached to a product. Therefore, in order to introduce this system, it is necessary to tag each product, and the effort required to introduce the system is large.

特許文献2のシステムを導入するためには、「どの商品が購入されたか」だけでなく、「どの顧客がどの商品を購入したか」を購入履歴として記録できる購入管理システムを導入する必要がある。よって、このような購入管理システムを導入していない店舗では、購入管理システムの入れ替え等が必要となる。   In order to introduce the system of Patent Document 2, it is necessary to introduce a purchase management system capable of recording not only "which products have been purchased" but also "which customers have purchased which products" as a purchase history. . Therefore, in a store where such a purchase management system has not been introduced, replacement of the purchase management system or the like is required.

本発明は、上記の課題に鑑みてなされたものである。本発明の目的の一つは、不正行為を監視できる技術であって、導入が容易な技術を提供することである。   The present invention has been made in view of the above problems. One of the objects of the present invention is to provide a technology that can monitor fraud and is easy to introduce.

本発明の情報処理装置は、(1)出口に向かっている人物を撮像した画像である第1撮像画像から検出された人物の背面が、店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する判定手段と、(2)前記第2撮像画像に含まれると判定された場合において、前記人物の背面が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれない場合、警告処理を行う警告手段と、を有する。   In the information processing apparatus according to the present invention, (1) the back of a person detected from the first captured image, which is an image obtained by capturing a person heading toward the exit, installed so as to be able to capture a display place of goods in a store (2) a determination means for determining whether or not it is included in a second captured image generated by two cameras, and (2) when it is determined that it is included in the second captured image, the back of the person is And a warning unit that performs a warning process when it is not included in the third captured image generated by the third camera installed so as to be able to capture the accounting area.

本発明の制御方法は、コンピュータによって実行される。当該制御方法は、(1)出口に向かっている人物を撮像した画像である第1撮像画像から検出された人物の背面が、店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する判定ステップと、(2)前記第2撮像画像に含まれると判定された場合において、前記人物の背面が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれない場合、警告処理を行う警告ステップと、を有する。   The control method of the present invention is executed by a computer. The control method is as follows: (1) The second camera in which the back of the person detected from the first captured image, which is an image obtained by capturing the person heading toward the exit, is capable of capturing an image of the display place of goods in the store In the determination step of determining whether or not it is included in the second captured image to be generated, and (2) when it is determined that it is included in the second captured image, the back surface of the person is the accounting area of the store And a warning step of performing a warning process if it is not included in the third captured image generated by the third camera installed so as to be capable of capturing an image.

本発明のプログラムは、本発明の制御方法が有する各ステップをコンピュータに実行させる。   The program of the present invention causes a computer to execute each step of the control method of the present invention.

本発明によれば、不正行為を監視できる技術であって、導入が容易な技術が提供される。   According to the present invention, there is provided a technology capable of monitoring fraudulent activity, which is easy to introduce.

上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。   The objects described above, and other objects, features and advantages will become more apparent from the preferred embodiments described below and the following drawings associated therewith.

実施形態1の情報処理装置が利用する複数の種類のカメラの設置場所を例示する図である。FIG. 2 is a view exemplifying installation places of a plurality of types of cameras used by the information processing apparatus of the first embodiment. 実施形態1の情報処理装置の動作を概念的に例示する図である。FIG. 6 is a diagram conceptually illustrating an operation of the information processing device of the first embodiment. 実施形態1の情報処理装置の構成を例示する図である。FIG. 1 is a diagram illustrating the configuration of an information processing apparatus according to a first embodiment. 情報処理装置を実現するための計算機を例示する図である。It is a figure which illustrates the computer for realizing an information processor. 実施形態1の情報処理装置によって実行される処理の流れを例示するフローチャートである。5 is a flowchart illustrating the flow of processing executed by the information processing apparatus of the first embodiment; 人物情報をテーブル形式で例示する図である。It is a figure which illustrates person information in a table form. 商品の減少量を算出する方法を例示する図である。It is a figure which illustrates the method of calculating the reduction amount of goods. 人物の動作に対して割り当てられたスコアをテーブル形式で例示する図である。It is a figure which illustrates the score allocated with respect to a person's operation | movement in a table form. 動線の特徴に対して割り当てられたスコアをテーブル形式で例示する図である。It is a figure which illustrates the score allocated with respect to the feature of the flow line in a table form. ディスプレイ装置に表示される警告メッセージを例示する図である。It is a figure which illustrates the warning message displayed on a display apparatus. 実施形態2の情報処理装置を例示するブロック図である。FIG. 8 is a block diagram illustrating an information processing apparatus of a second embodiment.

以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、特に説明する場合を除き、各ブロック図において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all the drawings, the same components are denoted by the same reference numerals, and the description thereof will be appropriately omitted. Further, in each block diagram, each block represents a configuration of a function unit, not a configuration of a hardware unit, unless otherwise described.

[実施形態1]
<情報処理装置2000の概要>
図1は、実施形態1の情報処理装置2000が利用する複数の種類のカメラの設置場所を例示する図である。情報処理装置2000が利用される店舗には、第1カメラ10、第2カメラ20、及び第3カメラ30が設置されている。第1カメラ10は、店舗の出口(出口50)を撮像可能に設置されている。第2カメラ20は、店舗における商品の陳列場所(陳列場所60)を撮像可能に設置されている。例えば商品は、陳列場所60に設置されている商品棚に陳列される。第3カメラ30は、商品の会計が行われる場所(会計エリア70)を撮像可能に設置されている。
Embodiment 1
<Overview of Information Processing Device 2000>
FIG. 1 is a view exemplifying installation places of a plurality of types of cameras used by the information processing apparatus 2000 of the first embodiment. A first camera 10, a second camera 20, and a third camera 30 are installed at a store where the information processing apparatus 2000 is used. The first camera 10 is installed to be able to image the outlet (outlet 50) of the store. The second camera 20 is installed to be able to image the display place (display place 60) of the product in the store. For example, goods are displayed on a product shelf installed in the display place 60. The third camera 30 is provided so as to be able to image a place (accounting area 70) where accounting for a product is performed.

図2は、実施形態1の情報処理装置2000の動作を概念的に例示する図である。なお図2は、情報処理装置2000の動作の理解を容易にすることを目的とする例示のための図であり、情報処理装置2000の動作は図2によって何ら限定されない。   FIG. 2 is a diagram conceptually illustrating the operation of the information processing apparatus 2000 of the first embodiment. Note that FIG. 2 is a diagram for illustrating an example for the purpose of facilitating the understanding of the operation of the information processing device 2000, and the operation of the information processing device 2000 is not limited at all by FIG.

第1カメラ10、第2カメラ20、及び第3カメラ30はそれぞれ、第1撮像画像11、第2撮像画像21、及び第3撮像画像31を生成する。第1撮像画像11には、出口50が撮像されている。第2撮像画像21には、陳列場所60が撮像されている。第3撮像画像31には、会計エリア70が撮像されている。   The first camera 10, the second camera 20, and the third camera 30 respectively generate a first captured image 11, a second captured image 21, and a third captured image 31. An exit 50 is captured in the first captured image 11. In the second captured image 21, the display place 60 is captured. In the third captured image 31, an accounting area 70 is captured.

情報処理装置2000は、第1撮像画像11から人物を検出する。ここで検出される人物は、出口50において第1カメラ10が撮像した人物とも言える。   The information processing apparatus 2000 detects a person from the first captured image 11. The person detected here can also be said to be a person captured by the first camera 10 at the exit 50.

次に情報処理装置2000は、第1撮像画像11から検出された人物が第2撮像画像21に含まれるか否かを判定する。言い換えれば、出口50で撮像された人物が、陳列場所60でも撮像されたか否かが判定される。   Next, the information processing apparatus 2000 determines whether the person detected from the first captured image 11 is included in the second captured image 21. In other words, it is determined whether the person imaged at the exit 50 is also imaged at the display place 60 or not.

さらに情報処理装置2000は、第1撮像画像11から検出された人物が第2撮像画像21に含まれていると判定され、なおかつその人物の不審度が高い場合に、その人物が第3撮像画像31にも含まれているか否かを判定する。言い換えれば、出口50及び陳列場所60の双方において撮像され、なおかつ不審度の高い人物が、会計エリア70においても撮像されたか否かが判定される。   Furthermore, when it is determined that the person detected from the first captured image 11 is included in the second captured image 21 and the suspiciousness degree of the person is high, the information processing device 2000 determines that the person is the third captured image. It is determined whether or not 31 is included. In other words, it is determined whether a person who is imaged at both the exit 50 and the display place 60 and who has a high degree of suspiciousness is also imaged in the accounting area 70.

そして情報処理装置2000は、第3撮像画像31からその人物が検出されなかった場合に、警告処理を行う。よって、出口50及び陳列場所60の双方では撮像され、なおかつ不審度の高い人物が、会計エリア70では撮像されなかった場合に、警告処理が行われることとなる。   Then, when the person is not detected from the third captured image 31, the information processing device 2000 performs a warning process. Therefore, when a person who is imaged at both the exit 50 and the display place 60 and who has a high degree of suspiciousness is not imaged in the accounting area 70, a warning process is performed.

図2では、時点t1に撮像された第1撮像画像11−1から人物40が検出されている。そのため情報処理装置2000は、第2撮像画像21からも人物40の検出を試みる。その結果、時点t2における第2撮像画像21−1から人物40が検出されている。さらに図2の例では、人物40の不審度が高い。そこで情報処理装置2000は、第3撮像画像31からも人物40の検出を試みる。その結果、第3撮像画像31からは人物40が検出されない。よって情報処理装置2000は警告処理を行う。   In FIG. 2, a person 40 is detected from the first captured image 11-1 captured at time t1. Therefore, the information processing apparatus 2000 attempts to detect the person 40 also from the second captured image 21. As a result, the person 40 is detected from the second captured image 21-1 at time t2. Furthermore, in the example of FIG. 2, the suspiciousness degree of the person 40 is high. Therefore, the information processing apparatus 2000 attempts to detect the person 40 also from the third captured image 31. As a result, the person 40 is not detected from the third captured image 31. Thus, the information processing apparatus 2000 performs a warning process.

ここで、人物40の不審度の高さは、第2撮像画像21を利用して算出されてもよいし、第2撮像画像21以外を利用して算出されてもよい。人物40の不審度の高さを算出する詳細な方法については後述する。   Here, the height of the degree of suspiciousness of the person 40 may be calculated using the second captured image 21 or may be calculated using something other than the second captured image 21. The detailed method of calculating the height of the degree of suspiciousness of the person 40 will be described later.

<作用・効果>
出口50で撮像された人物が陳列場所60でも撮像されている場合、その人物は、店舗の商品を取得した後、店舗から出ようとしている可能性がある。さらにその人物の不審度が高い場合、その人物は、盗難等の不正な目的で商品を取得した可能性がある。ただし、その人物が会計エリア70において商品の会計をしていれば、その人物は取得した商品を購入したと考えられる。
<Operation and effect>
When the person imaged at the exit 50 is also imaged at the display place 60, the person may try to leave the store after acquiring the goods of the store. Furthermore, when the degree of suspiciousness of the person is high, the person may have acquired the product for an illegal purpose such as theft. However, if the person is accounting for a product in the accounting area 70, the person is considered to have purchased the acquired product.

そこで本実施形態の情報処理装置2000は、商品を取得した後に店舗から出ようとしている可能性がある人物(第1撮像画像11及び第2撮像画像21に含まれる人物)であり、なおかつ不正を行おうとしている蓋然性が高い人物(不審度が高い人物)が、会計エリア70において撮像されたか否かを判定する。そして、情報処理装置2000は、この人物が会計エリア70において撮像されていない場合に警告処理を行う。こうすることで、商品の盗難などが行われた蓋然性が高い場合に警告処理が行われるようになるため、店員等は、商品の盗難などの事態を早期に把握し、迅速な対処を行うことが可能となる。   Therefore, the information processing apparatus 2000 according to the present embodiment is a person (person included in the first captured image 11 and the second captured image 21) who is likely to leave the store after acquiring a product, and is not authorized. It is determined whether a person who is likely to go (a person with a high degree of suspiciousness) has been imaged in the accounting area 70 or not. Then, the information processing apparatus 2000 performs a warning process when the person is not imaged in the accounting area 70. By doing this, a warning process will be performed when there is a high probability that the product has been stolen etc. Therefore, the clerk or the like should promptly grasp the situation such as the product theft and take prompt action. Is possible.

また、本実施形態の情報処理装置2000を導入するにあたり、監視対象の商品にタグを付けたり、どの顧客がどの商品を購入したか」を購入履歴として記録する管理システムを導入したりする必要はない。よって、本実施形態の情報処理装置2000は容易に導入することができる。   In addition, in introducing the information processing apparatus 2000 of the present embodiment, it is necessary to tag a product to be monitored or introduce a management system that records which customer purchased which product as a purchase history. Absent. Therefore, the information processing apparatus 2000 of the present embodiment can be easily introduced.

以下、本実施形態についてさらに詳細に説明する。   Hereinafter, the present embodiment will be described in more detail.

<情報処理装置2000の機能構成の例>
図3は、実施形態1の情報処理装置2000の構成を例示する図である。情報処理装置2000は、検出部2020、第1判定部2040、第2判定部2060、及び警告部2080を有する。検出部2020は、第1撮像画像11から人物を検出する。第1判定部2040は、第1撮像画像11から検出された人物が第2撮像画像21に含まれるか否かを判定する。第2判定部2060は、第1撮像画像11から検出された人物が第2撮像画像21に含まれ、なおかつその人物の不審度が高い場合に、第3撮像画像31にその人物が含まれるか否かを判定する。警告部2080は、その人物が第3撮像画像31に含まれない場合に警告処理を行う。
<Example of Functional Configuration of Information Processing Apparatus 2000>
FIG. 3 is a diagram illustrating the configuration of the information processing apparatus 2000 according to the first embodiment. The information processing apparatus 2000 includes a detection unit 2020, a first determination unit 2040, a second determination unit 2060, and a warning unit 2080. The detection unit 2020 detects a person from the first captured image 11. The first determination unit 2040 determines whether the person detected from the first captured image 11 is included in the second captured image 21. The second determination unit 2060 determines whether the third captured image 31 includes the person if the person detected from the first captured image 11 is included in the second captured image 21 and the degree of suspiciousness of the person is high. It is determined whether or not. The warning unit 2080 performs warning processing when the person is not included in the third captured image 31.

<情報処理装置2000のハードウエア構成>
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
<Hardware Configuration of Information Processing Apparatus 2000>
Each functional component of the information processing apparatus 2000 may be realized by hardware (for example, a hard-wired electronic circuit or the like) that realizes each functional component, or a combination of hardware and software (for example: It may be realized by a combination of an electronic circuit and a program for controlling it. Hereinafter, the case where each functional configuration unit of the information processing apparatus 2000 is realized by a combination of hardware and software will be further described.

図4は、情報処理装置2000を実現するための計算機1000を例示する図である。計算機1000は任意の計算機である。例えば計算機1000は、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、情報処理装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。   FIG. 4 is a diagram illustrating a computer 1000 for realizing the information processing apparatus 2000. The computer 1000 is an arbitrary computer. For example, the computer 1000 is a personal computer (PC), a server machine, a tablet terminal, a smartphone, or the like. The computer 1000 may be a dedicated computer designed to realize the information processing apparatus 2000, or may be a general-purpose computer.

計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU(Central Processing Unit)や GPU(Graphics Processing Unit)などの演算装置である。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。ただし、ストレージデバイス1080は、RAM など、主記憶装置を構成するハードウエアと同様のハードウエアで構成されてもよい。   The computer 1000 includes a bus 1020, a processor 1040, a memory 1060, a storage device 1080, an input / output interface 1100, and a network interface 1120. The bus 1020 is a data transmission path for the processor 1040, the memory 1060, the storage device 1080, the input / output interface 1100, and the network interface 1120 to mutually transmit and receive data. However, the method of connecting the processors 1040 and the like to each other is not limited to the bus connection. The processor 1040 is an arithmetic device such as a central processing unit (CPU) or a graphics processing unit (GPU). The memory 1060 is a main storage device implemented using a random access memory (RAM) or the like. The storage device 1080 is an auxiliary storage device implemented using a hard disk, a solid state drive (SSD), a memory card, or a read only memory (ROM). However, the storage device 1080 may be configured by hardware similar to the hardware that configures the main storage device, such as a RAM.

入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。ネットワークインタフェース1120は、計算機1000を通信網に接続するためのインタフェースである。この通信網は、例えば LAN(Local Area Network)や WAN(Wide Area Network)である。ネットワークインタフェース1120が通信網に接続する方法は、無線接続であってもよいし、有線接続であってもよい。   The input / output interface 1100 is an interface for connecting the computer 1000 and an input / output device. The network interface 1120 is an interface for connecting the computer 1000 to a communication network. This communication network is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network). The method of connecting the network interface 1120 to the communication network may be wireless connection or wired connection.

例えば計算機1000は、ネットワークを介して、第1カメラ10、第2カメラ20、及び第3カメラ30と通信可能に接続されている。ただし、計算機1000を各カメラと通信可能に接続する方法は、ネットワークを介した接続に限定されない。また、計算機1000は、各カメラと通信可能に接続されていなくてもよい。   For example, the computer 1000 is communicably connected to the first camera 10, the second camera 20, and the third camera 30 via a network. However, the method of communicably connecting the computer 1000 to each camera is not limited to connection via a network. The computer 1000 may not be communicably connected to each camera.

ストレージデバイス1080は、情報処理装置2000の各機能構成部(検出部2020、第1判定部2040、第2判定部2060、及び警告部2080)を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。   The storage device 1080 stores program modules for realizing the functional components (the detection unit 2020, the first determination unit 2040, the second determination unit 2060, and the warning unit 2080) of the information processing apparatus 2000. The processor 1040 implements the functions corresponding to each program module by reading the program modules into the memory 1060 and executing them.

なお、計算機1000は、複数の計算機を利用して実現されてもよい。例えば検出部2020、第1判定部2040、第2判定部2060、及び警告部2080をそれぞれ異なる計算機で実現することができる。この場合、各計算機のストレージデバイスに記憶されるプログラムモジュールは、その計算機で実現される機能構成部に対応するプログラムモジュールだけでもよい。   The computer 1000 may be realized using a plurality of computers. For example, the detection unit 2020, the first determination unit 2040, the second determination unit 2060, and the warning unit 2080 can be realized by different computers. In this case, the program modules stored in the storage device of each computer may be only the program modules corresponding to the functional components realized by the computer.

<カメラについて>
第1カメラ10、第2カメラ20、及び第3カメラ30はそれぞれ、繰り返し撮像を行って複数の撮像画像を生成することができる任意のカメラである。各カメラは、動画データを生成するビデオカメラであってもよいし、静止画像データを生成するスチルカメラであってもよい。前者の場合、第1撮像画像11、第2撮像画像21、及び第3撮像画像31は、動画データを構成する画像フレームである。上記各カメラは、例えば監視カメラである。
<About the camera>
Each of the first camera 10, the second camera 20, and the third camera 30 is an arbitrary camera that can repeatedly perform imaging and generate a plurality of captured images. Each camera may be a video camera that generates moving image data, or may be a still camera that generates still image data. In the case of the former, the first captured image 11, the second captured image 21, and the third captured image 31 are image frames that constitute moving image data. Each of the above cameras is, for example, a surveillance camera.

前述したように計算機1000を複数の計算機で実現する場合、その実現に各カメラを利用してもよい。例えば検出部2020は、第1カメラ10を用いて実現することができる。この場合、第1カメラ10は、自身で生成した第1撮像画像11から人物の検出を行う。   As described above, when the computer 1000 is realized by a plurality of computers, each camera may be used for the realization. For example, the detection unit 2020 can be realized using the first camera 10. In this case, the first camera 10 detects a person from the first captured image 11 generated by itself.

その他にも例えば、第1判定部2040は、第2カメラ20を用いて実現することができる。この場合、第2カメラ20は、自身が生成した第2撮像画像21に第1撮像画像11から検出された人物が含まれるか否かを判定する。   Besides, for example, the first determination unit 2040 can be realized using the second camera 20. In this case, the second camera 20 determines whether the second captured image 21 generated by the second camera 20 includes a person detected from the first captured image 11.

その他にも例えば、第2判定部2060は、第3カメラ30を用いて実現することができる。第3カメラ30は、第1撮像画像11と第2撮像画像21の双方に含まれ、なおかつ不審度が高い人物が、自身で生成した第3撮像画像31に含まれるか否かを判定する。またさらに、警告部2080が第3カメラ30を用いて実現されてもよい。この場合、第3カメラ30は、上記人物が第3撮像画像31に含まれない場合に警告処理を行う。   Besides, for example, the second determination unit 2060 can be realized using the third camera 30. The third camera 30 determines whether a person who is included in both the first captured image 11 and the second captured image 21 and has a high degree of suspiciousness is included in the third captured image 31 generated by itself. Furthermore, the warning unit 2080 may be realized using the third camera 30. In this case, the third camera 30 performs a warning process when the person is not included in the third captured image 31.

このように計算機1000を実現するために用いられる各カメラには、例えば、インテリジェントカメラ、ネットワークカメラ、又は IP(Internet Protocol)カメラなどと呼ばれるカメラを利用できる。   As each camera used to realize the computer 1000 in this manner, for example, a camera called an intelligent camera, a network camera, or an IP (Internet Protocol) camera can be used.

<処理の流れ>
図5は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。検出部2020は、第1撮像画像11を取得する(S102)。検出部2020は、第1撮像画像11から人物を検出する(S104)。第1撮像画像11から人物が検出されなかった場合(S106:NO)、図5の処理は終了する。
<Flow of processing>
FIG. 5 is a flowchart illustrating the flow of processing executed by the information processing apparatus 2000 of the first embodiment. The detection unit 2020 acquires the first captured image 11 (S102). The detection unit 2020 detects a person from the first captured image 11 (S104). When a person is not detected from the first captured image 11 (S106: NO), the process of FIG. 5 ends.

第1撮像画像11から人物が検出された場合(S106:YES)、第1判定部2040は、第2撮像画像21を取得する(S108)。第1判定部2040は、第1撮像画像11から検出された人物が第2撮像画像21に含まれるか否かを判定する(S110)。第1撮像画像11から検出された人物が第2撮像画像21に含まれない場合(S110:NO)、図5の処理は終了する。   When a person is detected from the first captured image 11 (S106: YES), the first determination unit 2040 acquires the second captured image 21 (S108). The first determination unit 2040 determines whether a person detected from the first captured image 11 is included in the second captured image 21 (S110). When the person detected from the first captured image 11 is not included in the second captured image 21 (S110: NO), the process of FIG. 5 ends.

第1撮像画像11から検出された人物が第2撮像画像21に含まれる場合(S110:YES)、第2判定部2060は、その人物の不審度が高いか否かを判定する(S112)。その人物の不審度が高くない場合(S112:NO)、図5の処理は終了する。   When a person detected from the first captured image 11 is included in the second captured image 21 (S110: YES), the second determination unit 2060 determines whether the suspiciousness degree of the person is high (S112). If the degree of suspiciousness of the person is not high (S112: NO), the process of FIG. 5 ends.

その人物の不審度が高い場合(S112:YES)、第2判定部2060は第3撮像画像31を取得する(S114)。第2判定部2060は、その人物が第3撮像画像31に含まれるか否かを判定する(S116)。その人物が第3撮像画像31に含まれる場合(S116:YES)、図5の処理は終了する。   If the degree of suspiciousness of the person is high (S112: YES), the second determination unit 2060 acquires the third captured image 31 (S114). The second determination unit 2060 determines whether the person is included in the third captured image 31 (S116). If the person is included in the third captured image 31 (S116: YES), the process of FIG. 5 ends.

その人物が第3撮像画像31に含まれない場合(S116:NO)、警告部2080は警告処理を実行する(S118)。   If the person is not included in the third captured image 31 (S116: NO), the warning unit 2080 executes a warning process (S118).

なお、図5が示す処理の流れはあくまで一例であり、情報処理装置2000によって実行される処理の流れは図5が示す流れに限定されない。例えば各撮像画像を取得するタイミングは、その撮像画像を利用する前の任意のタイミングとすることができる。例えば第1判定部2040は、第1撮像画像11から人物が検出されるか否かの判定(S106)が行われる前に第2撮像画像21を取得してもよい。同様に、第2判定部2060は、第1撮像画像11から検出された人物が第2撮像画像21に含まれるか否かの判定(S110)やその人物の不審度が高いか否かの判定(S112)が行われる前に第3撮像画像31を取得してもよい。   The flow of the process illustrated in FIG. 5 is merely an example, and the flow of the process performed by the information processing apparatus 2000 is not limited to the flow illustrated in FIG. For example, the timing for acquiring each captured image may be any timing before using the captured image. For example, the first determination unit 2040 may acquire the second captured image 21 before determination of whether a person is detected from the first captured image 11 (S106) is performed. Similarly, the second determination unit 2060 determines whether the person detected from the first captured image 11 is included in the second captured image 21 (S110) or determines whether the suspiciousness degree of the person is high. The third captured image 31 may be acquired before (S112) is performed.

<第1映像12の取得方法:S102>
検出部2020は第1撮像画像11を取得する(S102)。ここで、検出部2020が第1撮像画像11を取得する方法は任意である。例えば検出部2020は、第1カメラ10から送信される第1撮像画像11を受信する。また例えば、検出部2020は、第1カメラ10にアクセスし、第1カメラ10に記憶されている第1撮像画像11を取得する。
<Method of acquiring first video 12: S102>
The detection unit 2020 acquires the first captured image 11 (S102). Here, the method by which the detection unit 2020 acquires the first captured image 11 is arbitrary. For example, the detection unit 2020 receives the first captured image 11 transmitted from the first camera 10. Also, for example, the detection unit 2020 accesses the first camera 10 and acquires the first captured image 11 stored in the first camera 10.

なお、第1カメラ10は、第1カメラ10の外部に設けられている記憶装置に第1撮像画像11を記憶してもよい。この場合、検出部2020は、この記憶装置にアクセスして第1撮像画像11を取得する。   The first camera 10 may store the first captured image 11 in a storage device provided outside the first camera 10. In this case, the detection unit 2020 accesses the storage device to acquire the first captured image 11.

検出部2020を第1カメラ10で実現される場合、検出部2020は、検出部2020を実現する第1カメラ10自身によって生成された第1撮像画像11を取得する。この場合、第1撮像画像11は、例えば第1カメラ10の内部にある記憶装置に記憶されている。そこで検出部2020は、これらの記憶装置から第1撮像画像11を取得する。   When the detection unit 2020 is realized by the first camera 10, the detection unit 2020 acquires the first captured image 11 generated by the first camera 10 itself that realizes the detection unit 2020. In this case, the first captured image 11 is stored in, for example, a storage device inside the first camera 10. Therefore, the detection unit 2020 acquires the first captured image 11 from these storage devices.

検出部2020が第1撮像画像11を取得するタイミングは様々である。例えば検出部2020は、第1カメラ10によって新たな第1撮像画像11が生成される度に、その第1撮像画像11を取得する。その他にも例えば、検出部2020は、定期的に未取得の第1撮像画像11を取得してもよい。例えば検出部2020が1秒間に1回第1撮像画像11を取得する場合、検出部2020は、1秒間に生成される複数の第1撮像画像11(例えば 30fps(frames/second) のカメラであれば30枚の第1撮像画像11)をまとめて取得する。   There are various timings at which the detection unit 2020 acquires the first captured image 11. For example, every time a new first captured image 11 is generated by the first camera 10, the detection unit 2020 acquires the first captured image 11. In addition, for example, the detection unit 2020 may periodically acquire the uncaptured first captured image 11. For example, when the detection unit 2020 acquires the first captured image 11 once per second, the detection unit 2020 may be a plurality of first captured images 11 (for example, 30 fps (frames / second) cameras generated in 1 second). For example, 30 first captured images 11) are acquired collectively.

<第1撮像画像11からの人物の検出:S104>
検出部2020は、第1撮像画像11から人物を検出する(S104)。具体的には、検出部2020は、第1撮像画像11から人物を表す領域を検出することにより、第1撮像画像11から人物を検出する。以下、人物を表す領域を人物領域と呼ぶ。
<Detection of Person from First Captured Image 11: S104>
The detection unit 2020 detects a person from the first captured image 11 (S104). Specifically, the detection unit 2020 detects a person from the first captured image 11 by detecting an area representing the person from the first captured image 11. Hereinafter, an area representing a person is called a person area.

第1撮像画像11から人物領域を検出する方法は様々である。例えば検出部2020は、特徴量マッチングやテンプレートマッチングを利用して人物領域の検出を行う。前者の場合、検出部2020は、第1撮像画像11に含まれる領域のうち、人間の外見的な特徴を表す特徴量(以下、人物特徴量)を持つ領域を、人物領域として検出する。後者の場合、検出部2020は、第1撮像画像11に含まれる領域のうち、人物を表すテンプレート画像との類似度が高い領域を、人物領域として検出する。なお、人物特徴量やテンプレート画像は予め定義しておく。   There are various methods for detecting a person area from the first captured image 11. For example, the detection unit 2020 detects a person area using feature amount matching or template matching. In the case of the former, the detection unit 2020 detects a region having a feature amount (hereinafter, a person feature amount) representing an appearance characteristic of a human among regions included in the first captured image 11 as a person region. In the latter case, the detection unit 2020 detects a region having a high degree of similarity with the template image representing a person among the regions included in the first captured image 11 as a person region. The person feature amount and the template image are defined in advance.

なお、プライバシー保護などの観点から、カメラで人の顔の前面を撮像することが好ましくないこともある。そこで、各カメラ(第1カメラ10、第2カメラ20及び第3カメラ30)はいずれも、人の顔の前面が撮像される蓋然性が低い方向から人を撮像するように設置されることが好適である。例えば各カメラは、店舗における人の動線方向と同じ方向を向くように設置される。   From the viewpoint of privacy protection and the like, it may not be preferable to image the front of a human face with a camera. Therefore, it is preferable that all the cameras (the first camera 10, the second camera 20, and the third camera 30) be installed so as to capture a person from a direction in which the probability of capturing the front of the person's face is low. It is. For example, each camera is installed to face in the same direction as the flow direction of the person in the store.

このように人の顔の前面が撮像される蓋然性が低いように第1カメラ10が設置されると、第1撮像画像11には、人物の顔の前面にある特徴的な要素(目、鼻、及び口など)が含まれない蓋然性が高い。そこでこの場合、検出部2020は、人物の後ろ姿が撮像されている第1撮像画像11から人物を検出できるようにする。例えば特徴量マッチングを利用する場合、人物特徴量として、少なくとも、人物の後ろ姿の外見的な特徴量を定めておく。また、テンプレートマッチングを利用する場合、少なくとも、人物の後ろ姿を表すテンプレート画像を定めておく。   As described above, when the first camera 10 is installed so that the probability of capturing the front of a human face is low, the first captured image 11 includes characteristic elements (eye, nose, etc.) on the front of the face of a person. , And the mouth is not included. Therefore, in this case, the detection unit 2020 can detect the person from the first captured image 11 in which the back view of the person is captured. For example, when using feature amount matching, at least an appearance feature amount of the back of a person is defined as a person feature amount. In addition, when using template matching, at least a template image representing the back of a person is defined.

<検出された人物に関する情報>
第1判定部2040は、第1撮像画像11から検出された人物が第2撮像画像21に含まれるか否かを判定する。この判定を行うためには、第1撮像画像11から検出された人物を特定する情報が必要となる。
<Information on Detected Person>
The first determination unit 2040 determines whether the person detected from the first captured image 11 is included in the second captured image 21. In order to perform this determination, information for specifying a person detected from the first captured image 11 is required.

そこで検出部2020は、第1撮像画像11から検出された人物を特定する情報を生成する。以下、この情報を人物情報と呼ぶ。例えば検出部2020は、第1判定部2040からアクセス可能な記憶装置に人物情報を記憶させる。その他にも例えば、検出部2020は、第1判定部2040に対して人物情報を出力してもよい。   Therefore, the detection unit 2020 generates information for identifying a person detected from the first captured image 11. Hereinafter, this information is referred to as personal information. For example, the detection unit 2020 stores personal information in a storage device accessible from the first determination unit 2040. In addition, for example, the detection unit 2020 may output personal information to the first determination unit 2040.

図6は人物情報をテーブル形式で例示する図である。図6のテーブルを人物情報テーブル500と呼ぶ。人物情報テーブル500は、人物ID502、タイムスタンプ504、及び人物領域506を有する。人物ID502は、第1撮像画像11から検出された人物に検出部2020が割り当てる識別子である。タイムスタンプ504は、この人物が検出された第1撮像画像11の生成時点を表す。人物領域506は、第1映像12から検出された人物領域を特定する情報である。なお、第1撮像画像11から検出された人物に対して識別子を割り当てる方法は任意である。   FIG. 6 is a diagram illustrating personal information in the form of a table. The table of FIG. 6 is called a person information table 500. The person information table 500 includes a person ID 502, a time stamp 504, and a person area 506. The person ID 502 is an identifier assigned to the person detected from the first captured image 11 by the detection unit 2020. The time stamp 504 represents a generation time point of the first captured image 11 at which this person is detected. The person area 506 is information for specifying the person area detected from the first image 12. In addition, the method of allocating an identifier to the person detected from the 1st captured image 11 is arbitrary.

人物領域506は、検出された人物領域そのもの(人物領域に含まれる各画素の値の集合)を示してもよいし、検出された人物の特徴を示してもよい。抽出された人物の特徴は、例えば、その人物の体型(輪郭線など)を示す。その他にも例えば、抽出された人物の特徴は、その人物の服装、髪の色、及び肌の色などを示す。その他にも例えば、抽出された人物の特徴は、その人物の所持品の形状や色などを示す。   The person area 506 may indicate the detected person area itself (a set of values of respective pixels included in the person area) or may indicate the characteristics of the detected person. The extracted feature of the person indicates, for example, the figure (such as an outline) of the person. In addition, for example, the extracted feature of the person indicates the clothes, hair color, skin color, etc. of the person. In addition, for example, the feature of the extracted person indicates the shape, color, etc. of the belongings of the person.

<第2撮像画像21の取得:S108>
第1判定部2040は第2撮像画像21を取得する(S108)。第1判定部2040が第2撮像画像21を取得する方法には、検出部2020が第1撮像画像11を取得する方法と同様の方法を採用できる。
<Acquisition of Second Captured Image 21: S108>
The first determination unit 2040 acquires the second captured image 21 (S108). As a method of acquiring the second captured image 21 by the first determination unit 2040, a method similar to the method of acquiring the first captured image 11 by the detection unit 2020 can be adopted.

第1判定部2040が第2撮像画像21を取得するタイミングは様々である。例えば第1判定部2040は、検出部2020が第1撮像画像11を取得するタイミングと同様のタイミングで第2撮像画像21を取得する。その他にも例えば、第1判定部2040は、検出部2020によって第1撮像画像11から人物が検出されたことに応じて、第2撮像画像21を取得してもよい。この場合、例えば第1判定部2040は、検出部2020によって生成された前述の人物情報を取得したタイミングで、第2撮像画像21を取得する。   There are various timings at which the first determination unit 2040 acquires the second captured image 21. For example, the first determination unit 2040 acquires the second captured image 21 at the same timing as the detection unit 2020 acquires the first captured image 11. In addition, for example, the first determination unit 2040 may acquire the second captured image 21 in response to detection of a person from the first captured image 11 by the detection unit 2020. In this case, for example, the first determination unit 2040 acquires the second captured image 21 at the timing when the above-described personal information generated by the detection unit 2020 is acquired.

なお第1判定部2040は、第2カメラ20によって生成された第2撮像画像21の全てを取得してもよいし、一部のみを取得してもよい。ここで、第1撮像画像11に含まれる人物は出口50で撮像されており、第2撮像画像21に含まれる人物は陳列場所60で撮像されている。そのため、同じ人物が第1撮像画像11と第2撮像画像21に含まれる場合、第2撮像画像21の生成時点は、第1撮像画像11の生成時点よりも前であると言える。そこで、第2カメラ20によって生成された第2撮像画像21の一部のみを取得する場合、例えば第1判定部2040は、人物が検出された第1撮像画像11の生成時点(取得した人物情報が示すタイムスタンプ)よりも前に生成された第2撮像画像21のみを取得する。こうすることで、第2撮像画像21の取得に要する情報処理装置2000の処理負荷や、第2撮像画像21の取得に利用されるネットワークの使用帯域などを削減することができる。   The first determination unit 2040 may acquire all of the second captured image 21 generated by the second camera 20 or may acquire only a part. Here, the person included in the first captured image 11 is captured at the exit 50, and the person included in the second captured image 21 is captured at the display location 60. Therefore, when the same person is included in the first captured image 11 and the second captured image 21, it can be said that the generation time point of the second captured image 21 is earlier than the generation time point of the first captured image 11. Therefore, when acquiring only a part of the second captured image 21 generated by the second camera 20, for example, the first determination unit 2040 generates the first captured image 11 at which a person is detected (the acquired person information (acquired person information The second captured image 21 is acquired only before the time stamp indicated by By doing this, it is possible to reduce the processing load of the information processing apparatus 2000 required for acquiring the second captured image 21 and the use band of the network used for acquiring the second captured image 21.

<第2撮像画像21からの人物の検出:S110>
第1判定部2040は、第1撮像画像11から検出された人物が第2撮像画像21に含まれるか否かを判定する(S110)。前述したように、第1撮像画像11から検出された人物は、検出部2020によって生成される人物情報で特定される。そこで第1判定部2040は、検出部2020によって生成された人物情報を利用して、上記判定を行う。判定に利用される第2撮像画像21は、対象の人物が検出された第1撮像画像11の生成時点よりも前の時点において生成された第2撮像画像21である。
<Detection of Person from Second Captured Image 21: S110>
The first determination unit 2040 determines whether a person detected from the first captured image 11 is included in the second captured image 21 (S110). As described above, the person detected from the first captured image 11 is identified by the person information generated by the detection unit 2020. Therefore, the first determination unit 2040 makes the above determination using the personal information generated by the detection unit 2020. The second captured image 21 used for the determination is the second captured image 21 generated at a time point before the generation time point of the first captured image 11 in which the person of interest is detected.

第1判定部2040が上記判定を行う具体的な方法は様々である。以下、その方法をいくつか例示する。   There are various specific methods in which the first determination unit 2040 performs the above determination. Some of the methods will be exemplified below.

<<判定方法の例1>>
第1判定部2040は、各第2撮像画像21を対象に、人物情報によって特定される人物の検出を試みる。そして、その人物がいずれかの第2撮像画像21から検出された場合、第1判定部2040は、第1撮像画像11から検出された人物が第2撮像画像21に含まれると判定する(S110:YES)。一方、その人物がどの第2撮像画像21からも検出されない場合、第1判定部2040は、第1撮像画像11から検出された人物が第2撮像画像21に含まれないと判定する。(S110:NO)
<< Example 1 of the judgment method >>
The first determination unit 2040 attempts to detect a person specified by the person information for each second captured image 21. Then, when the person is detected from any second captured image 21, the first determination unit 2040 determines that the person detected from the first captured image 11 is included in the second captured image 21 (S110). : YES). On the other hand, when the person is not detected from any second captured image 21, the first determination unit 2040 determines that the person detected from the first captured image 11 is not included in the second captured image 21. (S110: NO)

例えば人物情報が、第1撮像画像11から抽出された人物領域そのものを表しているとする。この場合、第1判定部2040は、第2撮像画像21から、その人物領域との類似度が高い領域を検出することで、人物情報によって特定される人物の検出を行う。   For example, it is assumed that the person information represents the person area itself extracted from the first captured image 11. In this case, the first determination unit 2040 detects, from the second captured image 21, a region having a high degree of similarity with the person region, thereby detecting a person specified by the person information.

その他にも例えば、人物情報が、第1撮像画像11から抽出された人物の特徴を表しているとする。この場合、第1判定部2040は、第2撮像画像21から、その人物情報が示す特徴を持つ人物を検出することで、人物情報によって特定される人物の検出を行う。   In addition, for example, it is assumed that the person information represents the feature of the person extracted from the first captured image 11. In this case, the first determination unit 2040 detects a person having a feature indicated by the person information from the second captured image 21 to detect the person specified by the person information.

<<判定方法の例2>>
第1判定部2040は、検出部2020が第1撮像画像11から人物を検出する方法と同様の方法で、第2撮像画像21からも人物を検出する。さらに第1判定部2040は、第2撮像画像21から検出された人物の中に、第1撮像画像11から検出された人物と同じ人物が含まれるか否かを判定する。
<< Example 2 of the judgment method >>
The first determination unit 2040 detects a person also from the second captured image 21 in the same manner as the detection unit 2020 detects a person from the first captured image 11. Furthermore, the first determination unit 2040 determines whether the person detected from the second captured image 21 includes the same person as the person detected from the first captured image 11.

例えば第1判定部2040は、取得した1つ以上の第2撮像画像21から人物を検出し、検出された各人物について人物情報を生成する。さらに第1判定部2040は、検出部2020によって生成された人物情報と、第1判定部2040によって生成された人物情報とのマッチングを行う。第1判定部2040によって生成された人物情報の中に、検出部2020によって生成された人物情報によって特定される人物と同じ人物を特定する人物情報がある場合、第1判定部2040は、第1撮像画像11によって検出された人物が第2撮像画像21に含まれると判定する(S110:YES)。一方、第1判定部2040によって生成された人物情報の中に、検出部2020によって生成された人物情報によって特定される人物と同じ人物を特定する人物情報がない場合、第1判定部2040は、検出部2020によって検出された人物が第2撮像画像21に含まれないと判定する(S110:NO)。   For example, the first determination unit 2040 detects a person from the acquired one or more second captured images 21 and generates person information on each detected person. Furthermore, the first determination unit 2040 performs matching between the personal information generated by the detection unit 2020 and the personal information generated by the first determination unit 2040. If the personal information generated by the first determination unit 2040 includes personal information that specifies the same person as the person identified by the personal information generated by the detection unit 2020, the first determination unit 2040 performs the first determination. It is determined that the person detected by the captured image 11 is included in the second captured image 21 (S110: YES). On the other hand, if there is no person information for specifying the same person as the person specified by the person information generated by the detection unit 2020 in the person information generated by the first determination unit 2040, the first determination unit 2040: It is determined that the person detected by the detection unit 2020 is not included in the second captured image 21 (S110: NO).

<第3撮像画像31の取得:S114>
第2判定部2060は第3撮像画像31を取得する(S114)。第2判定部2060が第3撮像画像31を取得する方法には、検出部2020が第1撮像画像11を取得する方法と同様の方法を採用できる。
Acquisition of Third Captured Image 31: S114
The second determination unit 2060 acquires the third captured image 31 (S114). As a method for the second determination unit 2060 to acquire the third captured image 31, a method similar to the method for the detection unit 2020 to acquire the first captured image 11 can be adopted.

第2判定部2060が第3撮像画像31を取得するタイミングは様々である。例えば第2判定部2060は、検出部2020が第1撮像画像11を取得するタイミングと同様のタイミングで第3撮像画像31を取得する。その他にも例えば、第2判定部2060は、第1撮像画像11から検出された人物が第2撮像画像21に含まれると判定され(S110:YES)、なおかつその人物の不審度が高い(S112:YES)と判定されたことに応じて、第3撮像画像31を取得してもよい(図5参照)。   There are various timings at which the second determination unit 2060 acquires the third captured image 31. For example, the second determination unit 2060 acquires the third captured image 31 at the same timing as the detection unit 2020 acquires the first captured image 11. In addition, for example, the second determination unit 2060 determines that the person detected from the first captured image 11 is included in the second captured image 21 (S110: YES), and the suspiciousness degree of the person is high (S112) The third captured image 31 may be acquired in response to the determination of “YES” (see FIG. 5).

なお第2判定部2060は、第3カメラ30によって生成された第3撮像画像31の全てを取得してもよいし、一部のみを取得してもよい。後者の場合、例えば第2判定部2060は、第3撮像画像31に含まれるか否かの判定対象である人物が含まれる第2撮像画像21の生成時点と、その人物が含まれる第1撮像画像11の生成時点との間の期間に生成された第3撮像画像31のみを取得する。これは、或る人物が会計エリア70(第3カメラ30の撮像範囲)で撮像されるのは、その人物が陳列場所60で撮像される時点(商品を陳列場所60から取得する時点)と、その人物が出口50で撮像される時点(出口50から出ようとする時点)との間であると言えるためである。このように一部の第3撮像画像31のみを取得するようにすることで、第3撮像画像31の取得に要する情報処理装置2000の処理負荷や、第3撮像画像31の取得に利用されるネットワークの使用帯域などを削減することができる。   The second determination unit 2060 may acquire all of the third captured image 31 generated by the third camera 30 or may acquire only a part. In the latter case, for example, the second determination unit 2060 generates the second captured image 21 including the person who is the determination target of whether or not to be included in the third captured image 31 and the first imaging including the person Only the third captured image 31 generated during the period between generation time of the image 11 is acquired. This is because a person is imaged in the accounting area 70 (the imaging range of the third camera 30) when the person is imaged in the display place 60 (when goods are acquired from the display place 60), This is because it can be said that it is between the time when the person is imaged at the exit 50 (the time when the user is going to exit the exit 50). As described above, by acquiring only a part of the third captured image 31, the processing load of the information processing apparatus 2000 required for acquiring the third captured image 31 or acquisition of the third captured image 31 is performed. It is possible to reduce the bandwidth used by the network.

<第2判定部2060による判定:S116>
第2判定部2060は、(1)第1撮像画像11及び第2撮像画像21の双方に含まれている、及び(2)不審度が高いという2つの条件を満たす人物が、第3撮像画像に含まれているか否かを判定する(S116)。第1撮像画像11及び第2撮像画像21の双方に含まれている人物は、検出部2020から検出された人物で、なおかつ第1判定部2040によって第2撮像画像21に含まれていると判定された人物である。
<Determination by Second Determination Unit 2060: S116>
The second determination unit 2060 is a third captured image in which a person satisfying two conditions (1) included in both the first captured image 11 and the second captured image 21 and (2) the suspiciousness degree is high. It is determined whether or not it is included in (S116). It is determined that the person included in both the first captured image 11 and the second captured image 21 is the person detected by the detection unit 2020 and that the first determination unit 2040 includes it in the second captured image 21. The person who

第2判定部2060は、検出部2020から検出された人物で、なおかつ第1判定部2040によって第2撮像画像21に含まれていると判定された人物について、その人物の不審度が高いか否かを判定する(S112)。この判定方法の詳細については後述する。   The second determination unit 2060 is a person who is detected by the detection unit 2020 and is determined to be included in the second captured image 21 by the first determination unit 2040. It is determined (S112). Details of this determination method will be described later.

不審度が高いと判定された場合(S112:YES)、第2判定部2060は、この人物が第3撮像画像31に含まれているか否かを判定する(S116)。一方、不審度が高くないと判定された場合(S112:NO)、第2判定部2060は、この人物が第3撮像画像31に含まれているか否かを判定しなくてよい。   If it is determined that the degree of suspiciousness is high (S112: YES), the second determination unit 2060 determines whether this person is included in the third captured image 31 (S116). On the other hand, if it is determined that the degree of suspiciousness is not high (S112: NO), the second determination unit 2060 may not determine whether this person is included in the third captured image 31.

判定に利用される第3撮像画像31は、対象の人物が検出された第1撮像画像11の生成時点よりも前の時点であり、なおかつ対象の人物が検出された第2撮像画像21の生成時点よりも後の時点において生成されたものである。   The third captured image 31 used for the determination is a time point before the generation time of the first captured image 11 at which the target person is detected, and the generation of the second captured image 21 at which the target person is detected It was generated at a point later than the point in time.

なお、この人物が第3撮像画像31に含まれるか否かを判定する方法は、検出部2020によって検出された人物が第2撮像画像21に含まれるか否かを判定する方法と同様である(例えば前述の方法1や方法2)。判定に利用される人物情報は、第1判定部2040から取得されてもよいし、第2判定部2060によってアクセス可能な記憶装置から取得されてもよい。後者の場合、第1判定部2040は、第2撮像画像21に含まれると判定された人物の人物情報を、第2判定部2060によってアクセスされる記憶装置に記憶しておく。   The method of determining whether the person is included in the third captured image 31 is the same as the method of determining whether the person detected by the detection unit 2020 is included in the second captured image 21. (For example, Method 1 and Method 2 described above). The personal information used for the determination may be acquired from the first determination unit 2040 or may be acquired from the accessible storage device by the second determination unit 2060. In the latter case, the first determination unit 2040 stores personal information of a person determined to be included in the second captured image 21 in the storage device accessed by the second determination unit 2060.

<不審度の高さの判定:S112>
前述したように、第2判定部2060は、検出部2020から検出された人物で、なおかつ第1判定部2040によって第2撮像画像21に含まれていると判定された人物について、その人物の不審度が高いか否かを判定する(S112)。例えば第2判定部2060は、人物の不審度を数値で算出する。そして第2判定部2060は、算出した不審度が所定値以上である場合に、その人物の不審度が高いと判定する。この所定値は、第2判定部2060に予め設定されていてもよいし、第2判定部2060からアクセス可能な記憶装置に記憶されていてもよい。
<Determination of height of suspiciousness: S112>
As described above, the second determination unit 2060 is a person who is detected by the detection unit 2020 and who is determined by the first determination unit 2040 to be included in the second captured image 21. It is determined whether the degree is high (S112). For example, the second determination unit 2060 calculates the degree of suspiciousness of a person as a numerical value. Then, when the calculated suspiciousness degree is equal to or more than a predetermined value, the second determination unit 2060 determines that the suspiciousness degree of the person is high. The predetermined value may be set in advance in the second determination unit 2060, or may be stored in a storage device accessible from the second determination unit 2060.

以下、人物の不審度の算出方法について例示する。   Hereinafter, a method of calculating the degree of suspiciousness of a person will be exemplified.

<<算出方法の例1>>
例えば第2判定部2060は、対象の人物(第1撮像画像11から検出された人物)が第2撮像画像21に含まれる期間の前後における商品の減少量を、その人物の不審度として算出する。つまり、その人物が陳列場所60の前に現れる前後で商品が多く減少しているほど、その人物の不審度が高くなる。
<< Example 1 of calculation method >>
For example, the second determination unit 2060 calculates, as the degree of suspiciousness of the person, the reduction amount of the product before and after the period in which the target person (person detected from the first pickup image 11) is included in the second pickup image 21. . That is, as the number of products decreases before and after the person appears in front of the display place 60, the degree of suspiciousness of the person increases.

例えば第2判定部2060は、対象の人物が第2カメラ20の撮像範囲に含まれる前に生成された第2撮像画像21に含まれる商品の量と、その人物が第2カメラ20の撮像範囲に含まれなくなった後に生成された第2撮像画像21に含まれる商品の量との差分を算出し、算出した差分をその人物の不審度とする。2つの画像に含まれる物の量の差異を算出する技術には、既存の技術を利用することができる。   For example, the second determination unit 2060 determines the amount of products included in the second captured image 21 generated before the target person is included in the imaging range of the second camera 20, and the imaging range of the person is the second camera 20. The difference with the amount of goods contained in the 2nd image pick-up picture 21 generated after not being included in is calculated, and it is considered that the calculated difference is the degree of suspiciousness of the person. The existing technique can be used for the technique of calculating the difference of the quantity of the thing contained in two images.

図7は、商品の減少量を算出する方法を例示する図である。対象の人物は、時点t1において生成された第2撮像画像21−1と、時点t2において生成された第2撮像画像21−2までの各第2撮像画像21に含まれている。そこで第2判定部2060は、時点t1以前に生成された第2撮像画像21(例えば第2撮像画像21−1の1つ前に生成された第2撮像画像21)と、時点t2以降に生成された第2撮像画像21(例えば第2撮像画像21−2の1つ後に生成された第2撮像画像21)とを比較することで、商品の減少量を算出する。   FIG. 7 is a diagram illustrating a method of calculating the reduction amount of the product. The target person is included in each second captured image 21 up to the second captured image 21-1 generated at time t1 and the second captured image 21-2 generated at time t2. Therefore, the second determination unit 2060 generates the second captured image 21 generated before time t1 (for example, the second captured image 21 generated one before the second captured image 21-1) and the time t2 or later The reduction amount of the product is calculated by comparing the acquired second captured image 21 (for example, the second captured image 21 generated one after the second captured image 21-2).

<<算出方法の例2>>
例えば第2判定部2060は、陳列場所60における対象の人物の滞留時間を、その人物の不審度として算出する。この場合、陳列場所60における人物の滞留時間が長いほど、その人物の不審度が高くなる。
<< Example 2 of calculation method >>
For example, the second determination unit 2060 calculates the staying time of the target person in the display place 60 as the suspiciousness degree of the person. In this case, as the residence time of the person in the display place 60 is longer, the suspiciousness degree of the person becomes higher.

陳列場所60における人物の滞留時間は、例えば、第2撮像画像21を利用して算出することができる。具体的には、或る人物の陳列場所60における滞留時間を算出するために、第2判定部2060は、その陳列場所60を撮像する第2カメラ20によって生成された第2撮像画像21の中から、その人物が含まれる第2撮像画像21を特定する。そして、第2判定部2060は、特定された第2撮像画像21のうち、生成時点が最も遅い第2撮像画像21の生成時点と、生成時点が最も早い第2撮像画像21の生成時点との差異を算出し、算出した値をその人物の陳列場所60における滞留時間とする。例えば図7において、対象の人物の滞留時間はt2−t1となる。   The residence time of the person in the display place 60 can be calculated, for example, using the second captured image 21. Specifically, in order to calculate the residence time of a certain person in the display place 60, the second determination unit 2060 generates the second captured image 21 generated by the second camera 20 that captures the display place 60. From this, the second captured image 21 including the person is identified. The second determination unit 2060 then generates, among the identified second captured images 21, a generation time point of the second captured image 21 that is the latest at the generation time point and a generation time point of the second captured image 21 that is the earliest. The difference is calculated, and the calculated value is taken as the residence time of the person at the display place 60. For example, in FIG. 7, the residence time of the target person is t2-t1.

<<算出方法の例3>>
例えば第2判定部2060は、陳列場所60において対象の人物が行った動作に基づいて、その人物の不審度を算出する。具体的には、人が行いうる様々な不審な動作に対し、その動作の不審度合いを表すスコアを予め定義しておく。そして第2判定部2060は、或る人物が行った各動作に対応するスコアを積算し、算出された積算値をその人物の不審度とする。
<< Example 3 of calculation method >>
For example, the second determination unit 2060 calculates the degree of suspiciousness of the person based on the operation performed by the target person at the display place 60. Specifically, for various suspicious operations that can be performed by a person, a score representing the suspiciousness degree of the operation is defined in advance. Then, the second determination unit 2060 integrates the score corresponding to each operation performed by a certain person, and sets the calculated integration value as the degree of suspiciousness of the person.

図8は、人物の動作に対して割り当てられたスコアをテーブル形式で例示する図である。図8のテーブルを動作スコアテーブル600と呼ぶ。動作602は、動作の内容を示す。スコア604は、動作602で示される動作のスコアを示す。   FIG. 8 is a diagram illustrating, in a table form, the score assigned to the motion of a person. The table of FIG. 8 is called an action score table 600. An operation 602 shows the contents of the operation. The score 604 indicates the score of the action indicated by the action 602.

陳列場所60において人物が行った各動作は、その陳列場所60を撮像する第2カメラ20によって生成された第2撮像画像21を画像解析することで特定できる。画像解析によって人の動作を特定する技術には、既存の技術を利用することができる。   Each operation performed by a person in the display place 60 can be specified by analyzing the second captured image 21 generated by the second camera 20 that captures the display place 60. Existing technology can be used for technology which specifies a person's action by image analysis.

<<算出方法の例4>>
例えば第2判定部2060は、店舗における対象の人物の移動の軌跡(動線)に基づいて、その人物の不審度を算出する。具体的には、動線の様々な特徴に対し、その特徴の不審度合いを表すスコアを予め定義しておく。そして第2判定部2060は、或る人物の店舗における動線の各特徴に対応するスコアを積算し、算出された積算値をその人物の不審度とする。
<< Example 4 of calculation method >>
For example, the second determination unit 2060 calculates the degree of suspiciousness of the person based on the trajectory (flow line) of the movement of the target person in the store. Specifically, for various features of the flow line, a score representing the suspiciousness degree of the feature is defined in advance. Then, the second determination unit 2060 integrates the score corresponding to each feature of the flow line in the store of a certain person, and sets the calculated integration value as the degree of suspiciousness of the person.

不審と考えられる動線の特徴には、様々なものがある。例えば不審と考えられる動線の特徴には、(1)同じ陳列場所60を何度も(所定回数以上)通る、(2)同じ陳列場所付近に長い時間(所定時間以上)滞留する、(3)特定のエリアを何度も(所定回数以上)通る、(4)事前に想定されている動線との一致度合いが低い、などがある。上記特定のエリアは、商品の盗難などが起こりやすいと考えられる場所である。商品の盗難などが起こりやすい場所は、例えば監視カメラの死角となる場所である。監視カメラの死角となる場所では、「未会計の商品を鞄に入れる」といった行動をとりやすいため、商品の盗難などが起こりやすいと言える。なお、上述の所定回数、所定時間、特定のエリア、及び事前に想定されている動線などの情報は、予め第2判定部2060に設定されていてもよいし、第2判定部2060からアクセス可能な記憶装置に記憶されていてもよい。   There are various characteristics of the flow line considered to be suspicious. For example, the characteristics of the flow line considered to be suspicious include (1) passing the same display place 60 many times (more than a predetermined number of times), (2) staying for a long time (more than a predetermined time) near the same display place And (4) the degree of coincidence with the flow line assumed in advance is low, and the like. The above-mentioned specific area is a place where it is considered that product theft etc. is likely to occur. A place where the theft of a product or the like is likely to occur is, for example, a place which is a blind spot of a surveillance camera. It is easy to take action such as "put unsettled goods into a bag" in a place where the surveillance camera is blind, so it can be said that the theft of the goods is likely to occur. The information such as the above-mentioned predetermined number of times, predetermined time, specific area, and flow line assumed in advance may be set in advance in the second determination unit 2060 or accessed from the second determination unit 2060 It may be stored in a possible storage device.

図9は、動線の特徴に対して割り当てられたスコアをテーブル形式で例示する図である。図9のテーブルを動線スコアテーブル700と呼ぶ。特徴702は、動線の特徴を示す。スコア704は、特徴702で示される動線の特徴のスコアを示す。   FIG. 9 is a diagram illustrating, in the form of a table, scores assigned to flow line features. The table of FIG. 9 is called a flow line score table 700. Feature 702 shows the feature of the flow line. The score 704 indicates the score of the flow line feature indicated by the feature 702.

店舗における人物の動線を把握する技術には、既存の技術を利用することができる。例えば人物の動線は、店舗の様々な位置に設置されたカメラによって生成される撮像画像を解析してその人物の位置をトラッキングすることにより、把握することができる。   The existing technology can be used for the technology of grasping the flow line of the person in the store. For example, the flow line of a person can be grasped by analyzing captured images generated by cameras installed at various positions in a store and tracking the position of the person.

<警告処理の実行:S118>
条件(1)及び(2)を満たす人物がいずれの第3撮像画像31にも含まれない場合(S116:NO)、警告部2080は警告処理を実行する(S118)。ここで、警告部2080が行う警告処理としては、様々なものを採用できる。例えば警告部2080は、情報処理装置2000に接続されている出力装置から、警告メッセージを出力する。出力装置は、例えばディスプレイ装置やスピーカなどである。
<Execution of warning processing: S118>
If a person who satisfies the conditions (1) and (2) is not included in any of the third captured images 31 (S116: NO), the warning unit 2080 executes a warning process (S118). Here, various warning processes can be adopted as the warning process performed by the warning unit 2080. For example, the warning unit 2080 outputs a warning message from an output device connected to the information processing device 2000. The output device is, for example, a display device or a speaker.

図10は、ディスプレイ装置に表示される警告メッセージを例示する図である。警告画面80は、警告メッセージ82及び撮像画像84を含む。警告メッセージ82は、盗難の可能性があることを表すメッセージである。撮像画像84は、第2判定部2060によって第3撮像画像31に含まれないと判定された人物(盗難などの不正を行った可能性がある人物)が検出された第1撮像画像11である。   FIG. 10 is a diagram illustrating a warning message displayed on the display device. The warning screen 80 includes a warning message 82 and a captured image 84. The warning message 82 is a message indicating that there is a possibility of theft. The captured image 84 is the first captured image 11 in which a person who is determined not to be included in the third captured image 31 by the second determination unit 2060 (a person who may have performed fraud such as theft) is detected. .

警告画面80を見ることで、店員や監視員等は、盗難などの不正が行われた可能性があること、及びその不正を行った人物の情報(外見など)を容易に把握することができる。   By looking at the warning screen 80, the store clerk, the guards, etc. can easily grasp that there is a possibility that the fraud or the like has been made theft, and information (such as appearance) of the person who performed the fraud or the like. .

上記警告メッセージは、警備員室やレジ端末に設置されている据え置き型の出力装置に出力されてもよいし、携帯端末などの可搬媒体に出力されてもよい。例えばこの携帯端末は、店舗の店員や警備員などが所持する携帯端末である。警告部2080から出力された警告メッセージを取得した携帯端末は、その携帯端末のディスプレイ装置やスピーカから警告メッセージを出力する。例えば携帯端末のディスプレイ装置には、図10と同様の警告画面が出力される。   The warning message may be output to a stationary output device installed in a security guard room or a cash register terminal, or may be output to a portable medium such as a portable terminal. For example, the portable terminal is a portable terminal owned by a store clerk or a security guard of a store. The portable terminal having acquired the warning message output from the warning unit 2080 outputs the warning message from the display device or the speaker of the portable terminal. For example, a warning screen similar to that of FIG. 10 is output to the display device of the portable terminal.

その他にも例えば、警告部2080は、店舗の出口50が有するゲート(自動ドアなど)を通行不可にするという警告処理を実行してもよい。例えば警告部2080は、ゲートを閉じ、閉じたゲートをロックする。こうすることで、第2判定部2060によって第3撮像画像31に含まれないと判定された人物(盗難などの不正を行った可能性がある人物)が店舗から出られないようにする。   In addition, for example, the warning unit 2080 may execute a warning process of disabling passage of the gate (such as an automatic door) of the outlet 50 of the store. For example, the warning unit 2080 closes the gate and locks the closed gate. By doing this, a person who is determined not to be included in the third captured image 31 by the second determination unit 2060 (a person who may have done fraud such as theft) is prevented from leaving the store.

なお、ゲートを通行不可にするという警告処理を採用する場合、第3カメラ30は、出口50のゲートを通過している人物ではなく、出口50のゲートに向かっている人物を撮像するように設置されることが好適である。こうすることで、より確実に、上記人物が店舗から出る前に出口50のゲートを通行不可にできるようになる。   In the case of adopting a warning process to make the gate impassable, the third camera 30 is installed so as to image a person heading for the exit 50 gate, not a person passing through the exit 50 gate. It is preferred that By doing this, the gate of the exit 50 can be made impassable before the person leaves the store more reliably.

[実施形態2]
図11は、実施形態2の情報処理装置2000を例示するブロック図である。下記で説明する事項を除き、実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様の機能を有する。
Second Embodiment
FIG. 11 is a block diagram illustrating the information processing apparatus 2000 of the second embodiment. The information processing apparatus 2000 of the second embodiment has the same function as the information processing apparatus 2000 of the first embodiment except for the matters described below.

実施形態1の図5で例示したように、検出部2020から人物が検出されると(S106:YES)、その人物に関する警告処理を実行するか否かが判定され(S108からS116)、警告処理が実行される(S118)。検出部2020から検出された人物は出口50から店舗の外へ出るため、その人物に関する一連の処理が完了した後は、その人物しか含まれない撮像画像を処理する必要はなくなると言える。   As exemplified in FIG. 5 of the first embodiment, when a person is detected from the detection unit 2020 (S106: YES), it is determined whether or not to execute a warning process regarding the person (S108 to S116), and the warning process Is executed (S118). Since the person detected by the detection unit 2020 goes out of the store from the exit 50, it can be said that it is not necessary to process a captured image including only the person after the series of processing for the person is completed.

そこで実施形態2の情報処理装置2000は除外部2100を有する。除外部2100は、第1撮像画像11から検出された人物に関する一連の処理が完了した後、その人物のみが含まれる第1撮像画像11、第2撮像画像21、及び第3撮像画像31を、情報処理装置2000による処理の対象から除外する。「第1撮像画像11から検出された人物に関する一連の処理が完了した後」とは、(1)第1判定部2040により、その人物が第2撮像画像21に含まれないと判定された後(S110:NO)、(2)第2判定部2060により、その人物の不審度は高くないと判定された後(S112:NO)、又は(3)第2判定部2060によってその人物が第3撮像画像31に含まれるか否かの判定が行われた後(S116)である。   Therefore, the information processing apparatus 2000 of the second embodiment has an exclusion unit 2100. After completing the series of processing relating to the person detected from the first captured image 11, the excluding unit 2100 performs the first captured image 11, the second captured image 21, and the third captured image 31 including only the person, It excludes from the object of the process by the information processing apparatus 2000. “After completion of a series of processing related to a person detected from the first captured image 11” (1) after the first determination unit 2040 determines that the person is not included in the second captured image 21 (S110: NO), (2) After the second determination unit 2060 determines that the suspiciousness degree of the person is not high (S112: NO), or (3) the second determination unit 2060 determines that the person is the third It is after determination of whether it is contained in the captured image 31 (S116).

このように情報処理装置2000による処理が完了した撮像画像を情報処理装置2000の処理対象から除外することで、情報処理装置2000の処理負荷を削減することができる。   The processing load on the information processing apparatus 2000 can be reduced by excluding the captured image on which the processing by the information processing apparatus 2000 is completed from the processing target of the information processing apparatus 2000 as described above.

ここで、各撮像画像を情報処理装置2000の処理対象から除外する方法は様々である。例えば除外部2100は、処理対象から除外する各撮像画像を記憶装置から削除する。その他にも例えば、情報処理装置2000の処理対象に含まれるか否かを表すフラグを撮像画像のメタデータに設けておき、このフラグを利用してもよい。このフラグの初期値は、「情報処理装置2000の処理対象に含まれる」に設定しておく。そして除外部2100は、撮像画像のフラグの値を「情報処理装置2000の処理対象に含めない」に変更することにより、その撮像画像を情報処理装置2000の処理対象から除外する。この場合、実施形態2の検出部2020、第1判定部2040、及び第2判定部2060は、フラグの値が「情報処理装置2000の処理対象に含める」となっている撮像画像のみを対象として各処理を行う。   Here, there are various methods for excluding each captured image from the processing target of the information processing apparatus 2000. For example, the excluding unit 2100 deletes each captured image excluded from the processing target from the storage device. In addition, for example, a flag indicating whether the information is included in the processing target of the information processing apparatus 2000 may be provided in the metadata of the captured image, and this flag may be used. The initial value of this flag is set to "included in the processing target of the information processing apparatus 2000". Then, the excluding unit 2100 excludes the captured image from the processing target of the information processing device 2000 by changing the value of the flag of the captured image to “do not be included in the processing target of the information processing device 2000”. In this case, the detection unit 2020, the first determination unit 2040, and the second determination unit 2060 according to the second embodiment target only the captured image for which the flag value is “included in the processing target of the information processing device 2000”. Perform each process.

<ハードウエア構成の例>
実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図4によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
<Example of hardware configuration>
The hardware configuration of a computer that implements the information processing apparatus 2000 of the second embodiment is represented, for example, by FIG. 4 as in the first embodiment. However, in the storage device 1080 of the computer 1000 for realizing the information processing apparatus 2000 of the present embodiment, a program module for realizing the function of the information processing apparatus 2000 of the present embodiment is further stored.

以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、又は上記以外の様々な構成を採用することもできる。   As mentioned above, although the embodiment of the present invention was described with reference to drawings, these are the illustrations of the present invention and the combination of each above-mentioned embodiment or various composition except the above can also be adopted.

上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1. 店舗の出口を撮像可能に設置された第1カメラによって生成される第1撮像画像から人物を検出する検出手段と、
前記第1撮像画像から検出された人物が、前記店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する第1判定手段と、
前記第2撮像画像に含まれなおかつ不審度が高い前記人物が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれるか否かを判定する第2判定手段と、
前記第2判定手段によって前記人物が前記第3撮像画像に含まれないと判定された場合、警告処理を行う警告手段と、
を有する情報処理装置。
2. 前記第2判定手段は、前記第2撮像画像に前記人物が含まれる期間の前後における前記陳列場所の商品の量の変化、前記陳列場所における前記人物の滞留時間、前記人物の動作の不審さ、又は前記人物の移動の軌跡の不審さを表す値を算出し、前記算出した値が所定値以上である場合に、前記人物の不審度が高いと判定する、1.に記載の情報処理装置。
3. 前記第2判定手段が利用する第2撮像画像は、前記第2カメラによって前記人物が撮像された時点と、前記第1カメラによって前記人物が撮像された時点との間の期間の映像である、1.又は2.に記載の情報処理装置。
4. 前記検出手段、前記第1判定手段、及び前記第2判定手段はそれぞれ、人物が背後から撮像されている撮像画像を利用する、1.乃至3.いずれか一つに記載の情報処理装置。
5. 前記第1判定手段は、前記第1撮像画像から検出された人物の服装、体型、髪の色、肌の色、及び所持品のいずれか1つ以上に基づいて、その人物が前記第2撮像画像に含まれるか否かを判定し、
前記第2判定手段は、前記第1撮像画像から検出された人物の服装、体型、髪の色、肌の色、及び所持品のいずれか1つ以上に基づいて、その人物が前記第3撮像画像に含まれるか否かを判定する、4.に記載の情報処理装置。
6. 前記第1判定手段は、前記第1撮像画像から検出された人物が前記第2撮像画像に含まれるか否かの判定に、その人物の目、鼻、及び口を用いず、
前記第2判定手段は、前記第1撮像画像から検出された人物が前記第3撮像画像に含まれるか否かの判定に、その人物の目、鼻、及び口を用いない、4.又は5.に記載の情報処理装置。
7. 前記検出手段が利用する前記第1撮像画像、前記第1判定手段が利用する前記第2撮像画像、及び前記第2判定手段が利用する前記第3撮像画像には、人物の目、鼻、及び口のいずれもが含まれない、6.に記載の情報処理装置。
8. 第1判定手段により前記人物が第2撮像画像に含まれないと判定された後か、前記第2判定手段により前記人物の不審度は高くないと判定された後か、又は前記第2判定手段により前記人物が前記第3撮像画像に含まれるか否かが判定された後に、前記検出手段、前記第1判定手段、及び前記第2判定手段それぞれが処理する撮像画像から、前記人物以外の人物が含まれない撮像画像を除外する除外手段を有する、1.乃至7.いずれか一つに記載の情報処理装置。
9. 前記出口にゲートが設けられており、
前記警告手段が行う警告処理は、前記ゲートを通行不可の状態に設定する処理である、1.乃至8.いずれか一つに記載の情報処理装置。
Some or all of the above embodiments may be described as in the following appendices, but is not limited to the following.
1. A detection unit that detects a person from a first captured image generated by a first camera installed so as to be able to capture an exit of a store;
A first determination unit that determines whether a person detected from the first captured image is included in a second captured image generated by a second camera installed so as to be able to capture an image of a display place of a product of the store When,
It is determined whether or not the person included in the second captured image and having a high degree of suspiciousness is included in a third captured image generated by a third camera installed so as to be able to capture the accounting area of the store 2 determination means,
Warning means for performing a warning process when it is determined by the second determination means that the person is not included in the third captured image;
An information processing apparatus having
2. The second determination means changes a quantity of goods in the display place before and after a period in which the second captured image includes the person, residence time of the person in the display place, suspiciousness of the operation of the person, Alternatively, a value representing the suspiciousness of the movement trajectory of the person is calculated, and when the calculated value is equal to or more than a predetermined value, it is determined that the suspiciousness degree of the person is high, The information processing apparatus according to claim 1.
3. The second captured image used by the second determination unit is an image of a period between the time when the person is imaged by the second camera and the time when the person is imaged by the first camera. 1. Or 2. The information processing apparatus according to claim 1.
4. Each of the detection means, the first determination means, and the second determination means utilizes a captured image in which a person is captured from behind; To 3. The information processing apparatus according to any one.
5. The first determination means is configured to perform the second imaging of the person based on at least one of clothes, body shape, hair color, skin color and personal belongings detected from the first captured image. Determine if it is included in the image,
The second determination unit is configured to perform the third imaging of the person based on at least one of clothes, body shape, hair color, skin color, and personal belongings detected from the first captured image. Determine whether or not included in the image; The information processing apparatus according to claim 1.
6. The first determination means does not use the eyes, nose, and mouth of the person to determine whether the person detected from the first captured image is included in the second captured image.
4. The second determination means does not use the eyes, nose and mouth of the person to determine whether or not the person detected from the first captured image is included in the third captured image. Or 5. The information processing apparatus according to claim 1.
7. The first captured image used by the detection unit, the second captured image used by the first determination unit, and the third captured image used by the second determination unit include a person's eyes, a nose, and the like. 5. none of the mouth included The information processing apparatus according to claim 1.
8. Whether the first determination means determines that the person is not included in the second captured image, or the second determination means determines that the suspiciousness degree of the person is not high, or the second determination means After it is determined whether or not the person is included in the third captured image, a person other than the person is taken from the captured image processed by each of the detection means, the first determination means, and the second determination means Having exclusion means for excluding captured images not including To 7. The information processing apparatus according to any one.
9. A gate is provided at the outlet,
The warning process performed by the warning means is a process of setting the gate in an impassable state. To 8. The information processing apparatus according to any one.

10. コンピュータによって実行される制御方法であって、
店舗の出口を撮像可能に設置された第1カメラによって生成される第1撮像画像から人物を検出する検出ステップと、
前記第1撮像画像から検出された人物が、前記店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する第1判定ステップと、
前記第2撮像画像に含まれなおかつ不審度が高い前記人物が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれるか否かを判定する第2判定ステップと、
前記第2判定ステップによって前記人物が前記第3撮像画像に含まれないと判定された場合、警告処理を行う警告ステップと、
を有する制御方法。
11. 前記第2判定ステップにおいて、前記第2撮像画像に前記人物が含まれる期間の前後における前記陳列場所の商品の量の変化、前記陳列場所における前記人物の滞留時間、前記人物の動作の不審さ、又は前記人物の移動の軌跡の不審さを表す値を算出し、前記算出した値が所定値以上である場合に、前記人物の不審度が高いと判定する、10.に記載の制御方法。
12. 前記第2判定ステップにおいて利用する第2撮像画像は、前記第2カメラによって前記人物が撮像された時点と、前記第1カメラによって前記人物が撮像された時点との間の期間の映像である、10.乃至11.いずれか一つに記載の制御方法。
13. 前記検出ステップ、前記第1判定ステップ、及び前記第2判定ステップそれぞれにおいて、人物が背後から撮像されている撮像画像を利用する、10.乃至12.いずれか一つに記載の制御方法。
14. 前記第1判定ステップにおいて、前記第1撮像画像から検出された人物の服装、体型、髪の色、肌の色、及び所持品のいずれか1つ以上に基づいて、その人物が前記第2撮像画像に含まれるか否かを判定し、
前記第2判定ステップにおいて、前記第1撮像画像から検出された人物の服装、体型、髪の色、肌の色、及び所持品のいずれか1つ以上に基づいて、その人物が前記第3撮像画像に含まれるか否かを判定する、13.に記載の制御方法。
15. 前記第1判定ステップにおいて、前記第1撮像画像から検出された人物が前記第2撮像画像に含まれるか否かの判定に、その人物の目、鼻、及び口を用いず、
前記第2判定ステップにおいて、前記第1撮像画像から検出された人物が前記第3撮像画像に含まれるか否かの判定に、その人物の目、鼻、及び口を用いない、13.又は14.に記載の制御方法。
16. 前記検出ステップにおいて利用する前記第1撮像画像、前記第1判定ステップにおいて利用する前記第2撮像画像、及び前記第2判定ステップにおいて利用する前記第3撮像画像には、人物の目、鼻、及び口のいずれもが含まれない、15.に記載の制御方法。
17. 第1判定ステップにおいて前記人物が第2撮像画像に含まれないと判定された後か、前記第2判定ステップにおいて前記人物の不審度は高くないと判定された後か、又は前記第2判定ステップにおいて前記人物が前記第3撮像画像に含まれるか否かが判定された後に、前記検出ステップ、前記第1判定ステップ、及び前記第2判定ステップそれぞれにおいて処理する撮像画像から、前記人物以外の人物が含まれない撮像画像を除外する除外ステップを有する、10.乃至16.いずれか一つに記載の制御方法。
18. 前記出口にゲートが設けられており、
前記警告ステップにおいて行う警告処理は、前記ゲートを通行不可の状態に設定する処理である、10.乃至17.いずれか一つに記載の制御方法。
10. A control method implemented by a computer,
A detection step of detecting a person from a first captured image generated by a first camera installed so as to be able to capture an exit of the store;
A first determination step of determining whether a person detected from the first captured image is included in a second captured image generated by a second camera installed so as to be able to capture an image of a display place of a product of the store When,
It is determined whether or not the person included in the second captured image and having a high degree of suspiciousness is included in a third captured image generated by a third camera installed so as to be able to capture the accounting area of the store 2 determination steps,
A warning step of performing a warning process if it is determined in the second determination step that the person is not included in the third captured image;
Controlling method.
11. In the second determination step, change in the amount of goods in the display place before and after a period in which the second captured image includes the person, residence time of the person in the display place, suspiciousness of operation of the person, Or 10. calculating a value representing the suspiciousness of the movement trajectory of the person, and determining that the suspiciousness degree of the person is high if the calculated value is equal to or greater than a predetermined value, Control method described in.
12. The second captured image used in the second determination step is an image of a period between the time when the person is imaged by the second camera and the time when the person is imaged by the first camera. 10. To 11. The control method according to any one.
13. In each of the detection step, the first determination step, and the second determination step, using a captured image in which a person is captured from behind, To 12. The control method according to any one.
14. In the first determination step, the person performs the second imaging based on any one or more of the clothes, the body shape, the hair color, the skin color, and the belongings detected from the first captured image in the first determination step Determine if it is included in the image,
In the second determination step, the person performs the third imaging based on at least one of clothes, body shape, hair color, skin color, and personal belongings detected from the first captured image in the second determination step. Determine whether or not included in the image 13. Control method described in.
15. In the first determination step, the determination as to whether or not the person detected from the first captured image is included in the second captured image does not use the eyes, nose and mouth of the person,
13. In the determination of whether or not the person detected from the first captured image is included in the third captured image in the second determination step, the eyes, nose and mouth of the person are not used. Or 14. Control method described in.
16. The first captured image used in the detection step, the second captured image used in the first determination step, and the third captured image used in the second determination step include human eyes, a nose, and the like. 15. none of the mouth included Control method described in.
17. After it is determined in the first determination step that the person is not included in the second captured image, or after it is determined in the second determination step that the suspiciousness degree of the person is not high, or the second determination step After it is determined whether or not the person is included in the third captured image, the captured image to be processed in each of the detection step, the first determination step, and the second determination step is a person other than the person. Having an exclusion step of excluding captured images not including To 16. The control method according to any one.
18. A gate is provided at the outlet,
The warning process performed in the warning step is a process of setting the gate to the impassable state, 10. To 17. The control method according to any one.

19. 10.乃至18.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。 19. 10. To 18. A program that causes a computer to execute each step of the control method described in any one.

Claims (4)

出口に向かっている人物を撮像した画像である第1撮像画像から検出された人物の背面が、店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する判定手段と、
前記第2撮像画像に含まれると判定された場合において、前記人物の背面が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれない場合、警告処理を行う警告手段と、
を有する情報処理装置。
The back of the person detected from the first captured image, which is an image obtained by capturing the person heading toward the exit, is the second captured image generated by the second camera installed so as to be able to capture the display place of the merchandise of the store. Determining means for determining whether or not it is included;
If it is determined that the second captured image is included in the second captured image, the back surface of the person is not included in a third captured image generated by a third camera installed so as to be able to capture the accounting area of the store. Warning means for performing warning processing;
An information processing apparatus having
前記警告手段は、前記第2撮像画像に前記人物が含まれる期間の前後における前記陳列場所の商品の量の変化、前記陳列場所における前記人物の滞留時間、前記人物の不審な動作、又は前記人物の不審な移動の軌跡の少なくともいずれか一つに基づいて警告処理を行う、請求項1に記載の情報処理装置。The warning means changes a quantity of goods in the display place before and after a period in which the second captured image includes the person, a staying time of the person in the display place, a suspicious operation of the person, or the person The information processing apparatus according to claim 1, wherein the warning process is performed based on at least one of the suspicious movement trajectories. コンピュータによって実行される制御方法であって、
出口に向かっている人物を撮像した画像である第1撮像画像から検出された人物の背面が、店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する判定ステップと、
前記第2撮像画像に含まれると判定された場合において、前記人物の背面が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれない場合、警告処理を行う警告ステップと、
を有する制御方法。
A control method implemented by a computer,
The back of the person detected from the first captured image, which is an image obtained by capturing the person heading toward the exit, is the second captured image generated by the second camera installed so as to be able to capture the display place of the merchandise of the store. A determination step of determining whether or not it is included;
If it is determined that the second captured image is included in the second captured image, the back surface of the person is not included in a third captured image generated by a third camera installed so as to be able to capture the accounting area of the store. A warning step for performing warning processing;
Controlling method.
コンピュータに、
出口に向かっている人物を撮像した画像である第1撮像画像から検出された人物の背面が、店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する判定ステップと、
前記第2撮像画像に含まれると判定された場合において、前記人物の背面が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれない場合、警告処理を行う警告ステップと、
を実行させるプログラム。
On the computer
The back of the person detected from the first captured image, which is an image obtained by capturing the person heading toward the exit, is the second captured image generated by the second camera installed so as to be able to capture the display place of the merchandise of the store. A determination step of determining whether or not it is included;
If it is determined that the second captured image is included in the second captured image, the back surface of the person is not included in a third captured image generated by a third camera installed so as to be able to capture the accounting area of the store. A warning step for performing warning processing;
A program that runs
JP2017171525A 2017-09-06 2017-09-06 INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM Active JP6531804B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017171525A JP6531804B2 (en) 2017-09-06 2017-09-06 INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017171525A JP6531804B2 (en) 2017-09-06 2017-09-06 INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017534848A Division JP6206627B1 (en) 2016-12-05 2016-12-05 Information processing apparatus, control method, and program

Publications (2)

Publication Number Publication Date
JP2018092598A JP2018092598A (en) 2018-06-14
JP6531804B2 true JP6531804B2 (en) 2019-06-19

Family

ID=62564673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017171525A Active JP6531804B2 (en) 2017-09-06 2017-09-06 INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6531804B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9036028B2 (en) * 2005-09-02 2015-05-19 Sensormatic Electronics, LLC Object tracking and alerts
JP2016057908A (en) * 2014-09-10 2016-04-21 宮田 清蔵 Robbery prevention system and software

Also Published As

Publication number Publication date
JP2018092598A (en) 2018-06-14

Similar Documents

Publication Publication Date Title
US11157778B2 (en) Image analysis system, image analysis method, and storage medium
US9124778B1 (en) Apparatuses and methods for disparity-based tracking and analysis of objects in a region of interest
RU2753959C2 (en) Video analysis module and method for generating materials for investigating user&#39;s behavior
US20180115749A1 (en) Surveillance system and surveillance method
JP2011248836A (en) Residence detection system and program
US20180268224A1 (en) Information processing device, determination device, notification system, information transmission method, and program
JP6206627B1 (en) Information processing apparatus, control method, and program
US20200242876A1 (en) Investigation generation in an observation and surveillance system
US8874471B2 (en) Retail loss prevention using biometric data
US20190327451A1 (en) Video image analysis apparatus and video image analysis method
CN111161486A (en) Commodity anti-theft method and system based on settlement box
JP2016131288A (en) Information processing apparatus and program
JP2021093649A5 (en) Information processing system, information processing system control method and program
JP6536643B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM
US11600158B2 (en) Information processing apparatus, control method, and program
JP5758165B2 (en) Article detection device and stationary person detection device
US10783365B2 (en) Image processing device and image processing system
KR20160068281A (en) Method of object recognition
JP2021196741A (en) Image processing device, image processing method and program
JP6531804B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM
CA3068692A1 (en) Investigation generation in an observation and surveillance system
CN112419637A (en) Security image data processing method and device
JP2021012657A (en) Information processing apparatus, information processing method, and camera
US10891491B2 (en) In-store monitoring device, in-store monitoring method, and recording medium
JP5618366B2 (en) Monitoring system, monitoring device, monitoring method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190506

R150 Certificate of patent or registration of utility model

Ref document number: 6531804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150