JP2018092599A - 情報処理装置、制御方法、及びプログラム - Google Patents

情報処理装置、制御方法、及びプログラム Download PDF

Info

Publication number
JP2018092599A
JP2018092599A JP2017171526A JP2017171526A JP2018092599A JP 2018092599 A JP2018092599 A JP 2018092599A JP 2017171526 A JP2017171526 A JP 2017171526A JP 2017171526 A JP2017171526 A JP 2017171526A JP 2018092599 A JP2018092599 A JP 2018092599A
Authority
JP
Japan
Prior art keywords
person
captured image
camera
determination unit
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017171526A
Other languages
English (en)
Other versions
JP6536643B2 (ja
Inventor
哲夫 井下
Tetsuo Ishita
哲夫 井下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2017171526A priority Critical patent/JP6536643B2/ja
Publication of JP2018092599A publication Critical patent/JP2018092599A/ja
Application granted granted Critical
Publication of JP6536643B2 publication Critical patent/JP6536643B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】不正行為を監視できる技術であって、導入が容易な技術を提供する。【解決手段】第1カメラ(10)、第2カメラ(20)、及び第3カメラ(30)はそれぞれ、第1撮像画像(11)、第2撮像画像(21)、及び第3撮像画像(31)を生成する。第1撮像画像(11)には出口(50)が撮像されている。第2撮像画像(21)には陳列場所(60)が撮像されている。第3撮像画像(31)には会計エリア(70)が撮像されている。情報処理装置(2000)は、第1撮像画像(11)から人物を検出し、検出された人物が第2撮像画像(21)に含まれるか否かを判定する。情報処理装置(2000)は、第1撮像画像(11)から検出された人物が第2撮像画像(21)に含まれていると判定され、なおかつその人物の不審度が高い場合に、その人物が第3撮像画像(31)にも含まれているか否かを判定する。情報処理装置(2000)は、第3撮像画像(31)からその人物が検出されなかった場合に、警告処理を行う。【選択図】図2

Description

本発明は情報処理装置、制御方法、及びプログラムに関する。
店舗において、陳列されている商品が盗まれることがある。そこで、商品の盗難を防ぐため、警備員が店舗内を歩き回って警備を行ったり、監視カメラの映像を監視したりしている。
しかし、人手で行う監視には多くの労力を要する。また、商品が陳列されている場所全てを常に人手で監視することは難しく、監視漏れが発生する可能性がある。
そこで、情報処理技術を活用した盗難防止のためのシステムが開発されている。例えば特許文献1は、タグが取り付けられた商品を持ってゲートを通る人物の顔を、ゲート付近に設けられたカメラで撮像し、撮像された顔を監視カメラの映像から検索するシステムを開示している。
特許文献2は、万引き等の不正行為の調査対象とする商品について、不正行為が行われたか否かを判定するシステムを開示している。具体的には、特許文献2のシステムは、(1)調査対象の商品の売り場において或る人物が所定時間以上滞在し、(2)その人物がその商品を手に取った後、その商品を商品棚へ戻さず、なおかつ(3)その人物が店舗を出た場合に、その人物の購入履歴を検索する。そして、その人物がその商品を購入したことを示す購入履歴が無い場合、特許文献2のシステムは、不正行為が行われたと判定する。
特開2011−233133号公報 特開2009−284167号公報
特許文献1のシステムは、商品に付けられているタグを検出することにより、盗難の発生を検出する。そのため、このシステムを導入するためには、各商品にタグを付ける作業が必要となり、システムの導入に要する労力が大きい。
特許文献2のシステムを導入するためには、「どの商品が購入されたか」だけでなく、「どの顧客がどの商品を購入したか」を購入履歴として記録できる購入管理システムを導入する必要がある。よって、このような購入管理システムを導入していない店舗では、購入管理システムの入れ替え等が必要となる。
本発明は、上記の課題に鑑みてなされたものである。本発明の目的の一つは、不正行為を監視できる技術であって、導入が容易な技術を提供することである。
本発明の情報処理装置は、(1)出口に向かっている人物を撮像した画像である第1撮像画像から検出された人物が、店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する判定手段と、(2)前記第2撮像画像に含まれなおかつ画像解析することにより動作が特定された前記人物が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれない場合、警告処理を行う警告手段と、有する。
本発明の制御方法は、コンピュータによって実行される。当該制御方法は、(1)出口に向かっている人物を撮像した画像である第1撮像画像から検出された人物が、店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する判定ステップと、(2)前記第2撮像画像に含まれなおかつ画像解析することにより動作が特定された前記人物が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれない場合、警告処理を行う警告ステップと、を有する。
本発明のプログラムは、本発明の制御方法が有する各ステップをコンピュータに実行させる。
本発明によれば、不正行為を監視できる技術であって、導入が容易な技術が提供される。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
実施形態1の情報処理装置が利用する複数の種類のカメラの設置場所を例示する図である。 実施形態1の情報処理装置の動作を概念的に例示する図である。 実施形態1の情報処理装置の構成を例示する図である。 情報処理装置を実現するための計算機を例示する図である。 実施形態1の情報処理装置によって実行される処理の流れを例示するフローチャートである。 人物情報をテーブル形式で例示する図である。 商品の減少量を算出する方法を例示する図である。 人物の動作に対して割り当てられたスコアをテーブル形式で例示する図である。 動線の特徴に対して割り当てられたスコアをテーブル形式で例示する図である。 ディスプレイ装置に表示される警告メッセージを例示する図である。 実施形態2の情報処理装置を例示するブロック図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、特に説明する場合を除き、各ブロック図において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
[実施形態1]
<情報処理装置2000の概要>
図1は、実施形態1の情報処理装置2000が利用する複数の種類のカメラの設置場所を例示する図である。情報処理装置2000が利用される店舗には、第1カメラ10、第2カメラ20、及び第3カメラ30が設置されている。第1カメラ10は、店舗の出口(出口50)を撮像可能に設置されている。第2カメラ20は、店舗における商品の陳列場所(陳列場所60)を撮像可能に設置されている。例えば商品は、陳列場所60に設置されている商品棚に陳列される。第3カメラ30は、商品の会計が行われる場所(会計エリア70)を撮像可能に設置されている。
図2は、実施形態1の情報処理装置2000の動作を概念的に例示する図である。なお図2は、情報処理装置2000の動作の理解を容易にすることを目的とする例示のための図であり、情報処理装置2000の動作は図2によって何ら限定されない。
第1カメラ10、第2カメラ20、及び第3カメラ30はそれぞれ、第1撮像画像11、第2撮像画像21、及び第3撮像画像31を生成する。第1撮像画像11には、出口50が撮像されている。第2撮像画像21には、陳列場所60が撮像されている。第3撮像画像31には、会計エリア70が撮像されている。
情報処理装置2000は、第1撮像画像11から人物を検出する。ここで検出される人物は、出口50において第1カメラ10が撮像した人物とも言える。
次に情報処理装置2000は、第1撮像画像11から検出された人物が第2撮像画像21に含まれるか否かを判定する。言い換えれば、出口50で撮像された人物が、陳列場所60でも撮像されたか否かが判定される。
さらに情報処理装置2000は、第1撮像画像11から検出された人物が第2撮像画像21に含まれていると判定され、なおかつその人物の不審度が高い場合に、その人物が第3撮像画像31にも含まれているか否かを判定する。言い換えれば、出口50及び陳列場所60の双方において撮像され、なおかつ不審度の高い人物が、会計エリア70においても撮像されたか否かが判定される。
そして情報処理装置2000は、第3撮像画像31からその人物が検出されなかった場合に、警告処理を行う。よって、出口50及び陳列場所60の双方では撮像され、なおかつ不審度の高い人物が、会計エリア70では撮像されなかった場合に、警告処理が行われることとなる。
図2では、時点t1に撮像された第1撮像画像11−1から人物40が検出されている。そのため情報処理装置2000は、第2撮像画像21からも人物40の検出を試みる。その結果、時点t2における第2撮像画像21−1から人物40が検出されている。さらに図2の例では、人物40の不審度が高い。そこで情報処理装置2000は、第3撮像画像31からも人物40の検出を試みる。その結果、第3撮像画像31からは人物40が検出されない。よって情報処理装置2000は警告処理を行う。
ここで、人物40の不審度の高さは、第2撮像画像21を利用して算出されてもよいし、第2撮像画像21以外を利用して算出されてもよい。人物40の不審度の高さを算出する詳細な方法については後述する。
<作用・効果>
出口50で撮像された人物が陳列場所60でも撮像されている場合、その人物は、店舗の商品を取得した後、店舗から出ようとしている可能性がある。さらにその人物の不審度が高い場合、その人物は、盗難等の不正な目的で商品を取得した可能性がある。ただし、その人物が会計エリア70において商品の会計をしていれば、その人物は取得した商品を購入したと考えられる。
そこで本実施形態の情報処理装置2000は、商品を取得した後に店舗から出ようとしている可能性がある人物(第1撮像画像11及び第2撮像画像21に含まれる人物)であり、なおかつ不正を行おうとしている蓋然性が高い人物(不審度が高い人物)が、会計エリア70において撮像されたか否かを判定する。そして、情報処理装置2000は、この人物が会計エリア70において撮像されていない場合に警告処理を行う。こうすることで、商品の盗難などが行われた蓋然性が高い場合に警告処理が行われるようになるため、店員等は、商品の盗難などの事態を早期に把握し、迅速な対処を行うことが可能となる。
また、本実施形態の情報処理装置2000を導入するにあたり、監視対象の商品にタグを付けたり、どの顧客がどの商品を購入したか」を購入履歴として記録する管理システムを導入したりする必要はない。よって、本実施形態の情報処理装置2000は容易に導入することができる。
以下、本実施形態についてさらに詳細に説明する。
<情報処理装置2000の機能構成の例>
図3は、実施形態1の情報処理装置2000の構成を例示する図である。情報処理装置2000は、検出部2020、第1判定部2040、第2判定部2060、及び警告部2080を有する。検出部2020は、第1撮像画像11から人物を検出する。第1判定部2040は、第1撮像画像11から検出された人物が第2撮像画像21に含まれるか否かを判定する。第2判定部2060は、第1撮像画像11から検出された人物が第2撮像画像21に含まれ、なおかつその人物の不審度が高い場合に、第3撮像画像31にその人物が含まれるか否かを判定する。警告部2080は、その人物が第3撮像画像31に含まれない場合に警告処理を行う。
<情報処理装置2000のハードウエア構成>
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図4は、情報処理装置2000を実現するための計算機1000を例示する図である。計算機1000は任意の計算機である。例えば計算機1000は、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、情報処理装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU(Central Processing Unit)や GPU(Graphics Processing Unit)などの演算装置である。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。ただし、ストレージデバイス1080は、RAM など、主記憶装置を構成するハードウエアと同様のハードウエアで構成されてもよい。
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。ネットワークインタフェース1120は、計算機1000を通信網に接続するためのインタフェースである。この通信網は、例えば LAN(Local Area Network)や WAN(Wide Area Network)である。ネットワークインタフェース1120が通信網に接続する方法は、無線接続であってもよいし、有線接続であってもよい。
例えば計算機1000は、ネットワークを介して、第1カメラ10、第2カメラ20、及び第3カメラ30と通信可能に接続されている。ただし、計算機1000を各カメラと通信可能に接続する方法は、ネットワークを介した接続に限定されない。また、計算機1000は、各カメラと通信可能に接続されていなくてもよい。
ストレージデバイス1080は、情報処理装置2000の各機能構成部(検出部2020、第1判定部2040、第2判定部2060、及び警告部2080)を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。
なお、計算機1000は、複数の計算機を利用して実現されてもよい。例えば検出部2020、第1判定部2040、第2判定部2060、及び警告部2080をそれぞれ異なる計算機で実現することができる。この場合、各計算機のストレージデバイスに記憶されるプログラムモジュールは、その計算機で実現される機能構成部に対応するプログラムモジュールだけでもよい。
<カメラについて>
第1カメラ10、第2カメラ20、及び第3カメラ30はそれぞれ、繰り返し撮像を行って複数の撮像画像を生成することができる任意のカメラである。各カメラは、動画データを生成するビデオカメラであってもよいし、静止画像データを生成するスチルカメラであってもよい。前者の場合、第1撮像画像11、第2撮像画像21、及び第3撮像画像31は、動画データを構成する画像フレームである。上記各カメラは、例えば監視カメラである。
前述したように計算機1000を複数の計算機で実現する場合、その実現に各カメラを利用してもよい。例えば検出部2020は、第1カメラ10を用いて実現することができる。この場合、第1カメラ10は、自身で生成した第1撮像画像11から人物の検出を行う。
その他にも例えば、第1判定部2040は、第2カメラ20を用いて実現することができる。この場合、第2カメラ20は、自身が生成した第2撮像画像21に第1撮像画像11から検出された人物が含まれるか否かを判定する。
その他にも例えば、第2判定部2060は、第3カメラ30を用いて実現することができる。第3カメラ30は、第1撮像画像11と第2撮像画像21の双方に含まれ、なおかつ不審度が高い人物が、自身で生成した第3撮像画像31に含まれるか否かを判定する。またさらに、警告部2080が第3カメラ30を用いて実現されてもよい。この場合、第3カメラ30は、上記人物が第3撮像画像31に含まれない場合に警告処理を行う。
このように計算機1000を実現するために用いられる各カメラには、例えば、インテリジェントカメラ、ネットワークカメラ、又は IP(Internet Protocol)カメラなどと呼ばれるカメラを利用できる。
<処理の流れ>
図5は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。検出部2020は、第1撮像画像11を取得する(S102)。検出部2020は、第1撮像画像11から人物を検出する(S104)。第1撮像画像11から人物が検出されなかった場合(S106:NO)、図5の処理は終了する。
第1撮像画像11から人物が検出された場合(S106:YES)、第1判定部2040は、第2撮像画像21を取得する(S108)。第1判定部2040は、第1撮像画像11から検出された人物が第2撮像画像21に含まれるか否かを判定する(S110)。第1撮像画像11から検出された人物が第2撮像画像21に含まれない場合(S110:NO)、図5の処理は終了する。
第1撮像画像11から検出された人物が第2撮像画像21に含まれる場合(S110:YES)、第2判定部2060は、その人物の不審度が高いか否かを判定する(S112)。その人物の不審度が高くない場合(S112:NO)、図5の処理は終了する。
その人物の不審度が高い場合(S112:YES)、第2判定部2060は第3撮像画像31を取得する(S114)。第2判定部2060は、その人物が第3撮像画像31に含まれるか否かを判定する(S116)。その人物が第3撮像画像31に含まれる場合(S116:YES)、図5の処理は終了する。
その人物が第3撮像画像31に含まれない場合(S116:NO)、警告部2080は警告処理を実行する(S118)。
なお、図5が示す処理の流れはあくまで一例であり、情報処理装置2000によって実行される処理の流れは図5が示す流れに限定されない。例えば各撮像画像を取得するタイミングは、その撮像画像を利用する前の任意のタイミングとすることができる。例えば第1判定部2040は、第1撮像画像11から人物が検出されるか否かの判定(S106)が行われる前に第2撮像画像21を取得してもよい。同様に、第2判定部2060は、第1撮像画像11から検出された人物が第2撮像画像21に含まれるか否かの判定(S110)やその人物の不審度が高いか否かの判定(S112)が行われる前に第3撮像画像31を取得してもよい。
<第1映像12の取得方法:S102>
検出部2020は第1撮像画像11を取得する(S102)。ここで、検出部2020が第1撮像画像11を取得する方法は任意である。例えば検出部2020は、第1カメラ10から送信される第1撮像画像11を受信する。また例えば、検出部2020は、第1カメラ10にアクセスし、第1カメラ10に記憶されている第1撮像画像11を取得する。
なお、第1カメラ10は、第1カメラ10の外部に設けられている記憶装置に第1撮像画像11を記憶してもよい。この場合、検出部2020は、この記憶装置にアクセスして第1撮像画像11を取得する。
検出部2020を第1カメラ10で実現される場合、検出部2020は、検出部2020を実現する第1カメラ10自身によって生成された第1撮像画像11を取得する。この場合、第1撮像画像11は、例えば第1カメラ10の内部にある記憶装置に記憶されている。そこで検出部2020は、これらの記憶装置から第1撮像画像11を取得する。
検出部2020が第1撮像画像11を取得するタイミングは様々である。例えば検出部2020は、第1カメラ10によって新たな第1撮像画像11が生成される度に、その第1撮像画像11を取得する。その他にも例えば、検出部2020は、定期的に未取得の第1撮像画像11を取得してもよい。例えば検出部2020が1秒間に1回第1撮像画像11を取得する場合、検出部2020は、1秒間に生成される複数の第1撮像画像11(例えば 30fps(frames/second) のカメラであれば30枚の第1撮像画像11)をまとめて取得する。
<第1撮像画像11からの人物の検出:S104>
検出部2020は、第1撮像画像11から人物を検出する(S104)。具体的には、検出部2020は、第1撮像画像11から人物を表す領域を検出することにより、第1撮像画像11から人物を検出する。以下、人物を表す領域を人物領域と呼ぶ。
第1撮像画像11から人物領域を検出する方法は様々である。例えば検出部2020は、特徴量マッチングやテンプレートマッチングを利用して人物領域の検出を行う。前者の場合、検出部2020は、第1撮像画像11に含まれる領域のうち、人間の外見的な特徴を表す特徴量(以下、人物特徴量)を持つ領域を、人物領域として検出する。後者の場合、検出部2020は、第1撮像画像11に含まれる領域のうち、人物を表すテンプレート画像との類似度が高い領域を、人物領域として検出する。なお、人物特徴量やテンプレート画像は予め定義しておく。
なお、プライバシー保護などの観点から、カメラで人の顔の前面を撮像することが好ましくないこともある。そこで、各カメラ(第1カメラ10、第2カメラ20及び第3カメラ30)はいずれも、人の顔の前面が撮像される蓋然性が低い方向から人を撮像するように設置されることが好適である。例えば各カメラは、店舗における人の動線方向と同じ方向を向くように設置される。
このように人の顔の前面が撮像される蓋然性が低いように第1カメラ10が設置されると、第1撮像画像11には、人物の顔の前面にある特徴的な要素(目、鼻、及び口など)が含まれない蓋然性が高い。そこでこの場合、検出部2020は、人物の後ろ姿が撮像されている第1撮像画像11から人物を検出できるようにする。例えば特徴量マッチングを利用する場合、人物特徴量として、少なくとも、人物の後ろ姿の外見的な特徴量を定めておく。また、テンプレートマッチングを利用する場合、少なくとも、人物の後ろ姿を表すテンプレート画像を定めておく。
<検出された人物に関する情報>
第1判定部2040は、第1撮像画像11から検出された人物が第2撮像画像21に含まれるか否かを判定する。この判定を行うためには、第1撮像画像11から検出された人物を特定する情報が必要となる。
そこで検出部2020は、第1撮像画像11から検出された人物を特定する情報を生成する。以下、この情報を人物情報と呼ぶ。例えば検出部2020は、第1判定部2040からアクセス可能な記憶装置に人物情報を記憶させる。その他にも例えば、検出部2020は、第1判定部2040に対して人物情報を出力してもよい。
図6は人物情報をテーブル形式で例示する図である。図6のテーブルを人物情報テーブル500と呼ぶ。人物情報テーブル500は、人物ID502、タイムスタンプ504、及び人物領域506を有する。人物ID502は、第1撮像画像11から検出された人物に検出部2020が割り当てる識別子である。タイムスタンプ504は、この人物が検出された第1撮像画像11の生成時点を表す。人物領域506は、第1映像12から検出された人物領域を特定する情報である。なお、第1撮像画像11から検出された人物に対して識別子を割り当てる方法は任意である。
人物領域506は、検出された人物領域そのもの(人物領域に含まれる各画素の値の集合)を示してもよいし、検出された人物の特徴を示してもよい。抽出された人物の特徴は、例えば、その人物の体型(輪郭線など)を示す。その他にも例えば、抽出された人物の特徴は、その人物の服装、髪の色、及び肌の色などを示す。その他にも例えば、抽出された人物の特徴は、その人物の所持品の形状や色などを示す。
<第2撮像画像21の取得:S108>
第1判定部2040は第2撮像画像21を取得する(S108)。第1判定部2040が第2撮像画像21を取得する方法には、検出部2020が第1撮像画像11を取得する方法と同様の方法を採用できる。
第1判定部2040が第2撮像画像21を取得するタイミングは様々である。例えば第1判定部2040は、検出部2020が第1撮像画像11を取得するタイミングと同様のタイミングで第2撮像画像21を取得する。その他にも例えば、第1判定部2040は、検出部2020によって第1撮像画像11から人物が検出されたことに応じて、第2撮像画像21を取得してもよい。この場合、例えば第1判定部2040は、検出部2020によって生成された前述の人物情報を取得したタイミングで、第2撮像画像21を取得する。
なお第1判定部2040は、第2カメラ20によって生成された第2撮像画像21の全てを取得してもよいし、一部のみを取得してもよい。ここで、第1撮像画像11に含まれる人物は出口50で撮像されており、第2撮像画像21に含まれる人物は陳列場所60で撮像されている。そのため、同じ人物が第1撮像画像11と第2撮像画像21に含まれる場合、第2撮像画像21の生成時点は、第1撮像画像11の生成時点よりも前であると言える。そこで、第2カメラ20によって生成された第2撮像画像21の一部のみを取得する場合、例えば第1判定部2040は、人物が検出された第1撮像画像11の生成時点(取得した人物情報が示すタイムスタンプ)よりも前に生成された第2撮像画像21のみを取得する。こうすることで、第2撮像画像21の取得に要する情報処理装置2000の処理負荷や、第2撮像画像21の取得に利用されるネットワークの使用帯域などを削減することができる。
<第2撮像画像21からの人物の検出:S110>
第1判定部2040は、第1撮像画像11から検出された人物が第2撮像画像21に含まれるか否かを判定する(S110)。前述したように、第1撮像画像11から検出された人物は、検出部2020によって生成される人物情報で特定される。そこで第1判定部2040は、検出部2020によって生成された人物情報を利用して、上記判定を行う。判定に利用される第2撮像画像21は、対象の人物が検出された第1撮像画像11の生成時点よりも前の時点において生成された第2撮像画像21である。
第1判定部2040が上記判定を行う具体的な方法は様々である。以下、その方法をいくつか例示する。
<<判定方法の例1>>
第1判定部2040は、各第2撮像画像21を対象に、人物情報によって特定される人物の検出を試みる。そして、その人物がいずれかの第2撮像画像21から検出された場合、第1判定部2040は、第1撮像画像11から検出された人物が第2撮像画像21に含まれると判定する(S110:YES)。一方、その人物がどの第2撮像画像21からも検出されない場合、第1判定部2040は、第1撮像画像11から検出された人物が第2撮像画像21に含まれないと判定する。(S110:NO)
例えば人物情報が、第1撮像画像11から抽出された人物領域そのものを表しているとする。この場合、第1判定部2040は、第2撮像画像21から、その人物領域との類似度が高い領域を検出することで、人物情報によって特定される人物の検出を行う。
その他にも例えば、人物情報が、第1撮像画像11から抽出された人物の特徴を表しているとする。この場合、第1判定部2040は、第2撮像画像21から、その人物情報が示す特徴を持つ人物を検出することで、人物情報によって特定される人物の検出を行う。
<<判定方法の例2>>
第1判定部2040は、検出部2020が第1撮像画像11から人物を検出する方法と同様の方法で、第2撮像画像21からも人物を検出する。さらに第1判定部2040は、第2撮像画像21から検出された人物の中に、第1撮像画像11から検出された人物と同じ人物が含まれるか否かを判定する。
例えば第1判定部2040は、取得した1つ以上の第2撮像画像21から人物を検出し、検出された各人物について人物情報を生成する。さらに第1判定部2040は、検出部2020によって生成された人物情報と、第1判定部2040によって生成された人物情報とのマッチングを行う。第1判定部2040によって生成された人物情報の中に、検出部2020によって生成された人物情報によって特定される人物と同じ人物を特定する人物情報がある場合、第1判定部2040は、第1撮像画像11によって検出された人物が第2撮像画像21に含まれると判定する(S110:YES)。一方、第1判定部2040によって生成された人物情報の中に、検出部2020によって生成された人物情報によって特定される人物と同じ人物を特定する人物情報がない場合、第1判定部2040は、検出部2020によって検出された人物が第2撮像画像21に含まれないと判定する(S110:NO)。
<第3撮像画像31の取得:S114>
第2判定部2060は第3撮像画像31を取得する(S114)。第2判定部2060が第3撮像画像31を取得する方法には、検出部2020が第1撮像画像11を取得する方法と同様の方法を採用できる。
第2判定部2060が第3撮像画像31を取得するタイミングは様々である。例えば第2判定部2060は、検出部2020が第1撮像画像11を取得するタイミングと同様のタイミングで第3撮像画像31を取得する。その他にも例えば、第2判定部2060は、第1撮像画像11から検出された人物が第2撮像画像21に含まれると判定され(S110:YES)、なおかつその人物の不審度が高い(S112:YES)と判定されたことに応じて、第3撮像画像31を取得してもよい(図5参照)。
なお第2判定部2060は、第3カメラ30によって生成された第3撮像画像31の全てを取得してもよいし、一部のみを取得してもよい。後者の場合、例えば第2判定部2060は、第3撮像画像31に含まれるか否かの判定対象である人物が含まれる第2撮像画像21の生成時点と、その人物が含まれる第1撮像画像11の生成時点との間の期間に生成された第3撮像画像31のみを取得する。これは、或る人物が会計エリア70(第3カメラ30の撮像範囲)で撮像されるのは、その人物が陳列場所60で撮像される時点(商品を陳列場所60から取得する時点)と、その人物が出口50で撮像される時点(出口50から出ようとする時点)との間であると言えるためである。このように一部の第3撮像画像31のみを取得するようにすることで、第3撮像画像31の取得に要する情報処理装置2000の処理負荷や、第3撮像画像31の取得に利用されるネットワークの使用帯域などを削減することができる。
<第2判定部2060による判定:S116>
第2判定部2060は、(1)第1撮像画像11及び第2撮像画像21の双方に含まれている、及び(2)不審度が高いという2つの条件を満たす人物が、第3撮像画像に含まれているか否かを判定する(S116)。第1撮像画像11及び第2撮像画像21の双方に含まれている人物は、検出部2020から検出された人物で、なおかつ第1判定部2040によって第2撮像画像21に含まれていると判定された人物である。
第2判定部2060は、検出部2020から検出された人物で、なおかつ第1判定部2040によって第2撮像画像21に含まれていると判定された人物について、その人物の不審度が高いか否かを判定する(S112)。この判定方法の詳細については後述する。
不審度が高いと判定された場合(S112:YES)、第2判定部2060は、この人物が第3撮像画像31に含まれているか否かを判定する(S116)。一方、不審度が高くないと判定された場合(S112:NO)、第2判定部2060は、この人物が第3撮像画像31に含まれているか否かを判定しなくてよい。
判定に利用される第3撮像画像31は、対象の人物が検出された第1撮像画像11の生成時点よりも前の時点であり、なおかつ対象の人物が検出された第2撮像画像21の生成時点よりも後の時点において生成されたものである。
なお、この人物が第3撮像画像31に含まれるか否かを判定する方法は、検出部2020によって検出された人物が第2撮像画像21に含まれるか否かを判定する方法と同様である(例えば前述の方法1や方法2)。判定に利用される人物情報は、第1判定部2040から取得されてもよいし、第2判定部2060によってアクセス可能な記憶装置から取得されてもよい。後者の場合、第1判定部2040は、第2撮像画像21に含まれると判定された人物の人物情報を、第2判定部2060によってアクセスされる記憶装置に記憶しておく。
<不審度の高さの判定:S112>
前述したように、第2判定部2060は、検出部2020から検出された人物で、なおかつ第1判定部2040によって第2撮像画像21に含まれていると判定された人物について、その人物の不審度が高いか否かを判定する(S112)。例えば第2判定部2060は、人物の不審度を数値で算出する。そして第2判定部2060は、算出した不審度が所定値以上である場合に、その人物の不審度が高いと判定する。この所定値は、第2判定部2060に予め設定されていてもよいし、第2判定部2060からアクセス可能な記憶装置に記憶されていてもよい。
以下、人物の不審度の算出方法について例示する。
<<算出方法の例1>>
例えば第2判定部2060は、対象の人物(第1撮像画像11から検出された人物)が第2撮像画像21に含まれる期間の前後における商品の減少量を、その人物の不審度として算出する。つまり、その人物が陳列場所60の前に現れる前後で商品が多く減少しているほど、その人物の不審度が高くなる。
例えば第2判定部2060は、対象の人物が第2カメラ20の撮像範囲に含まれる前に生成された第2撮像画像21に含まれる商品の量と、その人物が第2カメラ20の撮像範囲に含まれなくなった後に生成された第2撮像画像21に含まれる商品の量との差分を算出し、算出した差分をその人物の不審度とする。2つの画像に含まれる物の量の差異を算出する技術には、既存の技術を利用することができる。
図7は、商品の減少量を算出する方法を例示する図である。対象の人物は、時点t1において生成された第2撮像画像21−1と、時点t2において生成された第2撮像画像21−2までの各第2撮像画像21に含まれている。そこで第2判定部2060は、時点t1以前に生成された第2撮像画像21(例えば第2撮像画像21−1の1つ前に生成された第2撮像画像21)と、時点t2以降に生成された第2撮像画像21(例えば第2撮像画像21−2の1つ後に生成された第2撮像画像21)とを比較することで、商品の減少量を算出する。
<<算出方法の例2>>
例えば第2判定部2060は、陳列場所60における対象の人物の滞留時間を、その人物の不審度として算出する。この場合、陳列場所60における人物の滞留時間が長いほど、その人物の不審度が高くなる。
陳列場所60における人物の滞留時間は、例えば、第2撮像画像21を利用して算出することができる。具体的には、或る人物の陳列場所60における滞留時間を算出するために、第2判定部2060は、その陳列場所60を撮像する第2カメラ20によって生成された第2撮像画像21の中から、その人物が含まれる第2撮像画像21を特定する。そして、第2判定部2060は、特定された第2撮像画像21のうち、生成時点が最も遅い第2撮像画像21の生成時点と、生成時点が最も早い第2撮像画像21の生成時点との差異を算出し、算出した値をその人物の陳列場所60における滞留時間とする。例えば図7において、対象の人物の滞留時間はt2−t1となる。
<<算出方法の例3>>
例えば第2判定部2060は、陳列場所60において対象の人物が行った動作に基づいて、その人物の不審度を算出する。具体的には、人が行いうる様々な不審な動作に対し、その動作の不審度合いを表すスコアを予め定義しておく。そして第2判定部2060は、或る人物が行った各動作に対応するスコアを積算し、算出された積算値をその人物の不審度とする。
図8は、人物の動作に対して割り当てられたスコアをテーブル形式で例示する図である。図8のテーブルを動作スコアテーブル600と呼ぶ。動作602は、動作の内容を示す。スコア604は、動作602で示される動作のスコアを示す。
陳列場所60において人物が行った各動作は、その陳列場所60を撮像する第2カメラ20によって生成された第2撮像画像21を画像解析することで特定できる。画像解析によって人の動作を特定する技術には、既存の技術を利用することができる。
<<算出方法の例4>>
例えば第2判定部2060は、店舗における対象の人物の移動の軌跡(動線)に基づいて、その人物の不審度を算出する。具体的には、動線の様々な特徴に対し、その特徴の不審度合いを表すスコアを予め定義しておく。そして第2判定部2060は、或る人物の店舗における動線の各特徴に対応するスコアを積算し、算出された積算値をその人物の不審度とする。
不審と考えられる動線の特徴には、様々なものがある。例えば不審と考えられる動線の特徴には、(1)同じ陳列場所60を何度も(所定回数以上)通る、(2)同じ陳列場所付近に長い時間(所定時間以上)滞留する、(3)特定のエリアを何度も(所定回数以上)通る、(4)事前に想定されている動線との一致度合いが低い、などがある。上記特定のエリアは、商品の盗難などが起こりやすいと考えられる場所である。商品の盗難などが起こりやすい場所は、例えば監視カメラの死角となる場所である。監視カメラの死角となる場所では、「未会計の商品を鞄に入れる」といった行動をとりやすいため、商品の盗難などが起こりやすいと言える。なお、上述の所定回数、所定時間、特定のエリア、及び事前に想定されている動線などの情報は、予め第2判定部2060に設定されていてもよいし、第2判定部2060からアクセス可能な記憶装置に記憶されていてもよい。
図9は、動線の特徴に対して割り当てられたスコアをテーブル形式で例示する図である。図9のテーブルを動線スコアテーブル700と呼ぶ。特徴702は、動線の特徴を示す。スコア704は、特徴702で示される動線の特徴のスコアを示す。
店舗における人物の動線を把握する技術には、既存の技術を利用することができる。例えば人物の動線は、店舗の様々な位置に設置されたカメラによって生成される撮像画像を解析してその人物の位置をトラッキングすることにより、把握することができる。
<警告処理の実行:S118>
条件(1)及び(2)を満たす人物がいずれの第3撮像画像31にも含まれない場合(S116:NO)、警告部2080は警告処理を実行する(S118)。ここで、警告部2080が行う警告処理としては、様々なものを採用できる。例えば警告部2080は、情報処理装置2000に接続されている出力装置から、警告メッセージを出力する。出力装置は、例えばディスプレイ装置やスピーカなどである。
図10は、ディスプレイ装置に表示される警告メッセージを例示する図である。警告画面80は、警告メッセージ82及び撮像画像84を含む。警告メッセージ82は、盗難の可能性があることを表すメッセージである。撮像画像84は、第2判定部2060によって第3撮像画像31に含まれないと判定された人物(盗難などの不正を行った可能性がある人物)が検出された第1撮像画像11である。
警告画面80を見ることで、店員や監視員等は、盗難などの不正が行われた可能性があること、及びその不正を行った人物の情報(外見など)を容易に把握することができる。
上記警告メッセージは、警備員室やレジ端末に設置されている据え置き型の出力装置に出力されてもよいし、携帯端末などの可搬媒体に出力されてもよい。例えばこの携帯端末は、店舗の店員や警備員などが所持する携帯端末である。警告部2080から出力された警告メッセージを取得した携帯端末は、その携帯端末のディスプレイ装置やスピーカから警告メッセージを出力する。例えば携帯端末のディスプレイ装置には、図10と同様の警告画面が出力される。
その他にも例えば、警告部2080は、店舗の出口50が有するゲート(自動ドアなど)を通行不可にするという警告処理を実行してもよい。例えば警告部2080は、ゲートを閉じ、閉じたゲートをロックする。こうすることで、第2判定部2060によって第3撮像画像31に含まれないと判定された人物(盗難などの不正を行った可能性がある人物)が店舗から出られないようにする。
なお、ゲートを通行不可にするという警告処理を採用する場合、第3カメラ30は、出口50のゲートを通過している人物ではなく、出口50のゲートに向かっている人物を撮像するように設置されることが好適である。こうすることで、より確実に、上記人物が店舗から出る前に出口50のゲートを通行不可にできるようになる。
[実施形態2]
図11は、実施形態2の情報処理装置2000を例示するブロック図である。下記で説明する事項を除き、実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様の機能を有する。
実施形態1の図5で例示したように、検出部2020から人物が検出されると(S106:YES)、その人物に関する警告処理を実行するか否かが判定され(S108からS116)、警告処理が実行される(S118)。検出部2020から検出された人物は出口50から店舗の外へ出るため、その人物に関する一連の処理が完了した後は、その人物しか含まれない撮像画像を処理する必要はなくなると言える。
そこで実施形態2の情報処理装置2000は除外部2100を有する。除外部2100は、第1撮像画像11から検出された人物に関する一連の処理が完了した後、その人物のみが含まれる第1撮像画像11、第2撮像画像21、及び第3撮像画像31を、情報処理装置2000による処理の対象から除外する。「第1撮像画像11から検出された人物に関する一連の処理が完了した後」とは、(1)第1判定部2040により、その人物が第2撮像画像21に含まれないと判定された後(S110:NO)、(2)第2判定部2060により、その人物の不審度は高くないと判定された後(S112:NO)、又は(3)第2判定部2060によってその人物が第3撮像画像31に含まれるか否かの判定が行われた後(S116)である。
このように情報処理装置2000による処理が完了した撮像画像を情報処理装置2000の処理対象から除外することで、情報処理装置2000の処理負荷を削減することができる。
ここで、各撮像画像を情報処理装置2000の処理対象から除外する方法は様々である。例えば除外部2100は、処理対象から除外する各撮像画像を記憶装置から削除する。その他にも例えば、情報処理装置2000の処理対象に含まれるか否かを表すフラグを撮像画像のメタデータに設けておき、このフラグを利用してもよい。このフラグの初期値は、「情報処理装置2000の処理対象に含まれる」に設定しておく。そして除外部2100は、撮像画像のフラグの値を「情報処理装置2000の処理対象に含めない」に変更することにより、その撮像画像を情報処理装置2000の処理対象から除外する。この場合、実施形態2の検出部2020、第1判定部2040、及び第2判定部2060は、フラグの値が「情報処理装置2000の処理対象に含める」となっている撮像画像のみを対象として各処理を行う。
<ハードウエア構成の例>
実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図4によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、又は上記以外の様々な構成を採用することもできる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1. 店舗の出口を撮像可能に設置された第1カメラによって生成される第1撮像画像から人物を検出する検出手段と、
前記第1撮像画像から検出された人物が、前記店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する第1判定手段と、
前記第2撮像画像に含まれなおかつ不審度が高い前記人物が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれるか否かを判定する第2判定手段と、
前記第2判定手段によって前記人物が前記第3撮像画像に含まれないと判定された場合、警告処理を行う警告手段と、
を有する情報処理装置。
2. 前記第2判定手段は、前記第2撮像画像に前記人物が含まれる期間の前後における前記陳列場所の商品の量の変化、前記陳列場所における前記人物の滞留時間、前記人物の動作の不審さ、又は前記人物の移動の軌跡の不審さを表す値を算出し、前記算出した値が所定値以上である場合に、前記人物の不審度が高いと判定する、1.に記載の情報処理装置。
3. 前記第2判定手段が利用する第2撮像画像は、前記第2カメラによって前記人物が撮像された時点と、前記第1カメラによって前記人物が撮像された時点との間の期間の映像である、1.又は2.に記載の情報処理装置。
4. 前記検出手段、前記第1判定手段、及び前記第2判定手段はそれぞれ、人物が背後から撮像されている撮像画像を利用する、1.乃至3.いずれか一つに記載の情報処理装置。
5. 前記第1判定手段は、前記第1撮像画像から検出された人物の服装、体型、髪の色、肌の色、及び所持品のいずれか1つ以上に基づいて、その人物が前記第2撮像画像に含まれるか否かを判定し、
前記第2判定手段は、前記第1撮像画像から検出された人物の服装、体型、髪の色、肌の色、及び所持品のいずれか1つ以上に基づいて、その人物が前記第3撮像画像に含まれるか否かを判定する、4.に記載の情報処理装置。
6. 前記第1判定手段は、前記第1撮像画像から検出された人物が前記第2撮像画像に含まれるか否かの判定に、その人物の目、鼻、及び口を用いず、
前記第2判定手段は、前記第1撮像画像から検出された人物が前記第3撮像画像に含まれるか否かの判定に、その人物の目、鼻、及び口を用いない、4.又は5.に記載の情報処理装置。
7. 前記検出手段が利用する前記第1撮像画像、前記第1判定手段が利用する前記第2撮像画像、及び前記第2判定手段が利用する前記第3撮像画像には、人物の目、鼻、及び口のいずれもが含まれない、6.に記載の情報処理装置。
8. 第1判定手段により前記人物が第2撮像画像に含まれないと判定された後か、前記第2判定手段により前記人物の不審度は高くないと判定された後か、又は前記第2判定手段により前記人物が前記第3撮像画像に含まれるか否かが判定された後に、前記検出手段、前記第1判定手段、及び前記第2判定手段それぞれが処理する撮像画像から、前記人物以外の人物が含まれない撮像画像を除外する除外手段を有する、1.乃至7.いずれか一つに記載の情報処理装置。
9. 前記出口にゲートが設けられており、
前記警告手段が行う警告処理は、前記ゲートを通行不可の状態に設定する処理である、1.乃至8.いずれか一つに記載の情報処理装置。
10. コンピュータによって実行される制御方法であって、
店舗の出口を撮像可能に設置された第1カメラによって生成される第1撮像画像から人物を検出する検出ステップと、
前記第1撮像画像から検出された人物が、前記店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する第1判定ステップと、
前記第2撮像画像に含まれなおかつ不審度が高い前記人物が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれるか否かを判定する第2判定ステップと、
前記第2判定ステップによって前記人物が前記第3撮像画像に含まれないと判定された場合、警告処理を行う警告ステップと、
を有する制御方法。
11. 前記第2判定ステップにおいて、前記第2撮像画像に前記人物が含まれる期間の前後における前記陳列場所の商品の量の変化、前記陳列場所における前記人物の滞留時間、前記人物の動作の不審さ、又は前記人物の移動の軌跡の不審さを表す値を算出し、前記算出した値が所定値以上である場合に、前記人物の不審度が高いと判定する、10.に記載の制御方法。
12. 前記第2判定ステップにおいて利用する第2撮像画像は、前記第2カメラによって前記人物が撮像された時点と、前記第1カメラによって前記人物が撮像された時点との間の期間の映像である、10.乃至11.いずれか一つに記載の制御方法。
13. 前記検出ステップ、前記第1判定ステップ、及び前記第2判定ステップそれぞれにおいて、人物が背後から撮像されている撮像画像を利用する、10.乃至12.いずれか一つに記載の制御方法。
14. 前記第1判定ステップにおいて、前記第1撮像画像から検出された人物の服装、体型、髪の色、肌の色、及び所持品のいずれか1つ以上に基づいて、その人物が前記第2撮像画像に含まれるか否かを判定し、
前記第2判定ステップにおいて、前記第1撮像画像から検出された人物の服装、体型、髪の色、肌の色、及び所持品のいずれか1つ以上に基づいて、その人物が前記第3撮像画像に含まれるか否かを判定する、13.に記載の制御方法。
15. 前記第1判定ステップにおいて、前記第1撮像画像から検出された人物が前記第2撮像画像に含まれるか否かの判定に、その人物の目、鼻、及び口を用いず、
前記第2判定ステップにおいて、前記第1撮像画像から検出された人物が前記第3撮像画像に含まれるか否かの判定に、その人物の目、鼻、及び口を用いない、13.又は14.に記載の制御方法。
16. 前記検出ステップにおいて利用する前記第1撮像画像、前記第1判定ステップにおいて利用する前記第2撮像画像、及び前記第2判定ステップにおいて利用する前記第3撮像画像には、人物の目、鼻、及び口のいずれもが含まれない、15.に記載の制御方法。
17. 第1判定ステップにおいて前記人物が第2撮像画像に含まれないと判定された後か、前記第2判定ステップにおいて前記人物の不審度は高くないと判定された後か、又は前記第2判定ステップにおいて前記人物が前記第3撮像画像に含まれるか否かが判定された後に、前記検出ステップ、前記第1判定ステップ、及び前記第2判定ステップそれぞれにおいて処理する撮像画像から、前記人物以外の人物が含まれない撮像画像を除外する除外ステップを有する、10.乃至16.いずれか一つに記載の制御方法。
18. 前記出口にゲートが設けられており、
前記警告ステップにおいて行う警告処理は、前記ゲートを通行不可の状態に設定する処理である、10.乃至17.いずれか一つに記載の制御方法。
19. 10.乃至18.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。

Claims (3)

  1. 出口に向かっている人物を撮像した画像である第1撮像画像から検出された人物が、店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する判定手段と、
    前記第2撮像画像に含まれなおかつ画像解析することにより動作が特定された前記人物が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれない場合、警告処理を行う警告手段と、
    を有する情報処理装置。
  2. コンピュータによって実行させる制御方法であって、
    出口に向かっている人物を撮像した画像である第1撮像画像から検出された人物が、店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する判定ステップと、
    前記第2撮像画像に含まれなおかつ画像解析することにより動作が特定された前記人物が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれない場合、警告処理を行う警告ステップと、
    を有する制御方法。
  3. コンピュータに、
    出口に向かっている人物を撮像した画像である第1撮像画像から検出された人物が、店舗の商品の陳列場所を撮像可能に設置された第2カメラによって生成される第2撮像画像に含まれるか否かを判定する判定ステップと、
    前記第2撮像画像に含まれなおかつ画像解析することにより動作が特定された前記人物が、前記店舗の会計エリアを撮像可能に設置された第3カメラによって生成される第3撮像画像に含まれない場合、警告処理を行う警告ステップと、
    を実行させるプログラム。
JP2017171526A 2017-09-06 2017-09-06 情報処理装置、制御方法、及びプログラム Active JP6536643B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017171526A JP6536643B2 (ja) 2017-09-06 2017-09-06 情報処理装置、制御方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017171526A JP6536643B2 (ja) 2017-09-06 2017-09-06 情報処理装置、制御方法、及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017534848A Division JP6206627B1 (ja) 2016-12-05 2016-12-05 情報処理装置、制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018092599A true JP2018092599A (ja) 2018-06-14
JP6536643B2 JP6536643B2 (ja) 2019-07-03

Family

ID=62563728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017171526A Active JP6536643B2 (ja) 2017-09-06 2017-09-06 情報処理装置、制御方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6536643B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020107226A (ja) * 2018-12-28 2020-07-09 富士通クライアントコンピューティング株式会社 判定装置およびプログラム
CN111582179A (zh) * 2020-05-09 2020-08-25 广州市炬盾科技发展有限公司 监控视频分析方法、装置、计算机设备以及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009507295A (ja) * 2005-09-02 2009-02-19 インテリヴィド コーポレイション 対象追跡と警報
JP2016057908A (ja) * 2014-09-10 2016-04-21 宮田 清蔵 万引き予防システム及びソフトウエア

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009507295A (ja) * 2005-09-02 2009-02-19 インテリヴィド コーポレイション 対象追跡と警報
JP2016057908A (ja) * 2014-09-10 2016-04-21 宮田 清蔵 万引き予防システム及びソフトウエア

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020107226A (ja) * 2018-12-28 2020-07-09 富士通クライアントコンピューティング株式会社 判定装置およびプログラム
CN111582179A (zh) * 2020-05-09 2020-08-25 广州市炬盾科技发展有限公司 监控视频分析方法、装置、计算机设备以及存储介质
CN111582179B (zh) * 2020-05-09 2023-04-07 广州市炬盾科技发展有限公司 监控视频分析方法、装置、计算机设备以及存储介质

Also Published As

Publication number Publication date
JP6536643B2 (ja) 2019-07-03

Similar Documents

Publication Publication Date Title
US10846537B2 (en) Information processing device, determination device, notification system, information transmission method, and program
JP6206627B1 (ja) 情報処理装置、制御方法、及びプログラム
US20180115749A1 (en) Surveillance system and surveillance method
JP2011248836A (ja) 滞留検出システム及びプログラム
JPWO2014050518A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
WO2018179202A1 (ja) 情報処理装置、制御方法、及びプログラム
JP5423740B2 (ja) 映像提供装置、映像利用装置、映像提供システム、映像提供方法、および、コンピュータ・プログラム
JP2016131288A (ja) 情報処理装置及びプログラム
JP6536643B2 (ja) 情報処理装置、制御方法、及びプログラム
US11600158B2 (en) Information processing apparatus, control method, and program
JP5758165B2 (ja) 物品検出装置および静止人物検出装置
US10783365B2 (en) Image processing device and image processing system
JP2021196741A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2021012657A (ja) 情報処理装置、情報処理方法、カメラ
CN112419637A (zh) 安防图像数据的处理方法及装置
JP6531804B2 (ja) 情報処理装置、制御方法、及びプログラム
JP7423904B2 (ja) 情報出力装置、方法、及びプログラム
US10891491B2 (en) In-store monitoring device, in-store monitoring method, and recording medium
JP5618366B2 (ja) 監視システム、監視装置、監視方法、及びプログラム
JP7039084B1 (ja) セルフレジ監視システム及びセルフレジ監視方法
JP7135329B2 (ja) 情報処理方法、情報処理装置、および情報処理プログラム
JP6954416B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7371806B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20230032976A (ko) 증강현실을 이용한 영상 감시 시스템 및 방법
JP2022155061A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190520

R150 Certificate of patent or registration of utility model

Ref document number: 6536643

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150