JP2019219853A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2019219853A
JP2019219853A JP2018116156A JP2018116156A JP2019219853A JP 2019219853 A JP2019219853 A JP 2019219853A JP 2018116156 A JP2018116156 A JP 2018116156A JP 2018116156 A JP2018116156 A JP 2018116156A JP 2019219853 A JP2019219853 A JP 2019219853A
Authority
JP
Japan
Prior art keywords
person
image
camera
processor
article
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018116156A
Other languages
English (en)
Other versions
JP7250443B2 (ja
Inventor
景太 山崎
Keita Yamazaki
景太 山崎
真明 安永
Masaaki Yasunaga
真明 安永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2018116156A priority Critical patent/JP7250443B2/ja
Priority to US16/433,014 priority patent/US20190384989A1/en
Priority to EP19181202.3A priority patent/EP3584747A1/en
Publication of JP2019219853A publication Critical patent/JP2019219853A/ja
Application granted granted Critical
Publication of JP7250443B2 publication Critical patent/JP7250443B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/087Inventory or stock management, e.g. order filling, procurement or balancing against orders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Abstract

【課題】 どの人物が物品の変動を引き起こしたことを推定することができる画像処理装置を提供する。【解決手段】 実施形態によれば、画像処理装置は、インターフェースとメモリとプロセッサとを有する。インターフェースは、物品を配置する配置位置を含む撮影領域を撮影するカメラから撮影画像を取得する。メモリは、撮影領域に人物を含まない状態でカメラが撮影した撮影画像を保存画像として記憶する。プロセッサは、撮影領域で検出された人物が撮影領域で検出されなくなった後にカメラが撮影する撮影画像とメモリが記憶する保存画像との差分領域の画像に対する物品認識処理に基づいて物品の変動を推定する。【選択図】図2

Description

本発明の実施形態は、画像処理装置に関する。
従来、店舗における商品の品薄や欠品等をカメラが撮影する画像によって監視する技術がある。例えば、カメラが単位時間ごとに撮影する撮影画像から人物等の動体を除去し、動体を除去した複数の撮像画像の差分によって商品の不足を検出する従来技術がある。
しかしながら、上述した従来技術では、どの人物がどの商品を変動させたかを判断できない。また、上記従来技術では、カメラが画像を撮影する間隔である単位時間の間は物品の品薄や欠品を検知できないという問題もある。
特開2017−162375号公報
本発明は、上記した課題を解決するために、どの人物が物品の変動を引き起こしたことを推定することができる画像処理装置を提供することを目的とする。
実施形態によれば、画像処理装置は、インターフェースとメモリとプロセッサとを有する。インターフェースは、物品を配置する配置位置を含む撮影領域を撮影するカメラから撮影画像を取得する。メモリは、撮影領域に人物を含まない状態でカメラが撮影した撮影画像を保存画像として記憶する。プロセッサは、撮影領域で検出された人物が撮影領域で検出されなくなった後にカメラが撮影する撮影画像とメモリが記憶する保存画像との差分領域の画像に対する物品認識処理に基づいて物品の変動を推定する。
図1は、第1の実施形態に係る画像処理装置を含む監視システムの構成例を模式的に示す図である。 図2は、第1の実施形態に係る画像処理装置における制御系の構成例を示すブロック図である。 図3は、第1の実施形態に係る画像処理装置における動作例を説明するためのフローチャートである。 図4は、第2の実施形態に係る画像処理装置を含む監視システムの構成例を模式的に示す図である。 図5は、第2の実施形態に係る画像処理装置における制御系の構成例を示すブロック図である。 図6は、第2の実施形態に係る画像処理装置における動作例を説明するためのフローチャートである。 図7は、第3の実施形態に係る画像処理装置を含む監視システムの構成例を模式的に示す図である。 図8は、第3の実施形態に係る画像処理装置における制御系の構成例を示すブロック図である。 図9は、第3の実施形態に係る画像処理装置における動作例を説明するためのフローチャートである。
以下、本実施形態について、図面を参照しながら説明する。
本実施形態に係る画像処理装置は、カメラが撮影する画像に基づいて物品(商品)の状態を監視する監視システムに用いられる。画像処理装置は、カメラの撮影領域における人物を検出し、人物が検出される前後の撮影画像の差分から欠品あるいは品薄などの物品の状態(変動)を検出する。
以下、第1、第2及び第3の実施形態として画像処理装置を含む監視システムについて説明する。なお、以下の第1乃至第3の実施形態では、小売店等の店舗内において棚(配置位置)に陳列された商品としての物品の状態を監視することを想定した監視システムを説明するものとする。また、第1乃至第3の実施形態では、店舗内の物品Aを変動させる人物としては顧客と店員とがいることを想定して説明するものとする。
(第1の実施形態)
図1は、第1の実施形態に係る画像処理装置1を含む監視システムを概略的に説明するための図である。
図1に示すように、監視システムは、画像処理装置1と画像処理装置1に接続するカメラ2とを有する。画像処理装置1は、カメラ2が撮影する撮影画像を取得する。画像処理装置1は、カメラ2に対して画像の撮影などを指示する機能を有する。カメラ2は、物品Aが配置される棚Sが撮影領域となるように設置される。
第1の実施形態において、カメラ2は、物品Aが配置される棚Sに正対して設置されるものとする。また、棚Sは、物品Aの配置位置であり、人物が移動する領域(店舗)内に設置される。カメラ2は、棚Sに配置された物品Aを手に取ることができる場所に現れた人物(物品Sにアクセス可能な人物)も撮影できるように設置するものとする。ここで、カメラ2が棚Sとともに撮影する人物には、棚Sに配置する物品Aを管理する管理者(例えば店員)と物品Aを手に取る利用者(例えば、店舗に訪れた顧客)とが含まれる。
次に、第1の実施形態に係る画像処理装置1の構成について説明する。
図2は、第1の実施形態に係る画像処理装置1における制御系の構成例を示すブロック図である。
図2に示すように、画像処理装置1は、プロセッサ11、メモリ12、入力インターフェース(I/F)13、表示I/F14および操作I/F15などを有する。
プロセッサ11は、プログラムを実行することにより各種の処理を実行する。メモリ12は、RAMなどの揮発性メモリ(ワーキングメモリ)、ROMなどの不揮発性メモリ(プログラムメモリ)、および、書換え可能な不揮発性メモリ(データメモリ)等を含む。
例えば、プロセッサ11は、メモリ12に記憶したプログラムを実行することで、人物検出処理、差分領域検出処理、物品認識処理などの後述する各処理を実現する。また、メモリ12は、撮影画像、人物検出用情報および物品特定用情報などの情報を保持する。ここで、撮影画像は、カメラ2が撮影した画像である。また、人物検出用情報は、画像中に含まれる人物検出用の特徴量の閾値などの人物を画像から特定するための情報であるものとする。また、物品特定用情報は、画像中に含まれる局所特徴量などの物品を画像から特定するための情報であるものとする。
入力I/F13は、カメラ2に通信接続するためのインターフェースである。画像処理装置1は、カメラ2が撮影した撮影画像を入力I/F13を介して入力する。表示I/F14は、情報を表示するディスプレイ21に通信接続するためのインターフェースである。操作I/F15は、オペレータが操作指示を入力する操作装置22に接続するためのインターフェースである。
なお、各I/F13〜15は、有線で通信接続するものであっても良いし、無線通信を行うものであっても良い。また、入力I/F13には、外部装置の記憶部に設けられるデータベース(DB)23が接続されるようにしても良い。DB23は、撮影画像、人物検出用情報および物品特定用情報などの情報を記憶するようにしても良い。
次に、第1の実施形態に係る画像処理装置1を含む監視システムの動作について説明する。
図3は、第1の実施形態に係る画像処理装置1の動作例を説明するためのフローチャートである。
まず、画像処理装置1のプロセッサ11は、棚Sに正対する位置に設置したカメラ2により棚Sを撮影する(ACT11)。カメラ2は、品薄および欠品などの監視対象とする対象物としての物品を配置する領域としての棚Sを含む撮影領域を撮影する。ただし、ACT11において、プロセッサ11は、棚Sを含む撮影領域に人物の存在しない状態で撮影した撮影画像をカメラ2から取得するものとする。
なお、カメラ2の撮影領域に人物が存在する場合、撮影領域に人物が存在しなくなってからカメラ2による撮影を再度実行するようにしても良い。また、ACT11で画像を撮影した後、当該カメラ2の撮影位置および撮影領域にある棚Sは移動させないものとする。カメラ2あるいは棚Sの移動があった場合には、画像処理装置1のプロセッサ11は、ACT11へ戻って処理を再び実行するようにしても良い。
プロセッサ11は、カメラ2から撮影画像を取得すると、カメラ2から取得した撮影画像を保存用の撮影画像(保存画像)としてメモリ12に記憶する(ACT12)。ACT11において、カメラ2は撮影範囲内に人物が存在しない状態で棚Sを撮影している。このため、メモリ12に記憶する保存画像は、人物が存在しない状態で棚Sを含む撮影領域を撮影した画像(人物が検出される前の撮影画像)となる。
保存画像をメモリ12の記憶した後、プロセッサ11は、人物を検出するための画像をカメラ2で撮影する(ACT13)。例えば、プロセッサ11は、カメラ2の撮影範囲内において人物を検出するために、所定の間隔(第1の間隔)でカメラ2による撮影を行う。ただし、カメラ2の撮影位置および棚Sの位置は動かさないものとしている。
プロセッサ11は、カメラ2が所定間隔ごとに撮影する撮影画像から人物を検出する(ACT14)。例えば、プロセッサ11は、メモリ12に保存した人物検出用情報を用いてカメラ2が撮影した撮影画像から人物を検出する。また、プロセッサ11は、カメラ2の撮影画像に人物の全身が写っていなくても手または足などの人物の体の一部が写っていれば人物を検出したとして良い。
例えば、人物検出の方法としては、勾配情報(HOG:Histogram of Gradients)の線形分離などの人物検出の手法を用いることができる。
また、人物を検出するだけであれば、カメラ2の撮影範囲を検知領域とする人物検知用のセンサを別途設けても良い。このような構成である場合、プロセッサ11は、人物検知用のセンサが人物を検知すると、カメラ2で画像を撮影するようにしても良い。
カメラ2の撮影画像から人物が検出されない場合(ACT14、NO)、プロセッサ11は、ACT13へ戻り、カメラ2による撮影を繰り返す。また、カメラ2の撮影画像から人物を検出した場合(ACT14、YES)、プロセッサ11は、検出した人物の人物情報を推定する人物推定処理を行う(ACT15)。例えば、プロセッサ11は、撮影画像に対する画像処理によって検出した人物が顧客であるか店員であるかを推定する。また、プロセッサ11は、検出した人物の年齢または性別などの情報も人物情報として推定するようにしても良い。人物推定処理は、特徴量の線形分離を用いた人物情報の推定などにより実現できる。
撮影画像から検出した人物の人物情報を推定すると、プロセッサ11は、撮影画像から推定した人物情報(推定情報)をメモリ12に保存する(ACT16)。また、プロセッサ11は、推定した人物情報とともに撮影画像を保存しても良い。人物情報とともに保存する撮影画像は、人物の写っている撮影画像全体でもよいし、人物として検出された領域の画像でもよい。また、プロセッサ11は、人物推定処理を後で実行するものとし、人物情報として撮影画像あるいは人物として検出された領域の画像を保存するようにしても良い。ただし、プライバシを考慮して人物が検出された撮影画像(人物を含む画像)は保存しないようにしても良い。
撮影画像から人物を検出した後、プロセッサ11は、人物が検出されなくなるまで、カメラ2での撮影を繰り返し実行する(ACT17)。例えば、プロセッサ11は、一旦検出した人物が不検出となるまでの間、所定の間隔(第2間隔)でカメラ2による撮影を繰り返す。カメラ2が撮影した撮影画像を取得すると、プロセッサ11は、取得した撮影画像に対して人物の検出処理を実行する(ACT18)。
人物が検出され続ける場合(ACT18、YES)、プロセッサ11は、ACT15へ戻り、人物推定処理を実行する。ただし、プロセッサ11は、一度検出した人物を追跡することにより、実行済みの人物に対してはACT15および16の処理を省略しても良い。つまり、プロセッサ11は、別の人物が新たに検出した場合にACT15および16の処理を実行し、それ以外の場合はACT15および16の処理を省略しても良い。
人物が検出されなくなった場合(ACT18、NO)、プロセッサ11は、撮影画像(人物検出後の撮影画像)と保存画像との差分を検出する差分検出処理を行う(ACT19)。すなわち、プロセッサ11は、メモリ12に保存してある人物検出前の撮影画像としての保存画像とカメラ2が撮影した人物検出後の撮影画像との差分領域の画像(差分画像)を取得する。プロセッサ11は、例えば、ピクセルレベルでの画素変化が閾値以上ある箇所を取るなど手法を用いて差分領域の画像を取得するようにして良い。
差分検出処理を実行すると、プロセッサ11は、保存画像と撮影画像との差分領域の画像に対して物品を認識する物品認識処理を実行する(ACT20)。例えば、プロセッサ11は、メモリ12に保存している物品特定用情報を用いて物品認識処理を行う。プロセッサ11は、差分画像に対する物品認識処理によって人物検出の前後で変動した物品を認識できる。
物品認識処理を実行すると、プロセッサ11は、差分領域の画像に対する物品認識の結果に基づいて棚Sにおける物品の変動(配置状態の変化)を推定する(ACT21)。例えば、プロセッサ11は、棚Sにおける物品の画像領域の輝度変化、物品の画像領域の面積変化などを検出する画像処理によって物品の変動を判断しても良い。プロセッサ11は、差分領域の画像に対する物品認識処理によって検出した人物が物品を移動させた結果を推定できる。
なお、プロセッサ11は、棚Sにおける物品の数が所定の閾値よりも少ない場合、表示I/F14を通してディスプレイ21に品薄などを報知する案内を表示しても良い。また、プロセッサ11は、物品の変動を示すような差分領域の画像が得られない場合(人物の検出前後で変化がない場合)、ACT20−24の処理を省略しても良い。
物品の変動を推定すると、プロセッサ11は、物品の変動を推定した期間において検出した人物に顧客が存在するかを確認する(ACT22)。プロセッサ11は、人物が検出された画像に対する人物推定処理によって推定した人物情報に基づいて検出した人物に顧客が存在するかを判断する。
上述した処理例では、プロセッサ11は、ACT15において人物推定処理で検出された人物が顧客か店員かを推定し、その推定結果をメモリ12に保存している。この場合、プロセッサ11は、メモリ12に保存した人物推定処理の結果に基づいて検出された人物に顧客が存在するか否かを確認する。
また、人物が検出された撮影画像(または検出した人物の画像領域)をメモリ12に保存している場合、プロセッサ11は、メモリ12が保存する画像から人物が顧客か店員かを推定すれば良い。人物が顧客か店員かを推定する方法は、特徴量の線形分離などを用いた推定処理で実施できる。
検出した人物に顧客が存在する場合(ACT22、YES)、プロセッサ11は、推定した物品の変動を示す情報を人物情報に紐づけて顧客行動情報としてメモリ12に保存する(ACT23)。すなわち、プロセッサ11は、顧客が検出された場合、ACT21で推定した物品の変動を示す情報とACT15で推定した人物情報とを対応づけた顧客行動情報をメモリ12に保存する。
例えば、検出した人物に顧客が存在する場合、プロセッサ11は、棚Sにおける物品数が減少していれば、数が減少した物品を顧客が持ち去ったと推定できる。また、検出した人物に顧客が存在する場合、プロセッサ11は、棚Sにおける物品数が増加していれば、所定の物品配置計画に基づいて当該物品の配置があっているか推定できる。これらの推定結果は、顧客行動情報としてメモリ12に保存してもよい。また、メモリ12に保存した情報は、表示I/F14を通してユーザに閲覧可能な形でディスプレイ21などに表示しても良い。
検出した人物に顧客が存在しない場合(ACT22、NO)、プロセッサ11は、店員行動情報として、推定した物品の変動を示す情報を人物情報に紐づけてメモリ12に保存する(ACT23)。すなわち、プロセッサ11は、顧客が検出されない場合、ACT21で推定した物品の変動が店員によるものと推定し、人物情報と対応づけた店員行動情報としてメモリ12に保存する。
例えば、検出した人物に顧客が存在しない場合、プロセッサ11は、棚Sにおける物品数が減少していれば、数が減少した物品を店員が移動させたと推定できる。また、検出した人物に顧客が存在しない場合、プロセッサ11は、棚Sにおける物品数が増加していれば、所定の物品配置計画に基づいて店員が移動させた物品の配置が正しいか推定できる。これらの推定結果は、店員行動情報としてメモリ12に保存してもよい。また、メモリ12に保存した情報は、表示I/F14を通してユーザに閲覧可能な形でディスプレイ21などに表示しても良い。
顧客行動情報または店員行動情報をメモリ12に保存すると、プロセッサ11は、メモリ12に記憶している保存用の撮影画像(保存画像)を更新する(ACT25)。プロセッサ11は、人物が検出されなくなった状態の撮影画像をメモリ12に保存している保存画像に置き換える。これにより、メモリ12に保存される人物が検出される前に保存した保存画像は人物検出後にカメラ2が撮影した撮影画像に上書きされる。なお、プロセッサ11は、メモリ12に保存済みの保存画像に上書きせず、人物が検出されなくなった後の撮影画像を最新の保存画像としてメモリ12に記憶して良い。保存画像の更新が終了すると、プロセッサ11は、上記ACT13へ戻り、上述した処理を繰り返し実行する。
上記のように第1の実施形態によれば、動線計測などでは実現できないような誰がどの物品を変動させたかを推定できる。店員が物品を変動させたことは、店員行動情報によって確認でき、顧客が物品を変動させたことは、顧客行動情報によって確認できる。例えば、店員行動情報によれば、担当者(店員)による物品の補充作業あるいは前出し作業の実施が正確にされているかを確認できる。また、顧客行動情報によれば、人物推定処理で推定できる範囲でどういった顧客がどの商品に興味を持ちやすいかが分かり、物品陳列の最適化に用いることができる。
また、上述した第1の実施形態で得られる顧客行動情報によれば、顧客による物品数の変動と決済情報との比較によって正常な取引が実施されているかを確認でき、万引き防止などに用いることができる。さらに、顧客行動情報によれば、移動された物品を物品認識によって認識することで顧客が適切できない場所に物品を返却したことを検出でき、アラートを出力することが可能となる。
(第2の実施形態)
図4は、第2の実施形態に係る画像処理装置41を含む監視システムを概略的に説明するための図である。
図4に示すように、第2の実施形態に係る監視システムは、画像処理装置41と物品撮影用カメラ(物品監視カメラ)42と店内撮影用カメラ(人物監視カメラ)43とを有する。画像処理装置41は、物品撮影用カメラ42と店内撮影用カメラ43とに通信接続する。
画像処理装置41は、物品撮影用カメラ42が撮影する撮影画像から物品の変動を推定する。また、画像処理装置41は、店内撮影用カメラ43が撮影する画像(監視映像)から人物を検出する。また、画像処理装置41は、カメラ43が撮影する画像から検出した人物の人物情報を推定する人物推定処理を行う機能を有する。
第2の実施形態において、物品撮影用カメラ42は、物品Aが配置される棚Sが撮影範囲となるように設置される。例えば、カメラ42は、物品Aが配置される棚Sに正対して設置される。また、店内撮影用カメラ43は、物品Aが配置される棚Sの周囲にいる人物を撮影するように設置する。カメラ43は、棚Sに配置された物品Aに触ることができる位置にいる人物を撮影できるものであれば良く、例えば店舗内の天井などに設置される。また、カメラ43は、棚Sが設置される店舗に設置されている既存の監視カメラであっても良い。
次に、第2の実施形態に係る画像処理装置41の構成について説明する。
図5は、第2の実施形態に係る画像処理装置41における制御系の構成例を示すブロック図である。
図5に示すように、第2の実施形態に係る画像処理装置41は、カメラ43が接続される以外は第1の実施形態で説明した図2に示す画像処理装置1と同様な構成を有する。このため、図5に示す構成については、図2に示す構成と同様なものに同一符号を付して詳細な説明を省略するものとする。
すなわち、第2の実施形態に係る画像処理装置41は、入力I/F13に物品撮影用カメラ42と店内撮影用カメラ43とが接続されることが図2に示す構成を異なっている。上述したように、物品撮影用カメラ42は、棚Sに配置された物品Aを撮影できるように撮影領域が設定される。店内撮影用カメラ43は、例えば、撮影領域に店舗内に設置されている複数の棚を含み、かつ、各棚に配置された物品を手に取る人物が撮影領域内に入るように配置される。
なお、画像処理装置41は、物品撮影用カメラ42を接続するためのインターフェースと店内撮影用カメラ43に接続するためのインターフェースとをそれぞれ設けても良い。また、プロセッサ11は、物品撮影用カメラ42ではなく、店内撮影用カメラ43が撮影する画像から人物を検出する機能と検出した人物の人物情報を推定する機能とを有する。
次に、第2の実施形態に係る画像処理装置41を含む監視システムの動作について説明する。
図6は、第2の実施形態に係る画像処理装置41の動作例を説明するためのフローチャートである。
まず、画像処理装置41のプロセッサ11は、棚Sに正対する位置に設置した物品撮影用カメラ42により棚Sを含む撮影領域を撮影する(ACT31)。ACT31において、プロセッサ11は、人物の存在しない状態でカメラ42が棚Sを含む撮影領域を撮影した撮影画像を取得する。
なお、カメラ42の撮影領域に人物が存在する場合、プロセッサ11は、人物が存在しない状態になってから撮影を再度行うようにしても良い。また、ACT31で画像を撮影した後、カメラ42および棚Sは移動させないものとする。カメラ42あるいは棚Sの移動があった場合、プロセッサ11は、ACT31へ戻って処理を再び実行するようにしても良い。
プロセッサ11は、カメラ42から撮影画像を取得すると、カメラ42から取得した撮影画像を保存用の画像(保存画像)としてメモリ12に記憶する(ACT32)。メモリ12に記憶する保存画像は、人物が存在しない状態で撮影した画像(人物検出前の撮影画像)である。
保存画像をメモリ12に記憶した後、プロセッサ11は、人物を検出するために、棚S周辺のカメラ42の撮影領域を含む監視映像を店内撮影用カメラ43から取得する(ACT33)。プロセッサ11は、棚Sに配置された物品に人物がアクセス可能な領域を含む撮影領域の監視映像をカメラ43から取得する。例えば、物品撮影用カメラ42が撮影する棚Sに配置した物品に対して人物がアクセス可能な領域(監視領域)を設定しておき、プロセッサ11は、監視領域の監視映像をカメラ43から取得する。ここでは、プロセッサ11は、店内撮影用カメラ43から監視領域の監視映像(カメラ43が撮影する撮影画像)を所定間隔ごとに取得するものとする。
すなわち、プロセッサ11は、カメラ43から所定間隔ごとに取得する監視領域の監視映像から人物を検出する(ACT34)。例えば、プロセッサ11は、メモリ12に保存した人物検出用情報を用いてカメラ43から取得する監視映像から人物を検出する。また、プロセッサ11は、カメラ42から取得する撮影画像に人物の全身が写っていなくても手または足などの人物の体の一部が写っていれば人物を検出したとして良い。人物検出の方法としては、上述した勾配情報の線形分離などの人物検出の手法を用いることができる。
カメラ43から取得する監視領域の監視映像において人物が検出されない場合(ACT34、NO)、プロセッサ11は、ACT33へ戻り、所定間隔ごとにカメラ43から監視映像を取得する。
また、カメラ43から取得する監視領域の監視映像において人物を検出した場合(ACT34、YES)、プロセッサ11は、検出した人物の人物情報を推定する人物推定処理を行う(ACT35)。プロセッサ11は、例えば、特徴量の線形分離を用いた人物情報の推定などによって人物推定処理を行う。また、プロセッサ11は、人物推定処理において撮影画像に対する画像処理によって検出した人物が顧客であるか店員であるかを推定する。また、プロセッサ11は、検出した人物の年齢または性別などの情報も人物情報として推定するようにしても良い。
人物が検出された画像から人物情報を推定すると、プロセッサ11は、推定した人物情報(推定情報)をメモリ12に保存する(ACT36)。ここで、プロセッサ11は、推定した人物情報とともに撮影画像を保存しても良い。人物情報とともに保存する撮影画像は、人物の写っている撮影画像全体でもよいし、人物として検出された領域の画像でもよい。また、プロセッサ11は、人物情報として、人物の写っている画像全体あるいは人物として検出された領域の画像を保存するようにして良い。ただし、プライバシを考慮して人物が検出された撮影画像(人物を含む画像)は保存しないようにしても良い。
また、人物を検出した場合、プロセッサ11は、人物が検出されなくなるまで、カメラ43から監視領域の監視映像を取得する(ACT37)。例えば、プロセッサ11は、一旦人物を検出した後、当該監視領域において人物が不検出となるまで、所定間隔(第2間隔)でカメラ43から監視領域の監視映像を取得する。カメラ43が撮影した監視領域の撮影画像を取得するごとに、プロセッサ11は、取得した撮影画像に対して人物の検出処理を実行する(ACT38)。
人物が検出され続ける場合(ACT38、YES)、プロセッサ11は、ACT35へ戻り、人物推定処理を実行する。ただし、プロセッサ11は、一度検出した人物を追跡することにより人物推定処理を実行済みの人物に対してはACT35および36の処理を省略しても良い。つまり、プロセッサ11は、別の人物を新たに検出した場合にACT35および36の処理を実行し、それ以外の場合はACT35および36の処理を省略しても良い。
監視領域において人物が検出されなくなった場合(ACT38、NO)、プロセッサ11は、物品撮影用カメラ42により棚Sを撮影する(ACT39)。プロセッサ11は、物品撮影用カメラ42に応じて設定した監視領域において人物が検出されない状態で物品撮影用カメラ42が撮影した撮影画像を取得する。
人物が検出されなくなった後(人物検出後)に撮影した撮影画像を取得すると、プロセッサ11は、当該撮影画像と保存画像との差分を検出する差分検出処理を行う(ACT40)。プロセッサ11は、メモリ12に保存してある人物検出前の撮影画像としての保存画像とカメラ42が撮影した人物検出後の撮影画像との差分領域の画像(差分画像)を取得する。プロセッサ11は、例えば、ピクセルレベルでの画素変化が閾値以上ある箇所を取るなど手法を用いて差分領域を取得するようにしても良い。
差分検出処理を実行すると、プロセッサ11は、保存画像と撮影画像との差分領域の画像に対して物品を認識する物品認識処理を実行する(ACT41)。例えば、プロセッサ11は、メモリ12に保存している物品特定用情報を用いて物品認識処理を行う。プロセッサ11は、差分領域の画像に対する物品認識処理によって人物検出の前後で変動した物品を認識する。
物品認識処理を実行すると、プロセッサ11は、差分領域の画像に対する物品認識の結果に基づいて棚Sにおける物品の変動(配置状態の変化)を推定する(ACT42)。例えば、プロセッサ11は、棚Sにおける物品の画像領域の輝度変化、物品の画像領域の面積変化などを検出する画像処理によって物品の変動を判断しても良い。プロセッサ11は、差分領域の画像に対する物品認識処理によって検出した人物が物品を移動させた結果を推定できる。
なお、プロセッサ11は、棚Sにおける物品の数が所定の閾値よりも少ない場合、表示I/F14を通してディスプレイ21に当該物品の品薄などを報知する案内を表示しても良い。また、プロセッサ11は、物品の変動を示すような差分領域の画像が得られない場合(人物検出の前後で変化がない場合)、ACT41−45の処理を省略しても良い。
物品の変動を推定すると、プロセッサ11は、物品の変動を推定した期間において検出した人物に顧客が存在するかを確認する(ACT43)。プロセッサ11は、人物が検出された画像に対する人物推定処理によって推定した人物情報に基づいて検出した人物に顧客が存在するかを判断する。
上述した処理例では、プロセッサ11は、ACT35において人物推定処理で検出された人物が顧客か店員かを推定し、その推定結果をメモリ12に保存している。この場合、プロセッサ11は、メモリ12に保存した人物推定処理の結果に基づいて人物に顧客が存在するか否かを確認する。
ただし、人物が検出された撮影画像(または検出した人物の画像領域)をメモリ12に保存している場合、プロセッサ11は、人物が検出された画像から人物が顧客か店員かを推定するようにしても良い。人物が顧客か店員かを推定する方法は、特徴量の線形分離などを用いた推定処理で実施できる。
検出した人物に顧客が存在する場合(ACT43、YES)、プロセッサ11は、推定した物品の変動を示す情報を人物情報に紐づけて顧客行動情報としてメモリ12に保存する(ACT44)。すなわち、プロセッサ11は、顧客が検出された場合、ACT42で推定した物品の変動が顧客によるものと判断する。この場合、プロセッサ11は、ACT42で推定した物品の変動を示す情報とACT35で推定した人物情報とを対応づけた顧客行動情報をメモリ12に保存する。
例えば、検出した人物に顧客が存在する場合、プロセッサ11は、棚Sにおける物品数が減少していれば、数が減少した物品を顧客が持ち去ったと推定できる。また、検出した人物に顧客が存在する場合、プロセッサ11は、棚Sにおける物品数が増加していれば、所定の物品配置計画に基づいて当該物品の配置があっているか推定できる。これらの推定結果は、顧客行動情報としてメモリ12に保存してもよい。また、メモリ12に保存した情報は、表示I/F14を通してユーザに閲覧可能な形でディスプレイ21などに表示しても良い。
検出した人物に顧客が存在しない場合(ACT43、NO)、プロセッサ11は、店員行動情報として、推定した物品の変動を示す情報を人物情報に紐づけてメモリ12に保存する(ACT44)。すなわち、プロセッサ11は、顧客が検出されない場合、ACT42で推定した物品の変動が店員によるものと判断する。この場合、プロセッサ11は、推定した物品の変動を示す情報とACT35で推定した人物情報と対応づけた店員行動情報をメモリ12に保存する。
例えば、検出した人物に顧客が存在しない場合、プロセッサ11は、棚Sにおける物品数が減少していれば、数が減少した物品を店員が移動させたと推定できる。また、検出した人物に顧客が存在しない場合、プロセッサ11は、棚Sにおける物品数が増加していれば、所定の物品配置計画に基づいて当該物品の配置があっているか推定できる。これらの推定結果は、店員行動情報としてメモリ12に保存してもよい。また、メモリ12に保存した情報は、表示I/F14を通してユーザに閲覧可能な形でディスプレイ21などに表示しても良い。
顧客行動情報または店員行動情報をメモリ12に保存すると、プロセッサ11は、メモリ12に記憶している保存用の撮影画像(保存画像)を更新する(ACT46)。プロセッサ11は、人物が検出されなくなった状態で物品撮影用カメラ42が撮影した撮影画像をメモリ12に保存している保存画像に置き換える。これにより、メモリ12に保存される人物検出前に保存した保存画像は人物検出後にカメラ2が撮影した撮影画像に上書きされる。
なお、プロセッサ11は、メモリ12に保存済みの保存画像に上書きせず、人物が検出されなくなった後の撮影画像を最新の保存画像としてメモリ12に記憶して良い。保存画像の更新が終了すると、プロセッサ11は、上記ACT33へ戻り、上述した処理を繰り返し実行する。
上述したように、第2の実施形態に係る監視システムでは、店内撮影する人物監視カメラを用いて棚にアクセス可能な人物を検出でき、検出した人物の人物情報を推定できる。人物監視カメラは人物を検出(監視)する目的で設置されるため、第2の実施形態では、棚にアクセス可能となっている人物を精度良く検出しやすい。また、人物監視カメラは、既存の監視カメラを用いることができるため、当該監視システムを設置するためのコストや手間を軽減できる。
(第3の実施形態)
図7は、第3の実施形態に係る画像処理装置71を含む監視システムを概略的に説明するための図である。
図7に示すように、第3の実施形態に係る監視システムは、画像処理装置71と第1のカメラ72と第2のカメラ73とを含む。画像処理装置71は、第1のカメラ72と第2のカメラ73とに接続する。
画像処理装置71は、カメラ42が撮影する撮影画像から物品の状態を推定する。また、画像処理装置41は、カメラ43が撮影する画像から人物を検出する。また、画像処理装置41は、カメラ43が撮影する画像から検出した人物の人物情報を推定する人物推定処理を行う機能を有する。
第3の実施形態において、第1のカメラ72は、監視対象とする物品Aが配置される棚Sが撮影範囲となるように設置される。例えば、第1のカメラ72は、物品Aが配置される棚Sに正対して設置される。第2のカメラ73は、棚Sに向かって存在する人物を正面から撮影するように設置される。例えば、第2のカメラ73は、第1のカメラ72が撮影する棚S側から棚Sに配置される物品Aにアクセス可能な人物が撮影範囲に入るように設置する。
また、図7に示す構成例では、第1のカメラ72と第2のカメラ73とは、向かい合うように設置された2つの棚S、S´にそれぞれ設置される。第1のカメラ72は、棚Sを撮影領域とし、当該撮影領域には棚Sに向かい合う棚S´の物品A´にアクセス可能な人物が入るように設置する。また、第2のカメラ73は、棚S´を撮影領域とし、当該撮影領域には棚S´に向かい合う棚Sの物品Aにアクセス可能な人物が撮影領域に入るように設置する。
例えば、棚Sに配置する物品Aを監視対象とする場合、第1のカメラ72が物品Aを撮影するカメラとし、第2のカメラ73が人物の顔を撮影するカメラとする。また、棚S´に配置する物品A´を監視対象とする場合、第2のカメラ73が物品A´を撮影するカメラとし、第1のカメラ72が人物の顔を撮影するカメラとする。なお、第1のカメラ72および第2のカメラ73は撮影領域が上述したような撮影領域となるようであれば、店舗の天井又は棚の奥等のどの位置に配置してもよいものとする。
次に、第3の実施形態に係る画像処理装置71の構成について説明する。
図8は、第3の実施形態に係る画像処理装置71における制御系の構成例を示すブロック図である。
第3の実施形態に係る画像処理装置71は、第1のカメラ72および第2のカメラ73が接続される以外は第1の実施形態で説明した図2に示す画像処理装置1と同様な構成を有する。このため、図8に示す構成については、図2に示す構成と同様なものに同一符号を付して詳細な説明を省略するものとする。
すなわち、第6の実施形態に係る画像処理装置71は、入力I/F13に第1のカメラ72と第2のカメラ73とが接続される点が図2に示す構成を異なっている。ただし、画像処理装置71は、第1のカメラ72を接続するためのインターフェースと第2のカメラ73に接続するためのインターフェースとをそれぞれ設けても良い。また、プロセッサ11は撮影画像から人物または顔を検出する機能を有し、メモリ12は顔検出処理に用いる顔検出用情報を保持するものとする。
次に、第3の実施形態に係る画像処理装置71を含む監視システムの動作について説明する。
図9は、第2の実施形態に係る画像処理装置71の動作例を説明するためのフローチャートである。
まず、画像処理装置71のプロセッサ11は、第1のカメラ72および第2のカメラ73によりそれぞれ画像を撮影する(ACT51)。ここでは、第1のカメラ72および第2のカメラ73は、撮影領域に人物の存在しない状態で画像を撮影するものとする。プロセッサ11は、第1のカメラ72が撮影した第1の撮影画像(第1の保存画像)と第2のカメラ73が撮影した第2の撮影画像(第2の保存画像)とをメモリ12に記憶する(ACT52)。
第1および第2の保存画像をメモリ12に記憶した後、プロセッサ11は、人物を検出するための画像をカメラ72、73で撮影する(ACT53)。例えば、プロセッサ11は、撮影範囲内において人物を検出するために、所定の間隔(第1の間隔)でカメラ72、73による撮影を行う。プロセッサ11は、第1のカメラ72から人物検出用の第1の撮影画像を取得し、第2のカメラ73から人物検出用の第2の撮影画像を取得する。ここでは、カメラ72、73の撮影位置および棚S、S´の位置は動かさないものとする。
プロセッサ11は、カメラ72、73から取得する人物検出用の第1および第2の撮影画像に対して人物検出処理と顔検出処理とを実行する(ACT54)。プロセッサ11は、メモリ12が記憶する顔検出情報を用いて撮影画像から人物の顔を検出する顔検出処理を実行する。顔検出の方法としては、例えば、Haar−like特徴による多段フィルタなどの、顔検出の方法を用いることができる。また、プロセッサ11は、メモリ12が記憶する人物検出情報を用いて撮影画像から人物を検出する人物検出処理を実行する。人物検出の方法としては、第1の実施形態で説明した手法が適用できる。
第1のカメラ72および第2のカメラ73の撮影画像から顔も人物も検出されない場合(ACT54、NO)、プロセッサ11は、ACT53へ戻り、撮影を繰り返す。
第1のカメラ72又は第2のカメラ73の撮影画像から顔又は人物を検出した場合(ACT54、YES)、プロセッサ11は、検出した顔の顔情報又は検出した人物の人物情報を推定する顔・人物推定処理を行う(ACT55)。例えば、プロセッサ11は、撮影画像から顔を検出した場合、検出した顔の画像から顔情報を推定する。プロセッサ11は、顔情報として、検出した顔の人物が顧客か店員かを推定する。また、プロセッサ11は、検出した顔の画像から当該人物の年齢または性別なども顔情報として推定しても良い。また、顔情報は、撮影画像における顔の画像であっても良い。
また、プロセッサ11は、撮影画像から人物を検出した場合、検出した人物の画像から人物情報を推定する。プロセッサ11は、人物情報として検出した人物が顧客か店員かを推定する。また、プロセッサ11は、検出した人物の画像から当該人物の年齢または性別なども人物情報として推定しても良い。また、人物情報は、撮影画像または撮影画像における人物の画像であっても良い。
撮影画像から顔情報又は人物情報を推定すると、プロセッサ11は、撮影画像から推定した顔情報または人物情報(推定情報)をメモリ12に保存する(ACT56)。プロセッサ11は、推定した顔情報又は人物情報とともに撮影画像をメモリ12に保存しても良い。また、顔情報又は人物情報としては、撮影画像全体、あるいは、顔又は人物として検出された領域の画像を保存しても良い。ただし、プライバシを考慮して顔又は人物が検出された撮影画像は保存しないようにしても良い。
顔又は人物を検出した場合、プロセッサ11は、顔又は人物が検出されなくなるまで、第1および第2のカメラ72、73での撮影を実行する(ACT57)。例えば、プロセッサ11は、一旦検出した人物が不検出となるまでの間、所定の間隔(第2間隔)でカメラ72、73による撮影を繰り返す。カメラ72、73が撮影した撮影画像を取得すると、プロセッサ11は、カメラ72、73が撮影した各撮影画像に対して顔検出処理および人物検出処理を実行する(ACT58)。
顔又は人物が検出され続ける場合(ACT58、YES)、プロセッサ11は、ACT55へ戻り、顔・人物推定処理を実行する。ただし、プロセッサ11は、一度検出した人物を追跡することにより顔・人物推定処理を実行済みの人物に対してはACT55および56の処理を省略しても良い。この場合、プロセッサ11は、別の人物が新たに検出された顔又は人物を検出した撮影画像を対象としてACT55および56の処理を実行する。
顔又は人物が検出されなくなった場合(ACT58、NO)、プロセッサ11は、第1および第2の撮影画像と第1および第2の保存画像との差分をそれぞれ検出する第1および第2の差分検出処理を行う(ACT59)。第1の差分検出処理は、第1の保存画像と第1のカメラ72が撮影した第1の撮影画像との第1の差分領域の画像(第1の差分画像)を取得する処理である。第2の差分検出処理は、第2の保存画像と第2のカメラ73が撮影した第2の撮影画像との第2の差分領域の画像(第2の差分画像)を取得する処理である。
第1および第2の差分検出処理を実行すると、プロセッサ11は、第1および第2の差分領域の画像に対してそれぞれ物品の状態を認識する物品認識処理を実行する(ACT60)。例えば、第1の差分画像は、第1のカメラ72が撮影する棚Sにおける物品の変動を示す画像である。プロセッサ11は、第1の差分画像に対する物品認識処理によって顔又は人物の検出前後で棚Sにおいて変動した物品を認識する。また、プロセッサ11は、第2の差分画像に対する物品認識処理によって顔又は人物の検出前後で棚S´において変動した物品を認識する。
物品認識処理を実行すると、プロセッサ11は、第1および第2の差分画像に対する物品認識の結果に基づいて棚Sおよび棚S´における物品の変動(物品数の変化、配置位置の変化など)を推定する(ACT61)。例えば、プロセッサ11は、物品の画像領域の輝度変化、物品の画像領域の面積変化などを検出する画像処理によって物品の変動を判断しても良い。
なお、プロセッサ11は、棚S又は棚S´における物品の数が所定の閾値よりも少ない場合、表示I/F14を通してディスプレイ21に物品の品薄を表示しても良い。また、プロセッサ11は、物品の変動を示すような差分領域の画像が得られない場合(顔又は人物の検出前後で変化がない場合)、ACT60−64の処理を省略しても良い。
物品の変動を推定すると、プロセッサ11は、物品の変動を推定した期間において検出した人物に顧客が存在するかを確認する(ACT62)。プロセッサ11は、顔又は人物が検出された画像に対する顔・人物推定処理によって推定した顔情報又は人物情報に基づいて検出した人物に顧客が存在するかを判断する。
上述した例では、プロセッサ11は、ACT55において人物推定処理で検出された顔又は人物が顧客か店員かを推定し、その推定結果をメモリ12に保存している。この場合、プロセッサ11は、メモリ12に保存した顔・人物推定処理の結果に基づいて検出された人物に顧客が存在するか否かを確認する。また、顔又は人物を検出した画像をメモリ12に保存している場合、プロセッサ11は、メモリ12に保存されている画像から顧客か店員かを推定すれば良い。
検出した顔又は人物に顧客が存在する場合(ACT62、YES)、プロセッサ11は、推定した物品の変動を示す情報を顔情報又は人物情報に紐づけて顧客行動情報としてメモリ12に保存する(ACT63)。プロセッサ11は、顧客が検出された場合、ACT61で推定した物品の変動が顧客によるものと推定する。この場合、プロセッサ11は、ACT61で推定した物品の変動を示す情報とACT55で推定した顔情報又は人物情報とを対応づけた顧客行動情報をメモリ12に保存する。
検出した人物に顧客が存在しない場合(ACT62、NO)、プロセッサ11は、店員行動情報として、推定した物品の変動を示す情報を顔情報又は人物情報に紐づけてメモリ12に保存する(ACT64)。プロセッサ11は、顧客が検出されない場合、ACT61で推定した物品の変動が店員によるものと推定する。この場合、プロセッサ11は、ACT61で推定した物品の変動を示す情報とACT55で推定した顔情報又は人物情報とを対応づけた店員行動情報をメモリ12に保存する。
なお、メモリ12に保存する顧客行動情報あるいは店員行動情報は、表示I/F14を通してユーザに閲覧可能な形でディスプレイ21などに表示しても良い。
顧客行動情報または店員行動情報をメモリ12に保存すると、プロセッサ11は、メモリ12に記憶している保存用の撮影画像(保存画像)を更新する(ACT65)。プロセッサ11は、顔および人物が検出されなくなった状態の撮影画像をメモリ12に保存している保存画像に置き換える。これにより、メモリ12に保存される人物が検出される前に保存した第1および第2の保存画像は人物検出後にカメラ72、73が撮影した第1および第2の撮影画像に上書きされる。
なお、プロセッサ11は、メモリ12に保存済みの第1および第2の保存画像に上書きせず、人物が検出されなくなった後の第1および第2の撮影画像を最新の第1および第2の保存画像としてメモリ12に記憶して良い。第1および第2の保存画像の更新が終了すると、プロセッサ11は、上記ACT53へ戻り、上述した処理を繰り返し実行する。
また、上述した処理例では、人物の顔から顧客か店員かを示す情報や年齢、性別などの情報を顔情報として特定するものとして説明したが、画像処理装置は、店員または顧客の顔画像を予めメモリ等に登録しておくことで、検出した顔の画像に対する顔認識処理で個人を特定することも可能となる。この場合、各個人ごとの行動情報として推定した物品の変動を示す情報をメモリに保存することも可能となる。
上記のように第3の実施形態では、向かい合わせに配置された2つ棚にそれぞれ向かい合う棚を撮影するように2つのカメラを設置する。これにより、一方のカメラが棚に配置された物品を撮影でき、他方のカメラが棚に顔を向けている人物の顔を撮影できる。これにより、第3の実施形態によれば、棚に配置した物品にアクセスする人物の有無を単純に検出するだけでなく、当該人物の顔を検出することができる。この結果として、人物が顧客であるか店員であるかを高精度で推定でき、店員行動情報および顧客行動情報の精度を向上することも可能となる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1、41、71…画像処理装置、2、42、72…カメラ、11…プロセッサ、12…メモリ、13…入力インターフェース、42…物品撮影用カメラ(物品監視カメラ)、43…店内撮影用カメラ(人物監視カメラ)、72…第1のカメラ、73…第2のカメラ。

Claims (5)

  1. 物品を配置する配置位置を含む撮影領域を撮影するカメラから撮影画像を取得するインターフェースと、
    前記撮影領域に人物を含まない状態で前記カメラが撮影した撮影画像を保存画像として記憶するメモリと、
    前記撮影領域で検出された人物が前記撮影領域で検出されなくなった後に前記カメラが撮影する撮影画像と前記メモリが記憶する前記保存画像との差分領域の画像に対する物品認識処理に基づいて物品の変動を推定するプロセッサと、
    画像処理装置。
  2. 前記プロセッサは、前記カメラが前記撮影領域を撮影する撮影画像から人物を検出することにより前記撮影領域における人物を検出する、
    請求項1に記載の画像処理装置。
  3. 前記インターフェースは、さらに、前記カメラの前記撮影領域を含む監視領域を撮影する人物監視カメラから監視映像を取得し、
    前記プロセッサは、前記人物監視カメラが撮影する監視映像から前記カメラの前記撮影領域における人物を検出する、
    請求項1又は2の何れか1項に記載の画像処理装置。
  4. 前記インターフェースは、さらに、前記物品の配置位置側から前記撮影領域を含む領域を撮影する第2のカメラから撮影画像を取得し、
    前記プロセッサは、さらに、前記カメラの撮影画像または前記第2のカメラの撮影画像から前記撮影領域における人物の顔を検出し、前記撮影領域で検出された顔又は人物が前記撮影領域で検出されなくなった後に前記カメラが撮影する撮影画像と前記メモリが記憶する前記保存画像との差分領域の画像に対する物品認識処理に基づいて物品の変動を推定する、
    請求項2に記載の画像処理装置。
  5. 前記プロセッサは、前記撮影領域で検出された人物が顧客であるか店員であるかを推定し、前記人物が顧客であると推定される場合には顧客行動情報として物品の変動の推定結果を保存し、前記人物が店員であると推定する場合には店員行動情報として物品数の変動の推定結果を保存する、
    請求項1乃至4の何れか1項に記載の画像処理装置。
JP2018116156A 2018-06-19 2018-06-19 画像処理装置 Active JP7250443B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018116156A JP7250443B2 (ja) 2018-06-19 2018-06-19 画像処理装置
US16/433,014 US20190384989A1 (en) 2018-06-19 2019-06-06 Image processing apparatus
EP19181202.3A EP3584747A1 (en) 2018-06-19 2019-06-19 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018116156A JP7250443B2 (ja) 2018-06-19 2018-06-19 画像処理装置

Publications (2)

Publication Number Publication Date
JP2019219853A true JP2019219853A (ja) 2019-12-26
JP7250443B2 JP7250443B2 (ja) 2023-04-03

Family

ID=66998324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018116156A Active JP7250443B2 (ja) 2018-06-19 2018-06-19 画像処理装置

Country Status (3)

Country Link
US (1) US20190384989A1 (ja)
EP (1) EP3584747A1 (ja)
JP (1) JP7250443B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022065282A1 (ja) * 2020-09-28 2022-03-31 日本電気株式会社 情報処理装置、システム、情報処理方法、および記録媒体
JP2022075518A (ja) * 2020-11-05 2022-05-18 パワーアリーナ ホールディングス リミテッド 生産ライン監視方法および生産ライン監視システム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11126861B1 (en) 2018-12-14 2021-09-21 Digimarc Corporation Ambient inventorying arrangements
US11087489B2 (en) * 2019-06-03 2021-08-10 Disney Enterprises, Inc. Systems and methods to facilitate interaction by one or more participants with content presented across multiple distinct physical locations
SG10201913955VA (en) 2019-12-31 2021-07-29 Sensetime Int Pte Ltd Image recognition method and apparatus, and computer-readable storage medium
US20220108357A1 (en) * 2020-10-01 2022-04-07 Keyong Lu Retail intelligent display system and electronic displays thereof
CN113128463B (zh) * 2021-05-07 2022-08-26 支付宝(杭州)信息技术有限公司 图像识别方法和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009009231A (ja) * 2007-06-26 2009-01-15 Toshiba Corp セキュリティ管理システムおよびセキュリティ管理方法
JP2016224800A (ja) * 2015-06-02 2016-12-28 パナソニックIpマネジメント株式会社 人物行動分析装置、人物行動分析システムおよび人物行動分析方法
JP2017027529A (ja) * 2015-07-27 2017-02-02 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
WO2017163879A1 (ja) * 2016-03-23 2017-09-28 日本電気株式会社 行動分析装置、行動分析システム、行動分析方法及びプログラム
WO2017175707A1 (ja) * 2016-04-06 2017-10-12 日本電気株式会社 物体種類特定装置、物体種類特定方法及び記録媒体
JP6342039B1 (ja) * 2017-06-06 2018-06-13 株式会社 ディー・エヌ・エー 商品を管理するためのシステム、方法、及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9996818B1 (en) * 2014-12-19 2018-06-12 Amazon Technologies, Inc. Counting inventory items using image analysis and depth information
JP6238028B2 (ja) 2016-03-11 2017-11-29 パナソニックIpマネジメント株式会社 商品モニタリング装置、商品モニタリングシステムおよび商品モニタリング方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009009231A (ja) * 2007-06-26 2009-01-15 Toshiba Corp セキュリティ管理システムおよびセキュリティ管理方法
JP2016224800A (ja) * 2015-06-02 2016-12-28 パナソニックIpマネジメント株式会社 人物行動分析装置、人物行動分析システムおよび人物行動分析方法
JP2017027529A (ja) * 2015-07-27 2017-02-02 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
WO2017163879A1 (ja) * 2016-03-23 2017-09-28 日本電気株式会社 行動分析装置、行動分析システム、行動分析方法及びプログラム
WO2017175707A1 (ja) * 2016-04-06 2017-10-12 日本電気株式会社 物体種類特定装置、物体種類特定方法及び記録媒体
JP6342039B1 (ja) * 2017-06-06 2018-06-13 株式会社 ディー・エヌ・エー 商品を管理するためのシステム、方法、及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022065282A1 (ja) * 2020-09-28 2022-03-31 日本電気株式会社 情報処理装置、システム、情報処理方法、および記録媒体
JP2022075518A (ja) * 2020-11-05 2022-05-18 パワーアリーナ ホールディングス リミテッド 生産ライン監視方法および生産ライン監視システム
JP7302769B2 (ja) 2020-11-05 2023-07-04 パワーアリーナ ホールディングス リミテッド 生産ライン監視方法および生産ライン監視システム
US11790538B2 (en) 2020-11-05 2023-10-17 Powerarena Holdings Limited Production line monitoring method and monitoring system thereof

Also Published As

Publication number Publication date
JP7250443B2 (ja) 2023-04-03
US20190384989A1 (en) 2019-12-19
EP3584747A1 (en) 2019-12-25

Similar Documents

Publication Publication Date Title
JP7250443B2 (ja) 画像処理装置
WO2019165894A1 (zh) 物品识别方法、装置、系统及存储介质
JP7448065B2 (ja) 店舗装置、店舗システム、店舗管理方法、プログラム
US11341740B2 (en) Object identification method and object identification device
WO2020024691A1 (zh) 无人结算场景中异常检测方法、装置及设备
JP2021140830A (ja) 店舗装置、店舗管理方法、プログラム
CN108921098B (zh) 人体运动分析方法、装置、设备及存储介质
JP6568476B2 (ja) 情報処理装置、情報処理方法およびプログラム
EP3561722A1 (en) Video image analysis apparatus and video image analysis method
KR101577751B1 (ko) 정보 관리를 위한 장치 및 방법
CN109767453A (zh) 信息处理装置、背景图像更新方法和非暂态计算机可读存储介质
JP2017016344A (ja) 画像監視装置
WO2018008702A1 (ja) 振る舞い検知システム
JP6631962B2 (ja) 監視装置及び監視システム
JP7299692B2 (ja) 画像処理装置、画像処理システム、画像処理装置の制御方法、及び、プログラム
KR101990823B1 (ko) 얼굴정보를 이용한 위치 추정 및 신원 관리 방법, 프로그램 및 장치
JP2019121904A (ja) 不審者検出装置、不審者検出方法及び不審者検出用コンピュータプログラム
US20140040187A1 (en) Information processing apparatus and information processing method
JP6536643B2 (ja) 情報処理装置、制御方法、及びプログラム
JP5691750B2 (ja) 置き去り又は持ち去り検知システム及び前記検知システムにおける置き去り又は持ち去り発生時刻を検知する方法
US10891491B2 (en) In-store monitoring device, in-store monitoring method, and recording medium
JP7164047B2 (ja) 注視点検出装置及び注視点検出方法
JP2010087937A (ja) 映像検出装置、映像検出方法および映像検出プログラム
JP7430363B2 (ja) 異常行動検出システム
JP2024010741A (ja) 情報処理装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221019

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230322

R150 Certificate of patent or registration of utility model

Ref document number: 7250443

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150