JP6194777B2 - 動作判定方法、動作判定装置および動作判定プログラム - Google Patents

動作判定方法、動作判定装置および動作判定プログラム Download PDF

Info

Publication number
JP6194777B2
JP6194777B2 JP2013247978A JP2013247978A JP6194777B2 JP 6194777 B2 JP6194777 B2 JP 6194777B2 JP 2013247978 A JP2013247978 A JP 2013247978A JP 2013247978 A JP2013247978 A JP 2013247978A JP 6194777 B2 JP6194777 B2 JP 6194777B2
Authority
JP
Japan
Prior art keywords
wrist
image
coordinates
operation determination
product
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013247978A
Other languages
English (en)
Other versions
JP2015106281A (ja
Inventor
伊藤 史
史 伊藤
照平 桑原
照平 桑原
紗也香 諏訪
紗也香 諏訪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013247978A priority Critical patent/JP6194777B2/ja
Priority to US14/551,162 priority patent/US9298989B2/en
Publication of JP2015106281A publication Critical patent/JP2015106281A/ja
Application granted granted Critical
Publication of JP6194777B2 publication Critical patent/JP6194777B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Description

本発明は、動作判定方法、動作判定装置および動作判定プログラムに関する。
近年、撮像装置で撮像した画像等を基に人物の動作を検知する技術が開発されている。このような技術には、例えば、撮像装置により人物が映った画像を撮像し、その画像のデータに基づいて人物が物体を手に取ったか判定する技術が挙げられる。
また、画像のデータに基づいて人物が物体を手に取ったことを判定する技術には次のようなものがある。例えば、撮像された画像から手の出入りを検出するのに適した領域を抽出し、それぞれの領域内で手の三次元位置を参照し、手を含む領域の先端の幅の変化に基づいて物体の取り出しの有無を判別する技術が提案されている。また、例えば、商品の陳列棚を映した画像のフレーム間の差分から、商品が陳列棚から取り上げられたことを判断する技術が用いられている。
特開2001−128814号公報 特開2011−253344号公報
しかし、上記の技術では、人物が物体を手に取ったことを正確に判定できない場合がある。例えば、画像のフレーム間の差分から商品が陳列棚から取り上げられたことを判断する技術では、顧客の体の一部の接触により商品が棚から落ちた場合等、実際には人物により商品が取り上げられていないときも、商品が取り上げられたと誤判定される場合がある。
1つの側面では、本発明は、画像に映る人物が物体を手に取ったことを精度良く判定する動作判定方法、動作判定装置および動作判定プログラムを提供することを目的とする。
また、1つの案では、情報処理装置が行う動作判定方法が提供される。動作判定方法では、撮像装置によって撮像された画像のデータと、画像に映った被写体と撮像装置との間の画素ごとの距離と、画像に映った人物の手首についての当該画像における座標および撮像装置との距離とを取得する。画像から、座標が手首の座標を含む所定座標範囲に含まれ、かつ、距離が手首の位置を含む所定距離範囲に含まれる画素群を抽出する。抽出された画素群における特定の色彩特徴量を有する画素の割合に基づいて、人物が物体を手に取ったかを判定する。
また、1つの案では、上記動作判定方法と同様の機能を実現する動作判定装置が提供される。
さらに、1つの案では、上記動作判定方法と同様の処理を実行させる動作判定プログラムが提供される。
一側面では、画像に映る人物が物体を手に取ったことを精度良く判定できる。
第1の実施の形態の情報処理装置の処理例を示す図である。 第2の実施の形態の動作判定システムの例を示す図である。 センサデバイスの配置例を示す図である。 センサデバイスのハードウェア構成例を示すブロック図である。 動作判定装置のハードウェア構成例を示すブロック図である。 画像の判定例を示す図である。 画像の判定例を示す図(続き)である。 画像の判定例を示す図(続き2)である。 センサデバイスおよび動作判定装置の機能例を示すブロック図である。 骨格情報の例を示す図である。 商品情報テーブルの例を示す図である。 手領域情報テーブルの例を示す図である。 手領域を抽出する例を示す図である。 顧客が商品を手に取っていないときの手領域の画像の例を示す図である。 顧客が商品を手に取っているときの手領域の画像の例を示す図である。 顧客が商品を手に取っているか判定する処理の例を示すフローチャートである。 顧客が商品を手に取っているか判定する処理の例を示すフローチャート(続き)である。 第3の実施の形態の顧客が商品を手に取っているか判定する処理の例を示すフローチャートである。
以下、本実施の形態を図面を参照して説明する。
[第1の実施の形態]
図1は、第1の実施の形態の情報処理装置の処理例を示す図である。撮像装置1は、所定の領域の画像を撮像する装置である。情報処理装置2は、撮像装置1によって撮像された画像に映った人物が物体を手に取ったかを判定する装置である。情報処理装置2は、例えば、コンピュータ等により実現される。
情報処理装置2は、撮像装置1によって撮像された画像のデータと、画像に映った被写体と撮像装置1との間の画素ごとの距離と、画像に映った人物の手首についての画像における座標および撮像装置1との距離とを取得する。情報処理装置2は、これらの情報を、撮像装置1から直接取得してもよいし、記録媒体を介して取得してもよい。また、これらの情報のうち、画像に映った被写体と撮像装置1との間の画素ごとの距離と、画像に映った人物の手首についての画像における座標および撮像装置1との距離とを、撮像装置1が計測して情報処理装置2へ送信してもよいし、撮像装置1とは別のセンサを有する装置が計測して情報処理装置2へ送信してもよい。
以下、画像に映った人物の手首についての画像における座標を“手首の座標”と記載する場合がある。また、画像に映った人物の手首についての撮像装置1との距離を“手首の距離”と記載する場合がある。
情報処理装置2は、撮像された画像から、座標が手首の座標を含む所定座標範囲に含まれ、かつ、距離が手首の距離を含む所定距離範囲に含まれる画素群を抽出する。そして、情報処理装置2は、抽出された画素群における特定の色彩特徴量を有する画素の割合に基づいて、人物が物体を手に取ったかを判定する。
ここで、図1を用いて情報処理装置2の処理の具体例を説明する。まず、情報処理装置2は、撮像装置1が撮像した画像10のデータと、画像10に映った被写体と撮像装置1との間の画素ごとの距離と、手首11aについての画像10における座標および撮像装置1との距離とを取得したとする。
図1上段に示すように、画像10の被写体には、人物11、物体12および背景13が含まれる。人物11の身体のうち、少なくとも手の周辺領域の部位は、画像10のうち、手首11aの座標を含む所定座標範囲14に含まれる。所定座標範囲14とは、例えば、手首11aの座標を中心とした縦方向および横方向に一定画素数の範囲である。また、人物11が物体12を手に取った場合、物体12も所定座標範囲14に含まれる可能性が高い。
また、人物11の身体のうち、少なくとも手の周辺領域の部位は、撮像装置1から見て、手首11aの位置を含む所定距離範囲に含まれる。所定距離範囲とは、例えば、手首11aの位置を中心とした前後の一定距離範囲である。また、人物11が物体12を手に取った場合、物体12も上記の所定距離範囲に含まれる。一方、背景13と撮像装置1との距離は、通常、手首11aの位置を含む所定距離範囲に含まれない。
情報処理装置2は、画像10の領域から、座標が所定座標範囲14に含まれ、かつ、距離が所定距離範囲に含まれる画素群を抽出する(S1)。すると、所定座標範囲14から、所定距離範囲に含まれない背景13に対応する画素群が除かれた画素群15が抽出される。
また、人物11の肌の部分が映った画素群は、肌色等の特定の色彩特徴量を有し、物体12が映った画素群は、これと同じ特定の色彩特徴量を有しない。そこで、情報処理装置2は、抽出された画素群15のうち、特定の色彩特徴量を有する画素の占める割合を算出する。これにより、画素群15のうち、人物11の肌の部分が映った画素の割合が算出される。
そして、情報処理装置2は、画素群15における特定の色彩特徴量を有する画素の割合に基づいて、人物11が物体12を手に取ったかを判定する(S2)。人物11が物体12を手に取っていない場合より、手に取っている場合の方が、特定の色彩特徴量を有する画素の割合は小さくなる。このため、情報処理装置2は、例えば、算出された割合が予め設定された閾値より小さい場合に、人物11が物体12を手に取ったと判定することができる。
また、情報処理装置2は、例えば、人物11の手が、物体12が配置された所定領域に入ったタイミングと、手がこの所定領域から出たタイミングとで、上記の手順で画素群15における特定の色彩特徴量を有する画素の割合を算出してもよい。この場合、情報処理装置2は、算出された2つの割合の比較結果に基づいて、人物11が物体12を手に取ったかを判定することができる。
ここで、撮像装置1が撮像した画像のフレーム間の差分がある場合に人物が物体を手に取ったと判定する技術では、人物の体の一部の接触により物体がフレーム外となったとき等、人物が商品を手に取ったと誤判定される場合がある。
これに対し、第1の実施の形態の情報処理装置2によれば、画像10から抽出した画素群15における、特定の色彩特徴量を有する画素の占める割合に基づき、人物11が物体を手に取ったか判定する。これにより、人物11の体の一部の接触により物体12がフレーム外となったり、物体12が決められた位置から移動したりした場合でも、所定座標範囲14に物体12の画素群は含まれないため、人物11が物体12を手に取ったと誤判定されない。よって、情報処理装置2は、人物11が物体12を手に取ったことを精度良く判定することができる。
また、情報処理装置2は、手首11aについての画像10上の座標および撮像装置1との距離を取得し、画像10における所定座標範囲14から、距離が所定距離範囲内である画素群15のみを抽出する。これにより、特定の色彩特徴量を有するか否かを判定する画素群を、手が存在すると考えられる画素群15内に限定できるため、その判定処理の負担を軽減できる。また、判定する範囲を画素群15に限定することで、特定の色彩特徴量を有する画素の割合が増え、物体12を手に取ったかを精度良く判定できる。
さらに、特定の色彩特徴量の数ではなく、特定の色彩特徴量を有する画素の占める割合に基づき物体12を手に取ったか判定することで、画像10に映った手首11aの角度に関わらず、物体12を手に取ったか精度良く判定できる。
[第2の実施の形態]
図2は、第2の実施の形態の動作判定システムの例を示す図である。動作判定システム3は、センサデバイス100および動作判定装置200を有する。センサデバイス100および動作判定装置200は、商品が販売される店舗の中に配置される。あるいは、センサデバイス100のみが店舗の中に配置され、動作判定装置200が店舗の外部に配置されてもよい。なお、センサデバイス100の機能の一部は、第1の実施の形態の撮像装置1の機能の一例である。動作判定装置200は、第1の実施の形態の情報処理装置2の一例である。
センサデバイス100は、画像の撮像機能を有する。センサデバイス100は、店舗内の領域のうち、少なくとも商品が配置された領域を撮像する。例えば、センサデバイス100は、商品が配置される商品棚の領域を撮像する。
また、センサデバイス100は、撮像した画像に含まれる各画素について、深度を計測し、計測した深度を示す深度情報を生成する。深度とは、センサデバイス100から被写体までの画素ごとの距離を意味する。
さらに、センサデバイス100は、画像に映った人物(ここでは顧客)の骨格情報を検出する。本実施の形態では、センサデバイス100は、顧客の骨格として、少なくとも手首と肘を検出する。また、骨格情報には、対応する骨格の位置情報が含まれる。位置情報には、骨格の画像における座標と深度とが含まれる。
センサデバイス100は、撮像した画像のデータと、計測した画素ごとの深度情報と、検出した骨格情報とを動作判定装置200へ送信する。センサデバイス100は、これらの情報を動作判定装置200へ所定時間間隔で送信する。
動作判定装置200は、顧客の行動を判定するコンピュータである。動作判定装置200は、センサデバイス100から画像のデータ等を受信する度に、受信した骨格情報や画像のデータ等を解析し、画像に映る顧客が商品を手に取ったか判定する。また、動作判定装置200は、手に取った商品に関する情報を、ログファイルへの書き込みやディスプレイへの表示等により出力する。
なお、動作判定装置200は、顧客が商品を手に取ったことの判定の他、単に商品の前を通過したことや、商品に注目したことや、商品に興味を持ったこと等の顧客の行動の有無を判定してもよい。
図3は、センサデバイスの配置例を示す図である。図3の例では、商品棚31の上面に商品32が配置される。また、図3の右側が、顧客30が移動する領域となっている。センサデバイス100は、商品棚31に対して、顧客30の移動領域とは反対側の位置に配置される。この場合、センサデバイス100は、顧客30、商品棚31および商品32が被写体として映った画像を撮像し、撮像した画像のデータと、画像の各画素の深度情報と、顧客30の骨格情報とを動作判定装置200へ送信することとなる。
図4は、センサデバイスのハードウェア構成例を示すブロック図である。センサデバイス100は、プロセッサ101、RAM(Random Access Memory)102、フラッシュメモリ103、撮像カメラ104、深度センサ105および通信インタフェース106を有する。これらのユニットは、センサデバイス100内でバス107に接続されている。
プロセッサ101は、プログラムの命令を実行する演算器を含み、例えばCPU(Central Processing Unit)である。プロセッサ101は、フラッシュメモリ103に記憶されているプログラムやデータの少なくとも一部をRAM102にロードしてプログラムを実行する。
なお、プロセッサ101は複数のプロセッサコアを備えてもよい。また、センサデバイス100は、複数のプロセッサを備えてもよい。また、センサデバイス100は、複数のプロセッサまたは複数のプロセッサコアを用いて並列処理を行ってもよい。また、2以上のプロセッサの集合、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)等の専用回路、2以上の専用回路の集合、プロセッサと専用回路の組み合わせ等を「プロセッサ」と呼んでもよい。
RAM102は、プロセッサ101が実行するプログラムやプログラムから参照されるデータを一時的に記憶する揮発性メモリである。なお、センサデバイス100は、RAM以外の種類のメモリを備えてもよく、複数個の揮発性メモリを備えてもよい。
フラッシュメモリ103は、ファームウェアやアプリケーションソフトウェア等のプログラムおよびデータを記憶する不揮発性の記憶装置である。なお、センサデバイス100は、HDD(Hard Disk Drive)等の他の種類の記憶装置を備えてもよく、複数個の不揮発性の記憶装置を備えてもよい。
撮像カメラ104は、画像を撮像し、撮像した画像のデータをプロセッサ101へ出力する。
深度センサ105は、撮像カメラ104で撮像された画像の各画素について深度を計測し、プロセッサ101に通知する。深度の計測方式には、例えば、レーザ光線の往復時間により深度を計測するTOF(Time Of Flight)方式や、反射する光線(例えば、赤外線等)のパターンのひずみで深度を計測するパターン照射方式等様々な計測方式があり、何れの方式を採用してもよい。TOF方式およびパターン照射方式が採用される場合、深度センサ105は、レーザ光線や赤外線等の光線照射装置と、照射された光線の反射成分を検出するセンサとを有する。
通信インタフェース106は、他の動作判定装置(例えば、動作判定装置200)と通信を行う。
なお、プロセッサ101に実行させるプログラムは、フラッシュメモリ103に他の記憶装置からコピーするようにしてもよい。
また、センサデバイス100としては、例えば、マイクロソフト社のKinect(登録商標)センサを用いることができる。
図5は、動作判定装置のハードウェア構成例を示すブロック図である。動作判定装置200は、プロセッサ201、RAM202、HDD203、画像信号処理部204、入力信号処理部205、ディスクドライブ206および通信インタフェース207を有する。これらのユニットは、動作判定装置200内でバス208に接続されている。
プロセッサ201は、前述のプロセッサ101と同様に、プログラムの命令を実行する演算器を含む。RAM202は、前述のRAM102と同様に、プロセッサ201が実行するプログラムやデータを一時的に記憶する揮発性メモリである。
HDD203は、OS(Operating System)やファームウェアやアプリケーションソフトウェア等のソフトウェアのプログラムおよびデータを記憶する不揮発性の記憶装置である。なお、動作判定装置200は、フラッシュメモリ等の他の種類の記憶装置を備えてもよく、複数個の不揮発性の記憶装置を備えてもよい。
画像信号処理部204は、プロセッサ201からの命令に従って、動作判定装置200に接続されたディスプレイ21に画像を出力する。ディスプレイ21としては、CRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイ等を用いることができる。
入力信号処理部205は、動作判定装置200に接続された入力デバイス22から入力信号を取得し、プロセッサ201に通知する。入力デバイス22としては、マウスやタッチパネル等のポインティングデバイス、キーボード等を用いることができる。
ディスクドライブ206は、記録媒体23に記録されたプログラムやデータを読み取る駆動装置である。記録媒体23として、例えば、フレキシブルディスク(FD:Flexible Disk)やHDD等の磁気ディスク、CD(Compact Disc)やDVD(Digital Versatile Disc)等の光ディスク、光磁気ディスク(MO:Magneto-Optical disk)を使用できる。ディスクドライブ206は、プロセッサ201からの命令に従って、記録媒体23から読み取ったプログラムやデータをRAM202またはHDD203に格納する。
通信インタフェース207は、他の動作判定装置(例えば、センサデバイス100)と通信を行う。
なお、動作判定装置200はディスクドライブ206を備えていなくてもよく、専ら他の端末装置から制御される場合には、画像信号処理部204や入力信号処理部205を備えていなくてもよい。また、ディスプレイ21や入力デバイス22は、動作判定装置200の筐体と一体に形成されていてもよい。
次に、図6〜8を用いて、顧客が商品を手に取ったかを判定する判定方法の参考例を示し、この参考例の問題点について説明する。ここで説明する判定方法の参考例では、まず、撮像装置が、手の位置がある領域の範囲外から範囲内に移動したときと、ある領域の範囲内から範囲外へ移動したときの画像を撮像する。そして、参考例の動作判定装置が、撮像された各画像を比較し、商品の位置に変化があった場合に顧客が商品を手に取ったと判定する。
図6は、画像の判定例を示す図である。領域31a,31bは、商品棚上の領域である。領域31a,31bにはそれぞれ、異なる商品が配置される。図6の例では、商品32は、領域31bに配置されている。
図6の画像4は、顧客30の左手の位置が領域31bの範囲外から範囲内に移動したときに、撮像装置により撮像された画像である。参考例の動作判定装置は、撮像された画像4のデータを撮像装置から受信する。
図7は、画像の判定例を示す図(続き)である。画像5は、参考例の動作判定装置が画像4のデータを受信した後、商品32を手に取った顧客30の左手の位置が領域31bの範囲内から範囲外へ移動したときに、撮像装置により撮像された画像である。参考例の動作判定装置は、撮像された画像5のデータを撮像装置から受信する。
このとき、参考例の動作判定装置は、受信した画像4,5を互いに比較した結果、領域31bに商品32が存在しなくなったため、顧客30が商品32を手に取ったと判定する。
図8は、画像の判定例を示す図(続き2)である。画像6は、画像4のデータが送信された後、商品32を手に取っていない状態の顧客30の左手の位置が領域31bから出たときに撮像装置により撮像された画像である。このとき、図7の画像5の場合とは異なり、商品32は、顧客30の荷物あるいは体の一部があたったことで、領域31aに転がったものとする。参考例の動作判定装置は、撮像された画像6のデータを撮像装置から受信する。このとき、参考例の動作判定装置は、画像4,6を互いに比較した結果、領域31bに商品32が存在しなくなったため、実際には、顧客30が商品32を手に取っていないにもかかわらず、顧客30が商品32を手に取ったと判定する。
図6〜8で説明したように、複数の画像の差分により顧客が商品を手に取ったか判定する方法では、顧客が商品を取らずに、手首が領域の範囲内から範囲外になった場合にもかかわらず、顧客が商品を手に取ったと判定する場合があり、その判定の精度に改善の余地がある。
本実施の形態の動作判定システム3は、このような誤判定の発生確率を低減するものである。図9以降では、動作判定システム3により、顧客が商品を手に取ったと判定する方法について説明する。
図9は、センサデバイスおよび動作判定装置の機能例を示すブロック図である。センサデバイス100は、画像取得部110、深度算出部120、骨格検出部130および送信部140を有する。
画像取得部110は、撮像カメラ104によって撮像された画像のデータを所定時間間隔で取得する。
深度算出部120は、深度センサ105による検出データに基づいて、撮像された画像に含まれる画素ごとの深度を算出する。深度算出部120は、画像取得部110が画像データを取得する度に深度の算出を行い、画像内の各画素の深度を含む深度情報を生成する。
骨格検出部130は、画像のデータと深度情報とに基づき、画像に映る人物の手首、肘、頭および肩等、予め決められた骨格の部位の位置を検出する。骨格検出部130は、画像取得部110が画像データを取得する度に骨格の部位の位置を検出し、各部位の位置情報を含む骨格情報を生成する。各部位の位置情報には、画像上の座標を示す情報と、センサデバイス100から各部位までの距離(深度)を示す情報とを含む。なお、画像に複数の人物が映っている場合、骨格検出部130は、人物ごとに骨格情報を生成することもできる。
送信部140は、撮像された画像のデータ、画像に対応する深度情報および画像に映る人物の骨格情報を動作判定装置200へ送信する。
なお、画像取得部110、深度算出部120、骨格検出部130および送信部140は、例えば、プロセッサ101が所定のプログラムを実行することで実現される。
動作判定装置200は、商品情報記憶部210、手領域情報記憶部215、動作判定部220および出力部230を有する。
商品情報記憶部210は、動作判定システム3を用いる店舗で扱われる商品に関する情報を格納した商品情報テーブルを記憶する。商品情報記憶部210は、例えば、HDD203等に確保された不揮発性の記憶領域として実現される。
手領域情報記憶部215は、顧客の手領域に関する手領域情報を格納した手領域情報テーブルを記憶する。手領域とは、手首の座標を含む画像上の所定領域内の画素のうち、手首の位置を含む所定の深度範囲内の深度を有する画素からなる領域である。手領域情報には、手領域に含まれる画素のうち、特定の色彩特徴量(例えば、肌色の色彩特徴量)の範囲内である画素の数を示す情報や、特定の色彩特徴量の範囲外である画素の数を示す情報が含まれる。
手領域情報テーブルは、動作判定部220の処理時に一時的に生成される情報である。手領域情報記憶部215は、例えば、RAM202に確保された記憶領域として実現される。
動作判定部220は、センサデバイス100から受信した情報に基づき、顧客が商品を手に取ったかを判定する。動作判定部220は、手首位置判定部221、手領域情報生成部222および手領域情報比較部223を有する。
手首位置判定部221は、センサデバイス100から受信した画像のデータおよび骨格情報に基づいて、画像上において、商品が配置された領域に顧客の手首が出入りしたかを判定する。
手領域情報生成部222は、商品が配置された領域を顧客の手首が出入りしたとき、その出入りしたときにおける、画像のデータ、深度情報および骨格情報に基づいて手領域情報を生成し、手領域情報テーブルに格納する。
手領域情報比較部223は、商品が配置された領域に顧客の手首が入ったときの手領域情報と、その後に手首がその領域から出たときの手領域情報とを比較し、その比較結果に基づいて顧客が商品を手に取ったか判定する。
出力部230は、手領域情報比較部223により顧客が商品を手に取ったと判定された場合、その商品に関する情報を出力する。
なお、手首位置判定部221、手領域情報生成部222、手領域情報比較部223および出力部230は、例えば、プロセッサ201が所定のプログラムを実行することで実現される。
次に、図10〜12を用いて、動作判定システム3で用いる情報やテーブルについて説明する。
図10は、骨格情報の例を示す図である。骨格情報131は、顧客の肘や手首の関節等の骨格上の所定部位それぞれの位置を示す情報である。骨格情報131は、骨格検出部130により生成される。骨格情報131は、顧客ID(Identification)、部位および位置情報の項目を有する。
顧客IDの項目には、画像に映る顧客を識別するための識別子が設定される。部位の項目には、部位の種別を示す情報が設定される。位置情報の項目には、部位の位置情報が設定される。動作判定システム3において、位置情報は、“(X軸方向の位置,Y軸方向の位置,Z軸方向の位置)”で表される。X軸は、撮像カメラ104の光軸と直交する横方向の軸であり、撮像カメラ104から見て左方向を正とする。Y軸は、撮像カメラ104の光軸と直交する縦方向の軸であり、撮像カメラ104から見て上方向を正とする。Z軸は、撮像カメラ104の光軸の方向の軸であり、撮像カメラ104が向いている方向を正とする。すなわち、X軸およびY軸の座標により部位の画像上の座標が示され、Z軸の座標により部位の深度が示される。
例えば、図10に示すように、骨格の部位として、右手首、左手首、右肘、左肘等が検出される。顧客30の右手首の画像上の座標が“(60,50)”であり、深度が“30”であるとすると、骨格情報131における顧客30の“右手首”に対応する位置情報の項目には、“(60,50,30)”が設定される。
なお、骨格の位置情報は、上記の表現方法の他、緯度・経度・高さ等別の方法により表されてもよい。
図11は、商品情報テーブルの例を示す図である。商品情報テーブル211には、店舗において商品が配置される領域に対応する画像上の領域が、商品ごとに設定される。設定される商品ごとの画像上の領域は、その領域に対する顧客の手首の出入りを判定するために利用されるものである。商品情報テーブル211は、商品情報記憶部210に記憶されている。商品情報テーブル211は、商品IDおよび領域情報の項目を有する。
商品IDの項目には、商品を識別するための識別子が設定される。領域情報の項目には、商品が配置される画像上の領域の範囲を示す位置情報が設定される。以下、位置情報が示す画像上の領域を“商品配置領域”と記載する場合がある。
動作判定システム3において、商品配置領域は、四角形であるとする。また、位置情報は、商品配置領域の四隅の座標により表される。四隅の各座標は、“(X軸方向の位置,Y軸方向の位置)”により表される。商品IDとそれに対応する領域情報とは、ユーザによって任意に設定可能である。
なお、商品配置領域は、四角形の他、円や楕円形であってもよい。また、商品配置領域が長方形である場合、例えば、その領域を右上と左下の座標のみで表してもよい。
また、商品情報テーブル211には、上記項目の他、商品名や、商品が手に取られた回数を示す情報等が含まれていてもよい。
図12は、手領域情報テーブルの例を示す図である。手領域情報テーブル215aは、顧客の手領域に関する手領域情報を格納する。手領域情報テーブル215aは、手領域情報記憶部215に一時的に記憶されている。手領域情報テーブル215aは、手領域ID、状態、特定色画素数および非特定色画素数の項目を有する。
手領域IDは、商品配置領域を出入りした手首に対応する手領域を識別するための識別子が設定される。手領域は、後述するように、画像上の手首の周辺領域に含まれる画素群から、手首の位置を含む所定の深度範囲内の深度を有する画素群を抽出した領域である。
状態の項目には、顧客の手首の状態を示す情報が設定される。顧客の手首が商品配置領域の範囲外から範囲内に移動したことを示す場合、状態の項目には、“IN”が設定される。顧客の手首が商品配置領域の範囲内から範囲外に移動したことを示す場合、状態の項目には、“OUT”が設定される。
特定色画素数の項目には、手領域内における特定の色の画素の数を示す情報が設定される。非特定色画素数の項目には、手領域内における特定の色以外の画素の数を示す情報が設定される。
画素の色が特定の色か否かは、画素の色彩特徴量が、特定の色を示す色彩特徴量の閾値範囲に含まれるか否かによって判定される。以下、特定の色の画素を“特定色画素”と記載し、それ以外の色の画素を“非特定色画素”と記載する場合がある。また、特定の色の画素の数を“特定色画素数”と記載し、それ以外の色の画素の数を“非特定色画素数”と記載する場合がある。
なお、色彩特徴量としては、色を表す各種の情報を用いることができる。例えば、色彩特徴量の表現には、RGB(Red Green Blue)を用いてもよいし、CMY(Cyan Magenta Yellow)を用いてもよい。また、色彩特徴量は色差情報として表現されてもよい。
なお、特定の色を示す閾値範囲の数は、複数であってもよい。その場合、例えば、画素の色彩特徴量が複数のうちの何れかの閾値範囲内である場合、その画素は特定の色の画素と判断される。動作判定システム3において、特定の色としては肌色が用いられるが、肌色以外の色が用いられてもよい。
次に、図13〜15を用いて、商品を手に取ったかの判定について説明する。図13〜15では、顧客30の左手首41aが商品配置領域の範囲内から範囲外へ移動したときについて説明する。
図13は、手領域を抽出する例を示す図である。図13に示す領域31bは、ある商品が配置される商品配置領域であり、画像上の矩形領域として商品情報テーブル211に設定されているものである。
手首位置判定部221は、画像上の手首の位置(すなわち、骨格情報に含まれる手首のX軸方向およびY軸方向の位置情報が示す位置)が、領域31b等の商品配置領域に含まれるか否かを監視する。そして、手首位置判定部221は、手首の位置が商品配置領域の範囲外から範囲内に移動したことと、その後に手首の位置がその商品配置領域の範囲内から範囲外に移動したことを判定する。
手領域情報生成部222は、顧客の手首の位置がある商品配置領域の範囲外から範囲内に移動したときと、手首の位置がその商品配置領域の範囲内から範囲外に移動したときに、次のような手順で手領域を抽出する。
なお、図13の例では、左手首41aは顧客30の左手首であり、左肘41bは顧客30の左肘である。そして、ここでは左手首41aに対応する手領域の抽出手順を示す。
図13上段に示すように、まず、手領域情報生成部222は、左手首41aの周辺領域41を画像から切り出す。周辺領域41は、所定の大きさの矩形領域であるとする。このとき、手領域情報生成部222は、左手首41a、およびその手首と同じ側の左肘41bの画像上での位置関係に基づき、手が全て含まれるように周辺領域41の中心の位置を算出する。例えば、図13上段では、周辺領域41の中心点41cの画像上の座標は、左手首41aと左肘41bとを結んだ直線上であって、左手首41aを起点として左肘41bとは反対方向へ所定の距離移動した座標となる。
なお、動作判定部220は、手首の位置とその手首と同じ側の手の位置に基づいて中心点41cの位置を算出してもよい。また、動作判定部220は、周辺領域41の大きさを、左手首41aと左肘41bとの距離に基づいて変化させてもよい。
次に、手領域情報生成部222は、画像から切り出した周辺領域41から、左手首41aの深度に基づき、手領域を規定する深度の範囲を算出する。以下、手領域を規定する深度の範囲を“手領域の深度範囲”と記載する場合がある。例えば、手首の深度をαとすれば、手領域の深度範囲は、“α−β”〜“α+β”の範囲と算出される。
そして、手領域情報生成部222は、算出した手領域の深度範囲外の深度を有する画素を周辺領域41から削除し、削除後の画素からなる領域を手領域として抽出する。例えば、図13上段に示すように、周辺領域41には、背景が映った領域41dと、手が映った領域41eが含まれる。領域41d内の各画素の深度は、左手首41aの深度に基づいて算出された手領域の深度範囲外であり、領域41e内の各画素の深度は、左手首41aの深度に基づいて算出された手領域の深度範囲内である。このとき、周辺領域41から、手領域の深度範囲外である深度の画素を削除すると、図13下段に示すように、残りの領域41eが手領域として抽出される。
図14は、顧客が商品を手に取っていないときの手領域の画像の例を示す図である。また、図15は、顧客が商品を手に取っているときの手領域の画像の例を示す図である。
図14〜15において、顧客の手首が商品配置領域の範囲内から範囲外に移動したときに撮像された画像から手領域が抽出されているものとする。そして、その手領域に含まれる画素群に対する特定色画素の割合は、100%とする。また、図14〜15では、顧客の手首が商品配置領域の範囲を出入りしたときの各手領域について、特定色画素の割合の差が20%以上の場合、商品を手に取ったと判定されるものとする。
図14に示す手領域42は、顧客30が手に何も持っていない状態で、左手首41aが領域31bの範囲内から範囲外へ移動したときに、撮像された画像に基づき抽出された手領域である。図14に示すように、手領域42には、特定色画素のみが含まれ、非特定色画素は含まれていない。そのため、手領域42内の全体の画素における、特定色画素の割合は100%となり、手首が領域31bの範囲内に移動したときの手領域との特定色画素の割合(100%)の差がないため(すなわち20%未満であるため)、顧客30は、商品を手に取っていないと判定される。
一方、図15に示す手領域43は、顧客30が手に商品を持った状態で、左手首41aが領域31bの範囲内から範囲外へ移動したときに、撮像された画像に基づき抽出された手領域である。手領域43の画像は、特定色画素からなる領域43aと、非特定色画素からなる領域43bとを含む。例えば、領域43a,43bそれぞれの画素数が同じであるとすると、手領域43内の全体の画素における特定色画素の割合は50%となる。そのため、手首が領域31bの範囲内に移動したときの手領域との特定色画素の割合(100%)の差が20%以上となり、顧客30は、商品を手に取っていると判定される。
図13〜15で説明したように、手領域情報生成部222は、顧客30の手首が商品配置領域を出入りしたとき、画像上での手首の周辺の領域から、手首の位置を含む所定の深度範囲内の深度を有する画素群を手領域として抽出する。
また、手領域情報生成部222は、顧客30の手首が商品配置領域を出入りしたときの、各手領域における特定色画素の割合の差分に基づき、顧客30が商品を手に取ったかを判定する。
ここで、手領域情報生成部222は、例えば、手首が商品配置領域を出入りしたときの各手領域における特定色画素の数に基づいて、商品を手に取ったか判定するようにしてもよい。ただし、この方法では、商品配置領域を出入りするときの手首の角度により特定色画素の数が変わり、商品を手に取ったかを精度良く判定できない場合がある。そこで、上記のように、特定色画素の割合に基づき、商品を手に取ったか判定することで、商品配置領域を出入りするときの手首の角度が変わったときも、商品を手に取ったかを精度良く判定できる。
また、手領域情報生成部222は、例えば、手首が商品配置領域の範囲内から範囲外へ移動した場合に抽出された手領域の情報のみに基づいて、商品を手に取ったか判定するようにしてもよい。この場合、手領域情報生成部222は、例えば、手領域における特定色画素の割合が所定の閾値以上である場合に、商品を手に取ったと判定する。ただし、この方法では、顧客が長袖の服を着ている等により、手領域に特定の色彩特徴量を有さない画素群が常時一定割合以上含まれる場合も、商品を手に取ったと誤判定される場合がある。そこで、商品配置領域を出入りしたときの各手領域の情報を比較することで、手領域に特定の色以外の色の画素が常時含まれる場合も、商品を手に取ったかを精度良く判定できる。
図16は、顧客が商品を手に取っているか判定する処理の例を示すフローチャートである。図16〜17の処理の開始時は、画像上において、顧客の手首の位置は、商品配置領域の範囲外であるものとする。以下、図16〜17に示す処理をステップ番号に沿って説明する。
(S11)手首位置判定部221は、画像のデータ、その画像に対応する深度情報および画像に映る顧客の骨格情報を、センサデバイス100から受信する。
(S12)手首位置判定部221は、受信した画像に映る顧客の手首の位置が、何れかの商品配置領域の範囲外から範囲内へ移動したか判定する。画像上の手首の位置は、受信した骨格情報の右手首または左手首に対応する位置情報の項目から取得される。商品配置領域は、商品情報テーブル211の領域情報の項目から取得される。具体的には、手首位置判定部221は、受信した骨格情報に含まれる右手首または左手首の位置が、商品情報テーブル211の何れかの領域情報が示す商品配置領域の範囲内へ移動したか判定する。
手首の位置が商品配置領域の範囲内に移動した場合、処理をステップS13へ進める。手首の位置が商品配置領域の範囲外のままである場合、処理をステップS11へ進める。
すなわち、手首位置判定部221は、顧客の手首の位置が何れかの商品配置領域の範囲内へ移動したときの画像を受信するまで、ステップS11〜S12を繰り返す。
(S13)手領域情報生成部222は、受信した画像から手首の周辺領域を切り出す。すなわち、手領域情報生成部222は、図13上段で説明したように、画像上における、商品配置領域の範囲内に移動した手首の位置と、その手首と同じ側の肘の位置とに基づき、手首の周辺領域を算出する。
手首の位置は、商品配置領域の範囲内に移動した手首を示す情報を含むレコードを骨格情報から検索し、検索したレコードから位置情報の項目の値を読み出すことで得られる。肘の位置は、商品配置領域の範囲内に移動した手首と同じ側の肘を示す情報を含むレコードを骨格情報から検索し、検索したレコードから位置情報の項目の値を読み出すことで得られる。
(S14)手領域情報生成部222は、算出された手首の周辺領域から、その手首の深度に基づき、手首の位置を含む深度範囲内の深度を有する画素群を手領域として抽出する。手首の位置を含む深度範囲は、例えば、図13で説明したように、手首の深度を中心としたZ軸方向の一定範囲として算出される。
(S15)手領域情報生成部222は、特定色画素の数および非特定色画素の数を、抽出した手領域からカウントする。特定色画素であるかは、特定の色を示す色彩特徴量の閾値範囲が予め設定され、各画素の色彩特徴量が予め設定された閾値範囲内であるかにより判定される。
次に、手領域情報生成部222は、手領域情報を生成する。手領域情報において、手領域IDの項目には、手領域の識別子が設定され、状態の項目には、“IN”が設定される。また、特定色画素数の項目には、カウントした特定色画素の数を示す情報が設定され、非特定色画素数の項目には、カウントした非特定色画素の数を示す情報が設定される。
そして、手領域情報生成部222は、生成した手領域情報を手領域情報テーブル215aへ登録する。
(S16)手首位置判定部221は、画像のデータ、その画像に対応する深度情報および画像に映る顧客の骨格情報を、センサデバイス100から受信する。
(S17)手首位置判定部221は、受信した画像において、ステップS12で商品配置領域の範囲内に移動したと判定された手首の位置が、同じ商品配置領域の範囲外へ移動したか判定する。手首の位置および肘の位置は、ステップS12と同様の方法で取得される。
手首の位置が商品配置領域の範囲外になった場合、処理をステップS18へ進める。手首の位置が商品配置領域の範囲内のままである場合、処理をステップS16へ進める。
すなわち、手首位置判定部221は、顧客の手首の位置が商品配置領域の範囲内から範囲外へ移動したときの画像を受信するまで、ステップS16〜S17を繰り返す。
(S18)手領域情報生成部222は、ステップS13と同様の方法で、受信した画像から手首の周辺領域を切り出す。
(S19)手領域情報生成部222は、ステップS14と同様の方法で、切り出した手首の周辺領域の各画素の深度と、手首の深度とに基づいて、手領域を抽出する。
(S20)手領域情報生成部222は、ステップS15と同様の方法で、特定色画素の数および非特定色画素の数を、抽出した手領域からカウントする。
次に、手領域情報生成部222は、手領域情報を生成する。手領域情報において、手領域IDの項目には、ステップS15で設定された手領域の識別子と同じ識別子が設定され、状態の項目には、“OUT”が設定される。また、特定色画素数の項目には、カウントした手領域内の特定色画素の数を示す情報が設定され、非特定色画素数の項目には、カウントした非特定色画素の数を示す情報が設定される。
そして、手領域情報生成部222は、生成した手領域情報を手領域情報テーブル215aへ登録する。
図17は、顧客が商品を手に取っているか判定する処理の例を示すフローチャート(続き)である。
(S21)手領域情報比較部223は、ステップS15で登録した手領域における特定色画素の割合と、ステップS20で登録した手領域における特定色画素の割合とを算出する。それぞれの手領域における特定色画素の割合は、“特定色画素数/(特定色画素数+非特定色画素数)”により算出される。
手領域情報比較部223は、算出した特定色画素の割合同士の差が閾値未満か判定する。特定色画素の割合同士の差が閾値未満である場合、すなわち、画像に映る顧客が商品を手に取っていないと判定した場合、処理を終了する。特定色画素の割合同士の差が閾値以上、すなわち、商品を手に取ったと判定した場合、処理をステップS22へ進める。
(S22)出力部230は、顧客が手に取った商品に関する情報を出力する。顧客が手に取った商品は、手首が出入りした商品配置領域に対応するレコードを商品情報テーブル211から検索することで特定される。出力部230は、例えば、顧客が手に取った商品の識別情報やその時点での時刻情報等を、ログファイルに書き出す。あるいは、出力部230は、顧客が手に取った商品に関する何らかの情報をディスプレイ21に表示させる。また、出力部230は、例えば、顧客がその商品の比較や検討を行ったこと等、顧客の購買行動を示す所定のステータス情報を出力してもよい。
第2の実施の形態の動作判定システム3によれば、画像に映る顧客の手首の位置が商品配置領域を出入りしたときのそれぞれについて、その画像から手領域を抽出し、その画像に含まれる特定色画素の割合に基づき、顧客がその領域に配置されている商品を手に取ったか判定する。これにより、顧客が商品を手に取ったかを精度良く判定できる。
また、顧客の手首の深度に基づいて、手領域に含まれる画素群の深度範囲を算出し、画像上の手首の周辺領域のうち、算出した深度範囲内の深度を有する画素群を手領域として抽出する。そして、抽出された手領域の画素について特定色画素または非特定色画素の何れかに分類する。これにより、手領域を精度良く取得できるため、顧客が商品を手に取ったか精度良く判定できる。また、特定色画素か非特定色画素かを分類する画素の範囲を手領域の範囲に限定できるため、その分類する処理の負担を軽減できる。また、分類する範囲を手領域に限定することで、特定色画素の割合が上がり、商品を手に取ったかを精度良く判定できる。
また、特定色画素の割合に基づいて商品を手に取ったか判定することで、商品配置領域を出入りしたときの手首の角度の変化に関わらず、商品を手に取ったか精度良く判定できる。
また、顧客の手首の位置が商品配置領域を出入りしたときのそれぞれについて生成した手領域の画像に基づいて判定することで、手領域に特定色以外の画素が一定割合以上常時含まれている場合でも、商品を手に取ったか精度良く判定できる。
さらに、顧客の手首の画像上の位置と、手首と同じ側の肘の画像上の位置との関係に基づいて手首の周辺領域を算出することで、手首の角度や手の開き方等により手の一部が手首の周辺領域に収まらなくなることを防止できるため、商品を手に取ったか精度良く判定できる。
店舗において、顧客が商品と手に取ったか否かは、重要な情報である。というのは、商品と手に取ったということは、顧客が、その商品に少なくとも何らかの関心を持ったことを意味する。すなわち、実際にはその商品は購入されるに至らなかったとしても、顧客が商品を購入しようか否かを検討したであろうと推定できるからである。商品が手に取られたことと、実際に購入されたこととの関係を分析すれば、商品自体の改善や、商品を陳列する商品棚の配置の改善等を検討する際の材料とすることができる。
[第3の実施の形態]
次に、第3の実施の形態の動作判定システムについて説明する。第3の実施の形態の動作判定システムは、第2の実施の形態の動作判定システム3を、手領域に含まれる画素を分類する基準となる、特定の色を示す色彩特徴量の閾値範囲を、手領域に含まれる各画素の色彩特徴量に基づいて決定するように変形したものである。
例えば、顧客が肌色以外の色の手袋をしていた場合、色彩特徴量の閾値範囲を肌色を示すように設定すると特定色画素の数が“0”となり、顧客が商品を手に取ったかを精度良く判定できない可能性がある。
そこで、図18では、顧客の手首の位置が商品配置領域の範囲外から範囲内へ移動する度に、手領域に含まれる各画素の色彩特徴量に基づいて、色彩特徴量の閾値範囲を設定する例について説明する。図18において、第2の実施の形態と差異のある点を説明し、第2の実施の形態と同じ構成や処理については説明を省略する。
図18は、第3の実施の形態の顧客が商品を手に取っているか判定する処理の例を示すフローチャートである。第2の実施の形態との違いは、ステップS14とステップS15の間にステップS14aが追加される点である。図18では、色彩特徴量をRGBで表現するものとする。以下、ステップS14aについて説明する。
(S14a)手領域情報生成部222は、画像から抽出した手領域に含まれる各画素の色彩特徴量に基づいて、特定色を示す色彩特徴量の閾値範囲を設定する。
例えば、手領域情報生成部222は、手領域内の全画素について色彩特徴量を構成する色成分ごとに平均値を算出し、算出した平均値を基準とした一定の閾値範囲を色成分ごとに算出する。そして、手領域情報生成部222は、算出した色成分ごとの閾値範囲を、ステップS15,S20で特定色画素を分類する際に用いる閾値範囲に設定する。
なお、閾値範囲は、このような色成分の平均値の他、例えば、手領域に含まれる全画素についての色彩特徴量の統計情報に基づいて算出されてもよい。
第3の実施の形態の動作判定システムによれば、画像上における顧客の手首の位置が商品配置領域の範囲外から範囲内に移動する度に、手領域に含まれる各画素の色彩特徴量に基づいて、特定色画素を分類するための色彩特徴量の閾値範囲が設定される。これにより、顧客の肌の色や、手に身につけているものにかかわらず、顧客が商品を手に取ったかを精度良く判定できる。
なお、前述のように、第1の実施の形態の情報処理は、情報処理装置2にプログラムを実行させることで実現でき、第2の実施の形態の情報処理は、センサデバイス100や動作判定装置200にプログラムを実行させることで実現できる。このようなプログラムは、コンピュータ読み取り可能な記録媒体(例えば、記録媒体23)に記録しておくことができる。記録媒体としては、例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ等を使用できる。磁気ディスクには、FDおよびHDDが含まれる。光ディスクには、CD、CD−R(Recordable)/RW(Rewritable)、DVDおよびDVD−R/RWが含まれる。
プログラムを流通させる場合、例えば、当該プログラムを記録した可搬記録媒体が提供される。コンピュータは、例えば、可搬記録媒体に記録されたプログラムまたは他のコンピュータから受信したプログラムを、記憶装置(例えば、HDD203)に格納し、当該記憶装置からプログラムを読み込んで実行する。ただし、可搬記録媒体から読み込んだプログラムを直接実行してもよい。また、上記の情報処理の少なくとも一部を、DSP(Digital Signal Processing)、ASIC、PLD(Programmable Logic Device)等の電子回路で実現することも可能である。
以上の第1〜3の実施の形態を含む実施の形態に関し、さらに以下の付記を開示する。
(付記1) 情報処理装置が、
撮像装置によって撮像された画像のデータと、前記画像に映った被写体と前記撮像装置との間の画素ごとの距離と、前記画像に映った人物の手首についての当該画像における座標および前記撮像装置との距離とを取得して、前記画像から、座標が前記手首の座標を含む所定座標範囲に含まれ、かつ、距離が前記手首の位置を含む所定距離範囲に含まれる画素群を抽出し、
抽出された前記画素群における特定の色彩特徴量を有する画素の割合に基づいて、前記人物が物体を手に取ったかを判定する、
ことを特徴とする動作判定方法。
(付記2) 前記手首が被写体空間上の所定領域の内部から外部へ移動したことを検知したときに、前記画素群の抽出および前記人物が物体を手に取ったかの判定を行うことを特徴とする付記1記載の動作判定方法。
(付記3) 前記手首が被写体空間上の前記所定領域の外部から内部へ移動した第1のタイミングと、前記手首が当該所定領域の内部から外部へ移動した第2のタイミングとで、それぞれ、撮像された画像のデータと画素ごとの距離と前記手首の座標および距離とを取得して前記画素群の抽出を行い、
前記第1のタイミングで抽出された前記画素群における特定の色彩特徴量を有する画素の割合と、前記第2のタイミングで抽出された前記画素群における特定の色彩特徴量を有する画素の割合との比較結果に基づいて、前記人物が物体を手に取ったかを判定する、
ことを特徴とする付記1または2に記載の動作判定方法。
(付記4) 前記特定の色彩特徴量は、前記第1のタイミングで抽出された前記画素群における各画素の色彩特徴量に基づいて算出されることを特徴とする付記3記載の動作判定方法。
(付記5) 前記手首が被写体空間上の前記所定領域の内部にあるか否かは、画像に予め設定された設定領域に、前記手首の座標が含まれるか否かによって検知されることを特徴とする付記2乃至4の何れか1つに記載の動作判定方法。
(付記6) 前記所定座標範囲は、前記手首の座標と、前記人物の肩から指先までの間の前記手首を除く他の箇所の座標との位置関係に基づいて算出されることを特徴とする付記1乃至5の何れか1つに記載の動作判定方法。
(付記7) 前記特定の色彩特徴量は、肌色を示す色彩特徴量であることを特徴とする付記1乃至6の何れか1つに記載の動作判定方法。
(付記8) 撮像装置によって撮像された画像のデータと、前記画像に映った被写体と前記撮像装置との間の画素ごとの距離と、前記画像に映った人物の手首についての当該画像における座標および前記撮像装置との距離とを取得して、前記画像から、座標が前記手首の座標を含む所定座標範囲に含まれ、かつ、距離が前記手首の位置を含む所定距離範囲に含まれる画素群を抽出する領域抽出部と、
抽出された前記画素群における特定の色彩特徴量を有する画素の割合に基づいて、前記人物が物体を手に取ったかを判定する判定部と、
を有することを特徴とする動作判定装置。
(付記9) 前記領域抽出部は、前記手首が被写体空間上の所定領域の内部から外部へ移動したことを検知したときに、前記画素群を抽出し、
前記判定部は、抽出された前記画素群に基づき、前記人物が物体を手に取ったかの判定を行うことを特徴とする付記8記載の動作判定装置。
(付記10) 前記領域抽出部は、前記手首が被写体空間上の前記所定領域の外部から内部へ移動した第1のタイミングと、前記手首が当該所定領域の内部から外部へ移動した第2のタイミングとで、それぞれ、撮像された画像のデータと画素ごとの距離と前記手首の座標および距離とを取得して前記画素群の抽出を行い、
前記判定部は、前記第1のタイミングで抽出された前記画素群における特定の色彩特徴量を有する画素の割合と、前記第2のタイミングで抽出された前記画素群における特定の色彩特徴量を有する画素の割合との比較結果に基づいて、前記人物が物体を手に取ったかを判定する、
ことを特徴とする付記8または9に記載の動作判定装置。
(付記11) 前記領域抽出部は、前記第1のタイミングで抽出された前記画素群における各画素の色彩特徴量に基づいて、前記特定の色彩特徴量を算出することを特徴とする付記10記載の動作判定装置。
(付記12) 前記領域抽出部は、画像に予め設定された設定領域に、前記手首の座標が含まれるか否かによって、前記手首が被写体空間上の前記所定領域の内部にあるか否かを検知することを特徴とする付記9乃至11の何れか1つに記載の動作判定装置。
(付記13) 前記領域抽出部は、前記手首の座標と、前記人物の肩から指先までの間の前記手首を除く他の箇所の座標との位置関係に基づいて前記所定座標範囲を算出することを特徴とする付記8乃至12の何れか1つに記載の動作判定装置。
(付記14) 前記特定の色彩特徴量は、肌色を示す色彩特徴量であることを特徴とする付記8乃至13の何れか1つに記載の動作判定装置。
(付記15) コンピュータが、
撮像装置によって撮像された画像のデータと、前記画像に映った被写体と前記撮像装置との間の画素ごとの距離と、前記画像に映った人物の手首についての当該画像における座標および前記撮像装置との距離とを取得して、前記画像から、座標が前記手首の座標を含む所定座標範囲に含まれ、かつ、距離が前記手首の位置を含む所定距離範囲に含まれる画素群を抽出し、
抽出された前記画素群における特定の色彩特徴量を有する画素の割合に基づいて、前記人物が物体を手に取ったかを判定する、
処理を実行させることを特徴とする動作判定プログラム。
1 撮像装置
2 情報処理装置
10 画像
11 人物
11a 手首
12 物体
13 背景
14 所定座標範囲
15 画素群
S1,S2 ステップ

Claims (9)

  1. 情報処理装置が、
    撮像装置によって撮像された画像のデータと、前記画像に映った被写体と前記撮像装置との間の画素ごとの距離と、前記画像に映った人物の手首についての当該画像における座標および前記撮像装置との距離とを取得して、前記画像から、座標が前記手首の座標を含む所定座標範囲に含まれ、かつ、距離が前記手首の位置を含む所定距離範囲に含まれる画素群を抽出し、
    抽出された前記画素群における特定の色彩特徴量を有する画素の割合に基づいて、前記人物が物体を手に取ったかを判定する、
    ことを特徴とする動作判定方法。
  2. 前記手首が被写体空間上の所定領域の内部から外部へ移動したことを検知したときに、前記画素群の抽出および前記人物が物体を手に取ったかの判定を行うことを特徴とする請求項1記載の動作判定方法。
  3. 前記手首が被写体空間上の前記所定領域の外部から内部へ移動した第1のタイミングと、前記手首が当該所定領域の内部から外部へ移動した第2のタイミングとで、それぞれ、撮像された画像のデータと画素ごとの距離と前記手首の座標および距離とを取得して前記画素群の抽出を行い、
    前記第1のタイミングで抽出された前記画素群における特定の色彩特徴量を有する画素の割合と、前記第2のタイミングで抽出された前記画素群における特定の色彩特徴量を有する画素の割合との比較結果に基づいて、前記人物が物体を手に取ったかを判定する、
    ことを特徴とする請求項1または2に記載の動作判定方法。
  4. 前記特定の色彩特徴量は、前記第1のタイミングで抽出された前記画素群における各画素の色彩特徴量に基づいて算出されることを特徴とする請求項3記載の動作判定方法。
  5. 前記手首が被写体空間上の前記所定領域の内部にあるか否かは、画像に予め設定された設定領域に、前記手首の座標が含まれるか否かによって検知されることを特徴とする請求項2乃至4の何れか1項に記載の動作判定方法。
  6. 前記所定座標範囲は、前記手首の座標と、前記人物の肩から指先までの間の前記手首を除く他の箇所の座標との位置関係に基づいて算出されることを特徴とする請求項1乃至5の何れか1項に記載の動作判定方法。
  7. 前記特定の色彩特徴量は、肌色を示す色彩特徴量であることを特徴とする請求項1乃至6の何れか1項に記載の動作判定方法。
  8. 撮像装置によって撮像された画像のデータと、前記画像に映った被写体と前記撮像装置との間の画素ごとの距離と、前記画像に映った人物の手首についての当該画像における座標および前記撮像装置との距離とを取得して、前記画像から、座標が前記手首の座標を含む所定座標範囲に含まれ、かつ、距離が前記手首の位置を含む所定距離範囲に含まれる画素群を抽出する領域抽出部と、
    抽出された前記画素群における特定の色彩特徴量を有する画素の割合に基づいて、前記人物が物体を手に取ったかを判定する判定部と、
    を有することを特徴とする動作判定装置。
  9. コンピュータが、
    撮像装置によって撮像された画像のデータと、前記画像に映った被写体と前記撮像装置との間の画素ごとの距離と、前記画像に映った人物の手首についての当該画像における座標および前記撮像装置との距離とを取得して、前記画像から、座標が前記手首の座標を含む所定座標範囲に含まれ、かつ、距離が前記手首の位置を含む所定距離範囲に含まれる画素群を抽出し、
    抽出された前記画素群における特定の色彩特徴量を有する画素の割合に基づいて、前記人物が物体を手に取ったかを判定する、
    処理を実行させることを特徴とする動作判定プログラム。
JP2013247978A 2013-11-29 2013-11-29 動作判定方法、動作判定装置および動作判定プログラム Expired - Fee Related JP6194777B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013247978A JP6194777B2 (ja) 2013-11-29 2013-11-29 動作判定方法、動作判定装置および動作判定プログラム
US14/551,162 US9298989B2 (en) 2013-11-29 2014-11-24 Method and apparatus for recognizing actions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013247978A JP6194777B2 (ja) 2013-11-29 2013-11-29 動作判定方法、動作判定装置および動作判定プログラム

Publications (2)

Publication Number Publication Date
JP2015106281A JP2015106281A (ja) 2015-06-08
JP6194777B2 true JP6194777B2 (ja) 2017-09-13

Family

ID=53265601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013247978A Expired - Fee Related JP6194777B2 (ja) 2013-11-29 2013-11-29 動作判定方法、動作判定装置および動作判定プログラム

Country Status (2)

Country Link
US (1) US9298989B2 (ja)
JP (1) JP6194777B2 (ja)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9282228B2 (en) 2013-01-05 2016-03-08 The Lightco Inc. Camera methods and apparatus using optical chain modules which alter the direction of received light
US9549127B2 (en) 2013-10-18 2017-01-17 Light Labs Inc. Image capture control methods and apparatus
US9374514B2 (en) 2013-10-18 2016-06-21 The Lightco Inc. Methods and apparatus relating to a camera including multiple optical chains
US9423588B2 (en) 2013-10-18 2016-08-23 The Lightco Inc. Methods and apparatus for supporting zoom operations
US9736365B2 (en) 2013-10-26 2017-08-15 Light Labs Inc. Zoom related methods and apparatus
US9467627B2 (en) 2013-10-26 2016-10-11 The Lightco Inc. Methods and apparatus for use with multiple optical chains
US9686471B2 (en) 2013-11-01 2017-06-20 Light Labs Inc. Methods and apparatus relating to image stabilization
US9554031B2 (en) 2013-12-31 2017-01-24 Light Labs Inc. Camera focusing related methods and apparatus
US10931866B2 (en) 2014-01-05 2021-02-23 Light Labs Inc. Methods and apparatus for receiving and storing in a camera a user controllable setting that is used to control composite image generation performed after image capture
US9979878B2 (en) 2014-02-21 2018-05-22 Light Labs Inc. Intuitive camera user interface methods and apparatus
US9462170B2 (en) 2014-02-21 2016-10-04 The Lightco Inc. Lighting methods and apparatus
WO2015136847A1 (ja) * 2014-03-12 2015-09-17 日本電気株式会社 陳列状況解析装置、陳列状況解析方法およびプログラム記録媒体
WO2015164770A1 (en) 2014-04-24 2015-10-29 Diassess Inc. Colorimetric detection of nucleic acid amplification
JP6197952B2 (ja) * 2014-05-12 2017-09-20 富士通株式会社 商品情報出力方法、商品情報出力プログラムおよび制御装置
CN106575366A (zh) 2014-07-04 2017-04-19 光实验室股份有限公司 关于检测和/或指示脏镜头状况的方法和装置
WO2016007799A1 (en) 2014-07-09 2016-01-14 The Lightco Inc. Camera device including multiple optical chains and related methods
US9912865B2 (en) 2014-10-17 2018-03-06 Light Labs Inc. Methods and apparatus for supporting burst modes of camera operation
CN107211099A (zh) 2014-12-17 2017-09-26 光实验室股份有限公司 用于实施并使用摄像机装置的方法及设备
US9544503B2 (en) * 2014-12-30 2017-01-10 Light Labs Inc. Exposure control methods and apparatus
US9824427B2 (en) 2015-04-15 2017-11-21 Light Labs Inc. Methods and apparatus for generating a sharp image
US9857584B2 (en) 2015-04-17 2018-01-02 Light Labs Inc. Camera device methods, apparatus and components
US10091447B2 (en) 2015-04-17 2018-10-02 Light Labs Inc. Methods and apparatus for synchronizing readout of multiple image sensors
US10075651B2 (en) 2015-04-17 2018-09-11 Light Labs Inc. Methods and apparatus for capturing images using multiple camera modules in an efficient manner
US9967535B2 (en) 2015-04-17 2018-05-08 Light Labs Inc. Methods and apparatus for reducing noise in images
US9930233B2 (en) 2015-04-22 2018-03-27 Light Labs Inc. Filter mounting methods and apparatus and related camera apparatus
US10129483B2 (en) 2015-06-23 2018-11-13 Light Labs Inc. Methods and apparatus for implementing zoom using one or more moveable camera modules
US10491806B2 (en) 2015-08-03 2019-11-26 Light Labs Inc. Camera device control related methods and apparatus
US10365480B2 (en) 2015-08-27 2019-07-30 Light Labs Inc. Methods and apparatus for implementing and/or using camera devices with one or more light redirection devices
US10051182B2 (en) 2015-10-05 2018-08-14 Light Labs Inc. Methods and apparatus for compensating for motion and/or changing light conditions during image capture
US9749549B2 (en) 2015-10-06 2017-08-29 Light Labs Inc. Methods and apparatus for facilitating selective blurring of one or more image portions
JP6841232B2 (ja) * 2015-12-18 2021-03-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10225445B2 (en) 2015-12-18 2019-03-05 Light Labs Inc. Methods and apparatus for providing a camera lens or viewing point indicator
US10003738B2 (en) 2015-12-18 2018-06-19 Light Labs Inc. Methods and apparatus for detecting and/or indicating a blocked sensor or camera module
US10360572B2 (en) * 2016-03-07 2019-07-23 Ricoh Company, Ltd. Image processing system, method and computer program product for evaluating level of interest based on direction of human action
US10306218B2 (en) 2016-03-22 2019-05-28 Light Labs Inc. Camera calibration apparatus and methods
US9948832B2 (en) 2016-06-22 2018-04-17 Light Labs Inc. Methods and apparatus for synchronized image capture in a device including optical chains with different orientations
CN106529467B (zh) * 2016-11-07 2019-08-23 南京邮电大学 基于多特征融合的群体行为识别方法
CN108229251A (zh) * 2016-12-15 2018-06-29 中国移动通信有限公司研究院 一种动作识别方法及装置
US10146909B2 (en) * 2017-04-06 2018-12-04 Diassess Inc. Image-based disease diagnostics using a mobile device
US11080848B2 (en) 2017-04-06 2021-08-03 Lucira Health, Inc. Image-based disease diagnostics using a mobile device
US20210142490A1 (en) 2017-06-21 2021-05-13 Nec Corporation Information processing apparatus, control method, and program
US10549275B2 (en) 2017-09-14 2020-02-04 Lucira Health, Inc. Multiplexed biological assay device with electronic readout
JP7004218B2 (ja) * 2018-05-14 2022-01-21 オムロン株式会社 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム
CN108764100B (zh) * 2018-05-22 2022-03-25 全球能源互联网研究院有限公司 一种目标行为检测方法及服务器
CN108710868B (zh) * 2018-06-05 2020-09-04 中国石油大学(华东) 一种基于复杂场景下的人体关键点检测系统及方法
CN109002780B (zh) * 2018-07-02 2020-12-18 深圳码隆科技有限公司 一种购物流程控制方法、装置和用户终端
CN109145803B (zh) * 2018-08-14 2022-07-22 京东方科技集团股份有限公司 手势识别方法及装置、电子设备、计算机可读存储介质
CN109325800A (zh) * 2018-08-28 2019-02-12 广州洪荒智能科技有限公司 一种基于计算机视觉的超市智能货架的工作方法
US11055539B2 (en) * 2018-09-27 2021-07-06 Ncr Corporation Image processing for distinguishing individuals in groups
US11176597B2 (en) * 2018-10-30 2021-11-16 Ncr Corporation Associating shoppers together
CN111222379A (zh) * 2018-11-27 2020-06-02 株式会社日立制作所 一种手部检测方法及装置
CN111325492B (zh) * 2018-12-14 2023-04-28 阿里巴巴集团控股有限公司 供应链优化方法及系统
US10769896B1 (en) * 2019-05-01 2020-09-08 Capital One Services, Llc Counter-fraud measures for an ATM device
JP7103998B2 (ja) * 2019-06-05 2022-07-20 Kddi株式会社 骨格抽出方法、装置およびプログラム
US11113541B2 (en) * 2019-10-25 2021-09-07 7-Eleven, Inc. Detection of object removal and replacement from a shelf
CN111679737B (zh) * 2020-05-27 2022-06-21 维沃移动通信有限公司 手部分割方法和电子设备
USD962470S1 (en) 2020-06-03 2022-08-30 Lucira Health, Inc. Assay device with LCD display
JP7318753B2 (ja) * 2021-06-30 2023-08-01 富士通株式会社 情報処理プログラム、情報処理方法、および情報処理装置
CN114120180B (zh) * 2021-11-12 2023-07-21 北京百度网讯科技有限公司 一种时序提名的生成方法、装置、设备及介质
WO2023228414A1 (ja) * 2022-05-27 2023-11-30 富士通株式会社 情報処理プログラム、情報処理方法、および情報処理装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001128814A (ja) * 1999-11-01 2001-05-15 Atr Media Integration & Communications Res Lab 物品の出し入れ検出装置
JP2006215116A (ja) * 2005-02-01 2006-08-17 Sharp Corp 撮影機能付表示装置、該装置の表示制御方法、表示制御プログラム、および該プログラムを記録した記録媒体
KR101581954B1 (ko) * 2009-06-25 2015-12-31 삼성전자주식회사 실시간으로 피사체의 손을 검출하기 위한 장치 및 방법
JP5536510B2 (ja) 2010-03-31 2014-07-02 株式会社バンダイナムコゲームス プログラム及び画像生成システム
JP2011253344A (ja) 2010-06-02 2011-12-15 Midee Co Ltd 購買行動分析装置、購買行動分析方法、およびプログラム
JP5845002B2 (ja) * 2011-06-07 2016-01-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
KR101305694B1 (ko) * 2011-10-20 2013-09-09 엘지이노텍 주식회사 목표물을 검출하기 위한 영상 처리 방법, 장치, 사용자 인터페이스를 위한 방법 및 장치
GB2500416B8 (en) * 2012-03-21 2017-06-14 Sony Computer Entertainment Europe Ltd Apparatus and method of augmented reality interaction
US9111135B2 (en) * 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US8934675B2 (en) * 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
US9092665B2 (en) * 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US9129155B2 (en) * 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US10533850B2 (en) * 2013-07-12 2020-01-14 Magic Leap, Inc. Method and system for inserting recognized object data into a virtual world

Also Published As

Publication number Publication date
US9298989B2 (en) 2016-03-29
US20150154449A1 (en) 2015-06-04
JP2015106281A (ja) 2015-06-08

Similar Documents

Publication Publication Date Title
JP6194777B2 (ja) 動作判定方法、動作判定装置および動作判定プログラム
US9507437B2 (en) Algorithms, software and an interaction system that support the operation of an on the fly mouse
US20150213498A1 (en) Method and apparatus for providing product information
TWI495842B (zh) 用於判定影像中物體深度之設備及技術
US20150262460A1 (en) Monitoring method and monitoring apparatus
JP5802247B2 (ja) 情報処理装置
CN103576976B (zh) 信息处理装置及其控制方法
TWI578272B (zh) Shelf detection system and method
TWI778030B (zh) 店鋪裝置、店鋪管理方法及程式
US20180336733A1 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
JP2015011649A (ja) 人物行動分析装置、人物行動分析システムおよび人物行動分析方法、ならびに監視装置
WO2017163879A1 (ja) 行動分析装置、行動分析システム、行動分析方法及びプログラム
JP6756338B2 (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
KR20150032661A (ko) 눈 추적을 이용한 사용자 입력 처리
US20150227789A1 (en) Information processing apparatus, information processing method, and program
JP6648508B2 (ja) 購買行動分析プログラム、購買行動分析方法、及び購買行動分析装置
US20160370865A1 (en) Operation Input Device, Operation Input Method, and Program
US20200013169A1 (en) Image processing device, image processing method, and recording medium
CN112001886A (zh) 一种温度检测方法、装置、终端及可读存储介质
JP6217373B2 (ja) 動作判定方法、動作判定装置および動作判定プログラム
US20170011260A1 (en) Interest degree determination device, interest degree determination method, and non-transitory computer-readable recording medium
JP7088281B2 (ja) 商品分析システム、商品分析方法および商品分析プログラム
JP2016062564A (ja) 情報処理装置及び情報処理プログラム
JP6303918B2 (ja) ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置
JP7010030B2 (ja) 店内監視装置、店内監視方法、および店内監視プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170731

R150 Certificate of patent or registration of utility model

Ref document number: 6194777

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees