JP6217373B2 - 動作判定方法、動作判定装置および動作判定プログラム - Google Patents

動作判定方法、動作判定装置および動作判定プログラム Download PDF

Info

Publication number
JP6217373B2
JP6217373B2 JP2013257891A JP2013257891A JP6217373B2 JP 6217373 B2 JP6217373 B2 JP 6217373B2 JP 2013257891 A JP2013257891 A JP 2013257891A JP 2013257891 A JP2013257891 A JP 2013257891A JP 6217373 B2 JP6217373 B2 JP 6217373B2
Authority
JP
Japan
Prior art keywords
customer
person
distance
orientation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013257891A
Other languages
English (en)
Other versions
JP2015114950A (ja
Inventor
伊藤 史
史 伊藤
紗也香 諏訪
紗也香 諏訪
照平 桑原
照平 桑原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013257891A priority Critical patent/JP6217373B2/ja
Priority to US14/559,967 priority patent/US9582721B2/en
Publication of JP2015114950A publication Critical patent/JP2015114950A/ja
Application granted granted Critical
Publication of JP6217373B2 publication Critical patent/JP6217373B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)

Description

本発明は、動作判定方法、動作判定装置および動作判定プログラムに関する。
近年、撮像装置で撮像した画像等を基に人物の動作を判定する技術が開発されている。このような技術としては、人物の向きを判定する技術が挙げられる。例えば、一人の被験者に対応する3Dスキャンデータから抽出した肩の層のデータに主成分分析を施し、その第2主成分を“体の方向”とする技術が提案されている。
また、商品棚等の特定の領域を人物が注目しているかを判定する技術もある。例えば、画像および人物位置計測データに基づいて検出された移動体の領域中から顔の検出を行い、検出された顔画像から視線方向を計算し、人物の注目位置を判定する技術が提案されている。
特開2012−215555号公報 特開2007−286995号公報
ところで、上記のように計算された視線方向に基づいて、人物の向きを判定する方法が考えられる。しかし、この方法では、例えば人物がメガネやサングラスを装着している場合には視線を捉えることができないので、人物の向きを判定可能なシーンが限られるという問題がある。
1つの側面では、本発明は、多くのシーンで人物の向きを判定可能な動作判定方法、動作判定装置および動作判定プログラムを提供することを目的とする。
1つの案では、情報処理装置が行う動作判定方法が提供される。動作判定方法では、まず、情報処理装置は、人物の頭部と基準位置との間の第1の距離、および、人物の首と基準位置との間の第2の距離を取得する。そして、情報処理装置は、第1の距離と第2の距離との比較結果に基づいて人物の向きを判定する。
また、1つの案では、上記動作判定方法と同様の機能を実現する動作判定装置が提供される。
さらに、1つの案では、上記動作判定方法と同様の処理を実行させる動作判定プログラムが提供される。
一側面では、多くのシーンで人物の向きを判定できる。
第1の実施の形態の情報処理装置の処理例を示す図である。 第2の実施の形態の動作判定システムの例を示す図である。 センサデバイスの配置例を示す図である。 センサデバイスのハードウェア構成例を示すブロック図である。 動作判定装置のハードウェア構成例を示すブロック図である。 商品配置領域に手が進入したかの判定例を示す図である。 商品配置領域に手が進入したかの判定例を示す図(続き)である。 センサデバイスおよび動作判定装置の機能例を示すブロック図である。 骨格情報の例を示す図である。 商品情報テーブルの例を示す図である。 顧客の向きが手前方向であるときの対象領域の限定例を示す図である。 顧客の向きが奥方向であるときの対象領域の限定例を示す図である。 顧客が商品を手に取ったか判定する処理の例を示すフローチャートである。 顧客の向きを判定する処理の例を示すフローチャートである。 購入レベルの判定処理の例を示すフローチャートである。 第3の実施の形態のセンサデバイスと骨格との距離への変換例を示す図である。 第3の実施の形態の顧客の向きを判定する処理の例を示すフローチャートである。
以下、本実施の形態を図面を参照して説明する。
[第1の実施の形態]
図1は、第1の実施の形態の情報処理装置の処理例を示す図である。情報処理装置2は、所定の基準位置と人物11の頭部との距離D1(第1の距離)と、この基準位置と人物11の首との距離D2(第2の距離)とを取得可能となっている。距離D1,D2は、例えば、撮像装置によって撮像された画像や、所定のセンサによって計測されたものである。なお、距離D1,D2の測定方法は、特に限定されるものではない。
図1では例として、基準位置に撮像装置1が配置されているものとする。そして、情報処理装置2は、撮像装置1により撮像された画像10に映っている人物11について計測された距離D1,D2を取得する。この場合、距離D1,D2の計測機能は、撮像装置1が備えていてもよいし、撮像装置1とは別のセンサが備えていてもよい。なお、図1の下段に示す線分Lは、撮像装置1の撮像面の位置を示し、これは距離を計測するための基準位置に対応する。
情報処理装置2は、距離D1と距離D2との比較結果に基づいて、人物11の向きを判定する。例えば、図1下段に示すように、距離D1が距離D2以上の場合、人物11の向きは、撮像装置1とは反対方向と判定される。また、例えば、図示していないが、距離D1が距離D2未満の場合、人物11の向きは、撮像装置1の方向と判定される。
このような人物の向きの判定方法によれば、多くのシーンにおいて人物の向きを判定可能となる。例えば、視線方向に基づいて人物の向きを判定する方法では、人物がメガネやサングラスを装着している場合には、視線を捉えることができず、人物の向きを判定することもできない。距離D1,D2の比較結果を基に人物の向きを判定する方法では、このようなシーンでも向きを判定できる。
また、距離D1,D2は市販の装置によって計測可能であるので、情報処理装置2は、距離D1と距離D2とを比較するという簡易な処理によって人物の向きを判定することができる。このため、情報処理装置2の処理負荷を低減でき、また、情報処理装置2の導入コストを抑制することもできる。
[第2の実施の形態]
図2は、第2の実施の形態の動作判定システムの例を示す図である。動作判定システム3は、センサデバイス100および動作判定装置200を有する。センサデバイス100および動作判定装置200は、商品が販売される店舗の中に配置される。あるいは、センサデバイス100のみが店舗の中に配置され、動作判定装置200が店舗の外部に配置されてもよい。なお、センサデバイス100の機能の一部は、第1の実施の形態の撮像装置1の機能の一例である。動作判定装置200は、第1の実施の形態の情報処理装置2の一例である。
センサデバイス100は、画像の撮像機能を有する。センサデバイス100は、店舗内の領域のうち、少なくとも商品が配置された領域を撮像する。例えば、センサデバイス100は、商品が配置される商品棚の領域を撮像する。
また、センサデバイス100は、画像に映った人物(ここでは顧客)の骨格情報を検出する。本実施の形態では、センサデバイス100は、顧客の骨格の部位として、少なくとも手首、首および頭を検出する。また、骨格情報には、対応する部位の位置情報が含まれる。位置情報には、骨格の部位についての、画像における座標と深度とが含まれる。深度とは、センサデバイス100から被写体までの画素ごとの距離を意味する。
センサデバイス100は、撮像した画像のデータと、計測した画素ごとの深度情報と、検出した骨格情報とを動作判定装置200へ送信する。センサデバイス100は、これらの情報を動作判定装置200へ周期的に送信する。なお、センサデバイス100は、画像のデータ等と共に、画像の画素ごとの深度を示す情報を動作判定装置200へ送信してもよい。
動作判定装置200は、顧客の動作を判定するコンピュータである。動作判定装置200は、センサデバイス100から画像のデータや骨格情報を受信する度に、受信した骨格情報や画像のデータ等を解析し、画像に映る顧客が商品を手に取ったか判定する。
このとき、まず、動作判定装置200は、受信した骨格情報に基づいて、画像に映る顧客の向きを判定する。そして、動作判定装置200は、判定した向きに基づき、画像に映る顧客が商品を手に取ったか判定する際に用いる画像上の領域を限定する。
なお、動作判定装置200は、顧客が商品を手に取ったことの判定の他、単に商品の前を通過したことや、商品を注目したことや、商品に興味を持ったこと等の顧客の行動の有無を判定してもよい。
図3は、センサデバイスの配置例を示す図である。図3の例では、商品棚31の上面に商品33が配置される。また、図3の右側にも商品棚32が配置され、商品棚32の上面に商品34が配置される。そして、商品棚31と商品棚32の間の領域が、顧客30が移動する領域となっている。センサデバイス100は、商品棚31に対して、顧客30の移動領域とは反対側の位置に配置される。
この場合、センサデバイス100は、顧客30、商品棚31,32および商品33,34を被写体とした画像のデータと、顧客30の骨格情報とを動作判定装置200へ送信することとなる。
図4は、センサデバイスのハードウェア構成例を示すブロック図である。センサデバイス100は、プロセッサ101、RAM(Random Access Memory)102、フラッシュメモリ103、撮像カメラ104、深度センサ105および通信インタフェース106を有する。これらのユニットは、センサデバイス100内でバス107に接続されている。
プロセッサ101は、プログラムの命令を実行する演算器を含み、例えばCPU(Central Processing Unit)である。プロセッサ101は、フラッシュメモリ103に記憶されているプログラムやデータの少なくとも一部をRAM102にロードしてプログラムを実行する。なお、プロセッサ101は複数のプロセッサコアを備えてもよい。また、センサデバイス100は、複数のプロセッサを備えてもよい。また、センサデバイス100は、複数のプロセッサまたは複数のプロセッサコアを用いて並列処理を行ってもよい。また、2以上のプロセッサの集合、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)等の専用回路、2以上の専用回路の集合、プロセッサと専用回路の組み合わせ等を「プロセッサ」と呼んでもよい。
RAM102は、プロセッサ101が実行するプログラムやプログラムから参照されるデータを一時的に記憶する揮発性メモリである。なお、センサデバイス100は、RAM以外の種類のメモリを備えてもよく、複数個の揮発性メモリを備えてもよい。
フラッシュメモリ103は、ファームウェアやアプリケーションソフトウェア等のプログラムおよびデータを記憶する不揮発性の記憶装置である。なお、センサデバイス100は、HDD(Hard Disk Drive)等の他の種類の記憶装置を備えてもよく、複数個の不揮発性の記憶装置を備えてもよい。
撮像カメラ104は、画像を撮像し、撮像した画像のデータをプロセッサ101へ出力する。
深度センサ105は、撮像カメラ104で撮像された画像の各画素について深度を計測し、プロセッサ101に出力する。深度の計測方式には、例えば、レーザ光線の往復時間により深度を計測するTOF(Time Of Flight)方式や、反射する光線(例えば、赤外線等)のパターンのひずみで深度を計測するパターン照射方式等様々な計測方式があり、何れの方式を採用してもよい。TOF方式およびパターン照射方式が採用される場合、深度センサ105は、レーザ光線や赤外線等の光線照射装置と、照射された光線の反射成分を検出するセンサとを有する。
通信インタフェース106は、他の情報処理装置(例えば、動作判定装置200)と通信を行う。
なお、プロセッサ101に実行させるプログラムは、フラッシュメモリ103に他の記憶装置からコピーするようにしてもよい。
また、センサデバイス100としては、例えば、マイクロソフト社のKinect(登録商標)センサを用いることができる。
図5は、動作判定装置のハードウェア構成例を示すブロック図である。動作判定装置200は、プロセッサ201、RAM202、HDD203、画像信号処理部204、入力信号処理部205、ディスクドライブ206および通信インタフェース207を有する。これらのユニットは、動作判定装置200内でバス208に接続されている。
プロセッサ201は、前述のプロセッサ101と同様に、プログラムの命令を実行する演算器を含む。RAM202は、前述のRAM102と同様に、プロセッサ201が実行するプログラムやデータを一時的に記憶する揮発性メモリである。
HDD203は、OS(Operating System)やファームウェアやアプリケーションソフトウェア等のソフトウェアのプログラムおよびデータを記憶する不揮発性の記憶装置である。なお、動作判定装置200は、フラッシュメモリ等の他の種類の記憶装置を備えてもよく、複数個の不揮発性の記憶装置を備えてもよい。
画像信号処理部204は、プロセッサ201からの命令に従って、動作判定装置200に接続されたディスプレイ21に画像を出力する。ディスプレイ21としては、CRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイ等を用いることができる。
入力信号処理部205は、動作判定装置200に接続された入力デバイス22から入力信号を取得し、プロセッサ201に通知する。入力デバイス22としては、マウスやタッチパネル等のポインティングデバイス、キーボード等を用いることができる。
ディスクドライブ206は、記録媒体23に記録されたプログラムやデータを読み取る駆動装置である。記録媒体23として、例えば、フレキシブルディスク(FD:Flexible Disk)やHDD等の磁気ディスク、CD(Compact Disc)やDVD(Digital Versatile Disc)等の光ディスク、光磁気ディスク(MO:Magneto-Optical disk)を使用できる。ディスクドライブ206は、プロセッサ201からの命令に従って、記録媒体23から読み取ったプログラムやデータをRAM202またはHDD203に格納する。
通信インタフェース207は、他の情報処理装置(例えば、センサデバイス100)と通信を行う。
なお、動作判定装置200はディスクドライブ206を備えていなくてもよく、専ら他の端末装置から制御される場合には、画像信号処理部204や入力信号処理部205を備えていなくてもよい。また、ディスプレイ21や入力デバイス22は、動作判定装置200の筐体と一体に形成されていてもよい。
次に、図6〜7を用いて、動作判定装置200における、顧客の手が商品配置領域に進入したかを判定する判定方法について説明する。商品配置領域とは、所定の商品が配置される一定空間を指し、例えば、顧客がその商品を手に取ったかの判定に用いられる。例えば、商品配置領域は、商品棚の上面における所定の商品が配置される領域から、その上側の一定の高さまでの領域である。
ただし、このような3次元空間に対する手の進入を判定すると、処理が複雑になる。このため、動作判定装置200は、画像上に商品配置領域に対応する2次元領域を設定し、設定された2次元領域に顧客の手(例えば手首の代表位置)が含まれているかにより、商品配置領域に手が進入したか判定する。以下、画像上に設定される、商品配置領域に対応する2次元領域を、“設定領域”と記載する場合がある。
図6は、商品配置領域に手が進入したかの判定例を示す図である。画像4は、センサデバイス100により撮像された画像である。画像4の被写体には、顧客30、商品棚31および商品33が含まれる。商品棚31は、センサデバイス100の正面に設置されている。領域31a,31bは、それぞれ個別の商品が配置される商品棚31上の商品配置領域に対応する設定領域であり、ユーザによって画像上に任意に設定される。例えば、商品33は、領域31bに対応する商品配置領域に配置されている。顧客30は、センサデバイス100から見て商品棚31の奥側に存在する。顧客30の手首30aは、商品配置領域である領域31a,31bの何れにも含まれていない。
ここで、動作判定装置200は、画像4のデータをセンサデバイス100から受信したとする。このとき、受信した画像4に映る顧客30の手首30aの位置は、領域31aに含まれていないため、動作判定装置200は、顧客30の手が領域31bに対応する商品配置領域に進入していないと判定する。
図7は、商品配置領域に手が進入したかの判定例を示す図(続き)である。図7は、図6と同じ内容については説明を省略する。画像5は、図3のように設置された商品棚31,32等がセンサデバイス100により撮像された画像である。画像5の被写体には、画像4に加えて商品棚32および商品34が含まれる。
商品棚32は、センサデバイス100の正面、かつ、センサデバイス100から見て商品棚31の奥に設置されている。領域32a,32bは、それぞれ個別の商品が配置される商品棚32上の商品配置領域に対応する設定領域であり、ユーザによって画像上に任意に設定される。例えば、商品33は、領域31bに対応する商品配置領域に配置され、商品34は、領域32bに対応する商品配置領域に配置されている。顧客30は、センサデバイス100から見て商品棚31の奥側、かつ、商品棚32の手前側に存在する。顧客30の手首30aは、領域32bに含まれている。なお、ここでは顧客30の向きは不明であるとする。
ここで、動作判定装置200は、画像5のデータをセンサデバイス100から受信したとする。このとき、顧客30の状態としては、例えば、センサデバイス100と反対方向に向いた状態で、商品34を手に取ろうとして領域32bに手を進入させた場合と、センサデバイス100の方向に向いた状態で、単に手を挙げた場合とが考えられる。後者の場合、顧客30の手は実際には領域32bに対応する商品配置領域に進入していないことになる。しかし、動作判定装置200は、画像5に映る手首30aの位置が領域32bに含まれているため、顧客30の手が領域32bに対応する商品配置領域に進入したと誤判定することとなる。
この図7の例のように、商品配置領域が顧客30よりセンサデバイス100から見て奥側の被写体上に存在するとき、顧客30の手がその商品配置領域に進入したかを正確に判定できない場合がある。そこで、動作判定装置200は、画像に映った顧客30の向きを判定し、判定した顧客30に向きに基づいて、顧客30の手が進入したかの判定対象とする設定領域を限定することで、誤判定を防止する。
図8以降では、対象領域と顧客の手首との位置関係に基づき、顧客の手が所定の商品配置領域に進入したか判定する方法について説明する。“対象領域”は、商品配置領域に対応する設定領域のうち、顧客の向きに基づいて限定された領域であって、顧客の手首との位置関係が判定される領域を意味する。
図8は、センサデバイスおよび動作判定装置の機能例を示すブロック図である。センサデバイス100は、画像取得部110、骨格検出部120および送信部130を有する。
画像取得部110は、撮像カメラ104によって撮像された画像のデータを所定時間間隔で取得する。
骨格検出部120は、画像のデータと深度センサ105による深度情報とに基づき、画像に映る人物の手首、肘、頭および肩等、予め決められた骨格の部位の位置を検出する。骨格検出部120は、画像取得部110が画像データを取得する度に骨格の部位の位置を検出し、各部位の位置情報を含む骨格情報を生成する。各部位の位置情報には、画像上の位置を示す情報と、センサデバイス100から各部位までの距離(深度)を示す情報とを含む。なお、画像に複数の人物が映っている場合、骨格検出部120は、人物ごとに骨格情報を生成することもできる。センサデバイス100から各部位までの距離(深度)を、“骨格(例えば、頭)の深度”と記載する場合がある。
送信部130は、撮像された画像のデータ、および画像に映る顧客の骨格情報を動作判定装置200へ送信する。
なお、画像取得部110、骨格検出部120および送信部130は、例えば、プロセッサ101が所定のプログラムを実行することで実現される。
動作判定装置200は、商品情報記憶部210および動作判定部220を有する。
商品情報記憶部210は、動作判定システム3を用いる店舗で扱われる商品に関する情報を格納した商品情報テーブルを記憶する。商品に関する情報には、商品に対応する商品が配置される画像上の領域の範囲を示す位置情報が含まれる。商品情報記憶部210は、例えば、HDD203等に確保された不揮発性の記憶領域として実現される。
動作判定部220は、センサデバイス100から受信した情報に基づき、顧客の手が所定の商品配置領域に進入したかを判定する。動作判定部220は、対象領域判定部221、手首位置判定部222および購入レベル判定部223を有する。
対象領域判定部221は、センサデバイス100から受信した顧客の骨格情報を参照し、顧客の向きを判定する。また、対象領域判定部221は、商品情報テーブルに設定されている設定領域から、顧客の手首との位置関係を判定する対象領域を、判定した顧客の向きに基づいて限定する。
手首位置判定部222は、画像上の顧客の手首の位置が、限定された対象領域に含まれるかにより、顧客の手がその対象領域に対応する商品配置領域に進入したか判定する。
購入レベル判定部223は、対象領域判定部221による顧客の向きの判定結果や、手首位置判定部222による判定結果に基づいて、顧客の購入動作を分類した購入レベルを判定する。
なお、商品情報記憶部210は、例えば、RAM202またはHDD203に確保した記憶領域として実現できる。また、対象領域判定部221、手首位置判定部222および購入レベル判定部223は、例えば、プロセッサ201が所定のプログラムを実行することで実現される。
次に、図9〜10を用いて、動作判定システム3で用いる情報やテーブルについて説明する。
図9は、骨格情報の例を示す図である。骨格情報131は、顧客の頭や手首の関節等の各骨格の位置を示す情報である。骨格情報131は、骨格検出部120により生成される。骨格情報131は、顧客ID(Identification)、部位および位置情報の項目を有する。
顧客IDの項目には、画像に映る顧客を識別するための識別子が設定される。部位の項目には、部位の種別を示す情報が設定される。位置情報の項目には、部位の位置情報が設定される。動作判定システム3において、位置情報は、“(X軸方向の位置,Y軸方向の位置,Z軸方向の位置)”で表される。X軸は、撮像カメラ104の光軸と直交する横方向の軸であり、撮像カメラ104から見て左方向を正とする。Y軸は、撮像カメラ104の光軸と直交する縦方向の軸であり、撮像カメラ104から見て上方向を正とする。Z軸は、撮像カメラ104の光軸の方向の軸であり、撮像カメラ104が向いている方向を正とする。すなわち、X軸およびY軸の座標により骨格の画像上の座標が示され、Z軸の座標により骨格の深度が示される。
例えば、図9に示すように、骨格の部位として、頭、首、右肩、左肩、右手首、左手首等が検出される。顧客30の頭の画像上の座標が“(35,60)”であり、深度が“20”であるとすると、骨格情報131における顧客30の“頭”に対応する位置情報の項目には、“(35,60,20)”が設定される。
なお、骨格の位置情報は、上記の表現方法の他、緯度・経度・高さ等別の方法により表されてもよい。
図10は、商品情報テーブルの例を示す図である。商品情報テーブル211には、店舗において商品が配置される領域に対応する画像上の設定領域が、商品ごとに設定される。設定される商品ごとの画像上の設定領域は、例えば、その設定領域に対する顧客の手首の出入りを判定するために利用されるものである。商品情報テーブル211は、商品情報記憶部210に記憶されている。商品情報テーブル211は、商品ID、領域情報および種別の項目を有する。
商品IDの項目には、店舗で扱う商品を識別するための識別子が設定される。
領域情報の項目には、商品が配置される商品配置領域に対応する設定領域を示す情報が設定される。動作判定システム3において、設定領域は、四角形であるとする。また、設定領域を示す情報は、設定領域の四隅の座標により表される。四隅の各座標は、“(X軸方向の位置,Y軸方向の位置)”により表される。X軸は、撮像カメラ104により撮像された画像において、横方向の軸であり、左方向を正とする。Y軸は、撮像カメラ104により撮像された画像において、縦方向の軸であり、上方向を正とする。なお、設定領域は、四角形に限定されず、円や楕円形であってもよい。また、設定領域が長方形である場合、例えば、設定領域を示す情報は、例えば、右上と左下の座標のみで表されてもよい。
種別の項目には、設定領域に対応する商品配置領域と顧客との位置関係の種別を示す情報が設定される。例えば、センサデバイス100から見て、商品配置領域が顧客より手前側である場合、種別の項目には、“手前”が設定される。センサデバイス100から見て、商品配置領域が顧客より奥側である場合、種別の項目には、“奥”が設定される。
なお、商品情報テーブル211には、上記項目の他、商品名や、商品が手に取られた回数を示す情報等が含まれていてもよい。
次に、図11〜12を用いて、顧客の向きを判定する方法について説明する。図11〜12における商品棚31,32の配置は、図3や図7と同様である。すなわち、図11,12において、商品に対応する各商品配置領域(例えば、領域31a)は、図7における画像5と同様に設定される。
図11は、顧客の向きが手前方向であるときの対象領域の限定例を示す図である。図11において、図3と同じ内容については説明を省略する。図11中の領域31a,31bは、商品棚31の上面に、図7のように画像上に設定された領域31a,31bに対応する領域を表したものである。同様に、図11中の領域32a,32bは、商品棚32の上面に、図7のように画像上に設定された領域32a,32bに対応する領域を表したものである。顧客30は、センサデバイス100の方向に向いている。
深度D11は、顧客30の頭の深度を示し、深度D12は、顧客30の首の深度を示す。センサデバイス100は、深度D11および深度D12を計測して動作判定装置200へ送信する。動作判定装置200は、深度D11と深度D12とを比較して、顧客30の向きを判定する。
ここで、図11に示すように、人(例えば、顧客30等)の頭は、人の骨格の構造上、首より前に位置する。そのため、深度D11が深度D12より小さい場合、顧客30の向きがセンサデバイス100の方向であると判定することができる。以下、顧客30の向きがセンサデバイス100の方向であることを、“顧客30の向きが手前方向である”と記載する場合がある。
動作判定装置200は、顧客30の向きが手前方向であると判定した場合、センサデバイス100から見て、顧客30の手前に存在する商品配置領域に対応する領域31a,31bに、対象領域を限定する。すなわち、領域32a,32bは、対象領域から除外される。
したがって、この状態で、図7に示すように、顧客30の手首の位置が領域32bに含まれた場合、動作判定装置200は、顧客30の手が領域32bに対応する商品配置領域に進入したと判定しない。これにより、手が進入したかの誤判定を防止できる。
図12は、顧客の向きが奥方向であるときの対象領域の限定例を示す図である。図12において、図11と同じ内容については説明を省略する。顧客30は、センサデバイス100と反対方向に向いている。
センサデバイス100は、深度D11および深度D12を計測して動作判定装置200へ送信する。動作判定装置200は、深度D11と深度D12とを比較して、顧客30の向きを判定する。
ここで、図11で説明したように人の頭は首より前に位置するため、図12に示すように、深度D11が深度D12より大きい場合、顧客30の向きがセンサデバイス100と反対方向であると判定することができる。以下、顧客30の向きがセンサデバイス100の反対方向であることを、“顧客30の向きが奥方向である”と記載する場合がある。
動作判定装置200は、顧客30の向きが奥方向であると判定した場合、少なくとも、センサデバイス100から見て、顧客30の奥側に存在する商品配置領域に対応する領域32a,32bを対象領域に含める。
したがって、この状態で、図7に示すように、顧客30の手の位置が領域32bに含まれた場合、動作判定装置200は、顧客30の手が領域32bに対応する商品配置領域に進入したと判定する。顧客30が領域32bに対応する商品配置領域の方を向いていると推定されるので、手が進入したと誤判定される可能性は低い。
なお、図12の例では、動作判定装置200は、対象領域を領域32a,32bに限定し、領域31a,31bを対象領域から除外してもよい。これにより、領域31a,31bへの手の進入を監視する処理を実行しなくてよくなり、処理負荷が低減されることがあり得る。
図11〜12で説明したように、動作判定装置200は、顧客30の頭の深度(深度D11)および首の深度(深度D12)に基づいて、顧客30の向きを判定する。これらの深度D11,D12はセンサデバイス100で計測されるので、動作判定装置200は深度D11,D12の大小を比較するという簡易な処理で、顧客30の向きを判定することができる。また、深度D11,D12を計測するセンサデバイスとしては既存のものを使用できるため、システム全体の導入が容易になる。
さらに、例えば、顧客30の視線方向を基に顧客30の向きを判定する方法と比較した場合、顧客30がメガネやサングラスを装着していて視線を捉えられないといった状況でも、顧客30の向きを判定できるという利点がある。
また、視線方向を検出して顧客30の向きを判定するためには、眼球の位置変化を検出可能なように高解像度で、かつ、顔だけでなく顧客30の他の部位も映るような高精度の撮像装置が必要となる。このような撮像装置は外形が大きくなる可能性があり、その場合には大きな設置スペースが必要となる。さらに、撮像装置が大型化した場合には、店舗内で撮像の対象となる顧客に対する心理的負担が大きくなることも考えられる。深度D11,D12を計測するためには、そのような高精度の撮像装置は必要とならず、センサデバイスの設置スペースを抑制することができる。
また、動作判定装置200は、顧客30の向きに基づいて、複数の設定領域の中から対象領域を限定する。これにより、図7で説明したような、商品配置領域に手が進入したかの判定の誤りを防止でき、その判定精度を向上させることができる。また、顧客30の手首との位置関係を判定する対象領域を限定できるため、顧客30の手が進入したか判定する処理を効率よく実行でき、処理時間を短縮できる。
次に、図13〜14を用いて、動作判定装置200が実行する処理について説明する。
図13は、顧客が商品を手に取ったか判定する処理の例を示すフローチャートである。図13の処理は、センサデバイス100から画像に関する情報の受信を契機に実行される。以下、図13に示す処理をステップ番号に沿って説明する。画像に関する情報は、所定時間間隔で受信される。
(S11)対象領域判定部221は、センサデバイス100からセンサデータを受信する。受信データには、少なくとも、撮像された画像のデータ、画像に映る顧客(顧客30とする)の骨格情報131が含まれる。
(S12)対象領域判定部221は、顧客30の向きを判定する。詳細は、図14で後述する。
(S13)対象領域判定部221は、顧客30の向きが“横”であるか判定する。顧客30の向きが“横”である場合、処理を終了する。顧客30の向きが“横”以外(すなわち、“手前”または“奥”)である場合、処理をステップS14へ進める。
なお、顧客30の向きが“横”である場合、何れの設定領域も対象領域に含められず、商品配置領域に手が進入したかの判定処理は行われない。ただし、例えば、センサデバイス100から見て、商品棚31と商品棚32との間の領域の左右にも商品配置領域が存在し、それらの商品配置領域に対応する設定領域が設定されている場合には、これらの設定領域が対象領域に限定されてもよい。
(S14)対象領域判定部221は、顧客30の向きが“手前”であるか判定する。向きが“手前”である場合、処理をステップS15へ進める。向きが“手前”以外(すなわち“奥”)である場合、処理をステップS16へ進める。
(S15)対象領域判定部221は、設定領域の中から、顧客30の手前側に存在する商品配置領域に対応する設定領域に対象領域を限定する。具体的には、対象領域判定部221は、種別が“手前”であるレコードを商品情報テーブル211から検索し、検索した各レコードの領域情報の項目に設定されている領域に対象領域を限定する。
(S16)対象領域判定部221は、設定領域の中から、顧客30の奥側に存在する商品配置領域に対応する設定領域に対象領域を限定する。具体的には、対象領域判定部221は、種別が“奥”であるレコードを商品情報テーブル211から検索し、検索した各レコードの領域情報の項目に設定されている領域に対象領域を限定する。
なお、ステップS16では、対象領域判定部221は、顧客20の手前側および奥側の両方の商品配置領域に対応する設定領域を、対象領域としてもよい。
(S17)手首位置判定部222は、顧客30の手首の位置が、ステップS15,S16の何れかの処理で限定された何れかの対象領域に含まれるか判定する。顧客30の手首の位置は、顧客30の顧客IDと一致し、かつ、部位が“右手首”または“左手首”であるレコードを骨格情報131から検索し、検索した各レコードの位置情報を読み出すことで取得できる。以下、“手首の位置”には、右手首の位置および左手首の位置が含まれるものとする。
手首の位置が何れかの対象領域に含まれている場合、処理をステップS18へ進める。手首の位置が全ての対象領域に含まれていない場合、処理を終了する。
(S18)手首位置判定部222は、顧客30の手首が位置する対象領域に対応する商品配置領域に、顧客30の手が進入したと判定する。
なお、手首位置判定部222は、例えば、顧客30の手が進入したことを、進入した商品配置領域に対応する商品の情報に関連付けて、ログファイルに出力したり、ディスプレイ21へ出力したりしてもよい。
図14は、顧客の向きを判定する処理の例を示すフローチャートである。図14は、図13のステップS12で実行される。以下、図14に示す処理をステップ番号に沿って説明する。
(S121)対象領域判定部221は、図13のステップS11で受信した骨格情報131から、画像上での両肩(すなわち、右肩および左肩)の位置情報を読み出す。具体的には、対象領域判定部221は、顧客30の顧客IDと一致し、かつ、部位が“右肩”または“左肩”であるレコードを骨格情報131から検索し、検索された各レコードの位置情報のうち、X軸方向およびY軸方向の位置情報を読み出す。
(S122)対象領域判定部221は、読み出した位置情報に基づき、画像上での両肩(すなわち、右肩と左肩)の間の距離を肩幅Wとして算出する。例えば、右肩の位置を(X1,Y1)とし、左肩の位置を(X2,Y2)とすると、肩幅Wは、“W=((X2−X1)2+(Y2−Y1)21/2”により算出できる。
(S123)対象領域判定部221は、算出した肩幅Wが閾値未満か判定する。肩幅Wが閾値未満である場合、処理をステップS125へ進める。肩幅Wが閾値以上である場合、処理をステップS124へ進める。
(S124)対象領域判定部221は、図13のステップS11で受信した骨格情報131から頭の位置情報および首の位置情報を読み出す。具体的には、対象領域判定部221は、顧客30の顧客IDと一致し、かつ、部位が“頭”または“首”であるレコードを骨格情報131から検索し、検索したレコードの位置情報を読み出す。顧客30は、図13のステップS11で受信した画像に映る顧客である。
(S125)対象領域判定部221は、顧客30の向きを“横”と判定する。
(S126)対象領域判定部221は、顧客30について、頭の深度が首の深度未満か判定する。頭および首の深度は、ステップS124で読み出した位置情報におけるZ軸方向の位置から取得される。
頭の深度が首の深度未満である場合、処理をステップS127へ進める。頭の深度が首の深度以上である場合、処理をステップS128へ進める。
(S127)対象領域判定部221は、顧客30の向きを“手前”と判定する。
(S128)対象領域判定部221は、顧客30の向きを“奥”と判定する。
以上の図13〜14の処理によれば、対象領域判定部221は、顧客30の頭の深度および首の深度に基づいて、顧客30の向きを判定する。これにより、顧客30の向きを簡易に判定することができる。
また、対象領域判定部221は、設定領域の中から、顧客30の向きに基づいて対象領域を限定する。これにより、商品配置領域に手が進入したかの判定の誤りを防止でき、その判定精度を向上させることができる。また、対象領域が限定されることで、顧客30の手首との位置関係を判定する処理の負荷が軽減されるため、処理時間が短縮され、処理負担が軽減される。
また、対象領域判定部221は、顧客30の両肩の幅に基づいて、顧客30の向きが横向きかを判定する。向きが横向きである場合は、少なくとも、センサデバイス100から見て顧客30の奥側に存在する商品配置領域に対応する設定領域と、顧客30の手前側に存在する商品配置領域に対応する設定領域とを、対象領域に含めないようにする。これは、センサデバイス100から見て手前側の商品配置領域と奥側の商品配置領域のどちらに対応する設定領域を対象領域とすべきか、明確に判断できないからである。向きが横向きである場合は、上記処理により、これらの設定領域に対する手の進入の誤判定を防止できる。例えば、図7の画像5のように商品棚が配置されているとき、顧客30の向きが横向きの場合に、顧客30の向きが手前側または奥側であると誤判定されることを防止できる。
なお、対象領域判定部221は、両肩の間の距離が閾値未満か判定する代わりに、顧客30の頭の深度と首の深度との差分が一定の範囲内(例えば、−α〜+α)であるかで、顧客30の向きが“横”であると判定してもよい。
図15は、購入レベルの判定処理の例を示すフローチャートである。以下、図15に示す処理をステップ番号に沿って説明する。
(S21)購入レベル判定部223は、対象領域判定部221による判定結果に基づき、撮像された画像上に映った顧客の向きが、手前側または奥側であるかを判定する。顧客の向きが手前側または奥側である場合、処理をステップS22へ進める。顧客の向きが手前側でも奥側でもない場合(例えば、横向きの場合)、処理が終了される。
なお、購入レベル判定部223は、例えば、画像上の顧客の移動速度が所定速度閾値以下となり、かつ、その顧客の向きが手前側または奥側である場合に、処理をステップS22に進めてもよい。
(S22)購入レベル判定部223は、顧客の購入レベルを“注目”レベルと判定する。購入レベル判定部223は、例えば、購入レベルが“注目”レベルとなったことを、その顧客が向いている方向に存在する商品棚に設定された設定領域の識別情報、および、その顧客の識別情報と共に出力する。
なお、顧客が向いている方向に存在する商品棚に設定された設定領域は、この時点で図13のステップS15またはステップS16で対象領域とされている設定領域とすることができる。ただし、この場合、ステップS16では、図13に記載の通り、顧客30の奥側に存在する商品配置領域に対応する設定領域にのみ、対象領域が限定される必要がある。
(S23)購入レベル判定部223は、図13のステップS18の判定結果に基づき、顧客が向いている方向に存在する商品配置領域に対応する設定領域(すなわち、対象領域とされた設定領域)の何れかに、顧客の手が進入したかを判定する。何れかの対象領域に顧客の手が進入した場合、処理をステップS25に進める。顧客の手が何れの対象領域にも進入していない場合、処理をステップS24に進める。
(S24)購入レベル判定部223は、顧客が移動したかを判定する。例えば、顧客が撮像された画像上から検知されなくなった場合に、顧客が移動したと判定される。あるいは、顧客の移動速度が、ステップS21で用いられた速度閾値を超えた場合に、顧客が移動したと判定されてもよい。
顧客が移動した場合、処理が終了される。顧客が移動していない場合、処理をステップS23に進める。
(S25)購入レベル判定部223は、図13のステップS18の判定結果に基づき、ステップS23で手が進入したと判定された対象領域から、その外部へ手が出たかを判定する。対象領域から手が出たと判定されるまで、ステップS25の処理は一定時間間隔で繰り返される。そして、対象領域から手が出たと判定した場合、処理をステップS26に進める。
(S26)購入レベル判定部223は、顧客の購入レベルを“検討・比較”レベルと判定する。購入レベル判定部223は、例えば、購入レベルが“検討・比較”レベルとなったことを、手が出たと判定された設定領域に対応する商品の識別情報、および、その顧客の識別情報と共に出力する。この後、処理をステップS23に進める。
以上の図15の処理によれば、顧客の向きと、顧客の手が商品配置領域に進入したかの判定結果とを基に、顧客の購入動作を分類した購入レベルを判定することができる。例えば、顧客の向きの判定結果に基づいて、顧客が何れかの商品棚に注目したことを判定できる。また、上記の図13〜14に示したように、顧客の向きに基づいて設定領域の中から対象領域が限定されることで、顧客が“比較・検討”したと推定される商品を正確に判定することができる。
なお、図15に示した購入レベルの判定処理はあくまで一例であり、顧客の向きや、顧客の手が商品配置領域に進入したかの判定結果を用いて、顧客の購入動作を様々な分類方法で分類することが可能である。例えば、購入レベル判定部223は、図15のステップS25で手が出たと判定された場合に、顧客が対応する商品を手に取ったと判定してもよい。
また、以上の第2の実施の形態では、顧客の向きの判定結果に応じて、手の進入を判定対象とする設定領域を特定する例を示した。しかしながら、このような例に限らず、顧客の向きの判定結果に応じて、様々な処理の対象とする設定領域が特定されてもよい。例えば、顧客が商品を手に取ったかの判定対象とする設定領域が特定されてもよいし、商品の有無の判定や、商品が好ましい状態で(例えば、好ましい向きで)配置されているかの判定の対象とする設定領域が特定されてもよい。
[第3の実施の形態]
次に、第3の実施の形態の動作判定システムについて説明する。
第2の実施の形態の動作判定システム3では、顧客30の首および頭の深度を比較し、首より頭が前にあるかを判定することで顧客30の向きを判定していた。ただし、このような向きの判定方法は、首および頭の深度がほぼ水平方向に対して計測されていることを想定したものである。このため、顧客の上半身がほぼ垂直であると仮定すると、センサデバイス100の光軸の垂直方向に対する傾きが大きくなるほど、判定に使用する深度(すなわち、センサデバイス100からの距離)に誤差が生じて、判定精度が悪化する。
そこで、第3の実施の形態の動作判定システムでは、第2の実施の形態の動作判定装置200を次のように変形する。第3の実施の形態において、動作判定装置200は、センサデバイス100から受信した首および頭の深度を、各深度の水平方向の成分(すなわち、センサデバイス100から各部位への水平方向の距離)を示すように補正する。そして、補正後の首および頭の深度に基づいて顧客の向きを判定する。
以下、図16〜17を用いて第3の実施の形態の動作判定装置200について説明する。図16〜17において、第2の実施の形態と差異のある点を説明し、第2の実施の形態と同じ構成や処理については説明を省略する。
図16は、第3の実施の形態のセンサデバイスと骨格との距離への変換例を示す図である。
線分AP0は、顧客30の頭とセンサデバイス100とを結ぶ線分である。線分AP0の距離は、顧客30の頭の深度で表されるものとする。線分BP0は、顧客30の首とセンサデバイス100とを結ぶ線分である。線分BP0の距離は、顧客30の首の深度で表されるものとする。
線分AP1は、点Aから、点P0から地面への垂線L1におろした垂線であり、線分BP2は、点Bから、点P0から地面への垂線L1におろした垂線である。すなわち、線分AP1は、顧客30の頭の深度の水平成分であり、線分BP2は、首の深度の水平成分である。
角度θ0は、水平面Hに対する、撮像カメラ104のレンズの光軸(センサデバイス100の光軸L0)の角度であり、センサデバイス100の俯角を示す。角度θ1は、線分AP0とセンサデバイス100の光軸L0との間の垂直方向の角度である。角度θ2は、線分BP0とセンサデバイス100の光軸L0との間の垂直方向の角度である。
画像6は、図16上段のように配置されているセンサデバイス100により撮像された画像である。点A1は、画像6に映る顧客30の頭の位置であり、点B1は、顧客30の首の位置である。点M1は、画像6の中心である。すなわち、点M1は、センサデバイス100の光軸L0上の点である。点O1は、画像6の上端の中点である。すなわち、点O1は、センサデバイス100の上方向における視野の限界となる点である。
対象領域判定部221は、以下のように、顧客30の頭や首の深度を、その深度の水平成分を示すように補正する。まず、対象領域判定部221は、顧客30の頭のY座標を角度θ1に変換し、顧客30の首のY座標を角度θ2に変換する。
上記角度の変換は、画像6の中心点である点M1からの画素数と光軸L0に対する角度との対応関係に基づいて実行されてもよい。画素数と角度との対応関係は、角度θ0や画像の解像度に応じて予め決まる。また、上記角度の変換は、例えば、“(センサデバイス100の視野角/2)×(距離A1M1/距離M1O1)=角度θ1”や、“(センサデバイス100の視野角/2)×(距離B1M1/距離M1O1)=角度θ2”により光軸L0に対する角度を計算することで実現してもよい。“距離A1M1”は、点A1と点M1との間の垂直方向の距離を意味する。“距離B1M1”は、点B1と点M1との間の垂直方向の距離を意味する。“距離M1O1”は、点M1と点O1との間の垂直方向の距離を意味する。
次に、対象領域判定部221は、角度θ0,θ1、および顧客30の頭の深度に基づいて、頭の深度の水平成分(AP1間の距離)を算出する。具体的には、対象領域判定部221は、“AP0×cos(θ0−θ1)=AP1”により、AP1間の距離を算出する。また、対象領域判定部221は、角度θ0,θ2、および顧客30の首の深度(BP0間の距離)に基づいて、首の深度の水平成分(BP2間の距離)を算出する。具体的には、対象領域判定部221は、“BP0×cos(θ0+θ2)=BP2”により、BP2間の距離を算出する。
なお、例えば、AP0間の距離をAP1間の距離に換算するための補正係数と、BP0間の距離をBP2間の距離に換算するための補正係数とが、記憶装置に予め用意され、対象領域判定部221は、これらの補正係数を用いて深度の補正を行ってもよい。これらの補正係数は、頭と首とで共通のものを用いることができ、例えば、センサデバイス100の俯角(角度θ0)ごと、および、頭または首の画像上の垂直方向の離散的な位置ごとに用意されればよい。また、補正係数は、センサデバイス100の俯角(角度θ0)ごと、および、頭と首の画像上の垂直方向の座標の差分値ごとに用意されてもよい。
また、顧客の向きの判定は、頭の深度と首の深度との大小関係で判定される。このことから、各深度の値が水平成分の絶対的な値に補正されるのではなく、各深度の値の比が各深度の水平成分の比と同じになるように補正が行われてもよい。この場合、対象領域判定部221は、例えば、センサデバイス100から受信した頭の深度または首の深度の少なくとも一方を、センサデバイス100の俯角(角度θ0)と、頭と首の画像上の垂直方向の座標の差分値とに対応する補正係数を用いて補正してもよい。
図17は、第3の実施の形態の顧客の向きを判定する処理の例を示すフローチャートである。第2の実施の形態との違いは、ステップS124とステップS126の間にステップS124aが追加される点である。図17では、第3の実施の形態の動作判定システムにおいて、動作判定装置200には、ユーザの入力操作によりセンサデバイス100の俯角が予め記憶されているものとする。以下、ステップS124aについて説明する。
(S124a)対象領域判定部221は、図16で説明したように、顧客30の頭の位置および俯角θ0に基づき、顧客30の頭の深度(Z軸方向の位置)を、水平成分を示すように補正する。また、対象領域判定部221は、図16で説明したように、顧客30の首の位置および俯角θ0に基づき、顧客30の首の深度(Z軸方向の位置)を、水平成分を示すように補正する。
この後のステップS126では、対象領域判定部221は、補正後の頭の深度と補正後の首の深度とを比較することになる。
第3の実施の形態の動作判定システムによれば、センサデバイス100の俯角(角度θ0)や顧客30の頭および首の位置情報に基づき、頭および首の深度を、その深度の水平成分を示すように補正する。これにより、センサデバイス100の設置場所の高さにかかわらず、顧客30についての頭の距離と首の距離とを正確に比較できるため、顧客30の向きを精度良く比較できる。よって、顧客の手が商品配置領域に進入したかを精度良く判定できる。
なお、前述のように、第1の実施の形態の情報処理は、情報処理装置2にプログラムを実行させることで実現でき、第2,第3の実施の形態の情報処理は、センサデバイス100や動作判定装置200にプログラムを実行させることで実現できる。このようなプログラムは、コンピュータ読み取り可能な記録媒体(例えば、記録媒体23)に記録しておくことができる。記録媒体としては、例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ等を使用できる。磁気ディスクには、FDおよびHDDが含まれる。光ディスクには、CD、CD−R(Recordable)/RW(Rewritable)、DVDおよびDVD−R/RWが含まれる。
プログラムを流通させる場合、例えば、当該プログラムを記録した可搬記録媒体が提供される。コンピュータは、例えば、可搬記録媒体に記録されたプログラムまたは他のコンピュータから受信したプログラムを、記憶装置(例えば、HDD203)に格納し、当該記憶装置からプログラムを読み込んで実行する。ただし、可搬記録媒体から読み込んだプログラムを直接実行してもよい。また、上記の情報処理の少なくとも一部を、DSP(Digital Signal Processing)、ASIC、PLD(Programmable Logic Device)等の電子回路で実現することも可能である。
以上の第1〜3の実施の形態を含む実施の形態に関し、さらに以下の付記を開示する。
(付記1) 情報処理装置が、
人物の頭部と基準位置との間の第1の距離、および、前記人物の首と前記基準位置との間の第2の距離を取得し、
前記第1の距離と前記第2の距離との比較結果に基づいて前記人物の向きを判定する、
ことを特徴とする動作判定方法。
(付記2) 前記人物の向きの判定では、前記基準位置に配置された撮像装置によって撮像された画像に映った前記人物の向きを判定し、
前記情報処理装置が、
判定された前記人物の向きに基づいて、前記画像上に設定された複数の設定領域から所定の処理の対象とする1つ以上の設定領域を特定する、
処理をさらに含むことを特徴とする付記1記載の動作判定方法。
(付記3) 前記情報処理装置が、
前記画像における前記人物の手の座標に基づいて、前記特定された設定領域に前記手が含まれるかを判定する、
処理をさらに含むことを特徴とする付記2記載の動作判定方法。
(付記4) 前記複数の設定領域の少なくとも1つは、前記撮像装置から見て前記人物の背後に存在する被写体上に設定されており、
前記設定領域の特定では、前記人物が前記撮像装置とは反対の方向を向いていないと判定された場合、前記複数の設定領域のうち、少なくとも前記人物の背後に存在する被写体上に設定された設定領域を、前記所定の処理の対象として特定する設定領域から除外する、
ことを特徴とする付記3記載の動作判定方法。
(付記5) 前記人物の向きの判定では、取得した前記第1の距離または前記第2の距離の少なくとも一方を、前記撮像装置の撮像方向と水平面との角度に応じて補正した値を用いて、前記人物の向きを判定することを特徴とする付記2乃至4の何れか1つに記載の動作判定方法。
(付記6) 前記人物の向きの判定では、前記第1の距離と前記第2の距離との比較結果に基づき、前記人物が前記基準位置の方向と当該基準位置とは反対の方向のどちらを向いているかを判定することを特徴とする付記1乃至5の何れか1つに記載の動作判定方法。
(付記7) 人物の頭部と基準位置との間の第1の距離、および、前記人物の首と前記基準位置との間の第2の距離を取得する取得部と、
前記第1の距離と前記第2の距離との比較結果に基づいて前記人物の向きを判定する判定部と、
を有することを特徴とする動作判定装置。
(付記8) 前記判定部は、
前記基準位置に配置された撮像装置によって撮像された画像に映った前記人物の向きを判定し、
判定された前記人物の向きに基づいて、前記画像上に設定された複数の設定領域から所定の処理の対象とする1つ以上の設定領域を特定する、
ことを特徴とする付記7記載の動作判定装置。
(付記9) 前記判定部は、前記画像における前記人物の手の座標に基づいて、前記特定された設定領域に前記手が含まれるかを判定することを特徴とする付記8記載の動作判定装置。
(付記10) 前記複数の設定領域の少なくとも1つは、前記撮像装置から見て前記人物の背後に存在する被写体上に設定されており、
前記判定部は、前記人物が前記撮像装置とは反対の方向を向いていないと判定された場合、前記複数の設定領域のうち、少なくとも前記人物の背後に存在する被写体上に設定された設定領域を、前記所定の処理の対象として特定する設定領域から除外する、
ことを特徴とする付記9記載の動作判定装置。
(付記11) 前記判定部は、取得された前記第1の距離または前記第2の距離の少なくとも一方を、前記撮像装置の撮像方向と水平面との角度に応じて補正した値を用いて、前記人物の向きを判定することを特徴とする付記8乃至10の何れか1つに記載の動作判定装置。
(付記12) 前記判定部は、前記第1の距離と前記第2の距離との比較結果に基づき、前記人物が前記基準位置の方向と当該基準位置とは反対の方向のどちらを向いているかを判定することを特徴とする付記7乃至11の何れか1つに記載の動作判定装置。
(付記13) コンピュータに、
人物の頭部と基準位置との間の第1の距離、および、前記人物の首と前記基準位置との間の第2の距離を取得し、
前記第1の距離と前記第2の距離との比較結果に基づいて前記人物の向きを判定する、
処理を実行させることを特徴とする動作判定プログラム。
1 撮像装置
2 情報処理装置
10 画像
11 人物
D1,D2 距離
L 線分

Claims (8)

  1. 情報処理装置が、
    人物の頭部と基準位置との間の第1の距離、および、前記人物の首と前記基準位置との間の第2の距離を取得し、
    前記第1の距離と前記第2の距離との比較結果に基づいて前記人物の向きを判定する、
    ことを特徴とする動作判定方法。
  2. 前記人物の向きの判定では、前記基準位置に配置された撮像装置によって撮像された画像に映った前記人物の向きを判定し、
    前記情報処理装置が、
    判定された前記人物の向きに基づいて、前記画像上に設定された複数の設定領域から所定の処理の対象とする1つ以上の設定領域を特定する、
    処理をさらに含むことを特徴とする請求項1記載の動作判定方法。
  3. 前記情報処理装置が、
    前記画像における前記人物の手の座標に基づいて、前記特定された設定領域に前記手が含まれるかを判定する、
    処理をさらに含むことを特徴とする請求項2記載の動作判定方法。
  4. 前記複数の設定領域の少なくとも1つは、前記撮像装置から見て前記人物の背後に存在する被写体上に設定されており、
    前記設定領域の特定では、前記人物が前記撮像装置とは反対の方向を向いていないと判定された場合、前記複数の設定領域のうち、少なくとも前記人物の背後に存在する被写体上に設定された設定領域を、前記所定の処理の対象として特定する設定領域から除外する、
    ことを特徴とする請求項3記載の動作判定方法。
  5. 前記人物の向きの判定では、取得した前記第1の距離または前記第2の距離の少なくとも一方を、前記撮像装置の撮像方向と水平面との角度に応じて補正した値を用いて、前記人物の向きを判定することを特徴とする請求項2乃至4の何れか1つに記載の動作判定方法。
  6. 前記人物の向きの判定では、前記第1の距離と前記第2の距離との比較結果に基づき、前記人物が前記基準位置の方向と当該基準位置とは反対の方向のどちらを向いているかを判定することを特徴とする請求項1乃至5の何れか1つに記載の動作判定方法。
  7. 人物の頭部と基準位置との間の第1の距離、および、前記人物の首と前記基準位置との間の第2の距離を取得する取得部と、
    前記第1の距離と前記第2の距離との比較結果に基づいて前記人物の向きを判定する判定部と、
    を有することを特徴とする動作判定装置。
  8. コンピュータに、
    人物の頭部と基準位置との間の第1の距離、および、前記人物の首と前記基準位置との間の第2の距離を取得し、
    前記第1の距離と前記第2の距離との比較結果に基づいて前記人物の向きを判定する、
    処理を実行させることを特徴とする動作判定プログラム。
JP2013257891A 2013-12-13 2013-12-13 動作判定方法、動作判定装置および動作判定プログラム Expired - Fee Related JP6217373B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013257891A JP6217373B2 (ja) 2013-12-13 2013-12-13 動作判定方法、動作判定装置および動作判定プログラム
US14/559,967 US9582721B2 (en) 2013-12-13 2014-12-04 Method and apparatus for determining movement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013257891A JP6217373B2 (ja) 2013-12-13 2013-12-13 動作判定方法、動作判定装置および動作判定プログラム

Publications (2)

Publication Number Publication Date
JP2015114950A JP2015114950A (ja) 2015-06-22
JP6217373B2 true JP6217373B2 (ja) 2017-10-25

Family

ID=53368864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013257891A Expired - Fee Related JP6217373B2 (ja) 2013-12-13 2013-12-13 動作判定方法、動作判定装置および動作判定プログラム

Country Status (2)

Country Link
US (1) US9582721B2 (ja)
JP (1) JP6217373B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180025175A1 (en) 2015-01-15 2018-01-25 Nec Corporation Information output device, camera, information output system, information output method, and program
US10681295B2 (en) * 2017-10-30 2020-06-09 Omnivision Technologies, Inc. Time of flight camera with photon correlation successive approximation
JP6920246B2 (ja) * 2018-04-26 2021-08-18 Kddi株式会社 行動認識装置、モデル構築装置及びプログラム
JP7022040B2 (ja) * 2018-09-26 2022-02-17 Kddi株式会社 オブジェクト識別装置、方法およびプログラム
JP7435587B2 (ja) * 2019-03-01 2024-02-21 日本電気株式会社 物品推定装置、物品推定方法、及びプログラム
JP7337354B2 (ja) * 2019-05-08 2023-09-04 株式会社オレンジテクラボ 情報処理装置及び情報処理プログラム
JP7548059B2 (ja) 2021-02-25 2024-09-10 富士通株式会社 設定方法、設定プログラム及び設定装置
GB2610414B (en) * 2021-09-03 2024-08-14 Integrated Design Ltd Anti-climb system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001073680A1 (en) * 2000-03-27 2001-10-04 Massachusetts General Hospital Methods and systems for distinguishing individuals utilizing anatomy and gait parameters
JP4876687B2 (ja) 2006-04-19 2012-02-15 株式会社日立製作所 注目度計測装置及び注目度計測システム
JP2009003701A (ja) 2007-06-21 2009-01-08 Denso Corp 情報システム及び情報処理装置
US7961910B2 (en) * 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8564534B2 (en) * 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
JP2012123667A (ja) 2010-12-09 2012-06-28 Panasonic Corp 姿勢推定装置および姿勢推定方法
JP5953484B2 (ja) * 2011-03-30 2016-07-20 株式会社国際電気通信基礎技術研究所 計測装置,計測方法および計測プログラム
JP2013250882A (ja) * 2012-06-01 2013-12-12 Sharp Corp 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム

Also Published As

Publication number Publication date
US20150169961A1 (en) 2015-06-18
US9582721B2 (en) 2017-02-28
JP2015114950A (ja) 2015-06-22

Similar Documents

Publication Publication Date Title
JP6217373B2 (ja) 動作判定方法、動作判定装置および動作判定プログラム
JP6194777B2 (ja) 動作判定方法、動作判定装置および動作判定プログラム
Wasenmüller et al. Comparison of kinect v1 and v2 depth images in terms of accuracy and precision
US10782399B2 (en) Object detecting method and apparatus using light detection and ranging (LIDAR) sensor and radar sensor
US9111177B2 (en) Position/orientation measurement apparatus, processing method therefor, and non-transitory computer-readable storage medium
JP5950122B2 (ja) キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
KR102307941B1 (ko) 눈 추적 시스템들을 위한 개선된 교정
JP6435750B2 (ja) 3次元座標算出装置、3次元座標算出方法および3次元座標算出プログラム
US9208395B2 (en) Position and orientation measurement apparatus, position and orientation measurement method, and storage medium
CN104732514B (zh) 用于处理高度图的设备、系统和方法
US10310675B2 (en) User interface apparatus and control method
JP2012037491A (ja) 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法、および点群位置データ処理プログラム
JP7253441B2 (ja) 追跡装置及び情報処理プログラム
US12026916B2 (en) Method and apparatus for in-field stereo calibration
KR102226372B1 (ko) 다수 카메라와 라이다 센서 융합을 통한 객체 추적 시스템 및 방법
Zhao et al. Metric calibration of unfocused plenoptic cameras for three-dimensional shape measurement
JP2019056606A (ja) ステレオカメラ
JP6244960B2 (ja) 物体認識装置、物体認識方法及び物体認識プログラム
JP7253440B2 (ja) 追跡装置及び情報処理プログラム
JP6303918B2 (ja) ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置
JP2022081808A (ja) 情報処理プログラム、情報処理方法および情報処理装置
US10408604B1 (en) Remote distance estimation system and method
US9885779B2 (en) Optical calibration system adapted for optical distance measurement system
JP4229964B2 (ja) エリアイメージセンサを用いた位置検出装置
US11768920B2 (en) Apparatus and method for performing heterogeneous sensor fusion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170911

R150 Certificate of patent or registration of utility model

Ref document number: 6217373

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees