JP6731097B2 - 人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体 - Google Patents

人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体 Download PDF

Info

Publication number
JP6731097B2
JP6731097B2 JP2019124785A JP2019124785A JP6731097B2 JP 6731097 B2 JP6731097 B2 JP 6731097B2 JP 2019124785 A JP2019124785 A JP 2019124785A JP 2019124785 A JP2019124785 A JP 2019124785A JP 6731097 B2 JP6731097 B2 JP 6731097B2
Authority
JP
Japan
Prior art keywords
human body
target
sensor
motion
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019124785A
Other languages
English (en)
Other versions
JP2019164842A (ja
Inventor
健 王
健 王
旭斌 李
旭斌 李
楽 亢
楽 亢
澤宇 劉
澤宇 劉
至真 遅
至真 遅
成月 張
成月 張
霄 劉
霄 劉
呉 孫
呉 孫
石磊 文
石磊 文
英澤 包
英澤 包
明裕 陳
明裕 陳
二鋭 丁
二鋭 丁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2019164842A publication Critical patent/JP2019164842A/ja
Application granted granted Critical
Publication of JP6731097B2 publication Critical patent/JP6731097B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01GWEIGHING
    • G01G19/00Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups
    • G01G19/52Weighing apparatus combined with other objects, e.g. furniture
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Description

本発明の実施例は、通信技術分野に関し、特に人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体に関する。
小売現場では、人体行動を分析する必要があり、具体的には人体追跡及び購買行為に関連する動作の取得及び認識に関する。
従来技術において、均一に分散して設置されたマルチチャンネルカメラで人体を追跡している。具体的にはマルチチャンネルカメラを用いて撮影した2次元画像の情報を人体追跡の基に、2次元画像内で人体追跡を行って人体の位置を確定するが、小売現場に人が密集する場合、人体追跡を正確に行えない。また、従来技術では、ライトカーテン又は赤外線センサで購買行為に関連する動作を取得及び認識するが、ライトカーテン又は赤外線センサで取得・認識した手部の位置が正確なものではなく、正確に人体動作を認識することが難しい。
本発明の実施例は、人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体を提供し、それにより人体追跡の正確さと、人体動作の認識精度を向上させるものである。
第1態様では、本発明の実施例に係る人体行動分析方法は、複数の撮影機器のうち少なくとも1つの撮影機器が棚の上方に設置され、前記複数の撮影機器が撮影した画像の情報を取得するステップと、前記複数の撮影機器が撮影した画像の情報に基づいて人体追跡を行って、少なくとも1つの人体の空間における位置情報及び前記少なくとも1つの人体の識別情報を確定するステップと、前記少なくとも1つの人体のうちの目標人体の空間における位置情報に基づいて、前記位置情報に対応する棚の上方の撮影機器が撮影した目標画像を取得するステップと、前記目標画像及び前記位置情報に対応する非視覚センサの検知データに基づいて、前記目標人体の動作を認識するステップと、を含む。
第2態様では、本発明の実施例に係る人体行動分析装置は、複数の撮影機器のうち少なくとも1つの撮影機器が棚の上方に設置され、前記複数の撮影機器が撮影した画像の情報を取得するために用いられる第1取得モジュールと、前記複数の撮影機器が撮影した画像の情報に基づいて人体追跡を行って、少なくとも1つの人体の空間における位置情報及び前記少なくとも1つの人体の識別情報を確定するために用いられる確定モジュールと、前記少なくとも1つの人体のうちの目標人体の空間における位置情報に基づいて、前記位置情報に対応する棚の上方の撮影機器が撮影した目標画像を取得するために用いられる第2取得モジュールと、前記目標画像及び前記位置情報に対応する非視覚センサの検知データに基づいて、前記目標人体の動作を認識するために用いられる認識モジュールと、を含む。
第3態様では、本発明の実施例に係る機器は、メモリと、プロセッサと、コンピュータプログラムと、を含み、ここで、前記コンピュータプログラムは、前記メモリに記憶され、且つ第1態様に記載の方法を実現するために、前記プロセッサにより実行されるように構成される。
第4態様では、本発明の実施例に係るコンピュータ可読記憶媒体には、第1態様に記載の方法を実現するためにプロセッサにより実行されるコンピュータプログラムが記憶されている。
本発明の実施例に係る人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体は、複数の撮影機器が撮影した画像の情報を取得し、前記複数の撮影機器が撮影した画像の情報に基づいて人体追跡を行い、複数の撮影機器のうち少なくとも1つの撮影機器が棚の上方に設置され、棚の上方の撮影機器が棚の前面にいる人体をより完全に撮影できるため、人体追跡の正確さが向上する。また、棚の上方の撮影機器が撮影した画像の情報と人体周りの非視覚センサの検知データとを合わせて、人体動作を認識することにより、人体動作の認識精度が向上する。
本発明の実施例に係る応用現場を示す模式図である。 本発明の実施例に係る人体行動分析方法のフローチャートである。 本発明の他の実施例に係る人体行動分析方法のフローチャートである。 本発明の実施例に係る人体行動分析装置の構造を示す模式図である。 本発明の実施例に係る機器の構造を示す模式図である。
上記の添付図面に、本発明に明確に開示された実施例を示し、より詳細な説明は後述する。これらの添付図面とテキストの説明は、いかなる方法で本発明の構想範囲を制限するためのものではなく、特定の実施例を参考としながら、当業者に本発明の概念を説明するためのものである。
ここでは、例示的な実施例について詳細に説明し、その例を添付図面に表す。図面に関する以下の説明について、特に明記しない限り、異なる添付図面における同じ数字は同じ又は同様の要素を表す。以下の例示的な実施例に記載された実施形態は、本発明と一致するすべての実施形態を示すものではなく、特許請求の範囲に詳述した、本発明の一部の態様と一致する装置及び方法の例にすぎない。
本発明に係る人体行動分析方法は、図1に示す応用現場に適用できる。図1に示すように、応用現場は、具体的には、スーパーマーケット、ショッピングモールなどのような小売現場であってもよく、図1に示すように、応用現場には複数の撮影機器、例えば撮影機器11、撮影機器12、撮影機器13、撮影機器14が含まれ、ここで、撮影機器11、撮影機器12、撮影機器13は店舗の天井に設置することができ、撮影機器14は棚15の上方に設置することができる。また、応用現場には、さらに、データ処理、画像処理機能を備えた機器16が含まれ、機器16は、コンピュータのような店舗のローカル端末機器であってもよく、リモートサーバであってもよい。機器16は、撮影機器11、撮影機器12、撮影機器13、撮影機器14が撮影した画像の情報を受信できる。また、棚15の横梁17に取り付けられたライトカーテンセンサ18、棚15の棚板19上に取り付けた赤外線センサ20のような非視覚センサを棚15にさらに取り付けることもでき、機器16は非視覚センサの検知データを取得することができ、選択的に、撮影機器及び非視覚センサは機器16と有線接続又は無線接続することができる。
本発明は、人体行動分析方法を提供し、従来技術の上記のような技術的問題を解決することを目的とする。
以下、本発明の技術的解決手段及び本願の技術的解決手段でどのように上記の技術的問題を解決するかについて、具体的な実施例を参照しながら詳細に説明する。以下の具体的な実施例を組み合わせることができ、一部の実施例では、同じ又は同様の概念又はプロセスについての詳細な説明を省略する。以下、添付図面を参照しながら、本発明の実施例について説明する。
図2は、本発明の実施例に係る人体行動分析方法のフローチャートである。本発明の実施例は、従来技術の上記の技術的問題に対して、人体行動分析方法を提供し、人体行動分析方法の具体的なステップは以下のようである。
ステップ201では、複数の撮影機器のうち少なくとも1つの撮影機器が棚の上方に設置され、複数の撮影機器が撮影した画像の情報を取得する。
図1に示すように、店舗の天井に設置された撮影機器11、撮影機器12、撮影機器13及び棚15の上方に設置された撮影機器14が画像の情報をリアルタイムに撮影し、且つ撮影した画像の情報を機器16に送信し、選択的に、各撮影機器と機器16との間は有線通信又は無線通信をすることができる。本実施例において、撮影機器は、具体的にはRGBカメラであっても、RGB−Dカメラであってもよい。ここは例示的な説明に過ぎず、撮影機器の数と具体的位置を制限するものではない。なお、他の実施例において、撮影機器11、撮影機器12、撮影機器13を店舗の天井に設置しなくてもよく、例えば、店舗の壁、隅などの箇所に設置してもよく、複数の撮影機器の撮影範囲が前記店舗をカバーできればよいということが理解できる。また、撮影機器14を棚の上方に設置しなくてもよく、例えば棚の縦梁に設置してもよく、撮影機器14が前記棚の前面にいる顧客を撮影できるだけでよく、ここでは、各棚に取り付けられる撮影機器の数も限定しない。
ステップ202では、複数の撮影機器が撮影した画像の情報に基づいて人体追跡を行って、少なくとも1つの人体の空間における位置情報及び前記少なくとも1つの人体の識別情報を確定する。
機器16は、撮影機器11、撮影機器12、撮影機器13及び撮影機器14がリアルタイムに撮影した画像の情報を受信した後、各撮影機器がリアルタイムに撮影した画像の情報に基づいて人体追跡を行い、各撮影機器が撮影した人体が空間における3D位置情報と、人体の識別情報と、各撮影機器が撮影した画像の情報における人体の2D位置情報を確定する。
例えば、撮影機器11、撮影機器12、撮影機器13及び撮影機器14が撮影した画像は、人体A、人体Bと人体Cを含み、機器16が人体追跡を行った後、空間における人体A、人体Bと人体Cそれぞれの3D位置情報と、識別情報と、各撮影機器が撮影した画像における人体A、人体Bと人体Cそれぞれの2D位置を確定する。
ステップ203では、少なくとも1つの人体のうちの目標人体の空間における位置情報に基づいて、位置情報に対応する棚の上方の撮影機器が撮影した目標画像を取得する。
なお、商品を持ち上げる、商品を元の位置に戻すなどのように、人体A、人体Bと人体Cが店舗内で行う動作は様々であり、機器16は人体ごとに動作を認識できるということが理解でき、人体Aを例として、機器16が人体Aの空間における3D位置情報を確定した後、さらに3D位置情報に対応する棚の上方の撮影機器を確定することができ、例えば、機器16は、人体Aの空間における3D位置情報に基づいて、撮影機器14のような人体Aに最も近い、棚の上方に設置された撮影機器を確定し、且つ機器16が受信したすべての画像の情報から撮影機器14が撮影した画像の情報を確定し、なお、撮影機器14が撮影した画像の情報は人体Aを含むことが理解できる。ここでは、撮影機器14が撮影した画像の情報を目標画像と記録する。
ステップ204では、目標画像及び位置情報に対応する非視覚センサの検知データに基づいて、目標人体の動作を認識する。
本実施例において、機器16は、さらに、人体Aの空間における3D位置情報に基づいて、人体Aに最も近い非視覚センサを確定することができ、具体的には、機器16は、撮影機器14が撮影した画像の情報と人体Aに最も近い非視覚センサの検知データに基づいて、人体Aの動作を認識する。
具体的には、目標人体の動作を認識するステップには、目標人体が商品を持ち上げる動作を認識すること、及び/又は、目標人体が商品を下ろす動作を認識することを含む。
例えば、機器16は、撮影機器14が撮影した画像の情報と、人体Aに最も近い非視覚センサの検知データとに基づいて、人体Aが商品を持ち上げる及び/又は商品を下ろす動作を認識する。
本発明の実施例は、複数の撮影機器が撮影した画像の情報を取得し、複数の撮影機器が撮影した画像の情報に基づいて人体追跡を行い、複数の撮影機器のうち少なくとも1つの撮影機器が棚の上方に設置され、棚の上方の撮影機器が棚の前面にいる人体をより完全に撮影できるため、人体追跡の正確さが向上する。また、棚の上方の撮影機器が撮影した画像の情報と人体周りの非視覚センサの検知データとを合わせて、人体動作を認識することにより、人体動作の認識精度が向上する。
図3は、本発明の他の実施例に係る人体行動分析方法のフローチャートである。上記実施例に基づいて、目標画像及び位置情報に対応する非視覚センサの検知データに従って目標人体の動作を認識するステップは、具体的には、以下のステップを含む。
ステップ301では、目標画像における、目標人体の手部キーポイントを含む目標人体のキーポイントを取得する。
例えば、機器16は、撮影機器14が撮影した目標画像を受信した後、人体Aの目標画像における2D位置情報に基づいて、人体キーポイントアルゴリズムを用いて目標画像における人体Aのキーポイントを取得し、なお、人体Aのキーポイントは人体Aのボディーキーポイントと人体Aの手部キーポイントを含み、且つ機器16は目標画像における人体Aのボディーキーポイントと人体Aの手部キーポイントに基づいて、人体Aと人体Aの手部の関連関係を構築できることが理解できる。
ステップ302では、目標人体の手部キーポイントと、位置情報に対応する非視覚センサの検知データとに基づいて、目標人体の動作を認識する。
具体的には、機器16は、人体Aの手部キーポイントと、人体Aに最も近い非視覚センサの検知データとに基づいて、人体Aの動作を認識する。機器16は、撮影機器14が撮影した目標画像をリアルタイムに受信し、且つ目標画像から人体Aの手部キーポイントをリアルタイムに抽出することができるが、人体Aの手部動作が常にリアルタイムで変化するわけではないため、機器16は人体Aの手部キーポイントに基づいて、人体Aの手部動作をリアルタイムで認識しない。例えば、人体Aが商品を持ち上げる又は商品を下ろすことは常にリアルタイムで発生するものではなく、人体Aは商品を持ち上げる前に商品を注意深く観察する場合もあり、人体Aが商品を持ち上げた後に商品をすぐ下ろさずよく見る場合もある。したがって、人体Aの手部動作、例えば商品を持ち上げる又は商品を下ろす動作が発生する頻度が低いにも関わらず、機器16が人体Aの手部キーポイントに基づいて、人体A手部動作をリアルタイムで認識すると、機器16の計算量が増加する。したがって、本実施例において、機器16は、人体Aに最も近い非視覚センサの検知データと人体A手部キーポイントを合わせて、人体Aの動作を認識してもよい。
選択的に、非視覚センサは、棚の顧客に面する横梁に設置された、動作の発生時刻を検知するために用いられるライトカーテンセンサを含み、目標人体の手部キーポイントと、位置情報に対応する非視覚センサの検知データとに基づいて、目標人体の動作を認識するステップは、ライトカーテンセンサが検知した動作の発生時に、目標人体の手部キーポイントに基づいて目標人体の動作を認識する。
図1に示すように、ライトカーテンセンサ18は棚15の横梁17に設置され、具体的には、ライトカーテンセンサ18は棒状であってもよく、ライトカーテンセンサ18は横梁17の顧客に面する外縁に設置されてもよい。選択的に、横梁17の外縁には複数のライトカーテンセンサが設置され、ライトカーテンセンサ18はそのうちの1つにすぎない。例えば、複数のライトカーテンセンサは横梁17の外縁に順番に並べて設置される。ここで、各ライトカーテンセンサの横梁17に対応する位置情報は予め設定したものである。
例えば、人体Aが手を伸ばして商品21を持ち上げるか又は商品21を元の位置に戻す時、人体Aの手部は複数のライトカーテンセンサのうちの少なくとも1つ、例えばライトカーテンセンサ18を通過し、このとき、ライトカーテンセンサ18は感知信号を機器16に送信でき、機器16はライトカーテンセンサ18が感知信号を送信した時刻に基づいて人体Aの手部動作の発生時刻を確定し、且つライトカーテンセンサ18の横梁17に対する位置情報に基づいて、人体Aの手部動作の発生位置を確定できる。具体的には、機器16は人体Aの手部動作の発生時に、人体Aの手部キーポイント及び変化に基づいて、人体Aの手部動作、例えば商品を持ち上げる、商品を元の位置に戻す又はその他の動作を認識する。
選択的に、非視覚センサは、棚の棚板に設置された赤外線センサをさらに含み、ライトカーテンセンサは、さらに、動作の発生位置を検知するために用いられる。ライトカーテンセンサが検知した動作の発生時に、目標人体の手部キーポイントに基づいて目標人体の動作を認識することは、ライトカーテンセンサが検知した動作の発生時に、ライトカーテンセンサが検知した動作の発生位置に基づいて、動作の発生位置に対応する赤外線センサが検知した人体及び/又は商品の赤外線放射強度の変化を取得することと、動作の発生位置に対応する赤外線センサが検知した人体及び/又は商品の赤外線放射強度の変化と、目標人体の手部キーポイントとに基づいて、目標人体の動作を認識することと、を含む。
図1に示すように、赤外線センサ20は棚15の棚板19上に設置され、なお、棚15の棚板19上に複数の赤外線センサを設置することができ、赤外線センサ20はそのうちの1つにすぎないことが理解できる。赤外線センサは人体Aの手部から放射される赤外線と、赤外線センサの前方にある商品とを感知するために用いられる。人体Aが手を伸ばして商品21を持ち上げるか又は商品21を元の位置に戻す時、赤外線センサが検知した人体Aの手部から放射される赤外線の強度は常に変化しており、例えば、人体Aの手部が商品21に徐々に近づける場合、赤外線センサが検知した人体Aの手部から放射される赤外線の強度は増加し続け、人体Aの手部が商品21から徐々に離れる場合、赤外線センサが検知した人体A手部から放射される赤外線の強度は弱まり続ける。棚板19上で人体Aの手部に最も近い赤外線センサが検知した、人体Aの手部から放射される赤外線の強度がより正確であることが理解できる。
棚板19上で人体Aの手部に最も近い赤外線センサを確定できる方法として、一つの可能な方法によると、人体Aが手を伸ばして商品21を持ち上げるか又は商品21を元の位置に戻す時、人体Aの手部が複数のライトカーテンセンサのうち少なくとも1つ、例えばライトカーテンセンサ18を通過し、このとき、ライトカーテンセンサ18は感知信号を機器16に送信することができ、機器16はライトカーテンセンサ18が感知信号を送信した時刻に基づいて人体Aの手部動作の発生時刻を確定することができ、且つ横梁17に対するライトカーテンセンサ18の位置情報に基づいて、人体Aの手部動作の発生位置を確定することができ、このとき、機器16は人体Aの手部動作の発生位置に基づいて、人体Aの手部動作が発生した位置に最も近い赤外線センサを確定することができ、又はライトカーテンセンサ18に最も近い赤外線センサ、例えば赤外線センサ20を確定することができる。さらに、機器16は赤外線センサ20が検知した人体及び/又は商品の赤外線放射強度の変化を取得し、且つ赤外線センサ20が検知した人体及び/又は商品の赤外線放射強度の変化と、撮影機器14が撮影した目標画像における人体Aの手部のキーポイント及び前記キーポイントの変化とを合わせて、人体Aの手部動作、例えば商品を持ち上げる、商品を元の位置に戻す又はその他の動作を認識する。
選択的に、非視覚センサは、棚の棚板に設置された重力センサをさらに含み、人体行動分析方法は、さらに、ライトカーテンセンサが検知した動作の発生時に、ライトカーテンセンサが検知した動作の発生位置に基づいて、動作の発生位置に対応する重力センサが検知した重力変化を取得することを含む。動作の発生位置に対応する赤外線センサが検知した人体及び/又は商品の赤外線放射強度の変化と、目標人体の手部キーポイントとに基づいて、目標人体の動作を認識することは、動作の発生位置に対応する赤外線センサが検知した人体及び/又は商品の赤外線放射強度の変化と、動作の発生位置に対応する重力センサが検知した重力変化と、目標人体の手部キーポイントとに基づいて、目標人体の動作を認識することを含む。
図1に示すように、棚15の棚板19上にさらに重力センサを設置することもでき、棚板19上の商品が減るか又は増加するかによって、重力センサの検知結果が異なる。すなわち、人体Aが棚板19上から商品を持ち上げるか又は商品を元の位置に戻す時、重力センサの検知結果が異なる。したがって、機器16が人体Aの手部動作を認識するとき、さらに重力センサの検知結果を合わせることもできる。
具体的には、人体Aが手を伸ばして商品21を持ち上げるか又は商品21を元の位置に戻す時、人体Aの手部は複数のライトカーテンセンサのうち少なくとも1つ、例えばライトカーテンセンサ18を通過し、このとき、ライトカーテンセンサ18は感知信号を機器16に送信でき、機器16はライトカーテンセンサ18が感知信号を送信した時刻に基づいて人体Aの手部動作の発生時刻を確定し、且つ横梁17に対応するライトカーテンセンサ18の位置情報に基づいて、人体Aの手部動作の発生位置を確定でき、このとき、機器16は人体Aの手部動作の発生位置に基づいて、人体Aの手部動作が発生した位置に最も近い赤外線センサを確定し、又はライトカーテンセンサ18に最も近い赤外線センサ、例えば赤外線センサ20を確定し、及び人体Aの手部動作の発生位置に最も近い重力センサを確定し、又はライトカーテンセンサ18に最も近い赤外線センサ、例えば重力センサを確定することができる。さらに、機器16は、赤外線センサ20が検知した人体及び/又は商品の赤外線放射強度の変化と、重力センサが検知した重力変化とを取得し、機器16は赤外線センサ20が検知した人体及び/又は商品の赤外線放射強度の変化と、重力センサが検知した重力変化と、撮影機器14が撮影した目標画像における人体Aの手部キーポイント及び前記キーポイントの変化とに基づいて、人体Aの手部動作、例えば商品を持ち上げる、商品を元の位置に戻す又はその他の動作を認識する。
また、機器16が人体Aの手部動作を確定した後、さらに、上記の人体追跡プロセスで確定した人体Aの識別情報に基づいて、動作が現在店舗内のどの人によって行われているかを確定することができる。
本発明の実施例は、棚の上方の撮影機器が撮影した画像の情報と人体周りの非視覚センサの検知データとを合わせて、人体動作を認識することにより、人体動作の認識精度が向上し、また、非視覚センサの検知データにより人体動作の発生時刻を確定することにより、人体動作の発生時に人体動作を認識し、人体動作をリアルタイムに認識する必要がなく、人体動作の発生頻度が低い場合、機器の計算量を減らし、機器のリソース利用率が向上する。
図4は、本発明の実施例に係る人体行動分析装置の構造を示す模式図である。人体行動分析装置は、具体的には、上記実施例における機器16であってもよく、又は機器16の部品であってもよい。本発明の実施例に係る人体行動分析装置により、人体行動分析方法の実施例に係る処理フローを実行することができ、図4に示すように、人体行動分析装置40は、複数の撮影機器のうち少なくとも1つの撮影機器が棚の上方に設置され、複数の撮影機器が撮影した画像の情報を取得するために用いられる第1取得モジュール41と、複数の撮影機器が撮影した画像の情報に基づいて人体追跡を行って、少なくとも1つの人体の空間における位置情報及び少なくとも1つの人体の識別情報を確定するために用いられる確定モジュール42と、前記少なくとも1つの人体のうちの目標人体の空間における位置情報に基づいて、位置情報に対応する棚の上方の撮影機器が撮影した目標画像を取得するために用いられる第2取得モジュール43と、目標画像及び位置情報に対応する非視覚センサの検知データに基づいて、目標人体の動作を認識するために用いられる認識モジュール44と、を含む。
選択的に、認識モジュール44は、目標画像における、目標人体の手部キーポイントを含む目標人体のキーポイントを取得するために用いられる取得ユニット441と、目標人体の手部キーポイントと、位置情報に対応する非視覚センサの検知データとに基づいて、目標人体の動作を認識するために用いられる認識ユニット442と、を含む。
選択的に、前記非視覚センサは、棚の顧客に面する横梁に設置された、動作の発生時刻を検知するために用いられるライトカーテンセンサを含み、認識ユニット442は、具体的には、ライトカーテンセンサが検知した動作の発生時に、目標人体の手部キーポイントに基づいて、目標人体の動作を認識するために用いられる。
選択的に、非視覚センサは、棚の棚板に設置された赤外線センサをさらに含み、ライトカーテンセンサは、さらに、動作の発生位置を検知するために用いられ、取得ユニット441は、さらに、ライトカーテンセンサが検知した動作の発生時に、ライトカーテンセンサが検知した動作の発生位置に基づいて、動作の発生位置に対応する赤外線センサが検知した人体及び/又は商品の赤外線放射強度の変化を取得するために用いられ、認識ユニット442は、具体的には、動作の発生位置に対応する赤外線センサが検知した人体及び/又は商品の赤外線放射強度の変化と、目標人体の手部キーポイントとに基づいて、目標人体の動作を認識するために用いられる。
選択的に、非視覚センサは、棚の棚板に設置された重力センサをさらに含み、取得ユニット441は、さらに、ライトカーテンセンサが検知した動作の発生時に、ライトカーテンセンサが検知した動作の発生位置に基づいて、動作の発生位置に対応する重力センサが検知した重力変化を取得するために用いられ、認識ユニット442は、具体的には、動作の発生位置に対応する赤外線センサが検知した人体及び/又は商品の赤外線放射強度の変化と、動作の発生位置に対応する重力センサが検知した重力変化と、前記目標人体の手部キーポイントとに基づいて、目標人体の動作を認識するために用いられる。
選択的に、認識モジュール44は、具体的には、目標人体が商品を持ち上げる動作の認識、及び/又は、目標人体が商品を元の位置に戻す動作の認識のために用いられる。
図4に示す実施例の人体行動分析装置は、上記方法の実施例の技術的可決手段を実行するために用いることができ、その実現原理と技術効果が同様であるため、ここでは、詳細な説明を省略する。
図5は、本発明の実施例に係る機器の構造を示す模式図である。機器は、端末機器であってもよく、サーバであってもよい。本発明の実施例に係る機器により、人体行動分析方法の実施例に係る処理フローを実行することができ、図5に示すように、機器50は、メモリ51と、プロセッサ52と、コンピュータプログラムと、通信インタフェース53とを含み、ここで、上述の人体行動分析方法を実施するために、プロセッサ52により実行されるように構成されたコンピュータプログラムは、メモリ51に記憶されている。
図5に示す実施例の機器は、上述方法の実施例の技術的解決手段を実行するために用いることができ、その実現原理と技術効果が同様であるため、ここでは、詳細な説明を省略する。
また、本実施例は、コンピュータプログラムが記憶されているコンピュータ可読記憶媒体をさらに含み、コンピュータプログラムがプロセッサにより実行されることで上記実施例に係る人体追跡方法を実現する。
本発明に係るいくつかの実施例において、その他の方法で開示された装置及び方法を実現できることが理解できる。例えば、上述の装置の実施例は単なる例示であり、例えば、ユニットの分割は論理機能の分割にすぎず、実際に実現する際には別の分割方法もありえる。例えば複数のユニット又は部品を組み合わせて別の1つのシステムに集積してもよく、又は一部の特徴を無視するか、実行しなくてもよい。さらに、図示又は説明した相互結合又は直接結合又は通信接続は、何らかのインタフェース、装置又はユニットの間接結合又は通信接続であっても、電気的、機械的または他の形態であってもよい。
分離部材として説明したユニットは、物理的に分離していても分離していなくてもよく、ユニットとして図示された部材は、物理的ユニットであってもなくてもよく、すなわち、一箇所に位置してもよく、又は複数のネットワークユニットに分割されていてもよい。実際の必要性に応じて、本実施例の手段と目的を実現するために一部又は全部のユニットを選択することができる。
また、本発明の各実施例における各機能ユニットは、1つの処理ユニットに集積されてもよく、各ユニットが物理的に別々に存在してもよく、2つまたは二つ以上のユニットが1つのユニットに集積されてもよい。上記の集積ユニットは、ハードウェアの形態を用いてもよく、ソフトウェア機能ユニット付きハードウェアの形態を用いてもよい。
上記ソフトウェア機能ユニットの形態で実現された集積ユニットは、コンピュータ可読記憶媒体に格納されてもよい。上記ソフトウェア機能ユニットは、記憶媒体に格納され、コンピュータ機器(パーソナルコンピュータ、サーバ、又はネットワーク機器などであり得る)又はプロセッサ(processor)に本発明の各実施例に説明された方法の一部のステップを実行させるためのいくつかのコマンドを含む。記憶媒体は、USB、モバイルハードディスク、読み取り専用メモリ(Read−Only Memory、ROM)、ランダム・アクセス・メモリ(Random Access Memory、RAM)、磁気ディスク、光ディスクなど、プログラムコードを記憶することができる様々な媒体を含む。
説明の便宜及び簡潔さのために、上記の各機能モジュールの分割を例として説明したが、実際の応用において、必要性に応じて上記機能が異なる機能モジュールにより実行されるように構成してもよく、すなわち上述の全部又は一部の機能を実行するために、装置の内部構造を異なる機能モジュールに分割することは当業者には明らかであろう。上述の装置の具体的な作業プロセスは、前述方法の実施例における対応のプロセスを参考できるため、ここでは詳細な説明を省略する。
最後に、以上の各実施例は本発明の技術的解決手段を説明するものにすぎず、それに対して限定しない。前述の各実施例を参照しながら、本発明について詳細に説明したが、当業者であれば、前述の各実施例に記載された技術的解決手段を変更でき、又はその一部又は全部の技術特徴に対して同価置換を行うことができ、これらの変更又は置換に対応する技術的解決手段は、本発明の各実施例の技術的解決手段の範囲から逸脱しないことを理解すべきである。

Claims (10)

  1. 人体行動分析装置によって実行される人体行動分析方法であって、
    複数の撮影機器のうち少なくとも1つの撮影機器が棚の上方に設置され、前記人体行動分析装置が、前記複数の撮影機器が撮影した画像の情報を取得するステップと、
    前記人体行動分析装置が、前記複数の撮影機器が撮影した画像の情報に基づいて人体追跡を行って、少なくとも1つの人体の空間における位置情報及び前記少なくとも1つの人体の識別情報を確定するステップと、
    前記人体行動分析装置が、前記少なくとも1つの人体のうちの目標人体の空間における位置情報に基づいて、前記位置情報に対応する棚の上方の撮影機器が撮影した目標画像を取得するステップと、
    前記人体行動分析装置が、前記目標画像及び前記位置情報に対応する非視覚センサの検知データに基づいて、前記目標人体の動作を認識するステップとを含み、
    前記人体行動分析装置が、前記目標画像及び前記位置情報に対応する非視覚センサの検知データに基づいて、前記目標人体の動作を認識する前記ステップは、
    前記人体行動分析装置が、前記目標画像における、前記目標人体の手部キーポイントを含む前記目標人体のキーポイントを取得するステップと、
    前記人体行動分析装置が、前記目標人体の手部キーポイントと、前記位置情報に対応する非視覚センサの検知データとに基づいて、前記目標人体の動作を認識するステップとを含み、
    前記非視覚センサは、前記棚の顧客に面する横梁に設置された、前記動作の発生時刻を検知するために用いられるライトカーテンセンサを含み、
    前記人体行動分析装置が、前記目標人体の手部キーポイントと、前記位置情報に対応する非視覚センサの検知データとに基づいて、前記目標人体の動作を認識する前記ステップは、
    前記ライトカーテンセンサが検知した前記動作の発生時に、前記人体行動分析装置が、前記目標人体の手部キーポイントに基づいて前記目標人体の動作を認識することを含む人体行動分析方法。
  2. 前記非視覚センサは、前記棚の棚板に設置された赤外線センサをさらに含み、
    前記ライトカーテンセンサは、さらに、前記動作の発生位置を検知するために用いられ、
    前記ライトカーテンセンサが検知した前記動作の発生時に、前記人体行動分析装置が、前記目標人体の手部キーポイントに基づいて前記目標人体の動作を認識することは、
    前記ライトカーテンセンサが検知した前記動作の発生時に、前記人体行動分析装置が、前記ライトカーテンセンサが検知した前記動作の発生位置に基づいて、前記動作の発生位置に対応する赤外線センサが検知した人体及び/又は商品の赤外線放射強度の変化を取得することと、
    前記人体行動分析装置が、前記動作の発生位置に対応する赤外線センサが検知した人体及び/又は商品の赤外線放射強度の変化と、前記目標人体の手部キーポイントとに基づいて、前記目標人体の動作を認識することとを含む請求項に記載の人体行動分析方法。
  3. 前記非視覚センサは、前記棚の棚板に設置された重力センサをさらに含み、
    前記人体行動分析方法は、さらに、
    前記ライトカーテンセンサが検知した前記動作の発生時に、前記人体行動分析装置が、前記ライトカーテンセンサが検知した前記動作の発生位置に基づいて、前記動作の発生位置に対応する重力センサが検知した重力変化を取得することを含み、
    前記人体行動分析装置が、前記動作の発生位置に対応する赤外線センサが検知した人体及び/又は商品の赤外線放射強度の変化と、前記目標人体の手部キーポイントとに基づいて、前記目標人体の動作を認識することは、
    前記人体行動分析装置が、前記動作の発生位置に対応する赤外線センサが検知した人体及び/又は商品の赤外線放射強度の変化と、前記動作の発生位置に対応する重力センサが検知した重力変化と、前記目標人体の手部キーポイントとに基づいて、前記目標人体の動作を認識することを含む請求項に記載の人体行動分析方法。
  4. 前記目標人体の動作を認識することは、
    前記目標人体が商品を持ち上げる動作を認識すること;及び/又は
    前記目標人体が商品を下ろす動作を認識することを含む請求項1〜のいずれか1項に記載の人体行動分析方法。
  5. 複数の撮影機器のうち少なくとも1つの撮影機器が棚の上方に設置され、前記複数の撮影機器が撮影した画像の情報を取得するために用いられる第1取得モジュールと、
    前記複数の撮影機器が撮影した画像の情報に基づいて人体追跡を行って、少なくとも1つの人体の空間における位置情報及び前記少なくとも1つの人体の識別情報を確定するために用いられる確定モジュールと、
    前記少なくとも1つの人体のうちの目標人体の空間における位置情報に基づいて、前記位置情報に対応する棚の上方の撮影機器が撮影した目標画像を取得するために用いられる第2取得モジュールと、
    前記目標画像及び前記位置情報に対応する非視覚センサの検知データに基づいて、前記目標人体の動作を認識するために用いられる認識モジュールとを含み、
    前記認識モジュールは、
    前記目標画像における、目標人体の手部キーポイントを含む前記目標人体のキーポイントを取得するために用いられる取得ユニットと、
    前記目標人体の手部キーポイントと、前記位置情報に対応する非視覚センサの検知データとに基づいて、前記目標人体の動作を認識するために用いられる認識ユニットとを含み、
    前記非視覚センサは、前記棚の顧客に面する横梁に設置された、前記動作の発生時刻を検知するために用いられるライトカーテンセンサを含み、
    前記認識ユニットは、具体的には、前記ライトカーテンセンサが検知した前記動作の発生時に、前記目標人体の手部キーポイントに基づいて前記目標人体の動作を認識するために用いられる人体行動分析装置。
  6. 前記非視覚センサは、前記棚の棚板に設置された赤外線センサをさらに含み、
    前記ライトカーテンセンサは、さらに、前記動作の発生位置を検知するために用いられ、
    前記取得ユニットは、さらに、前記ライトカーテンセンサが検知した前記動作の発生時に、前記ライトカーテンセンサが検知した前記動作の発生位置に基づいて、前記動作の発生位置に対応する赤外線センサが検知した人体及び/又は商品の赤外線放射強度の変化を取得するために用いられ、
    前記認識ユニットは、具体的には、前記動作の発生位置に対応する赤外線センサが検知した人体及び/又は商品の赤外線放射強度の変化と、前記目標人体の手部キーポイントとに基づいて、前記目標人体の動作を認識するために用いられる請求項に記載の人体行動分析装置。
  7. 前記非視覚センサは、前記棚の棚板に設置された重力センサをさらに含み、
    前記取得ユニットは、さらに、前記ライトカーテンセンサが検知した前記動作の発生時に、前記ライトカーテンセンサが検知した前記動作の発生位置に基づいて、前記動作の発生位置に対応する重力センサが検知した重力変化を取得するために用いられ、
    前記認識ユニットは、具体的には、前記動作の発生位置に対応する赤外線センサが検知した人体及び/又は商品の赤外線放射強度の変化と、前記動作の発生位置に対応する重力センサが検知した重力変化と、前記目標人体の手部キーポイントとに基づいて、前記目標人体の動作を認識するために用いられる請求項に記載の人体行動分析装置。
  8. 前記認識モジュールは、具体的には、
    前記目標人体が商品を持ち上げる動作の認識、及び/又は
    前記目標人体が商品を元の位置に戻す動作の認識のために用いられる請求項5〜7のいずれか1項に記載の人体行動分析装置。
  9. メモリと、
    プロセッサと、
    コンピュータプログラムと、を含み、
    ここで、前記コンピュータプログラムは、前記メモリに記憶され、且つ請求項1〜のいずれか1項に記載の人体行動分析方法を実現するために、前記プロセッサにより実行されるように構成される機器。
  10. 請求項1〜のいずれか1項に記載の人体行動分析方法を実現するために、プロセッサにより実行されるコンピュータプログラムが記憶されているコンピュータ可読記憶媒体。
JP2019124785A 2018-07-03 2019-07-03 人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体 Active JP6731097B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810720374.9A CN108921098B (zh) 2018-07-03 2018-07-03 人体运动分析方法、装置、设备及存储介质
CN201810720374.9 2018-07-03

Publications (2)

Publication Number Publication Date
JP2019164842A JP2019164842A (ja) 2019-09-26
JP6731097B2 true JP6731097B2 (ja) 2020-07-29

Family

ID=64425344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019124785A Active JP6731097B2 (ja) 2018-07-03 2019-07-03 人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体

Country Status (4)

Country Link
US (1) US10970528B2 (ja)
EP (1) EP3531341B1 (ja)
JP (1) JP6731097B2 (ja)
CN (1) CN108921098B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111429194B (zh) * 2019-01-09 2023-04-07 阿里巴巴集团控股有限公司 用户轨迹确定系统、方法、装置及服务器
CN109948515B (zh) * 2019-03-15 2022-04-15 百度在线网络技术(北京)有限公司 物体的类别识别方法和装置
CN109979130A (zh) * 2019-03-29 2019-07-05 厦门益东智能科技有限公司 一种商品自动识别和结算售货柜、方法以及系统
CN110443218B (zh) * 2019-08-13 2022-01-28 北京百度网讯科技有限公司 一种人物检测方法和装置
CN110705510B (zh) * 2019-10-16 2023-09-05 杭州优频科技有限公司 一种动作确定方法、装置、服务器和存储介质
CN111401207B (zh) * 2020-03-11 2022-07-08 福州大学 基于mars深度特征提取与增强的人体动作识别方法
CN113554678B (zh) * 2020-04-24 2023-09-12 杭州海康威视数字技术股份有限公司 一种运动目标徘徊行为检测的方法、装置及存储介质
CN113449740A (zh) * 2021-06-30 2021-09-28 上海宇仓智能仓储设备有限公司 移动货架的通道视觉检测方法、系统、设备和存储介质

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2473963A1 (en) * 2003-07-14 2005-01-14 Sunnybrook And Women's College Health Sciences Centre Optical image-based position tracking for magnetic resonance imaging
US8403858B2 (en) * 2006-10-12 2013-03-26 Perceptive Navigation Llc Image guided catheters and methods of use
US8670029B2 (en) * 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
US8929600B2 (en) * 2012-12-19 2015-01-06 Microsoft Corporation Action recognition based on depth maps
WO2014104360A1 (ja) * 2012-12-28 2014-07-03 株式会社東芝 動作情報処理装置及び方法
US9414776B2 (en) * 2013-03-06 2016-08-16 Navigated Technologies, LLC Patient permission-based mobile health-linked information collection and exchange systems and methods
JP2015061579A (ja) * 2013-07-01 2015-04-02 株式会社東芝 動作情報処理装置
JP5632512B1 (ja) * 2013-07-02 2014-11-26 パナソニック株式会社 人物行動分析装置、人物行動分析システムおよび人物行動分析方法、ならびに監視装置
JP6253311B2 (ja) * 2013-08-28 2017-12-27 キヤノン株式会社 画像処理装置、画像処理方法
CN105518755A (zh) 2013-09-06 2016-04-20 日本电气株式会社 安全系统、安全方法和非暂时性计算机可读介质
CN105518734A (zh) * 2013-09-06 2016-04-20 日本电气株式会社 顾客行为分析系统、顾客行为分析方法、非暂时性计算机可读介质和货架系统
JP6264380B2 (ja) * 2013-09-06 2018-01-24 日本電気株式会社 販売促進システム、販売促進方法、販売促進プログラム及び棚システム
CN104885111B (zh) * 2013-09-19 2020-03-20 松下电器(美国)知识产权公司 使信息终端显示销售信息的控制方法
JP6411373B2 (ja) * 2013-12-17 2018-10-24 シャープ株式会社 認識データ伝送装置、認識データ記録装置及び認識データ記録方法
JP6595181B2 (ja) * 2014-01-09 2019-10-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 照明制御システムに関連した店舗業務のための情報表示方法、照明制御方法
JP2015176227A (ja) * 2014-03-13 2015-10-05 富士通株式会社 監視方法、監視装置および監視プログラム
US9514363B2 (en) * 2014-04-08 2016-12-06 Disney Enterprises, Inc. Eye gaze driven spatio-temporal action localization
JP6532217B2 (ja) * 2014-11-19 2019-06-19 キヤノン株式会社 画像処理装置、画像処理方法、及び画像処理システム
CN204305213U (zh) * 2014-12-02 2015-04-29 苏州创捷传媒展览股份有限公司 多摄像头人体跟踪互动视觉装置
JP6573361B2 (ja) * 2015-03-16 2019-09-11 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
US9877012B2 (en) * 2015-04-01 2018-01-23 Canon Kabushiki Kaisha Image processing apparatus for estimating three-dimensional position of object and method therefor
JP2017033401A (ja) 2015-08-04 2017-02-09 株式会社 impactTV 顧客情報収集装置、顧客情報収集システムおよび顧客情報収集方法
JP2017076338A (ja) 2015-10-16 2017-04-20 ソニー株式会社 情報処理装置、および情報処理方法、ウェアラブル端末、並びにプログラム
CN105761423B (zh) * 2016-02-04 2018-04-06 合肥联宝信息技术有限公司 侦测手持式电子设备的用户的行为的装置及方法
JP6508419B2 (ja) 2016-03-22 2019-05-08 日本電気株式会社 画像表示装置、画像表示システム、画像表示方法及びプログラム
US10922541B2 (en) * 2016-04-06 2021-02-16 Nec Corporation Object type identifying apparatus, object type identifying method, and recording medium
CN114795151A (zh) * 2016-06-30 2022-07-29 松下知识产权经营株式会社 方法及系统
CN208957427U (zh) * 2017-08-16 2019-06-11 图灵通诺(北京)科技有限公司 结算装置用货架
US20190143517A1 (en) * 2017-11-14 2019-05-16 Arizona Board Of Regents On Behalf Of Arizona State University Systems and methods for collision-free trajectory planning in human-robot interaction through hand movement prediction from vision
EP3579196A1 (en) * 2018-06-05 2019-12-11 Cristian Sminchisescu Human clothing transfer method, system and device
CN109920180A (zh) * 2019-01-23 2019-06-21 北京小牛智能科技有限公司 超市防盗系统、超市自助结账方法和客户端

Also Published As

Publication number Publication date
CN108921098A (zh) 2018-11-30
EP3531341A2 (en) 2019-08-28
EP3531341A3 (en) 2020-01-08
US10970528B2 (en) 2021-04-06
CN108921098B (zh) 2020-08-18
EP3531341B1 (en) 2022-04-27
JP2019164842A (ja) 2019-09-26
US20190325207A1 (en) 2019-10-24

Similar Documents

Publication Publication Date Title
JP6731097B2 (ja) 人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体
JP7004017B2 (ja) 物体追跡システム、物体追跡方法、プログラム
JP6125188B2 (ja) 映像処理方法及び装置
US10152798B2 (en) Systems, methods and, media for determining object motion in three dimensions using speckle images
JP6904421B2 (ja) 店舗装置、店舗管理方法、プログラム
US10063843B2 (en) Image processing apparatus and image processing method for estimating three-dimensional position of object in image
JP5754990B2 (ja) 情報処理装置、情報処理方法及びプログラム
US10592778B2 (en) Stereoscopic object detection leveraging expected object distance
US11847796B2 (en) Calibrating cameras using human skeleton
CN108875507B (zh) 行人跟踪方法、设备、系统和计算机可读存储介质
JP5001930B2 (ja) 動作認識装置及び方法
JP7197171B2 (ja) 情報処理装置、制御方法、及びプログラム
CN110675426A (zh) 人体跟踪方法、装置、设备及存储介质
WO2016031314A1 (ja) 個人識別装置、個人識別方法、及び、個人識別プログラム
JP6042146B2 (ja) 対象物検出装置および対象物検出方法
KR101648786B1 (ko) 객체 인식 방법
JP2009301242A (ja) 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体
KR102250712B1 (ko) 전자 장치 및 제어 방법
CN106406507B (zh) 图像处理方法以及电子设备
KR101175751B1 (ko) 스트랩다운 이중 모드 영상탐색기의 베이시안 규칙 기반 표적 결정 방법
KR20200074050A (ko) 식별 장치 및 전자기기
JP2015001871A (ja) 人物判定装置、人物判定方法、プログラム及び記録媒体
JP2016066901A (ja) 撮像部特定システム、方法及びプログラム
JP2016045707A (ja) 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200703

R150 Certificate of patent or registration of utility model

Ref document number: 6731097

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250