JP2022519150A - 状態認識方法、装置、電子デバイス、及び記録媒体 - Google Patents

状態認識方法、装置、電子デバイス、及び記録媒体 Download PDF

Info

Publication number
JP2022519150A
JP2022519150A JP2021529267A JP2021529267A JP2022519150A JP 2022519150 A JP2022519150 A JP 2022519150A JP 2021529267 A JP2021529267 A JP 2021529267A JP 2021529267 A JP2021529267 A JP 2021529267A JP 2022519150 A JP2022519150 A JP 2022519150A
Authority
JP
Japan
Prior art keywords
target user
state
exhibition
area
exhibition area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021529267A
Other languages
English (en)
Inventor
▲賀▼然 ▲孫▼
佳▲寧▼ 李
玉文 程
小兵 任
存迪 ▲賈▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Publication of JP2022519150A publication Critical patent/JP2022519150A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

本発明は、状態認識方法、装置、電子デバイス、及び記録媒体を提供する。1例として、当該方法は、複数の展示エリアでそれぞれ収集したビデオ画面を取得することと、ビデオ画面内で出現される目標ユーザの、目標ユーザのそれぞれ各展示エリアにおける滞在状態、注目状態、および、感情状態の中の少なくとも2つを含む状態を、認識することと、端末デバイスが目標ユーザのそれぞれ各展示エリアにおける状態を記述するための表示インターフェースを表示するように制御することと、を含む。【選択図】図1

Description

<関連出願の互いに引用>
本発明は、出願日が2019年12月31日であり、出願番号が2019114163416である中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が参照として本願に組み入れられる。
本発明は、コンピュータ技術の分野に関し、具体的には、状態認識方法、装置、電子デバイス、及び記録媒体に関する。
スーパーマーケットやショッピング店舗、展示館などの展示会所では、通常、ユーザが購入または参観するようにするために、各展示エリアに様々な物品を展示している。ユーザの各展示エリアの物品に対する関心の程度は、多くの店舗または展示会が注目している問題の1つである。しかしながら、店舗または展示会の人物の流れの特徴は、密集した群衆や不規則な状態でのユーザ活動の軌跡にほとんど反映されるため、ユーザの各展示エリアの物品に対する関心の程度を分析することはより困難になる。
これに鑑みて、本発明は、少なくとも状態認識の解決策を提供する。
第1態様によると、本発明は、状態認識方法を提供し、
複数の展示エリアでそれぞれ収集した複数のビデオ画面を取得することと、
前記ビデオ画面内に出現した目標ユーザの、前記目標ユーザのそれぞれ各前記展示エリアにおける滞在状態、注目状態、および、感情状態の中の少なくとも2つを含む状態を、認識することと、
端末デバイスが前記目標ユーザのそれぞれ各前記展示エリアにおける状態を記述するための表示インターフェースを表示するように、前記端末デバイスを制御することと、を含む。
上記の方法において、収集したビデオ画面に対して認識を実行することによって、目標ユーザの状態データを得、目標ユーザの少なくとも2つ状態データに基づいて、端末デバイスが目標ユーザのそれぞれ各展示エリアにおける状態を記述するための表示インターフェースを表示するように制御することができる。目標ユーザの各エリアにおける状態が表示された表示インターフェースは、目標ユーザの展示エリアに展示された物体に対する関心の程度を直感的に反映することができ、さらに、より正確なユーザ行為情報を参考として使用して展示エリアに対応する展示計画を作成することができる。
可能な1実施形態において、前記滞在状態は、滞在持続時間および/または滞在回数を含み、前記ビデオ画面内に出現した目標ユーザの状態を認識することは、各前記展示エリアに対して、前記展示エリアに対応する複数のビデオ画面の中の前記目標ユーザが出現された目標ビデオ画面の収集時点を取得することと、前記目標ビデオ画面の収集時点に基づいて、前記目標ユーザが前記展示エリアに毎回入るときの開始時間を確定することと、前記目標ユーザが前記展示エリアに毎回入るときの開始時間に基づいて、前記目標ユーザの前記展示エリアにおける滞在回数および/または滞在持続時間を確定することと、を含む。
上記の方法において、目標ユーザが展示エリアに毎回入るときの開始時間に基づいて、目標ユーザの展示エリアにおける滞在回数および/または滞在持続時間を確定して、滞在状態を得ることによって、目標ユーザの展示エリアに展示された物体に対する関心の程度を確定するためのデータサポートを提供した。
可能な1実施形態において、前記目標ユーザが前記展示エリアに毎回入るときの開始時間に基づいて、前記目標ユーザの前記展示エリアにおける滞在回数および/または滞在持続時間を確定することは、前記目標ユーザが前記展示エリアに2回連続して入るときの開始時間同士の間の間隔が第1時間を超える場合、前記目標ユーザが前記展示エリアに1回滞在したと確定し、および/または、前記間隔を前記目標ユーザが前記展示エリアに1回滞在した滞在持続時間として確定することを含む。
上記の方式によると、目標ユーザが展示エリアに効果的に滞在していなかった状況を排除することができて、得られた滞在状態がより正確になり、目標ユーザの展示エリアに展示された物体に対する関心の程度をより正確に反映することができる。
可能な1実施形態において、前記注目状態は、注目持続時間および/または注目回数を含み、前記ビデオ画面内に出現した目標ユーザの状態を認識することは、各前記展示エリアに対して、前記展示エリアに対応する複数のビデオ画面の中の前記目標ユーザが出現された目標ビデオ画面の収集時点、および、前記目標ビデオ画面内での前記目標ユーザの顔向きデータを取得することと、前記顔向きデータが、前記目標ユーザが前記展示エリアの展示物体を注目したことを示すことが検出された場合、前記目標ビデオ画面に対応する収集時点を前記目標ユーザが前記展示物体を観覧するときの開始時間として確定することと、確定された前記目標ユーザが前記展示物体を複数回観覧するときの開始時間に基づいて、前記目標ユーザの前記展示エリアにおける注目回数および/または注目持続時間を確定することと、を含む。
上記の方法において、目標ユーザが展示エリアに毎回入るときの開始時間に基づいて、目標ユーザの展示エリアにおける注目回数および/または注目持続時間を確定し、注目状態を得ることによって、目標ユーザの展示エリアに展示された物体に対する関心の程度を確定するためのデータサポートを提供した。
可能な1実施形態において、前記確定された前記目標ユーザが前記展示物体を複数回観覧するときの開始時間に基づいて、前記目標ユーザの前記展示エリアにおける注目回数および/または注目持続時間を確定することは、前記目標ユーザが前記展示物体を2回連続して観覧するときの開始時間同士の間の間隔が第2時間を超えた場合、前記目標ユーザが前記展示エリアを1回注目したと確定し、および/または、前記間隔を前記ユーザが前記展示エリアを1回注目した注目持続時間として確定することを含む。
上記の方式によると、目標ユーザが展示物体を観覧した時間がより短い状況を排除することによって(目標ユーザが展示物体を観覧した時間がより短いと、当該目標ユーザが展示物体を注目しなかったとして見なす)、得られた注目状態がより正確になり、目標ユーザの展示エリアに展示された物体に対する関心の程度をより正確に反映することができる。
可能な1実施形態において、前記顔向きデータは、顔のピッチ角とヨー角とを含み、前記ピッチ角が第1角度範囲内にあり、かつ、前記ヨー角が第2角度範囲内にある場合、前記顔向きデータが、前記目標ユーザが前記展示エリアの展示物体を注目したことを示すと確定する。
上記の方式によると、目標ユーザが展示エリアの展示物体を注目したか否かを確定することによって、目標ユーザが展示エリア範囲内に出現して滞在したが展示物体を観覧しなかった状況を効果的な排除することができ、認識率を向上させた。
可能な1実施形態において、前記目標ユーザの各前記展示エリア内での感情状態は、前記目標ユーザの前記展示エリアに滞在した総滞在持続時間内で出現されたことが一番多い表情ラベル、前記目標ユーザの前記展示エリアを注目した総注目持続時間内で出現されたことが一番多い表情ラベル、および、前記展示エリアに対応する現在ビデオ画面内での前記目標ユーザの表情ラベルの中の少なくとも1つを含む。
上記の方法において、目標ユーザの対応する展示エリアにおける表情ラベルを確定し、感情状態の中の表情ラベルに基づいてユーザの展示エリアに展示された物体に対する関心の程度を確定することができる。たとえば、表情ラベルがハッピーであると、関心の程度がより高く、表情ラベルが穏やかであると、関心の程度がより低い。感情状態を参照することによって、目標ユーザの展示エリアに展示された物体に対する関心の程度をより正確に確定することができる。
可能な1実施形態において、端末デバイスが前記目標ユーザのそれぞれ各前記展示エリアにおける状態を記述するための表示インターフェースを表示するように、前記端末デバイスを制御することは、前記目標ユーザの各前記展示エリアにおける滞在状態および感情状態に基づいて、前記端末デバイスが各前記展示エリアにそれぞれ対応する異なる表示状態を有する表示エリアを表示するように制御すること、または、前記目標ユーザの各前記展示エリアにおける注目状態および感情状態に基づいて、前記端末デバイスが各前記展示エリアにそれぞれ対応する異なる表示状態を有する表示エリアを表示するように制御することを含む。
可能な1実施形態において、各表示エリアは、特定の図形で表示され、前記展示エリアに対応する前記特定の図形の表示サイズは、前記注目持続時間または前記注目回数に比率し、前記展示エリアに対応する前記特定の図形の色は、前記感情状態とマッチングされ、または、前記滞在状態は、前記目標ユーザの前記展示エリアにおける滞在持続時間または滞在回数を示し、前記展示エリアに対応する前記特定の図形の表示サイズは、前記滞在持続時間または滞在回数に比率し、前記展示エリアに対応する前記特定の図形の色は、前記感情状態とマッチングされる。
上記の方法において、対応する表示エリアを示す特定の図形のサイズおよび対応する表示エリアを示す特定の図形の色を確定して、異なるサイズおよび/または異なる色の特定の図形を利用して異なる表示エリアを表示すること実現することによって、端末デバイスが対応する異なる表示状態を有する表示エリアを表示するときに、より直感的で、柔軟性があり、対照的である。
可能な1実施形態において、前記端末デバイスが前記目標ユーザのそれぞれ各前記展示エリアにおける状態を記述するための表示インターフェースを表示するように、前記端末デバイスを制御する前に、前記表示インターフェースをトリガするためのトリガ操作を取得することをさらに含む。
可能な1実施形態において、前記表示インターフェースをトリガするためのトリガ操作を取得することは、前記端末デバイスの表示インターフェースが姿態記述内容を含む姿態プロンプトフレームを表示するように制御することと、目標ユーザが展示したユーザ姿態を取得して認識する;前記ユーザ姿態が前記姿態記述内容に記録された姿態を満たす場合、前記表示インターフェースをトリガするためのトリガ操作を取得したと確認することと、を含む。
上記の方法において、目標ユーザが展示したユーザ姿態が姿態記述内容に記録された姿態を満たすことが検出された場合、端末デバイスが目標ユーザのそれぞれ各展示エリアにおける状態の表示インターフェースを表示するように制御することによって、ユーザとデバイスとの間の対話を増加して、表示の柔軟性を向上させた。
可能な1実施形態において、複数の展示エリアでそれぞれ収集したビデオ画面を取得した後に、各前記展示エリアに対して、前記展示エリアに対応する複数のビデオ画面の中の前記目標ユーザが出現された目標ビデオ画面の収集時点を取得することと、各展示エリアに対応する前記収集時点に基づいて、前記目標ユーザの各前記展示エリアにおける移動軌跡データを確定することと、前記移動軌跡データに基づいて、前記端末デバイスが前記目標ユーザの各前記展示エリアにおける移動軌跡経路を表示するように制御することと、さらに含む。
上記の実施形態において、得られた目標ユーザの移動軌跡経路を参照して、目標ユーザの展示エリアに展示された物体に対する関心の程度をより正確に確定することができ、たとえば、移動軌跡経路中で目標ユーザが展示エリア1に複数回移動した場合、目標ユーザが展示エリア1に展示された物体に対する関心の程度がより高いとして確認することができる。
第2態様によると、本発明は、状態認識装置を提供し、当該装置は、
複数の展示エリアでそれぞれ収集した複数のビデオ画面を取得するためのビデオ画面取得モジュールと、
状態認識モジュールは、前記ビデオ画面内に出現した目標ユーザの、前記目標ユーザのそれぞれ各前記展示エリアにおける滞在状態、注目状態、および、感情状態の中の少なくとも2つを含む状態を、認識することと、
端末デバイスが前記目標ユーザのそれぞれ各前記展示エリアにおける状態を記述するための表示インターフェースを表示するように、前記端末デバイスを制御するための制御モジュールと、を備える。
第3態様によると、本発明は、電子デバイスを提供し、当該電子デバイスは、プロセッサとメモリとを備え、前記メモリには、前記プロセッサによって実行可能な機械可読命令が格納されており、前記機械可読命令が前記プロセッサによって実行されると、前記プロセッサが、上記の第1態様または任意の実施形態に記載の状態認識方法を実行するようにする。
第4態様によると、本発明は、コンピュータプログラムが格納されているコンピュータ可読記録媒体を提供し、当該コンピュータプログラムがプロセッサによって運行されると、前記プロセッサが、上記の第1態様または任意の実施形態に記載の状態認識方法を実行するようにする。
以下、本発明の上記の目的、特徴、および、利点をより明確かつ理解可能にするために、好ましい実施例を挙げて、図面を参照しながら、以下のように詳細に説明する。
以下、本発明の実施例の術解決策をより明確に説明するために、実施例に必要な図面を簡単に紹介する。本明細書の図面は、本明細書に組み込まれて本明細書の一部を構成し、これら図面本発明の実施例を示し、本明細書と一緒に、本発明の実施例の技術的解決策を説明するために使用される。以下の図面は、本発明の特定の実施例を示すだけであり、したがって、範囲を限定するもとと見なされるべきではないことを理解すべきである、当業者にとって、創造的な作業なしで、これら図面に基づいての他の関連する図面を得ることができる。
本発明の実施例によって提供される状態認識方法のフローを示す模式図である。 本発明の実施例によって提供される状態認識方法においてビデオ画面内で出現される目標ユーザの状態を認識する方法のフローを示す模式図である。 本発明の実施例によって提供される状態認識方法においてビデオ画面内で出現される目標ユーザの状態を認識する方法のフローを示す模式図である。 本発明の実施例によって提供される状態認識方法において表示インターフェースをトリガするためのトリガ操作を取得する方法のフローを示す模式図である。 本発明の実施例によって提供される姿態プロンプトフレームのインターフェースを示す模式図である。 本発明の実施例によって提供される端末表示インターフェースを制御するインターフェースを示す模式図である。 本発明の実施例によって提供される状態認識装置の構成を示す模式図である。 本発明の実施例によって提供される電子デバイスの構成を示す模式図である。
以下、本発明の実施例の目的、技術的解決策、および、利点をより明確にするために、図面を参照しながら、本発明の実施例を明確かつ完全に記述する。当然ながら、記述される実施例は、本発明のいくつかの実施例に過ぎず、すべての実施例ではない。一般的に、本明細書の図面に記述および示されている本発明の実施例の構成要素は、異なる構成で配置および設計することができる。したがって、図面に提供される本発明の実施例の以下の詳細な記述は、請求された本発明の範囲を限定することを意図するものではなく、単に本発明の選定された実施例を表す。本発明の実施例に基づいて、当業者在創造的な作業なしに得られたすべてのその他の実施例、本発明の保護範囲に含まれるものとする。
本発明の実施例に対する理解を容易にするために、まず、本発明の実施例の状態認識方法を詳細に紹介する。
本発明の実施例によって提供される状態認識方法は、サーバまたは表示機能をサポートする端末デバイスに適用され得る。サーバは、ローカルサーバまたはクラウドサーバであり得、端末デバイスは、スマートフォン、タブレットコンピュータ、パーソナルデジタルアシスタント(Personal Digital Assistant、PDA)、スマートテレビなどであり得、本発明はこれに対して限定しない。
本発明の実施例がサーバに適用される場合、本発明中のデータは、端末デバイスおよび/または撮影デバイスから取得したされたものであり得、表示インターフェースの表示状態を制御することは、端末デバイスに制御命令を発行することによって、端末デバイスの表示インターフェースの表示状態に対する制御を実現することであり得る。
図1は、本発明の実施例によって提供される状態認識方法のフローを示す模式図であり、ここで、当該方法は、以下の幾つかのステップを含む。
S101において、複数の展示エリアでそれぞれ収集したビデオ画面を取得する。
S102において、ビデオ画面内で出現される目標ユーザの、目標ユーザのそれぞれ各展示エリアにおける滞在状態、注目状態、および、感情状態の中の少なくとも2つを含む状態を、認識する。
S103において、端末デバイスが目標ユーザのそれぞれ各展示エリアにおける状態を記述するための表示インターフェースを表示するように制御する。
上記のステップに基づいて、収集したビデオ画面に対して認識を実行することによって、目標ユーザの状態データを得、目標ユーザの少なくとも2つ状態データに基づいて、端末デバイスが目標ユーザのそれぞれ各展示エリアにおける状態を記述するための表示インターフェースを表示するように制御する。目標ユーザの各エリアにおける状態が表示された表示インターフェースは、出目標ユーザの展示エリアに展示された物体に対する関心の程度を直感的に反映することができ、さらに、より正確なユーザ行為情報を参考として使用して展示エリアに対応する展示計画を作成することができる。
以下、ステップS101~S103をそれぞれ説明する。
ステップS101の場合、本発明の実施例において、各展示エリア内に、少なくとも1つの撮影デバイスを配置して、各展示エリアに配置された少なくとも1つの撮影デバイスによって収集されたビデオ画面を取得することができる。ここで、サーバまたは端末デバイスは、撮影デバイスによって収集されたビデオ画面をリアルタイムで取得してもよいし、ローカルに記憶されたビデオデータから撮影デバイスによって収集されたビデオ画面を取得してもよいし、クラウドに記憶されたビデオデータから撮影デバイスによって収集されたビデオ画面を取得してもよい。
ここで、当該展示エリアは、展示場所に設定された展示物体のエリアであり得、たとえば、会場または展示館の展示ホールまたは展示場などでありえ、または、当該展示エリアは、オフラインショッピング店舗で異なる種類の物体を展示する販売エリアなどであり得る。
ステップS102の場合、本発明の実施例において、収集したビデオ画面に基づいて、画像認識技術を利用してビデオ画面内に出現した目標ユーザの状態を認識することができる。滞在状態とは、目標ユーザが対応する展示エリアに滞在している状態を示し、たとえば、滞在状態は、滞在持続時間、滞在回数などを含む。注目状態とは、目標ユーザが対応する展示エリアを注目している状態を示し、たとえば、注目状態は、注目持続時間、注目回数などを含む。感情状態とは、目標ユーザが対応する展示エリアにいるときの感情の状態を示し、たとえば、感情状態は、ハッピー、穏やかなどの表情ラベルを含む。
当該発明の実施例において、目標ユーザは、各ビデオ画面内に出現されるユーザであってもよいし、ユーザの情報に基づいて確定した目標ユーザであってもよく、たとえば、目標ユーザは、所定の時間帯内で展示場所または実店舗に出入りした頻度がより高いユーザであってもよい。または、目標ユーザは、VIPユーザなどの、ユーザレベルが要件を満たすユーザであってもよいし、設定された条件に基づいて複数のユーザから1人のユーザを目標ユーザとして選択してもよく、たとえば、設定された条件は、性別が女であり、年齢がxx-xxであり、身長がxxcmである。ここで、目標ユーザの選択は、実際のアプリケーションシナリオによって決定され得る。
可能な1実施形態において、滞在状態は、滞在持続時間および/または滞在回数を含む。
図2に示したように、ビデオ画面内で出現される目標ユーザの状態を認識することは、ステップS201~S203を含み得る。
S201において、各展示エリアに対して、展示エリアに対応する複数のビデオ画面の中の目標ユーザが出現された目標ビデオ画面の収集時点を取得する。
S202において、目標ビデオ画面の収集時点に基づいて、目標ユーザが展示エリアに毎回入るときの開始時間を確定する。
S203において、目標ユーザが展示エリアに毎回入るときの開始時間に基づいて、目標ユーザの展示エリアにおける滞在回数および/または滞在持続時間を確定する。
例示的に、収集時点は、目標ユーザが目標ビデオ画面に出現されたときに対応する時間であり、たとえば、目標ユーザが目標ビデオ画面に出現されたときの時間情報が11:30:00、11:30:20、および、11:32:30であると、収集時点は、11:30:00(すなわち11時30分00秒)、11:30:20、および、11:32:30である。具体的に、目標ユーザが目標ビデオ画面に出現された収集時点を、目標ユーザが展示エリアに毎回入るときの開始時間として使用することができ、たとえば、開始時間は、11:30:00、11:30:20、および、11:32:30であり得る。
さらに、間隔時間閾値を設定することができ、次の1つの収集時点(以下、目標収集時点と呼ぶ)と隣接する前の1つの収集時点との間の間隔の時間値が設定された間隔時間閾値以下であることが検出されると、目標収集時点を開始時間として使用できないと確定する。目標収集時点と隣接する前の1つの収集時点との間の間隔の時間値が設定された間隔時間閾値よりも大きいことが検出されると、目標収集時点を開始時間として使用することができる。たとえば、設定された間隔時間閾値が30秒であると、収集時点11:30:20と収集時点11:30:00との間の時間の間隔が30秒未満であると検出され、収集時点11:30:20を目標ユーザが展示エリアに入るときの開始時間として使用できない。収集時点11:32:30と収集時点11:30:20との間の時間の間隔が30秒よりも大きいことが検出され、収集時点11:32:30を目標ユーザが展示エリアに入るときの開始時間として使用することができる。ここで、間隔時間閾値は、展示エリアの面積、目標ユーザの歩行速度などの情報に基づいて確定することができる。
可能な1実施形態において、目標ユーザの展示エリアにおける滞在回数および/または滞在持続時間を確定するときに、以下の方式を採用することができ、すなわち、目標ユーザが展示エリアに2回連続して入るときの開始時間同士の間の間隔が第1時間を超える場合、目標ユーザが展示エリアに1回滞在したとして確定し、および/または、展示エリアに2回連続して入るときの開始時間同士の間の間隔を目標ユーザが展示エリアに1回滞在した滞在持続時間として確定する。
例示的に、目標ユーザが展示エリアに複数回進入したときの開始時間が11:30:00、11:45:00、および、11:50:00であり、第1時間を10分に設定する。展示エリアに1番目に入るときの開始時間と展示エリアに2番目に入るときの開始時間との間の間隔が15分であり、第1時間よりも大きく、目標ユーザが展示エリアに1回滞在したとして確定し、対応する滞在持続時間は、15分である。展示エリアに2番目に入るときの開始時間と展示エリアに3番目に入るときの開始時間との間の間隔が5分であり、第1時間未満であり、目標ユーザが展示エリアにより長い時間滞在しなかったとして確定する。
上記の実施形態によって、目標ユーザが展示エリアに効果的に滞在していなかった状況を排除することができて、得られた滞在状態がより正確になり、さらに、確定された目標ユーザの展示エリアに展示された物体に対する関心の程度もより正確になる。
可能な1実施形態において、注目状態は、注目持続時間および/または注目回数を含む。
図3に示したように、収集したビデオ画面に基づいて、ビデオ画面内で出現される目標ユーザの状態を認識することは、ステップS301~S303を含み得る。
S301において、各展示エリアに対して、展示エリアに対応する複数のビデオ画面の中の目標ユーザが出現された目標ビデオ画面の収集時点、および、目標ビデオ画面内の目標ユーザの顔向きデータを取得する。
S302において、顔向きデータが、目標ユーザが展示エリアの展示物体を注目していることを示すことが検出された場合、目標ビデオ画面に対応する収集時点を目標ユーザが展示物体を観覧した開始時間として確定する。
S303において、確定された目標ユーザが展示物体を複数回観覧した開始時間に基づいて、目標ユーザの展示エリアにおける注目回数および/または注目持続時間を確定する。
本発明の実施例において、顔向きデータは、目標ユーザの収集時点での観覧方向を示し、たとえば、顔向きデータが目標ユーザの観覧方向が東であることを示すと、目標ユーザが東方向に位置する展示エリアに展示された物体を観覧していることを表す。
顔向きデータが、目標ユーザが展示エリアの展示物体を注目していないことが検出されると、目標ビデオ画面に対応する収集時点を目標ユーザが展示物体を観覧した開始時間として確定しない。
上記の実施形態によって、目標ユーザが展示エリアに滞在すていない状況を排除し、得られた滞在状態がより正確になり、目標ユーザの展示エリアに展示された物体に対する関心の程度をより正確に反映することができる。
可能な1実施形態において、確定された目標ユーザが展示物体を複数回観覧した開始時間に基づいて、目標ユーザの展示エリアにおける注目回数および/または注目持続時間を確定することは、目標ユーザが展示物体を2回連続して観覧するときの開始時間同士の間の間隔が第2時間を超えた場合、目標ユーザが展示エリアを1回注目したとして確定し、および/または、展示エリアを2回連続して観覧したときの開始時間同士の間の間隔をユーザ注目展示エリア1回の注目持続時間として確定することを含む。
例示的に、目標ユーザが展示物体を複数回観覧したときの開始時間が12:10:00、12:25:00、および、12:30:00であり、第2時間を10分に設定する。展示物体を1番目に観覧したときの開始時間と展示物体を2番目に観覧したときの開始時間との間の間隔が5分であり、第2時間よりも大きく、目標ユーザが展示エリアを1回注目したとして確定し、対応する注目持続時間は15分である。展示物体を2番目に観覧したときの開始時間と展示物体を3番目に観覧したときの開始時間との間の間隔が5分であり、第2時間未満であり、目標ユーザが展示エリアを注目しなかったとして確定する。
上記の実施形態によって、展示物体を2回観覧したときの開始時間同士の間の間隔が第2時間未満である状況を排除することができ、すなわち、目標ユーザが展示物体を観覧した時間がより短い状況を排除することによって(目標ユーザが展示物体を観覧した時間がより短いと、当該目標ユーザが展示物体を注目しなかったとして見なす)、得られた注目状態がより正確になり、目標ユーザの展示エリアの展示物体に対する関心の程度をより正確に反映することができる。
可能な1実施形態において、顔向きデータは、顔のピッチ角とヨー角とを含む。顔向きデータが、目標ユーザが展示エリアの展示物体を注目していることを示すことが検出されたことは、ピッチ角が第1角度範囲内にあり、かつ、ヨー角が第2角度範囲内にある場合、顔向きデータが、目標ユーザが展示エリアの展示物体を注目していることを示すことが検出されたとして確定することを含む。
本発明の実施例において、ピッチ角が第1角度範囲内にいないし、および/または、ヨー角が第2角度範囲内にいないと、顔向きデータが、目標ユーザが展示エリアの展示物体を注目していないことを示すとして確定する。
ここで、展示物体の体積、展示エリアの大きさなどに基づいて、第1角度範囲および第2角度範囲を確定することができる。
上記の実施形態によって、目標ユーザが展示エリアの展示物体を注目したか否かを確定することによって、目標ユーザが展示エリア範囲内に出現して滞在したが展示物体を観覧しなかった状況を効果的な排除することができ、目標ユーザの展示エリア内の展示物体に対する関心の認識率を向上させることができる。
可能な1実施形態において、目標ユーザの各展示エリア内での感情状態は、目標ユーザの展示エリアに滞在した総滞在持続時間内で出現されたことが一番多い表情ラベル、目標ユーザの展示エリアを注目した総注目持続時間内で出現されたことが一番多い表情ラベル、および、展示エリアに対応する現在ビデオ画面内の目標ユーザの表情ラベルの中の少なくとも1つを含む。
本発明の実施例において、表情ラベルは、ハッピー、穏やか、心苦しさなどを含み得る。例示的に、トレーニングされたニューラルネットワークモデルを利用して目標ユーザを含む目標ビデオ画面に対して認識を実行することによって、目標ビデオ画面内の目標ユーザに対応する表情ラベルを得ることができる。
例示的に、目標ユーザの対応する展示エリアにおける表情ラベルを確定し、表情ラベルに基づいてユーザの展示エリアの展示物体に対する関心の程度を確定することができ、たとえば、表情ラベルがハッピーであると、関心の程度がより高く、表情ラベルが穏やかであると、関心の程度がより低い。感情状態を参照して、目標ユーザの展示エリア内の展示物体に対する関心の程度をより正確に確定することができる。
ステップS103の場合、本発明の実施例において、サーバにより、目標ユーザの状態データに基づいて、端末デバイスが、目標ユーザのそれぞれ各展示エリアにおける状態を記述するための表示インターフェースを表示するように制御し、または、端末デバイスに設けられたプロセッサにより、端末デバイスが、目標ユーザのそれぞれ各展示エリアにおける状態を記述するための表示インターフェースを表示するように制御する。
可能な1実施形態において、端末デバイスが目標ユーザのそれぞれ各展示エリアにおける状態を記述するための表示インターフェースを表示するように制御することは、目標ユーザの各展示エリアにおける滞在状態および感情状態に基づいて、端末デバイスが、各展示エリアにそれぞれ対応する異なる表示状態を有する表示エリアを表示するように制御すること、または、目標ユーザの各展示エリアにおける注目状態および感情状態に基づいて、端末デバイスが各展示エリアにそれぞれ対応する異なる表示状態を有する表示エリアを表示するように制御することを含む。
本発明の実施例において、目標ユーザの各展示エリアにおける滞在状態および感情状態、または、目標ユーザの各展示エリアにおける注目状態および感情状態に基づいて、端末デバイスが各展示エリアにそれぞれ対応する異なる表示状態を有する表示エリアを表示するように制御することができる。
可能な1実施形態において、各表示エリアを特定の図形で表示することができ、注目状態は、目標ユーザが展示エリアを注目した注目持続時間または注目回数を示し、展示エリアに対応する特定の図形の表示サイズは、前記注目持続時間または注目回数に比率し、展示エリアに対応する特定の図形の色は、感情状態にマッチングされ、または、滞在状態は、目標ユーザの展示エリアにおける滞在持続時間または滞在回数を示し、展示エリアに対応する特定の図形の表示サイズは、滞在持続時間または滞在回数に比率し、展示エリアに対応する特定の図形の色は、感情状態にマッチングされる。
本発明の実施例において、目標ユーザの注目持続時間がより長い展示エリアまたは注目回数がより多い展示エリアに対して、対応する特定の図形のサイズをより大きく設定し、目標ユーザが注目持続時間がより短い展示エリアまたは注目回数がより少ない展示エリアに対して、対応する特定の図形のサイズをより小さく設定することができる。同時に、さらに、異なる表情ラベルに基づいて、特定の図形に対して異なる色を設定することができる。たとえば、表情ラベルがハッピーであることに対応する特定の図形を赤色に設定し、表情ラベルが穏やかであることに対応する特定の図形を青色に設定することができる。さらに、ある展示エリアに対して、目標ユーザの注目持続時間または注目回数、および、目標ユーザが当該展示エリアを観覧するときの表情ラベルに基づいて、当該展示エリアに対応する表示エリアを確定することができる。ここで、滞在状態に基づいて展示エリアに対応する特定の図形のサイズを確定することは、上記の過程を参照することができ、ここでは繰り返して説明しない。
本発明の実施例において、各表情ラベルに対して対応する画像を設定することによって、展示エリアに対応する特定の図形に設定された画像が表情ラベルとマッチングされるようにすることができる。たとえば、表情ラベルがハッピーであると、特定の図形に対応する画像は、笑っている顔であり、表情ラベルが心苦しさであると、特定の図形に対応する画像は、泣いている顔である。本発明の実施例において、さらに、定期的に確定された目標ユーザの状態データに基づいて、状態データに対応する特定の図形の表示状態を更新することができ、たとえば、特定の図形のサイズまたは特定の図形の色などを更新する。
なお、本発明の実施例において、特定の図形に関する表示状態は、サイズおよび色などに限定されなく、特定の図形の形状をさらに含んでもよいし、特定の画像に特殊効果などを重ね合わせてもよい。
上記の方法において、対応する表示エリアを示す特定の図形のサイズおよび対応する表示エリアを示す特定の図形の色を確定して、異なるサイズおよび/または異なる色の特定の図形を利用して異なる表示エリアを表示すること実現することによって、端末デバイスが対応する異なる表示状態の表示エリアを表示するときに、より直感的で、柔軟性があり、対照的である。
可能な1実施形態において、端末デバイスが目標ユーザのそれぞれ各展示エリアにおける状態を記述するための表示インターフェースを表示するように制御することは、表示インターフェースをトリガするためのトリガ操作を取得することをさらに含む。
本発明の実施例において、目標ユーザが表示インターフェースをトリガしたトリガ操作を取得した後に、当該トリガ操作に応答して、端末デバイスが目標ユーザのそれぞれ各展示エリアにおける状態を記述するための表示インターフェースを表示するように制御する。
可能な1実施形態において、図4に示したように、表示インターフェースをトリガするためのトリガ操作を取得することは、ステップS401~S403を含み得る。
S401において、端末デバイスの表示インターフェースが姿態プロンプトフレームを表示するように制御し、姿態プロンプトフレームは姿態記述内容を含む。
S402において、目標ユーザが展示したユーザ姿態を取得して認識する。
S403において、ユーザ姿態が姿態記述内容に記録された姿態を満たす場合、表示インターフェースをトリガするためのトリガ操作を取得したとして確認する。
例示的に、姿態プロンプトフレーム内には、姿態記述内容が含まれており、目標ユーザが姿態プロンプトフレーム内の姿態記述内容に基づいて、姿態展示を完成するようにすることができる。たとえば、姿態記述内容が挙手確認であると、目標ユーザは、姿態プロンプトフレーム内に表示された挙手確認の内容に基づいて、挙手の操作を行うことができる。
本発明の実施例において、目標ユーザが姿態展示を完成した後に、撮影デバイスが、目標ユーザが展示したユーザ姿態を取得して認識するように制御し、ユーザ姿態が姿態記述内容に記録された姿態を満たす場合、表示インターフェースをトリガするためのトリガ操作を取得したとして確認する。ユーザ姿態が姿態記述内容に記録された姿態を満たさない場合、姿態プロンプトフレーム内にプロンプト情報を表示して、目標ユーザがプロンプト情報に基づいて展示するユーザ姿態を変更するようにすることができる。たとえば、プロンプト情報は、「姿態が正しくありません、姿態を変更してください」であり得る。具体的に、更改後のユーザ姿態が姿態記述内容に記録された姿態を満たすと、表示インターフェースをトリガするためのトリガ操作を取得したとして確認することができる。
本発明の実施例において、姿態プロンプトフレームに対して表示時間閾値を設定し、表示時間閾値を超えない時間内で、目標ユーザが展示したユーザ姿態が姿態記述内容に記録された姿態を満たさないと、表示インターフェースをトリガするためのトリガ操作を取得できなかったとして確認し、端末デバイスの表示インターフェースが姿態プロンプトフレームを閉じるように制御することができる。たとえば、表示時間閾値が60秒であり得、61秒のときに、目標ユーザが展示したユーザ姿態が姿態記述内容に記録された姿態を満たさないと、表示インターフェースをトリガするためのトリガ操作を取得できなかったとして確認し、端末デバイスの表示インターフェースが姿態プロンプトフレームを閉じるように制御することができる。
本発明の実施例において、姿態記述内容に記録された姿態は、1人のうなずき、頭振り、挙手、拍手などの動作であってもよいし、ハイタッチ、手の握り合いなどの、複数人のインタラクティブアクションの動作であってもよい。および/または、表情に基づいて、表示インターフェースをトリガするトリガ操作を確定することができ、たとえば、端末デバイスの表示インターフェースが表情プロンプトフレームを表示するように制御し、表情プロンプトフレーム内には、表情記述内容が含まれている。撮影デバイスによって収集されたビデオ画面内のユーザ表情を取得して認識し、ユーザ表情が表情記述内容に記録された表情を満たす場合、表示インターフェースをトリガするためのトリガ操作を取得したとして確認することができる。ここで、姿態記述内容に記録される姿態および表情記述内容に記録される表情は、実際の必要に基づいて設定することができる。
本発明の実施例において、さらに、表示ボタンを設定することができ、表示ボタンがトリガされたことが検出されると、表示インターフェースをトリガするためのトリガ操作を取得され、たとえば、表示ボタンがクリックされると、目標ユーザが表示インターフェースをトリガしたトリガ操作が取得される。
または、さらに、音声の方式によって、目標ユーザが表示インターフェースをトリガするトリガ操作が取得されたか否かを確定することができる。たとえば、所定のトリガ音声データが「こんにちは、展示してください」であると、端末デバイスによって「こんにちは、展示してください」というオーディオデータが検出された場合、前記表示インターフェースをトリガするためのトリガ操作を取得したとして確定する。
図5は、姿態プロンプトフレームのインターフェースを示す模式図であり、当該姿態プロンプトフレームは、上から下への順で、タイトル情報、姿態表示エリア、および、姿態記述内容であり、図面から分かるように、当該図面中のタイトル情報は、「挙手確認」であり、姿態記述内容は、「正面をファインダー枠に入って、手を上げて確認してください」である。
本発明の実施例において、収集したビデオ画面内のユーザ姿態が姿態記述内容に記録された姿態を満たすことが検出されると、端末デバイスが目標ユーザのそれぞれ各展示エリアにおける状態の表示インターフェースを表示するように制御することによって、目標ユーザとデバイスとの間の対話を増加して、表示の柔軟性を向上させた。
可能な1実施形態において、複数の展示エリアでそれぞれ収集したビデオ画面を取得した後に、各展示エリアに対して、展示エリアに対応する複数のビデオ画面の中の目標ユーザが出現された目標ビデオ画面の収集時点を取得することと、各展示エリアに対応する収集時点に基づいて、目標ユーザの各展示エリアにおける移動軌跡データを確定することと、移動軌跡データに基づいて、端末デバイスが目標ユーザの各展示エリアにおける移動軌跡経路を表示するように制御することと、をさらに含む。
本発明の実施例において、各展示エリアに対応する収集時点に基づいて、目標ユーザの各展示エリアにおける移動順序(すなわち移動軌跡データ)を確定することができ、移動順序に基づいて、端末デバイスが目標ユーザの各展示エリアにおける移動軌跡経路を表示するように制御することができる。たとえば、展示エリアが展示エリア1、展示エリア2、および、展示エリア3を含むと、展示エリア1に対応する収集時点が13:10:00であり、展示エリア2に対応する収集時点が14:00:00であり、展示エリア3に対応する収集時点が13:30:00であると確定し、これからわかるように、移動軌跡データは、ユーザが、エリア1からエリア3に移動し、エリア3からエリア2に移動したことであり、さらに、移動軌跡データに基づいて、端末デバイスが目標ユーザの各展示エリアにおける移動軌跡経路を表示するように制御することができる。
本発明の実施例において、さらに、得られた目標ユーザの移動軌跡経路を参照して、目標ユーザの展示エリア内の展示物体に対する関心の程度をより正確に確定することができ、たとえば、移動軌跡経路中で目標ユーザが展示エリア1に複数回移動した場合、目標ユーザの展示エリア1の展示物体に対する関心の程度がより高いとして確認する。
図6は、端末表示インターフェースを制御するインターフェースを示す模式図であり、当該図面で、左から右への順に、第1エリアおよび第2エリアであり、第1エリアには目標ユーザの移動軌跡経路が表示されており、第2エリアには、上から下への順に目標ユーザ画像分析エリア、および、状態データ展示エリアである。第1エリア内の破線は、目標ユーザの移動軌跡経路を表す。第2エリアの目標ユーザ画像分析エリア内には、左から右への順に目標ユーザ画像エリア(正方形フレーム内のエリア)、および、目標ユーザ情報展示エリアであり、目標ユーザ情報は、年齢、魅力値、性別、滞在持続時間、表情、注目持続時間などであり得る。目標ユーザ情報は、さらに、目標ユーザの画像に基づいて、設定された少なくとも1つの形容詞からマッチングした目標形容詞であり得、たとえば、「穏やかで寛大」、「ファッショナブルで美しい」などである。目標ユーザ画像エリアに表示する目標ユーザ画像は、目標ビデオ画面内から確定した画像品質が要件を満たす目標ユーザの画像であり得、たとえば、画像品質要件は、顔が全面的に表示されたこと、画像が鮮明であることなどを含み得、目標ユーザ画像は、さらに、目標ユーザがアップロードした画像であり得る。第2エリア内の状態データ展示エリア内には、目標ユーザが注目した少なくとも1つの展示エリアが含まれ、状態データ展示エリア内に表示する表示エリアの数は、実際の必要によって決定することができる。ここで、円で各表示エリアを表示することができ、円の表示サイズが大きいほど、対応する目標ユーザが展示エリアを注目した注目持続時間が長いかまたは注目回数が多い。例示的に、状態データ展示エリア内の表示エリアを、サイズの降順で、順に、第1表示エリア601、第2表示エリア602、第3表示エリア603、第4表示エリア604、第5表示エリア605に配列することができ、円の輪郭の異なる色は、異なる表情ラベルを示し、すなわち、第1表示エリアと第3表示エリアとの表情ラベルが同一であり、第2表示エリアと第4表示エリアとの表情ラベルが同一である。
例示的に、当該方法を実店舗に適用するシナリオを説明する。たとえば、当該方法を電子製品の実店舗に適用するシナリオにおいて、第1表示エリアは、コンピュータであり、第2展示エリアは、タブレットであり、第3展示エリアは、携帯電話であり、第4展示エリアは、電子製品に対応する電子付属品であり、第5展示エリアは、電子製品に対応する装飾品であると、本発明によって提供される方法によって、電子製品の実店舗に進入した目標ユーザの関心物体およびに対応する関心の程度を分析することができる。具体的に、それぞれ複数の展示エリアに配置されている撮影デバイスによって収集されたビデオ画面を取得し(展示エリアの面積がより大きいと、各展示エリアのところに1つの撮影デバイスを配置することができ、展示エリアがより小さいと、複数の展示エリアのところに1つの撮影デバイスを配置することができる)、ビデオ画面内で出現される目標ユーザの状態を認識し、ここで、状態は、滞在状態および感情状態、または、注目状態および感情状態を含み得る。そして、端末デバイスが目標ユーザのそれぞれ各展示エリアにおける状態を記述するための表示インターフェースを表示するように制御する。このようにして、販売者または展示者が表示された表示インターフェースに基づいて目標ユーザの関心物体および関心の程度を便利に確定することができ、たとえば、関心の程度が一番高い物体(たとえば携帯電話)を目標ユーザの関心物体として確定する。
当業者は、具体的な実施形態の上記の方法において、各ステップの説明順序は、厳密な実行順序を意味して実施過程に対する制限を構成するのではなく、各ステップの具体的な実行順序は、その機能および可能の内部ロジックによって決定されるべきであることを理解できる。
本発明の実施例は、同じ概念に基づいて、状態認識装置をさらに提供し、図7は、本発明の実施例によって提供される状態認識装置の構成を示す模式図である。当該装置は、ビデオ画面取得モジュール701と、状態認識モジュール702と、制御モジュール703と、を備え得る。
ビデオ画面取得モジュール701は、複数の展示エリアでそれぞれ収集した複数のビデオ画面を取得する。
状態認識モジュール702は、前記ビデオ画面内に出現した目標ユーザの、前記目標ユーザのそれぞれ各前記展示エリアにおける滞在状態、注目状態、および、感情状態の中の少なくとも2つを含む状態を、認識する。
制御モジュール703は、端末デバイスが前記目標ユーザのそれぞれ各前記展示エリアにおける状態を記述するための表示インターフェースを表示するように、前記端末デバイスを制御する。
可能な1実施形態において、前記滞在状態は、滞在持続時間および/または滞在回数を含み、前記状態認識モジュール702は、前記ビデオ画面内に出現した目標ユーザの状態を認識するときに、
各前記展示エリアに対して、前記展示エリアに対応する複数のビデオ画面の中の前記目標ユーザが出現された目標ビデオ画面の収集時点を取得し、前記目標ビデオ画面の収集時点に基づいて、前記目標ユーザが前記展示エリアに毎回入るときの開始時間を確定し、前記目標ユーザが前記展示エリアに毎回入るときの開始時間に基づいて、前記目標ユーザの前記展示エリアにおける滞在回数および/または滞在持続時間を確定する。
可能な1実施形態において、前記状態認識モジュール702は、前記目標ユーザが前記展示エリアに毎回入るときの開始時間に基づいて、前記目標ユーザの前記展示エリアにおける滞在回数および/または滞在持続時間を確定するときに、
前記目標ユーザが前記展示エリアに2回連続して入るときの開始時間同士の間の間隔が第1時間を超える場合、前記目標ユーザが前記展示エリアに1回滞在したと確定し、および/または、前記間隔を前記目標ユーザが前記展示エリアに1回滞在した滞在持続時間として確定する。
可能な1実施形態において、前記注目状態は、注目持続時間および/または注目回数を含み、前記状態認識モジュール702は、前記ビデオ画面内に出現した目標ユーザの状態を認識するときに、
各前記展示エリアに対して、前記展示エリアに対応する複数のビデオ画面の中の前記目標ユーザが出現された目標ビデオ画面の収集時点、および、前記目標ビデオ画面内での前記目標ユーザの顔向きデータを取得し、
前記顔向きデータが、前記目標ユーザが前記展示エリアの展示物体を注目したことを示すことが検出された場合、前記目標ビデオ画面に対応する収集時点を前記目標ユーザが前記展示物体を観覧するときの開始時間として確定し、確定された前記目標ユーザが前記展示物体を複数回観覧するときの開始時間に基づいて、前記目標ユーザの前記展示エリアにおける注目回数および/または注目持続時間を確定する。
可能な1実施形態において、前記状態認識モジュール702は、確定された前記目標ユーザが前記展示物体を複数回観覧するときの開始時間に基づいて、前記目標ユーザの前記展示エリアにおける注目回数および/または注目持続時間を確定するときに、
前記目標ユーザが前記展示物体を2回連続して観覧するときの開始時間同士の間の間隔が第2時間を超えた場合、前記目標ユーザが前記展示エリアを1回注目したと確定し、および/または、前記間隔を前記ユーザが前記展示エリアを1回注目した注目持続時間として確定する。
可能な1実施形態において、前記顔向きデータは、顔のピッチ角とヨー角とを含み、前記状態認識モジュール702は、
前記ピッチ角が第1角度範囲内にあり、かつ、前記ヨー角が第2角度範囲内にある場合、前記顔向きデータが、前記目標ユーザが前記展示エリアの展示物体を注目したことを示すことが検出されたとして確定する。
可能な1実施形態において、前記目標ユーザの各前記展示エリア内での感情状態は、前記目標ユーザの前記展示エリアに滞在した総滞在持続時間内で出現されたことが一番多い表情ラベル、前記目標ユーザの前記展示エリアを注目した総注目持続時間内で出現されたことが一番多い表情ラベル、前記展示エリアに対応する現在ビデオ画面内での前記目標ユーザの表情ラベルの中の少なくとも1つを含む。
可能な1実施形態において、前記制御モジュール703は、端末デバイスが前記目標ユーザのそれぞれ各前記展示エリアにおける状態を記述するための表示インターフェースを表示するように、前記端末デバイスを制御するときに、
前記目標ユーザの各前記展示エリアにおける滞在状態および感情状態に基づいて、前記端末デバイスが各前記展示エリアにそれぞれ対応する異なる表示状態を有する表示エリアを表示するように制御し、または、前記目標ユーザの各前記展示エリアにおける注目状態および感情状態に基づいて、前記端末デバイスが各前記展示エリアにそれぞれ対応する異なる表示状態を有する表示エリアを表示するように制御する。
可能な1実施形態において、各表示エリアは、特定の図形で表示され、前記注目状態は、前記目標ユーザが前記展示エリアを注目した注目持続時間または注目回数を示し、前記展示エリアに対応する前記特定の図形の表示サイズは、前記注目持続時間または前記注目回数に比率し、前記展示エリアに対応する前記特定の図形の色は、前記感情状態とマッチングされ、または、前記滞在状態は、前記目標ユーザの前記展示エリアにおける滞在持続時間または滞在回数を示し、前記展示エリアに対応する前記特定の図形の表示サイズは、滞在持続時間または滞在回数に比率し、前記展示エリアに対応する前記特定の図形の色は、前記感情状態とマッチングされる。
可能な1実施形態において、前記装置は、前記表示インターフェースをトリガするためのトリガ操作を取得するためのトリガ操作取得モジュールをさらに備える。
可能な1実施形態において、前記トリガ操作取得モジュールは、前記表示インターフェースをトリガするためのトリガ操作を取得するときに、前記端末デバイスの表示インターフェースが姿態記述内容を含む姿態プロンプトフレームを表示するように制御し、前記目標ユーザが展示したユーザ姿態を取得して認識し、前記ユーザ姿態が前記姿態記述内容に記録された姿態を満たす場合、前記表示インターフェースをトリガするためのトリガ操作を取得したと確認する。
可能な1実施形態において、前記装置は、収集時点確定モジュールと、移動軌跡データ確定モジュールと、経路表示モジュールと、をさらに備える。
収集時点確定モジュールは、各前記展示エリアに対して、前記展示エリアに対応する複数のビデオ画面の中の前記目標ユーザが出現された目標ビデオ画面の収集時点を取得する。
移動軌跡データ確定モジュールは、各展示エリアに対応する前記収集時点に基づいて、前記目標ユーザの各前記展示エリアにおける移動軌跡データを確定する。
経路表示モジュールは、前記移動軌跡データに基づいて、前記端末デバイスが前記目標ユーザの各前記展示エリアにおける移動軌跡経路を表示するように制御する。
いくつかの実施例において、本発明の実施例によって提供される装置に含まれる機能またはテンプレートを使用して、上記の方法の実施例に記述された方法を実行することができ、その具体的な実装は上記の方法の実施例の記述を参照することができる。
本発明の実施例は、同じ技術的概念に基づいて、電子デバイスをさらに提供する。図8は、本発明の実施例によって提供される電子デバイスの構成を示す模式図である。当該電子デバイスは、プロセッサ801と、メモリ802と、バス803と、を備える。ここで、メモリ802は、内部メモリ8021と外部メモリ8022とを含む。ここでの内部メモリ8021は、メモリとも呼ばれ、プロセッサ801中の計算データおよびハードディスクなどの外部メモリ8022と交換するデータを一時的に格納する。プロセッサ801は、内部メモリ8021を利用して外部メモリ8022とデータ交換を実行する。電子デバイス800が運行されると、プロセッサ801とメモリ802との間がバス803を介して通信することによって、プロセッサ801が以下の命令を実行するようにし、当該命令は、複数の展示エリアでそれぞれ収集したビデオ画面を取得することと、前記ビデオ画面内に出現した目標ユーザの、前記目標ユーザのそれぞれ各前記展示エリアにおける滞在状態、注目状態、および、感情状態の中の少なくとも2つを含む状態を、認識することと、端末デバイスが前記目標ユーザのそれぞれ各前記展示エリアにおける状態を記述するための表示インターフェースを表示するように、前記端末デバイスを制御することと、を含む。
なお、本発明の実施例は、コンピュータプログラムが格納されているコンピュータ可読記録媒体をさらに提供し、当該コンピュータプログラムがプロセッサによって運行されると、上記の方法の実施例に記載の状態認識方法のステップが実行される。
本発明の実施例によって提供される状態認識方法のコンピュータプログラム製品は、プログラムコードが格納されたコンピュータ可読記録媒体を含み、前記プログラムコードに含まれた命令は、上記の方法の実施例に記載の状態認識方法のステップを実行するために使用される。
当業者は、上記のシステムおよび装置の具体的な作業過程は、方法の実施例での過程を参考することができ、記述の便宜及び簡潔化のために、ここでは繰り返して説明しないことを明確に理解することができる。本発明によって提供される実施例で開示されるシステム、装置、および、方法は、その他の方式によって実現できることを理解すべきである。上記の装置の実施例は、単に模式的なものである。たとえば、前記ユニットの分割は、論理機能の分割に過ぎず、実際の実装では、他の分割方法があり得、また、たとえば、複数のユニットまたは構成要素は、組み合わされたり、別のシステムに統合されたり、一部の特徴が忽略されたり実行されなかったりする場合がある。さらに、表示または議論された互いに結合または直接結合または通信接続は、いくつかの通信インターフェース、デバイスまたはユニットの間接結合または通信接続を介することができ、電気的、機械的または他の形態であり得る。
前記の分離部品として説明されたユニットは、物理的に分離されている場合と物理的に分離されていない場合があり、ユニットとして表示される部品は、物理ユニットである場合とそうでない場合がある。1つの場所に配置されることも、複数のネットワークユニットに分散させることもできる。ユニットのいくつかまたはすべては、本開示の実施例の解決策の目的を達成するための実際の必要性に従って選択され得る。
また、本発明の各実施例での各機能ユニットは、1つの処理ユニットに統合され得るか、または各ユニットが物理的に単独で存在し得るか、または2つ以上のユニットが1つのユニットに統合され得る。
前記機能がソフトウェア機能ユニットの形で実装され、独立した製品として販売または使用される場合、1つのプロセッサによって実行可能な不揮発性のコンピュータ可読取記録媒体に格納されることができる。このような理解に基づいて、本発明の実施例は、本質的にソフトウェア製品の形態で具体化されるか、または、先行技術に寄与する部分または実施形態の一部がソフトウェア製品の形態で具体化されることができる。当該コンピュータソフトウェア製品は、記録媒体に格納され、パーソナルコンピュータ、サーバ、またはネットワークデバイスなどのコンピュータデバイスに、以下の様々な実施形態に記載された方法のステップのすべてのまたは一部を実行させるためのいくつかの命令を含む。前述した記録媒体は、Uディスク、移動ハードディスク、読み取り専用メモリ(Read-Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、磁気ディスクまたは光学ディスクなどの、プログラムコードを格納できる様々な媒体を含む。
上記は本発明のいくつかの実施形態にすぎないし、本発明の保護範囲はそれに限定されない。本開示に基づいて当業者が容易に想像することができる変更または置換は、本開示の範囲内に含まれるものとする。したがって、本開示の範囲は、特許請求の範囲によって決定される。

Claims (15)

  1. 状態認識方法であって、
    複数の展示エリアでそれぞれ収集した複数のビデオ画面を取得することと、
    前記ビデオ画面内に出現した目標ユーザの、前記目標ユーザのそれぞれ各前記展示エリアにおける滞在状態、注目状態、および、感情状態の中の少なくとも2つを含む状態を、認識することと、
    端末デバイスが前記目標ユーザのそれぞれ各前記展示エリアにおける状態を記述するための表示インターフェースを表示するように、前記端末デバイスを制御することと、を含む
    ことを特徴とする状態認識方法。
  2. 前記滞在状態は、滞在持続時間および/または滞在回数を含み、
    前記ビデオ画面内に出現した目標ユーザの状態を認識することは、
    各前記展示エリアに対して、前記展示エリアに対応する複数のビデオ画面の中の前記目標ユーザが出現された目標ビデオ画面の収集時点を取得することと、
    前記目標ビデオ画面の収集時点に基づいて、前記目標ユーザが前記展示エリアに毎回入るときの開始時間を確定することと、
    前記目標ユーザが前記展示エリアに毎回入るときの開始時間に基づいて、前記目標ユーザの前記展示エリアにおける滞在回数および/または滞在持続時間を確定することと、を含む
    ことを特徴とする請求項1に記載の状態認識方法。
  3. 前記目標ユーザが前記展示エリアに毎回入るときの開始時間に基づいて、前記目標ユーザの前記展示エリアにおける滞在回数および/または滞在持続時間を確定することは、
    前記目標ユーザが前記展示エリアに2回連続して入るときの開始時間同士の間の間隔が第1時間を超える場合、前記目標ユーザが前記展示エリアに1回滞在したと確定し、および/または、前記間隔を前記目標ユーザが前記展示エリアに1回滞在した滞在持続時間として確定することを含む
    ことを特徴とする請求項2に記載の状態認識方法。
  4. 前記注目状態は、注目持続時間および/または注目回数を含み、
    前記ビデオ画面内に出現した目標ユーザの状態を認識することは、
    各前記展示エリアに対して、前記展示エリアに対応する複数のビデオ画面の中の前記目標ユーザが出現された目標ビデオ画面の収集時点、および、前記目標ビデオ画面内での前記目標ユーザの顔向きデータを取得することと、
    前記顔向きデータが、前記目標ユーザが前記展示エリアの展示物体を注目したことを示すことが検出された場合、前記目標ビデオ画面に対応する収集時点を前記目標ユーザが前記展示物体を観覧するときの開始時間として確定することと、
    確定された前記目標ユーザが前記展示物体を複数回観覧するときの開始時間に基づいて、前記目標ユーザの前記展示エリアにおける注目回数および/または注目持続時間を確定することと、を含む
    ことを特徴とする請求項1に記載の状態認識方法。
  5. 前記確定された前記目標ユーザが前記展示物体を複数回観覧するときの開始時間に基づいて、前記目標ユーザの前記展示エリアにおける注目回数および/または注目持続時間を確定することは、
    前記目標ユーザが前記展示物体を2回連続して観覧するときの開始時間同士の間の間隔が第2時間を超えた場合、前記目標ユーザが前記展示エリアを1回注目したと確定し、および/または、前記間隔を前記ユーザが前記展示エリアを1回注目した注目持続時間として確定することを含む
    ことを特徴とする請求項4に記載の状態認識方法。
  6. 前記顔向きデータは、顔のピッチ角とヨー角とを含み、
    前記ピッチ角が第1角度範囲内にあり、かつ、前記ヨー角が第2角度範囲内にある場合、前記顔向きデータが、前記目標ユーザが前記展示エリアの展示物体を注目したことを示すと確定する
    ことを特徴とする請求項4または5に記載の状態認識方法。
  7. 前記目標ユーザの各前記展示エリア内での感情状態は、前記目標ユーザの前記展示エリアに滞在した総滞在持続時間内で出現されたことが一番多い表情ラベル、前記目標ユーザの前記展示エリアを注目した総注目持続時間内で出現されたことが一番多い表情ラベル、および、前記展示エリアに対応する現在ビデオ画面内での前記目標ユーザの表情ラベルの中の少なくとも1つを含む
    ことを特徴とする請求項1乃至6の中のいずれか1項に記載の状態認識方法。
  8. 前記端末デバイスが前記目標ユーザのそれぞれ各前記展示エリアにおける状態を記述するための表示インターフェースを表示するように、前記端末デバイスを制御することは、
    前記目標ユーザの各前記展示エリアにおける滞在状態および感情状態に基づいて、前記端末デバイスが各前記展示エリアにそれぞれ対応する異なる表示状態を有する表示エリアを表示するように制御すること、または、
    前記目標ユーザの各前記展示エリアにおける注目状態および感情状態に基づいて、前記端末デバイスが各前記展示エリアにそれぞれ対応する異なる表示状態を有する表示エリアを表示するように制御することを含む
    ことを特徴とする請求項1乃至7の中のいずれか1項に記載の状態認識方法。
  9. 各前記表示エリアは、特定の図形で表示され、
    前記注目状態は、前記目標ユーザが前記展示エリアを注目した注目持続時間または注目回数を示し、前記展示エリアに対応する前記特定の図形の表示サイズは、前記注目持続時間または前記注目回数に比率し、前記展示エリアに対応する前記特定の図形の色は、前記感情状態とマッチングされ、または、
    前記滞在状態は、前記目標ユーザの前記展示エリアにおける滞在持続時間または滞在回数を示し、前記展示エリアに対応する前記特定の図形の表示サイズは、前記滞在持続時間または滞在回数に比率し、前記展示エリアに対応する前記特定の図形の色は、前記感情状態とマッチングされる
    ことを特徴とする請求項8に記載の状態認識方法。
  10. 前記端末デバイスが前記目標ユーザのそれぞれ各前記展示エリアにおける状態を記述するための表示インターフェースを表示するように、前記端末デバイスを制御する前に、前記表示インターフェースをトリガするためのトリガ操作を取得することをさらに含む
    ことを特徴とする請求項1に記載の状態認識方法。
  11. 前記表示インターフェースをトリガするためのトリガ操作を取得することは、
    前記端末デバイスの表示インターフェースが姿態記述内容を含む姿態プロンプトフレームを表示するように制御することと、
    前記目標ユーザが展示したユーザ姿態を取得して認識することと、
    前記ユーザ姿態が前記姿態記述内容に記録された姿態を満たす場合、前記表示インターフェースをトリガするためのトリガ操作を取得したと確認することと、を含む
    ことを特徴とする請求項10に記載の状態認識方法。
  12. 複数の展示エリアでそれぞれ収集したビデオ画面を取得した後に、各前記展示エリアに対して、前記展示エリアに対応する複数のビデオ画面の中の前記目標ユーザが出現された目標ビデオ画面の収集時点を取得することと、
    各展示エリアに対応する前記収集時点に基づいて、前記目標ユーザの各前記展示エリアにおける移動軌跡データを確定することと、
    前記移動軌跡データに基づいて、前記端末デバイスが前記目標ユーザの各前記展示エリアにおける移動軌跡経路を表示するように制御することと、さらに含む
    ことを特徴とする請求項1に記載の状態認識方法。
  13. 状態認識装置であって、
    複数の展示エリアでそれぞれ収集した複数のビデオ画面を取得するためのビデオ画面取得モジュールと、
    前記ビデオ画面内に出現した目標ユーザの、前記目標ユーザのそれぞれ各前記展示エリアにおける滞在状態、注目状態、および、感情状態の中の少なくとも2つを含む状態を、認識するための状態認識モジュールと、
    端末デバイスが前記目標ユーザのそれぞれ各前記展示エリアにおける状態を記述するための表示インターフェースを表示するように、前記端末デバイスを制御するための制御モジュールと、を備える
    ことを特徴とする状態認識装置。
  14. 電子デバイスであって、
    プロセッサとメモリとを備え、
    前記メモリには、前記プロセッサによって実行可能な機械可読命令が格納されており、
    前記機械可読命令が前記プロセッサによって実行されると、前記プロセッサが、請求項1乃至12の中のいずれか1項に記載の状態認識方法を実行するようにする
    ことを特徴とする電子デバイス。
  15. コンピュータプログラムが記録されているコンピュータ可読記録媒体であって、
    当該コンピュータプログラムがプロセッサによって運行されると、前記プロセッサが、請求項1乃至12の中のいずれか1項に記載の状態認識方法を実行するようにする
    ことを特徴とするコンピュータ可読記録媒体。
JP2021529267A 2019-12-31 2020-07-28 状態認識方法、装置、電子デバイス、及び記録媒体 Pending JP2022519150A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911416341.6 2019-12-31
CN201911416341.6A CN111178294A (zh) 2019-12-31 2019-12-31 状态识别方法、装置、设备及存储介质
PCT/CN2020/105294 WO2021135197A1 (zh) 2019-12-31 2020-07-28 状态识别方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
JP2022519150A true JP2022519150A (ja) 2022-03-22

Family

ID=70646578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021529267A Pending JP2022519150A (ja) 2019-12-31 2020-07-28 状態認識方法、装置、電子デバイス、及び記録媒体

Country Status (5)

Country Link
JP (1) JP2022519150A (ja)
KR (1) KR20210088601A (ja)
CN (1) CN111178294A (ja)
TW (1) TWI779343B (ja)
WO (1) WO2021135197A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111178294A (zh) * 2019-12-31 2020-05-19 北京市商汤科技开发有限公司 状态识别方法、装置、设备及存储介质
CN110942055A (zh) * 2019-12-31 2020-03-31 北京市商汤科技开发有限公司 展示区域的状态识别方法、装置、设备及存储介质
CN111798457B (zh) * 2020-06-10 2021-04-06 上海众言网络科技有限公司 图像视觉重量确定方法、装置和图像评价方法
CN111767816A (zh) * 2020-06-22 2020-10-13 苏州交驰人工智能研究院有限公司 一种异常提示方法、装置、设备及存储介质
CN114511336A (zh) * 2020-10-28 2022-05-17 中移(上海)信息通信科技有限公司 用户标签确定的方法、装置、设备及存储介质
CN113709552A (zh) * 2021-08-31 2021-11-26 维沃移动通信有限公司 视频生成方法、装置及电子设备
CN114442632A (zh) * 2022-01-27 2022-05-06 商丘师范学院 一种基于人工智能的机器人追踪系统及方法
CN115553780B (zh) * 2022-12-06 2023-03-21 深圳市心流科技有限公司 注意力评估方法、设备及存储介质
CN115581457B (zh) * 2022-12-13 2023-05-12 深圳市心流科技有限公司 注意力评估方法、装置、设备及存储介质
CN116030411B (zh) * 2022-12-28 2023-08-18 宁波星巡智能科技有限公司 基于姿态识别的人形隐私遮挡方法、装置及设备

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348618A (ja) * 2003-05-26 2004-12-09 Nec Soft Ltd 顧客情報収集管理方法及びそのシステム
JPWO2015040661A1 (ja) * 2013-09-19 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報端末にマーチャンダイジング情報を表示させる制御方法
US20170278172A1 (en) * 2016-03-24 2017-09-28 International Business Machines Corporation System, method and computer program product providing eye tracking based cognitive filtering and product recommendations
JP2017182654A (ja) * 2016-03-31 2017-10-05 パナソニックIpマネジメント株式会社 施設内活動分析装置、施設内活動分析システムおよび施設内活動分析方法
JP2018526945A (ja) * 2015-08-04 2018-09-13 ジェイムズ キャリー, ビデオ識別および分析認識システム
JPWO2017122258A1 (ja) * 2016-01-12 2018-11-22 株式会社日立国際電気 混雑状況監視システム及び混雑状況監視方法
CN108985218A (zh) * 2018-07-10 2018-12-11 上海小蚁科技有限公司 人流量统计方法及装置、存储介质、计算设备
JP2019032778A (ja) * 2017-08-09 2019-02-28 Sbクリエイティブ株式会社 購買支援システム
CN110298245A (zh) * 2019-05-22 2019-10-01 平安科技(深圳)有限公司 兴趣收集方法、装置、计算机设备及存储介质
JP2019211905A (ja) * 2018-06-01 2019-12-12 日本電気株式会社 動線分析装置、動線分析方法、および動線分析システム
CN111178294A (zh) * 2019-12-31 2020-05-19 北京市商汤科技开发有限公司 状态识别方法、装置、设备及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6587835B1 (en) * 2000-02-09 2003-07-01 G. Victor Treyz Shopping assistance with handheld computing device
US9367770B2 (en) * 2011-08-30 2016-06-14 Digimarc Corporation Methods and arrangements for identifying objects
CN108229239B (zh) * 2016-12-09 2020-07-10 武汉斗鱼网络科技有限公司 一种图像处理的方法及装置
CN109828681B (zh) * 2017-11-20 2022-10-11 深圳市Tcl高新技术开发有限公司 激光笔光流轨迹跟踪方法、投影设备及计算机可读存储介质
CN108711086A (zh) * 2018-05-09 2018-10-26 连云港伍江数码科技有限公司 储物装置中人机交互方法、装置、储物装置以及存储介质
CN108897589B (zh) * 2018-05-31 2020-10-27 刘国华 显示设备中人机交互方法、装置、计算机设备和存储介质
CN109508638B (zh) * 2018-10-11 2024-09-17 平安科技(深圳)有限公司 人脸情绪识别方法、装置、计算机设备及存储介质
CN110147729A (zh) * 2019-04-16 2019-08-20 深圳壹账通智能科技有限公司 用户情绪识别方法、装置、计算机设备及存储介质
CN110118976A (zh) * 2019-04-18 2019-08-13 广州斯沃德科技有限公司 一种行驶轨迹绘制方法、装置、终端设备及可读存储介质
CN110321477B (zh) * 2019-05-24 2022-09-09 平安科技(深圳)有限公司 信息推荐方法、装置、终端及存储介质

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348618A (ja) * 2003-05-26 2004-12-09 Nec Soft Ltd 顧客情報収集管理方法及びそのシステム
JPWO2015040661A1 (ja) * 2013-09-19 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報端末にマーチャンダイジング情報を表示させる制御方法
JP2018526945A (ja) * 2015-08-04 2018-09-13 ジェイムズ キャリー, ビデオ識別および分析認識システム
JPWO2017122258A1 (ja) * 2016-01-12 2018-11-22 株式会社日立国際電気 混雑状況監視システム及び混雑状況監視方法
US20170278172A1 (en) * 2016-03-24 2017-09-28 International Business Machines Corporation System, method and computer program product providing eye tracking based cognitive filtering and product recommendations
JP2017182654A (ja) * 2016-03-31 2017-10-05 パナソニックIpマネジメント株式会社 施設内活動分析装置、施設内活動分析システムおよび施設内活動分析方法
JP2019032778A (ja) * 2017-08-09 2019-02-28 Sbクリエイティブ株式会社 購買支援システム
JP2019211905A (ja) * 2018-06-01 2019-12-12 日本電気株式会社 動線分析装置、動線分析方法、および動線分析システム
CN108985218A (zh) * 2018-07-10 2018-12-11 上海小蚁科技有限公司 人流量统计方法及装置、存储介质、计算设备
CN110298245A (zh) * 2019-05-22 2019-10-01 平安科技(深圳)有限公司 兴趣收集方法、装置、计算机设备及存储介质
CN111178294A (zh) * 2019-12-31 2020-05-19 北京市商汤科技开发有限公司 状态识别方法、装置、设备及存储介质

Also Published As

Publication number Publication date
KR20210088601A (ko) 2021-07-14
CN111178294A (zh) 2020-05-19
WO2021135197A1 (zh) 2021-07-08
TW202127319A (zh) 2021-07-16
TWI779343B (zh) 2022-10-01

Similar Documents

Publication Publication Date Title
JP2022519150A (ja) 状態認識方法、装置、電子デバイス、及び記録媒体
JP2022519149A (ja) 展示エリア状態認識方法、装置、電子デバイス、及び記録媒体
US7225414B1 (en) Method and system for virtual touch entertainment
US8810513B2 (en) Method for controlling interactive display system
US8723796B2 (en) Multi-user interactive display system
US9349131B2 (en) Interactive digital advertising system
CN102999160B (zh) 混合现实显示器中用户控制的现实对象的消失
CN105612478B (zh) 用户接口程序化的缩放
CN110555358B (zh) 用于检测和识别ar/vr场景中的特征部的方法和设备
US20130145272A1 (en) System and method for providing an interactive data-bearing mirror interface
US20160320833A1 (en) Location-based system for sharing augmented reality content
JP2022526772A (ja) インタラクティブ方法、装置、デバイス、及び記憶媒体
KR20210129714A (ko) 인터렉티브 방법, 장치, 디바이스 및 기록 매체
US20240220009A1 (en) Gazed based interactions with three-dimensional environments
EP3447610B1 (en) User readiness for touchless gesture-controlled display systems
CN110322262A (zh) 门店信息处理方法、装置及门店系统
WO2020151430A1 (zh) 一种空气成像系统及其实现方法
KR20150136181A (ko) 동공인식을 이용한 광고 제공 장치 및 방법
JP2014178909A (ja) 商取引システム
WO2023093329A1 (zh) 信息输出方法、头戴式显示设备及可读存储介质
US12073054B2 (en) Managing virtual collisions between moving virtual objects
US12099696B2 (en) Displaying virtual content on moving vehicles
Choi et al. Immersive real-acting virtual aquarium with motion tracking sensors
KR102707660B1 (ko) 인터렉티브 방법, 장치, 디바이스 및 기록 매체
US20240212067A1 (en) Interface display method and apparatus, device, and medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210524

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230301