JP6724827B2 - 人物動向記録装置 - Google Patents

人物動向記録装置 Download PDF

Info

Publication number
JP6724827B2
JP6724827B2 JP2017048828A JP2017048828A JP6724827B2 JP 6724827 B2 JP6724827 B2 JP 6724827B2 JP 2017048828 A JP2017048828 A JP 2017048828A JP 2017048828 A JP2017048828 A JP 2017048828A JP 6724827 B2 JP6724827 B2 JP 6724827B2
Authority
JP
Japan
Prior art keywords
person
trend
psychological
index
physiological
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017048828A
Other languages
English (en)
Other versions
JP2018151963A5 (ja
JP2018151963A (ja
Inventor
晴香 谷口
晴香 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2017048828A priority Critical patent/JP6724827B2/ja
Priority to PCT/JP2017/042505 priority patent/WO2018168095A1/ja
Priority to CN201780071316.1A priority patent/CN109983505B/zh
Priority to US16/461,912 priority patent/US11106900B2/en
Priority to DE112017007261.1T priority patent/DE112017007261T8/de
Publication of JP2018151963A publication Critical patent/JP2018151963A/ja
Publication of JP2018151963A5 publication Critical patent/JP2018151963A5/ja
Application granted granted Critical
Publication of JP6724827B2 publication Critical patent/JP6724827B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Signal Processing (AREA)
  • Ophthalmology & Optometry (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、人物の行動と心理的な動きを記録・分析するための技術に関する。
飲食や商品販売などのサービスを提供する店舗では、顧客の満足度や関心の高さを常にリサーチし、顧客のニーズ及び店舗の問題点を正確に把握することが、健全な店舗運営にあたり極めて重要である。顧客満足や関心に影響を与える因子には様々なものがあり、例えば、店内の装飾やレイアウト、接客のタイミング、待ち時間、接客内容、商品のディスプレイ、店内の混み具合、特売情報などが挙げられる。しかも、個々人の嗜好や属性(性別、年代など)によって、影響の強い因子の種類や影響の大きさが異なり得る。従来、このような顧客ごとの満足や関心をリサーチする手法としては、アンケートが一般的であった。しかしながら、アンケートは回答者に負担を強いるため、回答率が低く、効率的なリサーチが難しいという課題がある。また、アンケートの回答は回答者が意図的にコントロールできてしまうため、客観的なリサーチ結果が得られている保証がない。
また特許文献1には、顧客満足度の向上や店舗の効率的な運営を図ることを目的として、接客において発生する各種の待ち時間を自動で記録するシステムが提案されている。具体的な仕組みは、店内に設置したカメラの映像とPOSシステムの情報とから、顧客の入店・着席・注文・配膳・会計(退店)などのイベントを検知し、各イベントの発生時刻の差から、案内待ち時間・注文待ち時間・配膳待ち時間を自動で計算するというものである。このシステムによれば、顧客に負担を強いることなく客観的なデータが収集できるものの、リサーチ項目は待ち時間に限られ、顧客の満足や関心の高さやその変化を十分に評価することはできない。
特開2014−149685号公報
本発明は上記実情に鑑みなされたものであって、顧客の満足や関心の高さを客観的に評価するために有用なデータを、顧客に負担をかけることなく自動的に収集し記録するための技術を提供することを目的とする。
上記目的を達成するために、本発明では、動画像解析により、ある人物に生じたイベントとその人物の生理心理学的指標の時間的な変化を検出し、それらを対応付けたデータを記録する、という構成を採用する。
具体的には、本発明の第一態様は、対象エリアを撮影した動画像データを取得する画像取得部と、前記動画像データを解析することにより、前記対象エリア内で行動する人物を検出し追跡する人物検出部と、前記動画像データを解析することにより、前記人物の追跡期間中に前記人物に生じたイベントを検出するイベント検出部と、前記動画像データを解析することにより、前記追跡期間中における前記人物の生理心理学的指標の時間的な変化を検出する生理心理学的指標検出部と、少なくとも、前記人物に生じた1つ以上のイベントと、前記人物の生理心理学的指標の時間的な変化とを、時間的に対応付けたデータを、前記人物の動向記録データとして生成する動向記録生成部と、を備えることを特徴とする
人物動向記録装置を提供する。
この構成によれば、ある人物に生じたイベントとその人物の生理心理学的指標の時間的な変化とを時間的に対応付けた動向記録データが自動で生成される。このような動向記録データを用いると、生理心理学的指標の傾向から顧客満足や関心の高さを客観的に評価することができる。また、生理心理学的指標の時間的な変化とイベントの発生時刻との関係から、顧客満足や関心度に良い/悪い影響を与えたイベントを推定することが容易となる。さらに、人物検出、イベント検出、生理心理学的指標検出のいずれの処理も動画像解析により行うので、顧客に身体的負担や心理的負担をかけることなく自動的に動向記録データを収集し記録することができる。
生理心理学的指標の時間的な変化に基づいて、前記人物の心理状態を推定した心理状態指標を算出する心理状態推定部をさらに備え、前記動向記録データは、前記心理状態推定部により算出された心理状態指標をさらに含むことが好ましい。この構成によれば、人物の心理状態を表す指標やその時間的な変化も自動で記録されるので、非常に有用なデータが得られる。このとき、前記心理状態推定部は、複数の生理心理学的指標を組み合わせて心理状態指標を算出することが好ましい。複数の生理心理学的指標を組み合わせることにより、心理状態の推定精度や信頼性の向上を期待できるからである。さらにこのとき、前記複数の生理心理学的指標は、前記人物が意識的にコントロール可能な生理心理学的指標と、前記人物が意識的にコントロール可能でない生理心理学的指標を含むとよい。意識的にコントロール可能でない生理心理学的指標を組み合わせることで、当該人物の心理状態を客観的かつ高信頼に算出することができる。心理状態指標としては、例えば、満足の大きさを表す満足度(充足度ともいう)、関心の高さを表す関心度(興味度、集中度ともいう)、快・不快の程度を表す快適度(快不快度ともいう)などがある。
生理心理学的指標の時間的な変化に基づいて、前記人物の満足度を推定する満足度推定部をさらに備え、前記動向記録データは、前記満足度推定部により推定された満足度の情報をさらに含むことが好ましい。また、生理心理学的指標の時間的な変化に基づいて、前記対象エリア内の対象に対する前記人物の関心度を推定する関心度推定部をさらに備え、前記動向記録データは、前記関心度推定部により推定された関心度の情報をさらに含んでもよい。これらの構成によれば、顧客満足や関心の高さの時間的な変化も自動で記録されるので、非常に有用なデータが得られる。
前記生理心理学的指標は、表情、笑顔度、単位時間あたりの脈拍数、単位時間あたりの瞬目数、及び、注視度のうち少なくとも1つの項目を含むことが好ましい。これらの指標は動画像ないし静止画像からある程度の信頼性をもって検出することができるからである。さらに、前記生理心理学的指標は、瞳孔径、眼球運動、単位時間あたりの呼吸数、体温、発汗、血流、血圧などの項目を含んでもよい。複数項目の生理心理学的指標を組み合わせて用いるとより好ましい。
前記動画像データを解析することにより、前記人物の属性を推定する属性推定部をさらに備え、前記動向記録データは、前記属性推定部により推定された属性の情報をさらに含むことが好ましい。これにより、人物の属性(例えば、年代、性別、体型など)ごとの傾向の違いを評価することができる。
前記動向記録データに基づいて、動向分析結果を表示する動向分析結果表示部をさらに備え、前記動向分析結果は、前記人物の追跡期間中に前記人物に生じた1つ以上のイベントと、前記人物の生理心理学的指標の時間的な変化とを、時間軸上に表示する情報を含むことが好ましい。このような情報表示によれば、ある人物の行動(イベント)と生理心理学的指標の変化との因果関係を可視化することができる。
前記動向記録データに基づいて、動向分析結果を表示する動向分析結果表示部をさらに備え、前記動向分析結果は、複数の人物の前記動向記録データから計算された、前記生理心理学的指標及び/又は前記満足度の統計値を表示する情報を含むことが好ましい。また、前記動向記録データに基づいて、動向分析結果を表示する動向分析結果表示部をさらに備え、前記動向分析結果は、複数の人物の前記動向記録データから計算された、前記生理心理学的指標及び/又は前記関心度の統計値を表示する情報を含むことが好ましい。
前記対象エリア内に複数のサブエリアが設定されており、前記動向分析結果は、前記サブエリアごとに計算された前記統計値を表示する情報を含むことが好ましい。これにより、サブエリアごとの人気(顧客満足や関心の高さ)を評価することができる。
前記動画像データを解析することにより、前記人物の属性を推定する属性推定部をさらに備え、前記動向記録データは、前記属性推定部により推定された属性の情報をさらに含み、前記動向分析結果は、前記属性ごとに計算された前記統計値を表示する情報を含むことが好ましい。これにより、属性ごとに満足度や関心度の傾向を評価することができる。
前記動向分析結果は、イベントの種類ごとに計算された前記統計値を表示する情報を含むことが好ましい。これにより、イベントの種類ごとに満足度や関心度との因果関係を評価することができる。
なお、本発明は、上記構成ないし機能の少なくとも一部を有する人物動向記録装置として捉えることができる。また、本発明は、上記処理の少なくとも一部を含む、人物動向記録方法もしくは人物動向記録装置の制御方法や、これらの方法をコンピュータに実行させるためのプログラム、又は、そのようなプログラムを非一時的に記録したコンピュータ読取可能な記録媒体として捉えることもできる。上記構成及び処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。
本発明によれば、顧客の満足や関心の高さを客観的に評価するために有用なデータを、顧客に負担をかけることなく自動的に収集し記録することができる。
図1は人物動向記録装置のハードウェア構成および機能構成を模式的に示すブロック図である。 図2は人物動向記録装置の設置例を示す図である。 図3は動向記録処理のフローチャートである。 図4は動向分析処理のフローチャートである。 図5A〜図5Cは満足度推定の一例を示す図である。 図6は動向記録データの一例である。 図7は動向分析結果の表示例である。 図8は動向分析結果の表示例である。 図9は動向分析結果の表示例である。 図10は動向分析結果の表示例である。 図11はエリア分割の例である。 図12は動向分析結果の表示例である。
本発明は、人物の動向(行動と心理的な動き)を自動で記録する技術に関し、特に、動画像解析によって、人物に生じたイベントとその人物の生理心理学的指標の時間的な変化
を検出し、それらを時間的に対応付けて記録する技術に関する。このような記録データは、顧客の満足や関心の高さを客観的に評価したり、顧客の満足や関心に影響を与えた因子を分析したりするのに有用である。本発明に係る技術は、例えば、顧客にサービスを提供する店舗や場において、顧客分析、顧客満足度調査、マーケティングリサーチ、問題点検出などを行うシステムに好ましく適用できる。
以下、ショッピングモール内の衣料品店において顧客の動向を記録するためのシステムに本発明を適用した場合の好ましい実施形態について説明する。ただし、以下の実施形態に記載されている装置の構成や動作は一例であり、本発明の範囲をそれらのみに限定する趣旨のものではない。
(システム構成)
図1と図2を参照して、本発明の実施形態に係る人物動向記録装置の構成を説明する。図1は、人物動向記録装置1のハードウェア構成および機能構成を模式的に示すブロック図であり、図2は、衣料品店の店舗レイアウトと撮像装置10の設置例を示す図である。
人物動向記録装置1は、主なハードウェア構成として、店舗内に設置される撮像装置10と、撮像装置10から取り込まれる動画像データを解析し顧客動向を記録する情報処理装置11と、を有している。撮像装置10と情報処理装置11の間は有線又は無線により接続されている。
撮像装置10は、店舗内の対象エリア20を撮影して動画像データを取り込むためのデバイスである。対象エリア20とは、顧客のモニタリングを行う範囲であり、例えば顧客が行動し得る範囲に基づいてあらかじめ設定される。撮像装置10としては、モノクロ又はカラーのカメラを用いることができる。また撮像装置10として、通常の可視光カメラに加えて、高感度(暗視)カメラ、赤外線カメラ、サーモグラフィなどの特殊なカメラを用いてもよい。撮像装置10は、図2に示すように、店舗内の対象エリアを俯瞰するように天井や柱などに設置される。なお、図1及び図2では2台の撮像装置10を示しているが、撮像装置10の数は任意である。対象エリア20を死角無く撮影できるように、撮像装置10の必要台数や設置位置を設計することが好ましい。
情報処理装置11は、撮像装置10から取り込まれる動画像データを解析し、対象エリア20内に存在する顧客の動向(行動と心理的な動き)を自動で検出・記録する機能を備える装置である。情報処理装置11は、具体的な機能として、画像取得部110、人物検出部111、イベント検出部112、生理心理学的指標検出部113、満足度推定部114、関心度推定部115、属性推定部116、個人識別部117、動向記録生成部118、動向分析結果表示部119、記憶部120を有している。本実施形態の情報処理装置11は、CPU(プロセッサ)、メモリ、ストレージ(HDD、SSDなど)、入力デバイス(キーボード、マウス、タッチパネルなど)、出力デバイス(ディスプレイ、スピーカなど)、通信インタフェースなどを具備する汎用のコンピュータにより構成され、上述した情報処理装置11の各機能は、ストレージ又はメモリに格納されたプログラムをCPUが実行することにより実現される。ただし、情報処理装置11の構成はこの例に限られない。例えば、複数台のコンピュータによる分散コンピューティングを行ってもよいし、上記機能の一部をクラウドサーバにより実行してもよいし、上記機能の一部をASICやFPGAのような回路で実行してもよい。
画像取得部110は、対象エリア20を撮影した動画像データを撮像装置10から取得する機能である。画像取得部110より入力された動画像データは一時的にメモリ又はストレージに記憶され、以後の人物検出、動向記録、動向分析などの処理に供される。
人物検出部111は、動画像データを解析することにより、対象エリア20内で行動する人物を検出し追跡する機能である。人物検出部111は、動画像データのあるフレームの画像において未知の人物を検出した場合に、当該人物に対し一意の識別子(人物IDと呼ぶ)を付与し、人物IDに対応付けて当該人物の位置及び特徴を記憶する。そして、人物検出部111は、次フレーム以降、位置及び特徴が類似する人物を探索することにより、当該人物の追跡(トラッキング)を行う。本実施形態のように複数の撮像装置10を用いる場合は、各撮像装置10の撮像エリアの隣接関係をあらかじめ定義し、追跡ターゲットの探索範囲を隣接する撮像エリアまで拡げることで、対象エリア20内を移動する人物を漏れなく追跡することができる。
人物検出及び人物追跡の具体的方法については従来から様々なアルゴリズムが提案されており、いずれのアルゴリズムを用いてもよい。例えば、Haar−like特徴量やHoG特徴量を用いた識別器、Faster R−CNNなどのDeep Learningを用いた識別器などを用いて、顔ないし人体を検出するアルゴリズムを好ましく利用できる。
イベント検出部112は、動画像データを解析することにより、人物の追跡期間中に当該人物に生じたイベント(事象)を検出する機能である。本明細書において「イベント」とは、人物の心理状態に影響を与え得る因子をいう。画像解析により検出可能であれば、どのようなイベントを検出対象としてもよい。衣料品店の例であれば、「店内に入った」、「商品を見た」、「店員から話しかけられた」、「商品を手に取った」、「試着した」、「特売品コーナーに来た」、「新着品のディスプレイを見た」、「混雑していた」、「他人とぶつかった」、「会計待ちの列に並んだ」、「会計を行った」、「店を出た」などが想定される。なお、どのようなイベントを検出対象とするかは、イベント検出部112にあらかじめ設定されているものとする。
イベント検出の具体的方法についても従来から様々なアルゴリズムが提案されており、いずれのアルゴリズムを用いてもよい。例えば、「店内に入った」、「試着した」、「特売品コーナーに来た」、「会計を行った」、「店を出た」などのイベントは、顧客が店内のどこにいるかを画像から認識することで、検出可能である。また、「商品を見た」、「新着品のディスプレイを見た」などのイベントは、顧客の顔向きや視線を画像から認識することで、検出可能である。また、「店員から話しかけられた」、「商品を手に取った」、「会計待ちの列に並んだ」などのイベントは、これらのイベントの教師データを用いてDeep Learningによる学習を行った識別器により検出可能である。また、「他人とぶつかった」、「混雑していた」などのイベントは、客の数、密度、客同士の距離などを画像から認識することで、検出可能である。
生理心理学的指標検出部113は、動画像データを解析することにより、人物の追跡期間中における当該人物の生理心理学的指標の時間的な変化を検出する機能である。本実施形態において、人の心理状態やその変化が生理的現象として表出することを生理心理学的反応と呼び、その生理心理学的反応を測定し定量化したものを生理心理学的指標と呼ぶ。生理心理学的反応は無意識に表出するものであるため、生理心理学的指標を観察することによりその人物の真の心理状態やその変化を客観的に捉えることが可能である。
生理心理学的指標には、例えば、表情、笑顔度、単位時間あたりの脈拍数(以下単に「脈拍数」と記す)、単位時間あたりの瞬目数(以下単に「瞬目数」と記す)、注視度(視線を特定の対象に向けている割合を表す指標)、瞳孔径、眼球運動、単位時間あたりの呼吸数、体温、発汗、血流、血圧などがある。これらのうち1つ以上の項目を用いればよい。本実施形態では、動画像ないし静止画像からの検出が比較的容易な、表情(喜び/真顔/嫌悪/悲しみ/驚きの5分類)、笑顔度[%]、脈拍数[ビート/分]、瞬目数[回/
分]、注視度[%]の5つの項目を用いることとする。これらの指標の検出方法についても従来から様々なアルゴリズムが提案されており、いずれのアルゴリズムを用いてもよい。例えば、表情及び笑顔度については、顔器官の形状、目・口の開閉度合、しわなどに基づいて推定する方法を用いることができる。脈拍については、顔(肌)の部分のGreen値の微小な変動を捉えることで検出することができる。瞬目(まばたき)は、目の形状や黒目の有無などに基づいて目つむり判定を行うことで検出することができる。注視度は、フレームごとに視線方向を推定し、ある対象を中心とする所定角度範囲内に視線が収まっている確率に基づいて計算することができる。なお、瞳孔径及び眼球運動については赤外線画像から検出する方法が、体温及び発汗についてはサーモグラフィ画像から検出する方法が、呼吸数、血流、及び血圧は動画像から検出する方法がそれぞれ知られており、これらの方法を用いて生理心理学的指標を取得することが可能である。
人物動向記録装置1は、上記のような生理心理学的指標の収集・記録に加え、生理心理学的指標の時間的な変化に基づいて当該人物の心理状態を推定した心理状態指標を算出する機能(この機能を心理状態推定部とよぶ)を有している。本実施形態では、心理状態推定部として、満足度推定部114と関心度推定部115の2つを設けている。
満足度推定部114は、生理心理学的指標の時間的な変化に基づいて、心理状態指標の一つである「満足度」を推定する機能である。本実施形態では時刻tにおける満足度S(t)を式(1)のように定義し、笑顔度Sm(t)と脈拍数PR(t)の変化を基に満足度S(t)を計算する。ただし、満足度の定義はこれに限られず、どのように算出しても構わない。
Figure 0006724827
ここで、Sm(t)は時刻tにおける笑顔度であり、PR(t)は時刻tにおける脈拍数であり、PRminは時刻tを含む所定の期間(例えば5分〜10分程度に設定すればよい)における脈拍数の最小値であり、PRmaxは同期間における脈拍数の最大値である。式(1)のように、人がコントロール可能な指標(笑顔度)と意識的にコントロールすることが困難な指標(脈拍数)の2種類の指標から求めることで、満足度の値を客観的かつ高信頼に算出することができる。
関心度推定部115は、生理心理学的指標の時間的な変化に基づいて、対象エリア20内のある対象に対する「関心度」を推定する機能である。関心度も心理状態指標の一つである。本実施形態では時刻tにおける関心度I(t)を式(2)のように定義し、注視度At(t)と瞬目数BF(t)の変化を基に関心度I(t)を計算する。ただし、関心度の定義はこれに限られず、どのように算出しても構わない。
Figure 0006724827
ここで、At(t)は時刻tにおける注視度であり、BF(t)は時刻tにおける瞬目数であり、BFminは時刻tを含む所定の期間(例えば5分〜10分程度に設定すればよい)における瞬目数の最小値であり、BFmaxは同期間における瞬目数の最大値である。式(2)のように、人がコントロール可能な指標(注視度)と意識的にコントロールすることが困難な指標(瞬目数)の2種類の指標から求めることで、関心度の値を客観的かつ高信頼に算出することができる。
属性推定部116は、動画像データを解析することにより、人物の属性を推定する機能である。本実施形態では、属性として、年代(〜10歳/10〜20歳/20〜30歳/30〜40歳/40歳〜)、性別(男性/女性)、体型(痩せ/普通/太り)の3項目を推定する。属性推定の具体的方法についても従来から様々なアルゴリズムが提案されており、いずれのアルゴリズムを用いてもよい。
個人識別部117は、画像から検出された人物の個人識別を行うと共に、その人物に関する固有の情報を取得する機能である。個人識別の方法としては、いわゆる画像認識(顔認識)による方法と、その人が所持するIDカードなどから個人を特定する方法などがあり、いずれの方法を用いてもよい。IDカードとしては、クレジットカード、電子マネーカード、ポイントカードなどがあり、例えば、個人識別部117は会計時に提示されたIDカードを読み取ることで、その人物を特定することができる。また、「人物に関する固有の情報」は、名前、住所、電話番号、メールアドレス、年齢、職業、勤務先、家族構成、購入履歴などである。
動向記録生成部118は、各機能部111〜117により得られた情報に基づき、人物ごとの動向記録データを生成する機能である。生成した動向記録データは、記憶部120又はクラウドサーバ(不図示)に保存される。動向記録データの詳細は後述する。
動向分析結果表示部119は、動向記録データに基づいて動向分析結果をディスプレイに表示する機能である。動向分析結果の表示例については後述する。
(動向記録処理)
次に、図3のフローチャートに沿って人物動向記録装置1による動向記録処理の具体例を説明する。図3に示す処理フローは、オンライン(リアルタイム)で、フレームごと又は所定時間おきに繰り返し実行されるものである。
まず、人物検出部111が、動画像データにおける直近のフレームを参照し、画像内に存在する人物を検出する(ステップS30)。ステップS31では、検出された人物のうちの一人が選択される(ここで選択された人物を「記録対象者」と呼ぶ)。人物検出部111は、記録対象者と既知の人物(過去のフレームで既に検出され、追跡中の人物)との同定を行い、記録対象者が追跡中の人物である場合は同じ人物IDを付与し、未知の人物(初めて検出された人物)である場合は新しい人物IDを付与する(ステップS32)。そして、動向記録生成部118が、記録対象者の動向記録データに、直近のフレームの撮影時刻と記録対象者の位置情報を記録する(ステップS33)。
次に、イベント検出部112は、動画像データにおける直近の1又は複数フレームを参照し、記録対象者に生じたイベントを検出する(ステップS34)。イベント発生有りの場合(ステップS35;YES)、動向記録生成部118は、記録対象者の動向記録データに、検出したイベントの情報を記録する(ステップS36)。
また、生理心理学的指標検出部113は、動画像データにおける直近の1又は複数フレームを参照し、記録対象者の表情、笑顔度、脈拍数、瞬目数、注視度の4項目の指標を検出する(ステップS37)。表情及び笑顔度は1フレームの画像から検出可能であり、脈拍数、瞬目数、注視度は複数フレームの動画像から検出可能である。そして、動向記録生成部118は、記録対象者の動向記録データに、各指標の値を記録する(ステップS38)。
画像から検出された人物すべてに対しステップS31〜S38の処理を行ったら(ステ
ップS39;NO)、動向記録処理を終了する。
(動向分析処理)
次に、図4のフローチャートに沿って人物動向記録装置1による動向分析処理の具体例を説明する。図4に示す処理フローは、ある人物の動向記録データが一定量蓄積された後、又は、ある人物の追跡が完了した後に、オフラインで、人物ごとに実行されるものである。以下、図4の処理の対象となる人物を分析対象者と呼ぶ。
ステップS40では、属性推定部116が、動画像データを解析することによって、分析対象者の年代、性別、体型を推定する。また、個人識別部117が、分析対象者の個人識別を行い、個人識別に成功した場合にその分析対象者に固有の情報(例えば購入履歴など)を取得する(ステップS41)。次に、満足度推定部114が、分析対象者の動向記録データから各時刻における満足度の値を算出する(ステップS42)。
図5A〜図5Cに満足度推定の一例を示す。図5Aは分析対象者の笑顔度のグラフであり、横軸が時間[sec]、縦軸が笑顔度[%]を示す。図5Bは分析対象者の脈波の観測波形であり、横軸が時間[sec]、縦軸が顔部分のGreen値を示す。図5Cは図5Bから計算した脈拍数のグラフであり、横軸が時間[sec]、縦軸が脈拍数[ビート/分]を示す。この場合に、時刻aにおける満足度S(a)は式(1)から、
S(a)=80×(90−60)/(90−60)=80[%]
と求まり、時刻bにおける満足度S(b)は式(1)から、
S(b)=40×(70−60)/(90−60)=13[%]
と求まる。
同様に、関心度推定部115が、分析対象者の動向記録データから各時刻における関心度の値を算出する(ステップS43)。そして、動向記録生成部118が、ステップS40〜S43で得られた情報を、分析対象者の動向記録データに記録する(ステップS44)。
図6は、人物Xに関する動向記録データの一例である。人物Xに生じたイベントと、人物Xから検出された生理心理学的指標(表情、笑顔度、脈拍数、瞬目数、注視度)の時間的な変化とが、時間的に対応付けられたデータとなっている。図6の動向記録データではさらに、人物Xの位置情報、及び、満足度と関心度の時間的な変化も対応付けられている。このような動向記録データが得られると、生理心理学的指標、満足度、注目度などの傾向から、顧客満足や関心の高さを把握することができる。また、それらの時間的な変化と、イベントの発生時刻との関係から、顧客満足や関心度に良い/悪い影響を与えたイベントを推定することが容易となる。
(分析結果表示例)
次に、動向分析結果表示部119による動向分析結果の好ましい表示例を説明する。
図7は、人物Xの追跡期間中に生じたイベントと、人物Xの生理心理学的指標の時間的な変化を同一時間軸上にプロットしたグラフである。また、図8は、人物Xの追跡期間中に生じたイベントと、人物Xの満足度及び関心度の時間的な変化を同一時間軸上にプロットしたグラフである。これらのグラフによれば、人物Xの入店から退店までの行動(イベント)と生理心理学的指標・満足度・関心度の変化との因果関係を可視化することができる。生理心理学的指標・満足度・関心度には人物Xの真の心理状態が表れていると考えられるため、図7や図8の動向分析結果を用いることで、商品陳列の良し悪し、接客の適切さなどを一定の信頼性をもって評価することができる。
図9は、店舗の見取り図上に、人物Xの移動ルート(破線)と、人物Xに生じたイベント(△)と、満足度及び関心度が高い値を示したポイント(◎、★)とを表示した例である。このような見取り図表示によれば、人物Xが店内のどこでどのような行動をとったときに、満足度や関心度が高まったか、という情報を得ることができる。
図10は、人物Xの動向記録データの傾向を示す表示例である。図10の例では、人物Xの属性(年代、性別、体型)、入店時刻と退店時刻と在店時間、在店中における5表情の割合、在店中における笑顔度の平均・最大値、在店中における脈拍数の平均・最大値・最小値・変動幅、在店中における瞬目数の平均・最大値・最小値・変動幅、在店中における注視度の平均・最大値、満足度の平均・最大値、関心度の平均・最大値などが示されている。このような統計データを確認することで、人物Xの動向やその傾向を総合的に把握することができる。
図7〜図10においては、一人の人物の動向記録データのみを表示したが、動向分析結果表示部119は、複数の人物の動向記録データから、生理心理学的指標・満足度・関心度の統計値(平均値、最小値、最大値、中間値など)を計算し表示してもよい。例えば、図11のように店舗内の対象エリアを4つのサブエリアA〜Dに分け、図12のようにサブエリアごとの統計値を計算し表示してもよい。図11のような統計的分析表示を用いることで、例えば、サブエリアごとに人気(顧客満足や関心の高さ)を評価したり、年代別、体型別の評価を行ったり、イベントごとに満足度や関心度との因果関係を評価したりすることができる。
(本実施形態の利点)
以上述べた本実施形態の人物動向記録装置によれば、ある人物に生じたイベントとその人物の生理心理学的指標の時間的な変化とを時間的に対応付けた動向記録データが自動で生成される。このような動向記録データを用いると、生理心理学的指標の傾向から顧客満足や関心の高さを客観的に評価することができる。また、生理心理学的指標の時間的な変化とイベントの発生時刻との関係から、顧客満足や関心度に良い/悪い影響を与えたイベントを推定することが容易となる。さらに、人物検出、イベント検出、生理心理学的指標検出のいずれの処理も動画像解析により行うので、顧客に身体的負担や心理的負担をかけることなく自動的に動向記録データを収集し記録することができる。
(その他)
上記実施形態の説明は、本発明を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。例えば、上述した生理心理学的指標は一例であり、上述した指標とは異なる指標を収集してもよい。装置の簡単化・コスト低減の観点からは、動画像データからすべての情報を検出できることが望ましいが、指標によっては動画像データ以外の情報から抽出してもよい。例えば、サーモグラフィから得られる画像から人物の体温を測定してもよい。
1:人物動向記録装置、10:撮像装置、11:情報処理装置
110:画像取得部、111:人物検出部、112:イベント検出部、113:生理心理学的指標検出部、114:満足度推定部、115:関心度推定部、116:属性推定部、117:個人識別部、118:動向記録生成部、119:動向分析結果表示部、120:記憶部
20:対象エリア

Claims (17)

  1. 対象エリアを撮影した動画像データを取得する画像取得部と、
    前記動画像データを解析することにより、前記対象エリア内で行動する人物を検出し追跡する人物検出部と、
    前記動画像データを解析することにより、前記人物の追跡期間中に前記人物に生じたイベントを検出するイベント検出部と
    記追跡期間中における前記人物の生理心理学的指標の時間的な変化を検出する生理心理学的指標検出部と、
    生理心理学的指標の時間的な変化に基づいて、前記人物の満足度を推定する満足度推定部と、
    少なくとも、前記人物に生じた1つ以上のイベントと、前記人物の生理心理学的指標の時間的な変化と、前記満足度推定部により推定された満足度の情報とを、時間的に対応付けたデータを、前記人物の動向記録データとして生成する動向記録生成部と、
    を備えることを特徴とする人物動向記録装置。
  2. 対象エリアを撮影した動画像データを取得する画像取得部と、
    前記動画像データを解析することにより、前記対象エリア内で行動する人物を検出し追跡する人物検出部と、
    前記動画像データを解析することにより、前記人物の追跡期間中に前記人物に生じたイベントを検出するイベント検出部と、
    前記追跡期間中における前記人物の生理心理学的指標の時間的な変化を検出する生理心理学的指標検出部と、
    生理心理学的指標の時間的な変化に基づいて、前記対象エリア内の対象に対する前記人物の関心度を推定する関心度推定部と、
    少なくとも、前記人物に生じた1つ以上のイベントと、前記人物の生理心理学的指標の時間的な変化と、前記関心度推定部により推定された関心度の情報とを、時間的に対応付けたデータを、前記人物の動向記録データとして生成する動向記録生成部と、
    を備えることを特徴とする人物動向記録装置。
  3. 生理心理学的指標の時間的な変化に基づいて、前記人物の満足度を推定する満足度推定部をさらに備え、
    前記動向記録データは、前記満足度推定部により推定された満足度の情報をさらに含む
    ことを特徴とする請求項2に記載の人物動向記録装置。
  4. 生理心理学的指標の時間的な変化に基づいて、前記人物の心理状態を推定した心理状態指標を算出する心理状態推定部をさらに備え、
    前記動向記録データは、前記心理状態推定部により算出された心理状態指標をさらに含む
    ことを特徴とする請求項1、2、3のうちいずれか1項に記載の人物動向記録装置。
  5. 前記心理状態推定部は、複数の生理心理学的指標を組み合わせて心理状態指標を算出する
    ことを特徴とする請求項に記載の人物動向記録装置。
  6. 前記複数の生理心理学的指標は、前記人物が意識的にコントロール可能な生理心理学的指標と、前記人物が意識的にコントロール可能でない生理心理学的指標を含む
    ことを特徴とする請求項に記載の人物動向記録装置。
  7. 前記生理心理学的指標は、表情、笑顔度、単位時間あたりの脈拍数、単位時間あたりの瞬目数、注視度、瞳孔径、眼球運動、単位時間あたりの呼吸数、体温、発汗、血流、及び、血圧のうち少なくとも1つの項目を含む
    ことを特徴とする請求項1〜6のうちいずれか1項に記載の人物動向記録装置。
  8. 前記動画像データを解析することにより、前記人物の属性を推定する属性推定部をさらに備え、
    前記動向記録データは、前記属性推定部により推定された属性の情報をさらに含む
    ことを特徴とする請求項1〜7のうちいずれか1項に記載の人物動向記録装置。
  9. 前記動向記録データに基づいて、動向分析結果を表示する動向分析結果表示部をさらに備え、
    前記動向分析結果は、前記人物の追跡期間中に前記人物に生じた1つ以上のイベントと、前記人物の生理心理学的指標の時間的な変化とを、時間軸上に表示する情報を含む
    ことを特徴とする請求項1〜8のうちいずれか1項に記載の人物動向記録装置。
  10. 前記動向記録データに基づいて、動向分析結果を表示する動向分析結果表示部をさらに備え、
    前記動向分析結果は、複数の人物の前記動向記録データから計算された、前記生理心理学的指標及び/又は前記満足度の統計値を表示する情報を含む
    ことを特徴とする請求項1又は3に記載の人物動向記録装置。
  11. 前記動向記録データに基づいて、動向分析結果を表示する動向分析結果表示部をさらに備え、
    前記動向分析結果は、複数の人物の前記動向記録データから計算された、前記生理心理学的指標及び/又は前記関心度の統計値を表示する情報を含む
    ことを特徴とする請求項2又は3に記載の人物動向記録装置。
  12. 前記対象エリア内に複数のサブエリアが設定されており、
    前記動向分析結果は、前記サブエリアごとに計算された前記統計値を表示する情報を含む
    ことを特徴とする請求項10又は11に記載の人物動向記録装置。
  13. 前記動画像データを解析することにより、前記人物の属性を推定する属性推定部をさら
    に備え、
    前記動向記録データは、前記属性推定部により推定された属性の情報をさらに含み、
    前記動向分析結果は、前記属性ごとに計算された前記統計値を表示する情報を含む
    ことを特徴とする請求項10〜12のうちいずれか1項に記載の人物動向記録装置。
  14. 前記動向分析結果は、イベントの種類ごとに計算された前記統計値を表示する情報を含む
    ことを特徴とする請求項10〜13のうちいずれか1項に記載の人物動向記録装置。
  15. コンピュータにより、対象エリアを撮影した動画像データを取得するステップと、
    コンピュータにより前記動画像データを解析することにより、前記対象エリア内で行動する人物を検出し追跡するステップと、
    コンピュータにより前記動画像データを解析することにより、前記人物の追跡期間中に前記人物に生じたイベントを検出するステップと、
    コンピュータにより、前記追跡期間中における前記人物の生理心理学的指標の時間的な変化を検出するステップと、
    コンピュータにより、生理心理学的指標の時間的な変化に基づいて、前記人物の満足度を推定するステップと、
    コンピュータにより、少なくとも、前記人物に生じた1つ以上のイベントと、前記人物の生理心理学的指標の時間的な変化と、推定された満足度の情報とを、時間的に対応付けたデータを、前記人物の動向記録データとして生成し記憶装置に格納するステップと、
    を有することを特徴とする人物動向記録方法。
  16. コンピュータにより、対象エリアを撮影した動画像データを取得するステップと、
    コンピュータにより前記動画像データを解析することにより、前記対象エリア内で行動する人物を検出し追跡するステップと、
    コンピュータにより前記動画像データを解析することにより、前記人物の追跡期間中に前記人物に生じたイベントを検出するステップと、
    コンピュータにより、前記追跡期間中における前記人物の生理心理学的指標の時間的な変化を検出するステップと、
    コンピュータにより、生理心理学的指標の時間的な変化に基づいて、前記対象エリア内の対象に対する前記人物の関心度を推定するステップと、
    コンピュータにより、少なくとも、前記人物に生じた1つ以上のイベントと、前記人物の生理心理学的指標の時間的な変化と、推定された関心度の情報とを、時間的に対応付けたデータを、前記人物の動向記録データとして生成し記憶装置に格納するステップと、
    を有することを特徴とする人物動向記録方法。
  17. 請求項15又は16に記載の人物動向記録方法の各ステップをコンピュータに実行させるためのプログラム。
JP2017048828A 2017-03-14 2017-03-14 人物動向記録装置 Active JP6724827B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017048828A JP6724827B2 (ja) 2017-03-14 2017-03-14 人物動向記録装置
PCT/JP2017/042505 WO2018168095A1 (ja) 2017-03-14 2017-11-28 人物動向記録装置、人物動向記録方法、及びプログラム
CN201780071316.1A CN109983505B (zh) 2017-03-14 2017-11-28 人物动向记录装置、人物动向记录方法及存储介质
US16/461,912 US11106900B2 (en) 2017-03-14 2017-11-28 Person trend recording device, person trend recording method, and program
DE112017007261.1T DE112017007261T8 (de) 2017-03-14 2017-11-28 Personentrendaufzeichnungsvorrichtung, personentrendaufzeichnungsverfahren, und programm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017048828A JP6724827B2 (ja) 2017-03-14 2017-03-14 人物動向記録装置

Publications (3)

Publication Number Publication Date
JP2018151963A JP2018151963A (ja) 2018-09-27
JP2018151963A5 JP2018151963A5 (ja) 2019-03-22
JP6724827B2 true JP6724827B2 (ja) 2020-07-15

Family

ID=63523766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017048828A Active JP6724827B2 (ja) 2017-03-14 2017-03-14 人物動向記録装置

Country Status (5)

Country Link
US (1) US11106900B2 (ja)
JP (1) JP6724827B2 (ja)
CN (1) CN109983505B (ja)
DE (1) DE112017007261T8 (ja)
WO (1) WO2018168095A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020154544A (ja) * 2019-03-19 2020-09-24 日本電気株式会社 顧客情報処理装置、通信装置、顧客情報処理方法、及びプログラム
JP7251392B2 (ja) * 2019-08-01 2023-04-04 株式会社デンソー 感情推定装置
JP7227884B2 (ja) * 2019-10-10 2023-02-22 株式会社日立製作所 購買促進システムおよび購買促進方法
CN110942055A (zh) * 2019-12-31 2020-03-31 北京市商汤科技开发有限公司 展示区域的状态识别方法、装置、设备及存储介质
JP2021124958A (ja) * 2020-02-05 2021-08-30 パナソニックIpマネジメント株式会社 観客分析装置、観客分析方法、及び、コンピュータプログラム
CN111983210B (zh) * 2020-06-29 2022-04-15 北京津发科技股份有限公司 基于时间同步的空间位置和多通道人机环境数据采集、时空行为分析方法和装置
CN112487888B (zh) * 2020-11-16 2023-04-07 支付宝(杭州)信息技术有限公司 一种基于目标对象的图像采集方法及装置
JPWO2022153496A1 (ja) * 2021-01-15 2022-07-21
WO2022176774A1 (ja) * 2021-02-17 2022-08-25 株式会社Preferred Networks 解析装置、解析システム、解析方法及びプログラム
JP2022142075A (ja) * 2021-03-16 2022-09-30 サトーホールディングス株式会社 表示システム、制御装置、及び制御プログラム
JP7453181B2 (ja) * 2021-05-20 2024-03-19 Lineヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
US11887405B2 (en) * 2021-08-10 2024-01-30 Capital One Services, Llc Determining features based on gestures and scale
JP7276419B1 (ja) 2021-12-24 2023-05-18 富士通株式会社 情報処理プログラム、情報処理方法、および情報処理装置
WO2024018545A1 (ja) * 2022-07-19 2024-01-25 富士通株式会社 生成プログラム、生成方法および情報処理装置
JP7333570B1 (ja) * 2022-12-21 2023-08-25 株式会社Shift プログラム、方法、情報処理装置、システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4794846B2 (ja) * 2004-10-27 2011-10-19 キヤノン株式会社 推定装置、及び推定方法
CN101108125B (zh) * 2007-08-02 2010-06-16 无锡微感科技有限公司 一种身体体征动态监测系统
JP4338147B2 (ja) * 2007-08-02 2009-10-07 技研トラステム株式会社 商品関心度計測装置
US8539359B2 (en) * 2009-02-11 2013-09-17 Jeffrey A. Rapaport Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic
JP2013537435A (ja) * 2010-06-07 2013-10-03 アフェクティヴァ,インコーポレイテッド ウェブサービスを用いた心理状態分析
JP5822651B2 (ja) * 2011-10-26 2015-11-24 株式会社ソニー・コンピュータエンタテインメント 個体判別装置および個体判別方法
JP5899472B2 (ja) * 2012-05-23 2016-04-06 パナソニックIpマネジメント株式会社 人物属性推定システム、及び学習用データ生成装置
JP5314200B1 (ja) * 2013-02-01 2013-10-16 パナソニック株式会社 接客状況分析装置、接客状況分析システムおよび接客状況分析方法
JP6071141B2 (ja) * 2013-08-22 2017-02-01 Kddi株式会社 多数のユーザの通信履歴からイベントの発生位置を推定する装置、プログラム及び方法
US11494390B2 (en) * 2014-08-21 2022-11-08 Affectomatics Ltd. Crowd-based scores for hotels from measurements of affective response
JP6517499B2 (ja) * 2014-11-28 2019-05-22 マクセル株式会社 撮像システム
KR101648827B1 (ko) * 2015-03-11 2016-08-17 (주)중외정보기술 실시간 위치 기반 이벤트 발생 시스템 및 이를 이용한 단말 제어 방법
JP6728863B2 (ja) * 2016-03-25 2020-07-22 富士ゼロックス株式会社 情報処理システム
CN106264568B (zh) * 2016-07-28 2019-10-18 深圳科思创动实业有限公司 非接触式情绪检测方法和装置
CN106407935A (zh) * 2016-09-21 2017-02-15 俞大海 基于人脸图像和眼动注视信息的心理测试方法

Also Published As

Publication number Publication date
CN109983505A (zh) 2019-07-05
US20190332855A1 (en) 2019-10-31
JP2018151963A (ja) 2018-09-27
DE112017007261T8 (de) 2020-01-16
CN109983505B (zh) 2023-10-17
US11106900B2 (en) 2021-08-31
DE112017007261T5 (de) 2019-11-28
WO2018168095A1 (ja) 2018-09-20

Similar Documents

Publication Publication Date Title
JP6724827B2 (ja) 人物動向記録装置
US10380603B2 (en) Assessing personality and mood characteristics of a customer to enhance customer satisfaction and improve chances of a sale
Generosi et al. A deep learning-based system to track and analyze customer behavior in retail store
JP4622702B2 (ja) 映像監視装置
US10726465B2 (en) System, method and computer program product providing eye tracking based cognitive filtering and product recommendations
US20160132910A1 (en) Automatically detecting lost sales
US20160203499A1 (en) Customer behavior analysis system, customer behavior analysis method, non-transitory computer readable medium, and shelf system
US10705603B2 (en) System and method for detecting invisible human emotion in a retail environment
US8874471B2 (en) Retail loss prevention using biometric data
US10825031B2 (en) System for observing and analyzing customer opinion
US20130102854A1 (en) Mental state evaluation learning for advertising
JPWO2017115453A1 (ja) メイクアップシミュレーション支援装置、メイクアップシミュレーション支援方法およびメイクアップシミュレーション支援プログラム
JP7378625B2 (ja) 人間の社会的行動の分類を決定するための方法およびシステム
JP2024041796A (ja) 情報処理装置
JP2024021399A (ja) 画像処理システム、画像処理装置、画像処理装置の制御方法、及びプログラム
JP7259370B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
CN114766027A (zh) 信息处理方法、信息处理装置以及控制程序
EP4310760A1 (en) Display control program, display control method, and information processing apparatus
WO2024018548A1 (ja) 生成プログラム、生成方法および情報処理装置
WO2024018545A1 (ja) 生成プログラム、生成方法および情報処理装置
WO2022259865A1 (ja) 店舗運営支援装置および店舗運営支援方法
KR20230137529A (ko) 사용자 관심 분석 기반 구매 유도 시스템 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200608

R150 Certificate of patent or registration of utility model

Ref document number: 6724827

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250