JP7131587B2 - 情報処理システム、情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理システム、情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP7131587B2
JP7131587B2 JP2020148282A JP2020148282A JP7131587B2 JP 7131587 B2 JP7131587 B2 JP 7131587B2 JP 2020148282 A JP2020148282 A JP 2020148282A JP 2020148282 A JP2020148282 A JP 2020148282A JP 7131587 B2 JP7131587 B2 JP 7131587B2
Authority
JP
Japan
Prior art keywords
person
flow line
information
time
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020148282A
Other languages
English (en)
Other versions
JP2021002840A (ja
Inventor
志傑 斎藤
準 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2021002840A publication Critical patent/JP2021002840A/ja
Application granted granted Critical
Publication of JP7131587B2 publication Critical patent/JP7131587B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、情報処理システム、情報処理装置、情報処理方法およびプログラムに関する。
関連技術として、特許文献1には、監視カメラなどの固定カメラにおいて撮影された動画像を用いて人物動線の情報を生成し、顔の向きなどの方向情報を人物動線の情報に付加して表示するシステムが知られている。
特開2011-248836号公報 特開2007-003448号公報
しかしながら、特許文献1では、人物などの対象の顔向きを動線とともに表示しているだけであった。
本発明の目的は、人物などの対象の向きおよび向きに応じた時間を動線とともに表示することで、より精度の高いマーケティング情報を収集することが可能な情報処理システム、情報処理装置、情報処理方法およびプログラムを提供することである。
本発明の情報処理システムは、画像を撮像する撮像手段と、前記画像から人物を抽出し、前記人物の動線と、前記人物の位置と、当該位置における前記人物の向きと、前記人物が前記位置において前記向きを向いていた時間と、を特定する特定手段と、特定された前記位置、前記向き、および前記時間に応じて記号を、特定された前記人物の動線とともに表示する表示手段と、を備え、前記特定手段は、前記位置において前記人物が複数の向きを向いていた場合、各向きに応じた時間を特定することを特徴とする。
本発明の情報処理装置は、撮影された画像から人物を抽出し、前記人物の動線と、前記人物の位置と、当該位置における前記人物の向きと、前記人物が前記位置において前記向きを向いていた時間と、を特定する特定手段と、特定された前記位置、前記向き、および前記時間に応じて記号を、特定された前記人物の動線とともに表示させる表示制御手段と、を備え、前記特定手段は、特定した前記位置において前記人物が複数の向きを向いていた場合、各向きに応じた時間を特定することを特徴とする。
本発明の情報処理方法は、撮影された画像から人物を抽出し、前記人物の動線と、前記人物の位置と、当該位置における前記人物の向きと、前記人物が前記位置において前記向きを向いていた時間と、を特定し、特定された前記位置、前記向き、および前記時間に応じて記号を、特定された前記人物の動線とともに表示する、処理を実行し、前記特定する処理では、前記位置において前記人物が複数の向きを向いていた場合、各向きに応じた時間を特定することを特徴とする。
本発明のプログラムは、コンピュータに、撮影された画像から人物を抽出し、前記人物の動線と、前記人物の位置と、当該位置における前記人物の向きと、前記人物が前記位置において前記向きを向いていた時間と、を特定し、特定された前記位置、前記向き、および前記時間に応じて記号を、特定された前記人物の動線とともに表示する、処理を実行させ、前記特定する処理では、前記位置において前記人物が複数の向きを向いていた場合、各向きに応じた時間を特定することを特徴とする。
本発明は、人物などの対象の向きおよび向きに応じた時間を動線とともに表示することで、より精度の高いマーケティング情報を収集することができるという効果を有する。
図1は、本発明の第1の実施形態における動線表示システム1を示すブロック図である。 図2は、抽出情報テーブル1222を示す図である。 図3は、顔向きと方向を意味する記号(アルファベットA~H)との対応関係を示す図である。 図4は、動線情報テーブル1223を示す図である。 図5は、表示部13の出力例を示す図である。 図6は、サイズテーブル1224を示す図である。 図7は、画像処理部121の処理フローを示すフローチャートである。 図8は、第1の実施形態の変形例における表示部13の出力例を示す図である。 図9は、第1の実施形態の変形例における表示部13の出力例を示す図である。 図10は、第1の実施形態の変形例における表示部13の出力例を示す図である。 図11は、第1の実施形態の変形例における表示部13の出力例を示す図である。 図12は、第1の実施形態の変形例における表示部13の出力例を示す図である。 図13は、第1の実施形態の変形例における表示部13の出力例を示す図である。 図14は、第2の実施形態における動線表示システム14を示すブロック図である。 図15は、色テーブル1225を示す図である。 図16は、動線情報テーブル1226を示す図である。 図17は、表示部13の出力例を示す図である。 図18は、画像処理部121の処理フローを示すフローチャートである。 図19は、第3の実施形態における抽出情報テーブル1227を示す図である。 図20は、動線情報テーブル1228を示す図である。 図21は、表示部13の出力例を示す図である。 図22は、画像処理部121の処理フローを示すフローチャートである。 図23は、第3の実施形態の変形例における表示部13の出力例を示す図である。 図24は、第3の実施形態の変形例における表示部13の出力例を示す図である。 図25は、第4の実施形態における動線表示システム25を示すブロック図である。 図26は、速度情報テーブル1229を示す図である。 図27は、線情報テーブル12210を示す図である。 図28は、表示部13の出力例を示す図である。 図29は、画像処理部121の処理フローを示すフローチャートである。
次に、本発明の第1の実施形態について図面を参照して詳細に説明する。
図1は、本発明の第1の実施形態における動線表示システム1のブロック図である。
図1のように、本実施形態の動線表示システム1は、撮像部11、情報処理装置12および表示部13を備える。情報処理装置12は画像処理部121および記憶部122を備える。
撮像部11は、人物などの対象を撮影するカメラである。撮像部11は動画および静止画を含む画像を撮影する。本実施形態では、撮像部11は動画を撮影するものとして説明するがこれに限定されるものではない。また、本実施形態では、撮像部11であるカメラは店舗などに設置され、商品棚の前の通路を含む領域を撮影範囲として撮影するものとして説明するが、これに限定されるものではない。例えば、撮像部11であるカメラは、店舗の天井や壁、商品棚に設置される。
撮像部11は撮影範囲の画像を撮影し、画像データを画像が撮影された時間を示す撮影時間情報とともに画像処理部121へ送る。本実施形態では、撮像部11が画像データとともに撮影時間情報を画像処理部121へ送るものとして説明するが、これに限定されず、画像データが撮影時間情報を含むようにしても良い。また、本実施形態では、撮像部11が人物を対象として撮影するものとして説明するが、これに限定されるものではない。
記憶部122には、向きを特定するための情報が顔向き判定情報1221として予め格納されている。例えば、人物の正面の頭部画像、右向きの頭部画像および左向きの頭部画像などがサンプル画像として登録されている。本実施形態では、向きの一例として、対象の顔向きを特定するものとして説明するが、これに限定されるものではない。
画像処理部121は、撮像部11から受け取った画像データから人物を抽出する。画像処理部121は、抽出された人物と記憶部に格納されている顔向き判定情報1221とのマッチングを行い、抽出された人物の顔向きを特定する。さらに、画像処理部121は、画像データから、抽出された人物が位置する平面上の座標を算出し、抽出情報テーブル1222を生成して記憶部122に格納する。
図2に、抽出情報テーブル1222の具体例を示す。
抽出情報テーブル1222は、位置1222-1と撮影時間1222-2と顔向き1222-3とから構成される。
位置1222-1は、抽出された人物が位置する平面上の座標(位置情報)を示す。
撮影時間1222-2は、画像が撮影された日時(撮影時間情報)を示す。例えば、2016/03/01/9:00:00は2016年3月1日9時0分0秒を示す。本実施形態では、画像処理部121が画像データから15秒ごとに人物を検出しているが、これに限定されず、任意の時間間隔に設定可能である。
顔向き1222-3は、抽出された人物の顔向き(顔向き情報)を示す。本実施形態では、顔向きと記号とが予め対応付けられており、顔向き1222-3には各顔向きに対応する記号が格納されている。本実施形態では、顔向きに対応する記号としてアルファベットA~Hが設定されているが、これに限定されるものはない。
図3は、商品棚30および通路31を上から見た図である。
例えば、図3に示すように、商品棚30との位置関係で8つの方向が予め設定され、各方向に対してアルファベットA~Hが予め設定されている。例えば、商品棚30の前に通路31があり、通路31に存在する人物の顔向きが商品棚30に向いていて、かつ、商品棚30に対して顔向きが略垂直な場合、対応する顔向きの記号は「A」となる。ただし、アルファベットに対応する顔向きには幅があり、例えば、人物の顔向きがアルファベットAとBとの間にあり、かつ、BよりもAに近い場合に、対応する顔向きの記号を「A」とすることができる。
なお、顔向きを特定する方法は一例であり、本実施形態に限定されず、公知の方法を利用することができる。例えば、特開2001-291108号公報や特開平11-281661号公報に記載の方法が知られている。特開2001-291108号公報では、予め複数人の正面顔データを取得して平均顔を作成し、平均顔を3Dモデルに貼り合わせて任意の角度回転させた画像を生成して、入力画像と最も相関度の高い角度の画像を決定することで入力画像の顔向きを推定している。また、特開平11-281661号公報では、撮像された顔画像から肌色領域を抽出し、肌色領域から両目および口の位置と顔幅とを検出し、それらの位置関係から顔向きを推定している。
なお、本実施形態では、抽出情報テーブル1222の3つのエントリが同じ座標(X3,Y3)であり、(X3,Y3)の各エントリに対応する顔向きはいずれも同じ(「A」方向)として説明する。
画像処理部121は、抽出情報テーブル1222から動線情報テーブル1223を生成し、記憶部122に格納する。動線情報テーブル1223は、出力位置1223-1と顔向き1223-2と出力サイズ1223-3とから構成される。
出力位置1223-1は、表示部13に出力する動線の各座標を示す。本実施形態では、出力位置1223-1は基本的に位置1222-1と同じであるが、抽出情報テーブル1222において位置1222-1の座標が同じで、かつ、対応する顔向きも同じであるエントリが連続していた場合、動線情報テーブル1223では、その連続するエントリは1つに纏められている。
顔向き1223-2は出力位置1223-1の各座標に対応する顔向きを示す。本実施形態では、詳細は後述するが、顔向きを二等辺三角形の三角マークで表示部13に表示する。
出力サイズ1223-3は、顔向きを示す三角マークの大きさを示す。詳細は後述するが、三角マークの大きさは顔向きに応じた時間を示しており、その顔向きに対象が顔を向けていた時間に応じて大きさが変更される。
画像処理部121は、動線情報テーブル1223を参照し、出力位置1223-1の各座標をつなげることで抽出された人物の動線を生成し、顔向き(顔向き情報)および顔向きに応じた時間(時間情報)を意味する三角マークとともに生成された動線(動線情報)を表示部13に出力する。なお、顔向き情報は対象の向きを示す向き情報の一例である。
なお、動線の生成は公知の技術を利用することができる。例えば、特開2006-35071号公報では、カメラで撮影された映像データを画像処理し、画像処理結果から人物を抽出して抽出された人物が位置する平面上の座標を算出し、各座標をつなげることで動線データが生成されている。さらに、複数の人物が撮影されている場合は、各々の人物の位置する座標を算出する。複数の人物は画像処理により、外形、上下の服の色などで識別され、識別された人物のそれぞれにIDが付されてその後に撮影された次の画像データの画像処理を同様に行って追跡が行われ、動線データが生成される。
表示部13は、顔向きおよび顔向きに応じた時間を人物の動線とともに表示する。表示部13はディスプレイを備えた装置であれば良く、例えば、パーソナルコンピュータやタブレット端末などの携帯端末などが考えられる
次に、表示部13の出力例について説明する。
図5は、人物の顔向きと顔向きに応じた時間とが動線とともに表示された場合の例である。
顔向きおよび顔向きに応じた時間は二等辺三角形の三角マークで表示され、頂角が人物の顔向きを示す。さらに、人物がその顔向きに顔を向けていた時間に応じて三角マークの大きさが変更され、人物がその顔向きに顔を向けていた時間が長いほど大きく表示される。図5では、人物の顔向きおよび顔向きに応じた時間が動線に重ねて表示されているが、これに限定されず、人物の顔向きおよび顔向きに応じた情報が動線とともに表示されていれば良い。
本実施形態では、図6に示されるように、記憶部122が、表示する三角マークの大きさを示すサイズテーブル1224を予め格納している。画像処理部121はサイズテーブル1224を参照して表示する三角マークの大きさを変更し、表示部13に出力する。
サイズテーブル1224はエントリ数1224-1とサイズ1224-2とから構成される。
エントリ数1224-1は、抽出情報テーブル1222において人物の位置(位置1222-1の座標)と顔向き(顔向き1222-3のアルファベット)との両方が一致するエントリが何回連続しているか(エントリの連続数)を示す。また、サイズ1224-2はエントリの連続数に対応する三角マークの表示サイズを示す。エントリの連続数が「1」のときの三角マークのサイズを基準とし、ここでは標準サイズと呼ぶ。
エントリの連続数が「1」の場合、三角マークは標準サイズである1.00倍で表示される。また、エントリの連続数が「2」の場合、ある位置での顔向きが15秒以上継続されていたことを意味し、三角マークのサイズは標準サイズの1.25倍で表示される。また、エントリの連続数が「3」の場合、ある位置での顔向きが30秒以上継続されていたことを意味し、三角マークのサイズは標準サイズの1.5倍で表示される。また、エントリの連続数が「4」の場合、ある位置での顔向きが45秒以上継続されていたことを意味し、三角マークのサイズは標準サイズの1.75倍で表示される。また、エントリの連続数が「5~8」の場合、ある位置で顔向きが1分以上継続されていたことを意味し、三角マークのサイズは標準サイズの2.00倍で表示される。また、エントリの連続数が「9~12」の場合、ある位置での顔向きが2分以上継続されていたことを意味し、三角マークのサイズは標準サイズの2.50倍で表示される。また、エントリの連続数が「13以上」の場合、ある位置での顔向きが3分以上継続されていたことを意味し、三角マークのサイズは標準サイズの3.0倍で表示される。
本実施形態では、図2の抽出情報テーブル1222を参照すると、位置1222-1が(X3,Y3)であり、かつ、対応する顔向き1222-3がいずれも「A」であるエントリが3つ連続しているので、動線情報テーブル1223の出力位置1223-1の(X3,Y3)に対応するエントリの連続数は「3」となる。画像処理部121はサイズテーブル1224を参照し、出力位置1223-1の(X3,Y3)に対応する三角マークの表示サイズは標準サイズの1.50倍と特定する。
位置1222-1のその他の各座標はそれぞれ異なるため、出力位置1223-1のその他の座標に対応する連続数はそれぞれ「1」となる。画像処理部121はサイズテーブル1223を参照して、対応する三角マークの表示サイズは標準サイズと特定する。
次に、図5を参照し、表示部13に表示される動線および三角マークについて詳細に説明する。
動線情報テーブル1223における出力位置1223-1の(X1,Y1)が三角マーク32に対応し、(X2,Y2)が三角マーク33に対応し、(X3,Y3)が三角マーク34に対応し、(X4、Y4)が三角マーク35に対応し、(X5、Y5)が三角マーク36に対応する。
動線情報テーブル1223における顔向き1223-2を参照すると、出力位置1223-1の(X1,Y1)に対応する顔向きは「B」であり、「B」の方向が頂角となる二等辺三角形の三角マーク32が動線とともに表示される。出力サイズ1223-3に基づいて三角マーク32は標準サイズで表示される。
また、出力位置1223-1の(X2,Y2)に対応する顔向きは「B」であり、「B」の方向が頂角となる二等辺三角形の三角マーク33が動線とともに表示される。出力サイズ1223-3に基づいて三角マーク33は標準サイズで表示される。
また、出力位置1223-1の(X3,Y3)に対応する顔向きは「A」であり、「A」の方向が頂角となる二等辺三角形の三角マーク34が動線とともに表示される。出力サイズ1223-3に基づいて三角マーク34は標準サイズの1.50倍で表示される。
また、出力位置1223-1の(X4,Y4)に対応する顔向きは「C」であり、「C」の方向が頂角となる二等辺三角形の三角マーク35が動線とともに表示される。出力サイズ1223-3に基づいて三角マーク35は標準サイズで表示される。
また、出力位置1223-1の(X5,Y5)に対応する顔向きは「C」であり、「C」の方向が頂角となる二等辺三角形の三角マーク36が動線とともに表示される。出力サイズ1223-3に基づいて三角マーク36は標準サイズで表示される。
次に、情報処理装置12の処理フローについて説明する。図7は画像処理部121の処理を示すフローチャートである。
まず、画像処理部121は撮像部11であるカメラから画像データを受け取り(ステップS71)、画像データから人物を抽出する(ステップS72)。次に、画像処理部121は、記憶部122に予め格納されている顔向き判定情報1221を参照して、抽出された人物の顔向きを特定する(ステップS73)。次に、画像処理部121は、抽出情報テーブル1222を生成し、記憶部122に格納する(ステップS74)。次に、画像処理部121は、エントリの連続数を計算し、予め記憶部に格納されているサイズテーブル1224を参照して、動線とともに表示する三角マークの大きさを特定し、動線情報テーブル1223を生成する(ステップS75)。次に、画像処理部121は動線情報テーブル1223を参照して動線を生成し(ステップS76)、三角マークとともに動線を表示部13に出力する(ステップS77)。
なお、画像処理部121は、表示部13を介してユーザからのリクエストがあった場合に、表示部13に出力するようにしても良い。
なお、本実施形態では、二等辺三角形の三角マークを用いて顔向きを示す構成にしたが、これに限定されるものではなく、方向を意味するものであれば何でも良い。例えば、矢印などの記号でも良い。また、例えば、図3で示される方向を意味するアルファベットA~Hを、その顔向きに顔が向けられていた時間に応じて、大きさを変えて動線とともに表示するようにしても良い。
図8~12に、第1の実施形態の変形例における表示部13の出力例を示す。
図8は三角マークの代わりに矢印を用いた場合の出力例である。矢印32-1は図5の三角マーク32に対応し、矢印33-1は図5の三角マーク33に対応し、矢印34-1は図5の三角マーク34に対応し、矢印35-1は図5の三角マーク35に対応し、矢印36-1は図5の三角マーク36に対応する。
図9は三角マークの代わりに方向を意味するアルファベットを用いた場合の出力例である。アルファベット「B」32-2は図5の三角マーク32に対応し、アルファベット「B」33-2は図5の三角マーク33に対応し、アルファベット「A」34-2は図5の三角マーク34に対応し、アルファベット「C」35-2は図5の三角マーク35に対応し、アルファベット「C」36-2は図5の三角マーク36に対応する。
また、顔向きに応じて動線を色分けし、顔向きに応じた時間を色分けされた動線とともに表示するようにしても良い。
また、本実施形態では、(X3,Y3)に対応する位置の顔向き方向が「A」で一定であるものとして説明したが、ある位置における人物の顔向きが一定でない場合も考えられる。このような場合は、一定でないことを示す情報を記号など用いて動線とともに表示するようにしても良いし、複数の方向を示す三角マークを動線ともに表示するようにしても良い。また、人物が顔を向けていた時間が長い顔向きの三角マークを選択して動線とともに表示するようにしても良い。
例えば、抽出情報テーブル1222の位置1222-1が(X3,Y3)である3つのエントリに対応する顔向きがそれぞれ異なる場合、図10のように、図5の三角マーク34に代えて、顔向きが一定ないことを意味するバツマーク34-3を表示するようにしても良い。
例えば、抽出情報テーブル1222の位置1222-1が(X3,Y3)である3つのエントリに対応する顔向きが時系列で「H」「B」「A」となっていた場合、図11のように、「H」「B」「A」の3方向を意味する三角マークを重ねたもの34-4を表示するようにしても良いし、図12のように、「H」「B」「A」の3方向を意味する三角マークを左から並べたもの34-5を表示するようにしても良い。例えば、抽出情報テーブル1222の位置1222-1が(X3,Y3)である3つのエントリに対応する顔向きが時系列に「H」「H」「A」の場合、図13のように、人物が顔を向けていた時間が最も長い「H」が意味する方向のみを三角マーク34-6で表示するようにしても良い。なお、この場合、対応するエントリの連続数は「2」となるので、三角マーク34-6は標準サイズの1.25倍で表示される。
また、画像処理部121が、商品棚30の前の通路31に存在する人物の位置に応じて、顔向きおよび顔向きに応じた時間を動線とともに表示するか否かを判断する構成にしても良い。例えば、人物と商品棚30との距離が予め設定された所定値以下の場合のみ、表示部13が顔向きおよび顔向きに応じた時間を動線とともに表示するようにすることができる。また、商品棚30と人物との距離が予め設定された所定値以下、かつ、人物の顔向きが商品棚30の方向と推測される場合にのみ、表示部13が顔向きおよび顔向きに応じた時間を動線とともに表示するようにすることができる。
このように、本実施形態では、人物などの対象の向きおよび向きに応じた時間を動線とともに表示することで、より精度の高いマーケティング情報を収集することができる。
次に、本発明の第2の実施形態について説明する。
第1の実施形態では、人物がその顔向きに顔を向けていた時間に応じて三角マークの大きさを変える構成としたが、第2の実施形態では、人物がその顔向きに顔を向けていた時間に応じて三角マークの色を変更する点が異なる。その他については第1の実施形態と同様であるので、詳細な説明は省略する。
図14に、本実施形態における動線表示システム14のブロック図を示す。
動線表示システム14では、サイズテーブル1224に代えて、色テーブル1225が記憶部122に格納されている。
図15に色テーブル1225を示す。色テーブル1225はエントリ数1225-1と色1225-2とから構成される。エントリ数1225-1はエントリの連続数を示す。
色1225-2はエントリの連続数に対応する動線の色を示す。
エントリの連続数が「1」の場合、三角マークは黒色で表示される。また、エントリの連続数が「2」の場合、三角マークはグレー色で表示される。また、エントリの連続数が「3」の場合、三角マークは青色で表示される。また、エントリの連続数が「4」の場合、三角マークは黄色で表示される。また、エントリの連続数が「5~8」の場合、三角マークは緑色で表示される。また、エントリの連続数が「9~12」の場合、三角マークはオレンジ色で表示される。また、エントリの連続数が「13以上」の場合、三角マークは赤色で表示される。
画像処理部121は、抽出情報テーブル1222および色テーブル1225を参照して動線情報テーブル1226を生成し、記憶部122に格納する。
図16に本実施形態における動線情報テーブル1226を示す。
動線情報テーブル1226は出力位置1226-1と顔向き1226-2と色1226-3とから構成される。出力位置1226-1と顔向き1226-2は、第1実施形態における動線情報テーブル1223の出力位置1223-1と顔向き1223-2と同様である。本実施形態では、動線情報テーブル1223の出力サイズ1223-3に代えて色1226-3となっており、出力サイズ1223-3の「1.0倍」が色1226-3の「黒色」に対応し、出力サイズ1223-3の「1.5倍」が色1226-3の「青色」に対応している。
図17に表示部13の出力例を示す。三角マーク32~36の大きさは全て同じであるが、人物がその顔向きに顔を向けていた時間に応じて表示される色が変更されている。本実施形態においては、三角マーク32,33,35,36は黒色で表示されるが、三角マーク34は青色で表示される。
図18に、本実施形態における画像処理部121の処理フローを示す。
第1の実施形態では、ステップS75において、表示する三角マークの大きさを特定していたのに対し、本実施形態では、色テーブル1225に基づいて表示する三角マークの色を特定する(ステップS1805)。その他のステップについては同様なので、詳細な説明は省略する。
本実施形態では、第1の実施形態と同様、人物などの対象の向きおよび向きに応じた時間を動線とともに表示するため、より精度の高いマーケティング情報を収集することができる。
次に第3の実施形態について説明する。
第1および第2の実施形態では、例えば、顔向きが「A」の場合、人物が商品棚30を見ていることが分かるが、商品棚30のどの高さを見ているかまでは分からなかった。本実施形態では、人物が商品棚30を見ていると推測される場合に、顔向きおよび顔向きに応じた時間に加え、人物の視線の高さを示す視線情報も動線に加えて表示する点が異なる。
画像処理部121は、撮像部11から受け取った画像データから、抽出された人物の視線を検出し、人物の視線の高さを特定する。
本実施形態では、画像処理部121が、顔向きが「A」の場合に人物が商品棚30を見ていると判断するものとして説明するが、これに限定されない。例えば、画像処理部121が、顔向きが「A」「B」「H」のいずれかの方向の場合に、人物が商品棚30を見ていると判断するようにしても良い。
また、例えば、顔向きに関わらず、人物が抽出された全ての位置において、人物の視線の高さを特定するようにしても良い。また、商品棚30と人物との距離が予め設定された所定値以下の場合にのみ視線情報を表示するようにしても良い。また、商品棚30と人物との距離が予め設定された所定値以下、かつ、人物の顔向きが商品棚30の方向と推測される場合にのみ視線情報を表示するようにしても良い。
図19に、本実施形態における抽出情報テーブル1227を示す。
第1の実施形態の抽出情報テーブル1222と比べると、視線高さ1227-1が追加されているが、その他の要素は同様である。
本実施形態では、商品棚30が3段の棚を備えるものとして説明する。人物が商品棚30の上段の棚の高さに視線を向けた場合、視線高さ1225-1の値を「1」とする。人物が商品棚30の中段の棚の高さに視線を向けた場合、視線高さ1225-1の値を「2」とする。人物が商品棚30の下段の棚の高さに視線を向けた場合、視線高さ1225-1の値を「3」とする。
なお、図示しないが、記憶部122は、人物の視線高さと抽出情報テーブル1227の視線高さ1225-1の値との対応関係を示すテーブルを予め格納しているものとする。
画像処理部121は、抽出情報テーブル1227を参照し、動線情報テーブル1228を生成し、記憶部122に格納する。
図20に動線情報テーブル1228を示す。
動線情報テーブル1228は、出力位置1228-1と顔向き1228-2と出力サイズ1228-3と視線高さ1228-4とから構成される。出力位置1228-1と顔向き1228-2と出力サイズ1228-3は、第1の実施形態の動線情報テーブル1223の出力位置1223-1と顔向き1223-2と出力サイズ1223-3と同様である。視線高さ1228-4は、出力位置1228-1の各座標に対応する対象の視線の高さを示す。
なお、本実施形態では、抽出情報テーブル1227の位置1227-1と動線情報テーブル1228の出力位置1228-1は基本的に同じであるが、抽出情報テーブル1227において位置1227-1の座標が同じで、かつ、対応する顔向きおよび視線高さも同じエントリが連続していた場合、動線情報テーブル1228では、その連続するエントリは1つに纏められている。
図21に本実施形態における表示部13の出力例を示す。
図21では、三角マーク34に視線高さ1228-4の値である「1」が重ねて表示されている。その他については、第1の実施形態の出力例を示す図5と同様なので、詳細な説明は省略する。
次に、情報処理装置12の処理フローを示す。図22は画像処理部121の処理を示すフローチャートである。
まず、画像処理部121は撮像部11であるカメラから画像データを受け取り(ステップS2201)、画像データから人物を抽出する(ステップS2202)。次に、画像処理部121は、記憶部122に予め格納されている顔向き判定情報1221を参照して、抽出された人物の顔向きを特定する(ステップS2203)。次に、画像処理部121は人物の顔向きが商品棚30の方向か否かを判定する(ステップS2204)。具体的には、顔向き1227-3が「A」であるか否かを判定する。人物の顔向きが商品棚30の方向を向いている場合、人物の視線高さを特定する(ステップS2205)。次に、画像処理部121は、抽出情報テーブル1227を生成し、記憶部122に格納する(ステップS2206)。一方、人物の顔向きが商品棚30の方向を向いていない場合、人物の視線高さは特定せずに、抽出情報テーブル1227を生成し、記憶部122に格納する(ステップS2206)。次に、画像処理部121は、エントリの連続数を計算し、予め記憶部に格納されているサイズテーブル1223を参照して、動線情報ともに表示する三角マークの大きさを特定する(ステップS2207)。次に、画像処理部121は動線情報テーブル1228を生成し、記憶部122に格納する(ステップS2208)。次に、画像処理部121は動線情報テーブル1228を参照して動線を生成し(ステップS2209)、三角マークと視線情報とともに動線を表示部13に出力する(ステップS2210)。
本実施形態では、抽出情報テーブル1227の位置1227-1の(X3,Y3)に対応するいずれの視線高さ1227-1も「1」であるが、人物が複数の方向に視線を向けていた場合(例えば、位置1227-1の3つの(X3,Y3)に対応する視線高さがそれぞれ異なる場合)、視線高さが特定できないことを示す情報を表示するようにしても良い。また、人物が複数の方向に視線を向けていた場合、視線高さ1227-1の値の上位いくつかの値を表示するようにしても良いし、視線高さ1227-1の値の平均値を表示するようにしても良い。
図23および図24は、第3の実施形態の変形例における表示部13の出力例を示す。
例えば、抽出情報テーブル1227の3つの(X3,Y3)に対応する視線高さ1227-3の値が時系列で「3」「2」「1」と異なる場合、図23のように、視線が一定しないことを意味するバツマークを三角マークとともに表示しても良いし、図24のように、視線高さを意味する数字を時系列に左から並べて表示するようにしても良い。
本実施形態によれば、対象の向きおよび向きに応じた時間に加え、人物の視線の高さを示す視線情報も動線とともに表示することで、より精度の高いマーケティング情報を収集することができる。
次に第4の実施形態について説明する。
第1および第2の実施形態では、顔向きおよび顔向きに応じた時間を動線に付加して表示する構成であるが、本実施形態では、さらに抽出された人物の歩行速度の情報を付加して表示する点が異なる。
図25に本実施形態における動線表示システム25のブロック図を示す。
画像処理部121は、抽出情報テーブル1222を参照して速度情報テーブル1229を生成し、記憶部122に格納する。また、記憶部122には線情報テーブル12210が予め格納されている。
図26に速度情報テーブル1229を示す。速度情報テーブル1229は区間1229-1と速度1229-2とから構成される。
第1区間を(X1,Y1)から(X2,Y2)までとし、第2区間を(X2,Y2)から(X3,Y3)までとし、第3区間を(X3,Y3)から(X4,Y4)までとし、第4区間を(X4,Y4)から(X5,Y5)までとする。
画像処理部121は各区間の歩行速度を計算し、速度情報テーブル1229に格納する。
本実施形態では、図26の速度情報テーブル1229に示されるように、第1区間および第2区間の歩行速度は0.6m/sであり、第3区間の歩行速度は1.2m/sであり、第4区間の歩行速度は1.6m/sである。
図27に線情報テーブル12210を示す。
線情報テーブル12210は速度12210-1と線12210-2とから構成される。歩行速度が0.8m/s未満の場合には実線で表示され、歩行速度が0.8m/s以上1.6m/s未満の場合には破線で表示され、歩行速度が1.6m/s以上の場合には点線で表示されることが示されている。なお、表示される線の種類はこれに限定されるものではなく、太線や二重線などで良い。
図28に本実施形態における表示部13の出力例を示す。
三角マーク32から33までが第1区間に相当し、歩行速度は0.6m/sなので実線で表示されている。また、三角マーク33から34までが第2区間に相当し、歩行速度は0.6m/sなので実線で表示されている。また、三角マーク34から35までが第3区間に相当し、歩行速度が1.2m/sなので、破線で表示されている。また、三角マーク35から36までが第4区間に相当し、1.6m/sなので、点線で表示されている。
次に、本実施形態における情報処理装置12の処理フローについて説明する。図29は画像処理部121の処理を示すフローチャートである。
まず、画像処理部121は撮像部11であるカメラから画像データを受け取り(ステップS2901)、画像データから人物を抽出する(ステップS2902)。次に、画像処理部121は、記憶部122に予め格納されている顔向き判定情報1221を参照して、抽出された人物の顔向きを特定する(ステップS2903)。次に、画像処理部121は、抽出情報テーブル1222を生成し、記憶部122に格納する(ステップS2904)。次に、画像処理部121は、エントリの連続数を計算し、予め記憶部122に格納されているサイズテーブル1223を参照して、動線情報とともに表示する三角マークの大きさを特定する(ステップS2905)。次に、画像処理部121は、各区間おける人物の歩行速度を計算し(ステップS2906)、速度情報テーブル1229を生成して記憶部122に格納する(ステップS2907)。
次に、画像処理部121は、線情報テーブル12210を参照し、各区間における動線の種類を特定し(ステップS2908)、ステップS2908で特定された種類の動線を生成する(ステップS2909)。次に、画像処理部121は三角マークとともに動線を表示部13に出力する(ステップS2910)。
本実施形態では、対象の向きおよび向きに応じた時間に加えて人物の歩行速度の情報も付加して動線を表示するため、より精度の高いマーケティング情報を収集することができる。
次に第5の実施形態について説明する。
本実施形態では、第1~4の実施形態で用いられた情報が記憶部122に格納されており、ユーザからのリクエストに応じて、表示部13における出力を変更できる点が第1の実施形態と異なる。その他の構成については、第1の実施形態と同様であるため、詳細な説明は省略する。
本実施形態では、記憶部122は第1~4の実施形態で格納されていたテーブルを全て備えている。表示部13を介してユーザが表示部13における表示方法を指示すると、画像処理部121が記憶部122を参照し、ユーザのリクエストに応じた動線に関する情報を生成して表示部13に出力する。例えば、顔向きを三角マークで表示し、かつ、その顔向きに顔を向けていた時間に応じて三角マークの大きさを変えて表示したい旨のリクエストを出力部13から受け取ると、画像処理部121は、第1の実施形態における図5のような情報を表示部13に出力する。
本実施形態では、ユーザのリクエストに応じて出力情報が変更されるため、ユーザはより適切なマーケティング情報を収集することができる。
なお、第1および第2の実施形態では、顔向きおよび顔向きに応じた時間を動線に付加して表示する構成であったが、顔向きに応じた時間は表示せずに、顔向きに応じて動線の色分けをして表示するようにしても良い。例えば、顔向きと動線の色情報との対応テーブルが記憶部122に予め格納されており、その対応テーブル(顔向きと動線の色情報との対応テーブル)を参照して、顔向きに応じて、動線を色分けして表示する。
また、顔向きおよび顔向きに応じた時間は表示せずに、人物の歩行速度に応じて動線の種類を変えて表示するようにしても良い。また、人物の歩行速度に応じて動線の種類を変えて表示し、その動線に顔向きのみ付加して表示するようにしても良い。また、顔向きに応じた時間は表示せずに、顔向きおよび視線の高さを示す視線情報のみを動線に付加して表示するようにしても良い。
以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
[付記]
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
画像を撮影する撮像部と、
前記画像から対象を抽出し、前記対象の動線と前記対象の向きと当該向きに応じた時間とを特定する情報処置装置と、
前記対象の向きおよび前記向きに応じた時間を前記対象の動線とともに表示する表示部と、
を備えることを特徴とする動線表示システム。
(付記2)
前記情報処理装置は、
前記画像から対象を抽出し、前記対象の位置と前記画像の撮影時間と前記対象の向きとを特定する画像処理部と、
前記対象の位置を示す位置情報と前記撮影時間を示す撮影時間情報と前記対象の向きを示す向き情報とを対応付けて格納する記憶部と、
を備え、
前記画像処理部は、前記位置情報と前記撮影時間情報と前記向き情報とに基づいて前記対象の動線情報と前記向きに応じた時間を示す時間情報とを特定し、前記向き情報および前記時間情報を前記対象の動線情報とともに表示させることを特徴とする付記1に記載の動線表示システム。
(付記3)
前記向き情報は、前記対象が顔を向けていた時間を示すことを特徴とする付記2に記載の動線表示システム。
(付記4)
前記表示部は、前記向き情報を記号で表示し、前記時間情報に基づいて前記記号の表示を変更する付記2または3に記載の動線表示システム。
(付記5)
前記表示部は、前記向き情報に基づいて、前記記号の大きさまたは色を変更することを特徴とする付記4に記載の動線表示システム。
(付記6)
前記表示部は、前記向き情報および前記時間情報を前記対象の動線情報に重ねて表示することを特徴とする付記2ないし5のいずれかに記載の動線表示システム。
(付記7)
前記情報処理装置は、前記対象の画像から前記対象の視線の高さを示す視線情報を生成し、
前記表示部は、前記向き情報と前記時間情報と前記視線情報とを前記対象の動線情報とともに表示することを特徴とする付記2ないし6のいずれかに記載の動線表示システム。
(付記8)
前記情報処理装置は、前記対象の画像から前記対象の歩行速度を示す速度情報を生成し、
前記表示部は、前記向き情報と前記時間情報と前記速度情報とを前記対象の動線情報とともに表示することを特徴とする付記2ないし7のいずれかに記載の動線表示システム。
(付記9)
前記表示部は、前記速度情報に基づいて、前記動線情報の線の種類を変更して表示することを特徴とする付記8記載の動線表示システム。
(付記10)
前記表示部は、前記向き情報に応じて前記対象の動線情報を色分けして表示することを特徴とする付記1ないし3のいずれかに記載の動線表示システム。
(付記11)
撮影された画像から対象を抽出することと、
前記対象の動線と前記対象の向きと当該向きに応じた時間とを特定することと、
前記対象の向きおよび前記向きに応じた時間を前記対象の動線とともに表示することと、
を備えることを特徴とする動線表示方法。
(付記12)
前記特定することは、前記対象の位置を示す位置情報と前記対象の撮影時間を示す撮影時間情報と前記対象の向きを示す向き情報とに基づいて、前記対象の動線情報と前記向きに応じた時間を示す時間情報とを特定し、
前記表示することは、前記向き情報および前記時間情報を前記対象の動線情報とともに表示することを特徴とする付記11に記載の動線表示方法。
(付記13)
前記向き情報は、前記対象が顔を向けていた時間を示すことを特徴とする付記12に記載の動線表示方法。
(付記14)
コンピュータに
撮影された画像から対象を抽出する抽出ステップと、
前記対象の動線と前記対象の向きと当該向きに応じた時間とを特定する特定ステップと、
前記対象の向きおよび前記向きに応じた時間を前記対象の動線とともに表示する表示ステップと、
を実行させるためのプログラムを記録したコンピュータ読取可能なプログラム記録媒体。
(付記15)
前記特定ステップは、前記対象の位置を示す位置情報と前記対象の撮影時間を示す撮影時間情報と前記対象の向きを示す向き情報とに基づいて、前記対象の動線情報と前記向きに応じた時間を示す時間情報とを特定し、
前記表示ステップは、前記向き情報および前記時間情報を前記対象の動線情報とともに表示することを特徴とする付記14に記載のプログラム記録媒体。
(付記16)
前記向き情報は、前記対象が顔を向けていた時間を示すことを特徴とする付記15に記載のプログラム記録媒体。
この出願は、2016年3月31日に出願された日本出願特願2016-069925を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1 動線表示システム
11 撮像部
12 情報処理装置
13 表示部
14 動線表示システム
121 画像処理部
122 記憶部
1221 顔向き判定情報
1222 抽出情報テーブル
1223 動線情報テーブル
1224 サイズテーブル
1225 色テーブル
1226 動線情報テーブル
1227 抽出情報テーブル
1228 動線情報テーブル
1229 速度情報テーブル
12210 線情報テーブル
1222-1 位置
1222-2 撮影時間
1222-3 顔向き
1223-1 出力位置
1223-2 顔向き
1223-3 出力サイズ
1224-1 エントリ数
1224-2 サイズ
1225-1 エントリ数
1225-2 色
1226-1 出力位置
1226-2 顔向き
1226-3 色
1227-1 位置
1227-2 撮影時間
1227-3 顔向き
1227-4 視線高さ
1228-1 出力位置
1228-2 顔向き
1228-3 出力サイズ
1228-4 視線高さ
1229-1 区間
1229-2 速度
12210-1 速度
12210-2 線
25 動線表示システム
30 商品棚
31 通路
32~35 三角マーク
32-1~36-1 矢印
32-2~36-2 方向を意味するアルファベット
34-1 矢印
34-2 方向を意味するアルファベット
34-3 顔向きが一定ないことを意味するバツマーク
34-4 矢印
34-5 矢印
34-6 矢印

Claims (4)

  1. 画像を撮像する撮像手段と、
    前記画像から人物を抽出し、前記人物の動線と、前記人物の位置と、当該位置における前記人物の向きと、前記人物が前記位置において前記向きを向いていた時間と、を特定する特定手段と、
    特定された前記位置、前記向き、および前記時間に応じた記号を、特定された前記人物の動線とともに表示する表示手段と、
    を備え、
    前記特定手段は、前記位置において前記人物が複数の向きを向いていた場合、各向きに応じた時間を特定し、
    前記表示手段は、前記位置において前記複数の向きのそれぞれについて特定された前記時間のうち最も長い時間である向きに応じた記号を、前記人物の動線とともに表示する、
    情報処理システム。
  2. 撮影された画像から人物を抽出し、前記人物の動線と、前記人物の位置と、当該位置における前記人物の向きと、前記人物が前記位置において前記向きを向いていた時間と、を特定する特定手段と、
    特定された前記位置、前記向き、および前記時間に応じ記号を、特定された前記人物の動線とともに表示手段に表示させる表示制御手段と、
    を備え、
    前記特定手段は、特定した前記位置において前記人物が複数の向きを向いていた場合、各向きに応じた時間を特定し、
    前記表示手段は、前記位置において前記複数の向きのそれぞれについて特定された前記時間のうち最も長い時間である向きに応じた記号を、前記人物の動線とともに表示する、
    情報処理装置。
  3. 撮影された画像から人物を抽出し、
    前記人物の動線と、前記人物の位置と、当該位置における前記人物の向きと、前記人物が前記位置において前記向きを向いていた時間と、を特定し、
    特定された前記位置、前記向き、および前記時間に応じた記号を、特定された前記人物の動線とともに表示する、
    処理を実行し、
    前記特定する処理では、前記位置において前記人物が複数の向きを向いていた場合、各向きに応じた時間を特定し、
    前記表示する処理では、前記位置において前記複数の向きのそれぞれについて特定された前記時間のうち最も長い時間である向きに応じた記号を、前記人物の動線とともに表示する、
    情報処理方法。
  4. コンピュータに、
    撮影された画像から人物を抽出し、
    前記人物の動線と、前記人物の位置と、当該位置における前記人物の向きと、前記人物が前記位置において前記向きを向いていた時間と、を特定し、
    特定された前記位置、前記向き、および前記時間に応じた記号を、特定された前記人物の動線とともに表示する、
    処理を実行させ、
    前記特定する処理では、前記位置において前記人物が複数の向きを向いていた場合、各向きに応じた時間を特定し、
    前記表示する処理では、前記位置において前記複数の向きのそれぞれについて特定された前記時間のうち最も長い時間である向きに応じた記号を、前記人物の動線とともに表示する、
    プログラム。
JP2020148282A 2016-03-31 2020-09-03 情報処理システム、情報処理装置、情報処理方法およびプログラム Active JP7131587B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016069925 2016-03-31
JP2016069925 2016-03-31

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018509151A Division JP6798549B2 (ja) 2016-03-31 2017-03-23 動線表示システム、動線表示方法および動線表示プログラム

Publications (2)

Publication Number Publication Date
JP2021002840A JP2021002840A (ja) 2021-01-07
JP7131587B2 true JP7131587B2 (ja) 2022-09-06

Family

ID=59964405

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018509151A Active JP6798549B2 (ja) 2016-03-31 2017-03-23 動線表示システム、動線表示方法および動線表示プログラム
JP2020148282A Active JP7131587B2 (ja) 2016-03-31 2020-09-03 情報処理システム、情報処理装置、情報処理方法およびプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018509151A Active JP6798549B2 (ja) 2016-03-31 2017-03-23 動線表示システム、動線表示方法および動線表示プログラム

Country Status (3)

Country Link
US (2) US10740934B2 (ja)
JP (2) JP6798549B2 (ja)
WO (1) WO2017170084A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017170084A1 (ja) * 2016-03-31 2017-10-05 日本電気株式会社 動線表示システム、動線表示方法およびプログラム記録媒体
WO2019162988A1 (ja) 2018-02-20 2019-08-29 株式会社ソシオネクスト 表示制御装置、表示制御システム、表示制御方法、及びプログラム
JP7004116B2 (ja) 2019-07-19 2022-01-21 三菱電機株式会社 表示処理装置、表示処理方法及びプログラム
JP6996669B2 (ja) * 2019-10-03 2022-02-04 三菱電機株式会社 表示処理装置、表示処理方法及びプログラム
JP2023155637A (ja) * 2022-04-11 2023-10-23 株式会社日立製作所 軌跡表示装置および方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010268158A (ja) 2009-05-13 2010-11-25 Fujifilm Corp 画像処理システム、画像処理方法およびプログラム
JP2011248548A (ja) 2010-05-25 2011-12-08 Fujitsu Ltd コンテンツ決定プログラムおよびコンテンツ決定装置
JP2011248836A (ja) 2010-05-31 2011-12-08 Nomura Research Institute Ltd 滞留検出システム及びプログラム
WO2015129210A1 (ja) 2014-02-25 2015-09-03 日本電気株式会社 情報処理装置、データ分析方法、及び、記録媒体
WO2017170084A1 (ja) 2016-03-31 2017-10-05 日本電気株式会社 動線表示システム、動線表示方法およびプログラム記録媒体

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3800257B2 (ja) 1996-08-02 2006-07-26 オムロン株式会社 注目情報計測方法及び装置並びにそれを用いた各種システム
JPH1185956A (ja) * 1997-09-10 1999-03-30 Toshiba Corp 軌跡表示装置
JPH11281661A (ja) 1998-02-02 1999-10-15 Sanyo Electric Co Ltd 顔向き検出方法及びその装置
JP4476424B2 (ja) 2000-04-05 2010-06-09 本田技研工業株式会社 画像処理装置およびその方法ならびにプログラム記録媒体
US7933797B2 (en) * 2001-05-15 2011-04-26 Shopper Scientist, Llc Purchase selection behavior analysis system and method
US7349799B2 (en) * 2004-04-23 2008-03-25 Lg Electronics Inc. Apparatus and method for processing traffic information
JP2006035071A (ja) 2004-07-26 2006-02-09 Takumi Giken:Kk 所定長さ物品選別装置
US8289390B2 (en) * 2004-07-28 2012-10-16 Sri International Method and apparatus for total situational awareness and monitoring
US20060067562A1 (en) * 2004-09-30 2006-03-30 The Regents Of The University Of California Detection of moving objects in a video
JP2006221329A (ja) * 2005-02-09 2006-08-24 Toshiba Corp 行動予測装置、行動予測方法および行動予測プログラム
JP2007003448A (ja) * 2005-06-27 2007-01-11 Nippon Telegr & Teleph Corp <Ntt> 移動情報生成装置、移動情報生成方法、プログラムおよび記憶媒体
WO2008134562A2 (en) * 2007-04-27 2008-11-06 Nielsen Media Research, Inc. Methods and apparatus to monitor in-store media and consumer traffic related to retail environments
US7908237B2 (en) * 2007-06-29 2011-03-15 International Business Machines Corporation Method and apparatus for identifying unexpected behavior of a customer in a retail environment using detected location data, temperature, humidity, lighting conditions, music, and odors
US7734513B2 (en) * 2007-07-13 2010-06-08 Sunrise R&D Holdings, Llc System of tracking the real time location of shoppers, associates, managers and vendors through a communication multi-network within a store
JP4967949B2 (ja) * 2007-09-18 2012-07-04 トヨタ自動車株式会社 燃料電池車両
US8077915B2 (en) * 2007-10-12 2011-12-13 Sony Ericsson Mobile Communications Ab Obtaining information by tracking a user
JP4585580B2 (ja) * 2008-04-24 2010-11-24 東芝テック株式会社 人物動線追跡システム
JP2010002997A (ja) * 2008-06-18 2010-01-07 Toshiba Tec Corp 人物行動分析装置及び人物行動分析プログラム
JP5634266B2 (ja) * 2008-10-17 2014-12-03 パナソニック株式会社 動線作成システム、動線作成装置及び動線作成方法
US8570376B1 (en) * 2008-11-19 2013-10-29 Videomining Corporation Method and system for efficient sampling of videos using spatiotemporal constraints for statistical behavior analysis
US8239277B2 (en) * 2009-03-31 2012-08-07 The Nielsen Company (Us), Llc Method, medium, and system to monitor shoppers in a retail or commercial establishment
US8812344B1 (en) * 2009-06-29 2014-08-19 Videomining Corporation Method and system for determining the impact of crowding on retail performance
CN102395994B (zh) * 2010-03-18 2015-06-10 松下电器产业株式会社 全景图像处理装置及全景图像处理方法
JP2012038106A (ja) * 2010-08-06 2012-02-23 Canon Inc 情報処理装置、情報処理方法、およびプログラム
AU2010257454B2 (en) * 2010-12-24 2014-03-06 Canon Kabushiki Kaisha Summary view of video objects sharing common attributes
US9633328B2 (en) * 2011-11-23 2017-04-25 Shopper Scientist Llc Imputed probabilistic product location based on shopper path and transaction log data
FI20125277L (fi) * 2012-03-14 2013-09-15 Mirasys Business Analytics Oy Menetelmä, järjestely ja tietokoneohjelmatuote videoinformaation koordinoimiseksi muun mittaustiedon kanssa
US9536219B2 (en) * 2012-04-20 2017-01-03 Hand Held Products, Inc. System and method for calibration and mapping of real-time location data
JP5921329B2 (ja) * 2012-05-17 2016-05-24 キヤノン株式会社 映像処理装置、追尾物体の管理方法、および、プログラム
US9306660B2 (en) * 2012-10-22 2016-04-05 Qualcomm Technologies International, Ltd. Dynamic interactive zone driven proximity awareness system
JP2014093204A (ja) * 2012-11-05 2014-05-19 Sony Corp 音響照明装置およびプログラム
US9996221B2 (en) * 2013-12-01 2018-06-12 Upskill, Inc. Systems and methods for look-initiated communication
US20150154675A1 (en) * 2013-12-02 2015-06-04 Ebay Inc. Customer shopping help system
JP5597781B1 (ja) * 2014-03-26 2014-10-01 パナソニック株式会社 滞留状況分析装置、滞留状況分析システムおよび滞留状況分析方法
US10176683B2 (en) * 2014-09-18 2019-01-08 Honeywell International Inc. Virtual panoramic thumbnail to summarize and visualize video content in video surveillance and in connected home business
JP5915960B1 (ja) * 2015-04-17 2016-05-11 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
US10217120B1 (en) * 2015-04-21 2019-02-26 Videomining Corporation Method and system for in-store shopper behavior analysis with multi-modal sensor fusion
JP6444813B2 (ja) * 2015-06-11 2018-12-26 株式会社日立製作所 分析システム、及び、分析方法
US20170049406A1 (en) * 2015-08-18 2017-02-23 Covidien Lp Simultaneous display of user location and physiological data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010268158A (ja) 2009-05-13 2010-11-25 Fujifilm Corp 画像処理システム、画像処理方法およびプログラム
JP2011248548A (ja) 2010-05-25 2011-12-08 Fujitsu Ltd コンテンツ決定プログラムおよびコンテンツ決定装置
JP2011248836A (ja) 2010-05-31 2011-12-08 Nomura Research Institute Ltd 滞留検出システム及びプログラム
WO2015129210A1 (ja) 2014-02-25 2015-09-03 日本電気株式会社 情報処理装置、データ分析方法、及び、記録媒体
WO2017170084A1 (ja) 2016-03-31 2017-10-05 日本電気株式会社 動線表示システム、動線表示方法およびプログラム記録媒体

Also Published As

Publication number Publication date
US10740934B2 (en) 2020-08-11
US20190073810A1 (en) 2019-03-07
WO2017170084A1 (ja) 2017-10-05
JP2021002840A (ja) 2021-01-07
US11276210B2 (en) 2022-03-15
US20200402278A1 (en) 2020-12-24
JPWO2017170084A1 (ja) 2019-01-10
JP6798549B2 (ja) 2020-12-09

Similar Documents

Publication Publication Date Title
JP7131587B2 (ja) 情報処理システム、情報処理装置、情報処理方法およびプログラム
JP7151814B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6176388B2 (ja) 画像識別装置、画像センサ、画像識別方法
US10489640B2 (en) Determination device and determination method of persons included in imaging data
CN102959585A (zh) 属性确定方法、属性确定装置、程序、记录介质及属性确定系统
CN110222616B (zh) 行人异常行为检测方法、图像处理装置及存储装置
CN104615997B (zh) 一种基于多摄像机的人脸防伪方法
JP2017059945A (ja) 画像解析装置及び画像解析方法
JP6503079B2 (ja) 特定人物検知システム、特定人物検知方法および検知装置
JP7268725B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP4367010B2 (ja) システム、プログラムおよび方法
KR20200076267A (ko) 골격의 길이 정보를 이용한 제스쳐 인식 방법 및 처리 시스템
CN107231519B (zh) 视频处理装置及控制方法
JP2019029747A (ja) 画像監視システム
JP4659722B2 (ja) 人体特定領域抽出・判定装置、人体特定領域抽出・判定方法、人体特定領域抽出・判定プログラム
KR102250712B1 (ko) 전자 장치 및 제어 방법
JP6301759B2 (ja) 顔識別装置及びプログラム
JP5448952B2 (ja) 同一人判定装置、同一人判定方法および同一人判定プログラム
WO2012153868A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP7211495B2 (ja) 教師データ生成装置
JP7152651B2 (ja) プログラム、情報処理装置、及び情報処理方法
WO2021100214A1 (ja) 情報処理方法、情報処理装置、及び制御プログラム
JP2016162103A (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
JP7211496B2 (ja) 教師データ生成装置
JP6287527B2 (ja) 情報処理装置、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R151 Written notification of patent or utility model registration

Ref document number: 7131587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151