JP2020187518A - 情報出力装置、方法、及びプログラム - Google Patents

情報出力装置、方法、及びプログラム Download PDF

Info

Publication number
JP2020187518A
JP2020187518A JP2019091177A JP2019091177A JP2020187518A JP 2020187518 A JP2020187518 A JP 2020187518A JP 2019091177 A JP2019091177 A JP 2019091177A JP 2019091177 A JP2019091177 A JP 2019091177A JP 2020187518 A JP2020187518 A JP 2020187518A
Authority
JP
Japan
Prior art keywords
person
information
output
feature
appearance features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019091177A
Other languages
English (en)
Other versions
JP7423904B2 (ja
Inventor
健太郎 辻
Kentaro Tsuji
健太郎 辻
松田 裕司
Yuji Matsuda
裕司 松田
吉武 敏幸
Toshiyuki Yoshitake
敏幸 吉武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019091177A priority Critical patent/JP7423904B2/ja
Publication of JP2020187518A publication Critical patent/JP2020187518A/ja
Application granted granted Critical
Publication of JP7423904B2 publication Critical patent/JP7423904B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】特定の対象者への情報の出力であることが容易に認識できるように情報を出力する。【解決手段】撮像画像から検出される人物の各々について、外観特徴及び状態特徴を抽出し、外観特徴及び状態特徴を用いて情報を出力する対象者を特定し、対象者と対象者の周辺人物とで外観特徴を比較し、対象者は有し、周辺人物は有さない外観特徴又は外観特徴の組合せを、対象者に対して出力する情報に含める。【選択図】図4

Description

開示の技術は、情報出力装置、情報出力方法、及び情報出力プログラムに関する。
小売店舗では、万引きによる損失が大きな問題となっており、例えば保安員などの専門家に依頼して万引き防止を図っている。また、専門家による目視作業の負担軽減や見逃し防止などのために、画像認識技術を利用して自動的に不審者を検出する取り組みが始められている。
例えば、撮像手段により撮像された映像に含まれる人物に関する情報を抽出し、画面に表示する人物検索装置が提案されている。この装置では、映像に含まれる時系列の各画像に対して人物特徴情報を蓄積する蓄積手段に対して予め設定される条件に基づいて該当する人物を検索し、検索結果に対応する情報を蓄積手段により抽出する。そして、抽出した人物に対応して予め設定された人物特徴或いは行動、又は撮像手段を設けた警備ロボットの巡回位置情報を表示するための画面を生成して表示すると共に、画面に表示される情報を外部機器に出力する。
また、カメラが撮像した人物の画像と予め記憶している注意対象者の画像とを照合する顔認証照合処理を行う顔認証照合装置と、顔認証照合装置とネットワークを介して接続されているサーバ装置とを備える防犯システムが提案されている。このシステムでは、顔認証照合装置は、顔認証照合処理により、カメラが撮像した人物の画像が記憶している注意対象者の画像と一致した場合、サーバ装置に、一致した人物の撮像画像を送信する。また、サーバ装置は、顔認証照合装置が送信した画像を受信すると、予め登録されたスマートフォンに対して、ネットワークを介して、注意対象者が検知された旨をプッシュ通知する。さらに、顔認証照合装置から送信された人物の撮像画像を含む注意対象者に関する情報を提供する。
また、ランニングコストの高騰を招くことなく、万引きの検知精度を高め万引きを効果的に防止でき、プライバシー侵害の問題のおそれが無い万引き予防システムが提供されている。このシステムでは、入店した人物を撮影し、入店した人物の歩容及び着衣の特徴に基づいて人物を把握し、把握した人物のうちから、撮影手段によって撮影したデータに基づいて、不審な行動を行った人物であるか否かを判定し、不審人物を特定する。そして、特定した人物を追跡し、追跡した人物が退店する前に、追跡した人物に対して支払意志を確認する。
また、不特定多数の人が来場する場所において、ロボットによるサービスを行う対象となる人を認識し、状況に応じて来場者への情報提供、支援、更には警備、火災などに対する避難誘導などのサービスを行えるようにしたシステムが提案されている。このシステムは、撮像装置、発話装置、音声認識手段等を備えたヒューマノイド型ロボットと、撮像装置、床センサ、音声認識手段などからなる不特定多数の人間の行動を認識する行動認識センサと、データ処理装置とで構成される。このシステムでは、不特定多数の人間から行動認識センサで選択したサービス対象候補者に対し、ロボットをサービス対象候補者の能動的行為を判別できる位置に移動させる。そして、ロボットセンサによって能動的行為の判別用データを取得して、予め用意したサービス対象者の行動パターンデータと比較し、サービス対象候補者がサービス対象者か否かを判別してサービスを行う。
特開2010−257451号公報 特開2015−130155号公報 特開2016−57908号公報 特開2008−142876号公報
万引き防止などのために、画像から自動検出した不審者に対して自動的な声掛けやディスプレイでのメッセージの表示を行う場合、他のお客様に不快感を与えずに声掛けや表示を行う必要がある。
しかしながら、従来技術では、声掛けや表示などの情報を出力する対象者の周辺に他の人物が存在する場合、誰に対して情報を出力しているかが適切に伝わらない場合がある。例えば、対象者の位置に向けた声掛けの音声メッセージの出力は、対象者付近に他の人がいる場合に、どの人に対して行われたものかを容易に判断することができない。そのため、声掛けをすべき対象者本人が、自分に声を掛けられたと判断できない場合には、声掛けの効果が得られない。また、対象者以外の人にとっては、その人に関係のない声掛けが行われることになるため、意図が不明な音声を聞くことになり、不快な気持ちを与えてしまう。
上記のサービス対象候補者がサービス対象者か否かを判別する従来技術では、サービスの対象者と近い位置に人が存在する場合に、システムがどちらの人物に対してサービスを行っているかが明確にならない場合がある。また、店舗などでは通路が狭く、ロボットがサービスの対象者の前に確実に回り込むことが困難な場合もあり、上記のように、サービスの対象者が明確にならない場合が生じ易い。
一つの側面として、開示の技術は、特定の対象者への情報の出力であることが容易に認識できるように情報を出力することを目的とする。
一つの態様として、開示の技術は、撮像画像から検出された複数の人物の外観特徴を含む特徴情報を抽出する抽出部を有する。また、開示の技術は、前記抽出部により抽出された前記特徴情報に基づいて、前記撮像画像から検出された前記複数の人物のうち、情報を出力する対象である第1の人物を特定する特定部を有する。更に、開示の技術は、前記抽出部により抽出された前記外観特徴のうち、前記特定部で特定された前記第1の人物は有し、かつ第2の人物は有さない外観特徴を含む情報を出力する出力部を有する。第2の人物は、前記撮像画像から検出された前記複数の人物のうち、前記第1の人物以外の人物である。
一つの側面として、特定の対象者への情報の出力であることが容易に認識できるように情報を出力することができる、という効果を有する。
本実施形態に係る情報出力システムの概略構成を示す図である。 情報処理装置の機能ブロック図である。 人物DB(Database)の一例を示す図である。 対象者のみが有する外観特徴を含む音声メッセージの出力を説明するための図である。 出力情報DBの一例を示す図である。 本実施形態に係る情報出力装置として機能するコンピュータの概略構成を示すブロック図である。 特徴抽出処理の一例を示すフローチャートである。 対象者特定処理の一例を示すフローチャートである。 声掛け処理の一例を示すフローチャートである。 撮像装置間での人物情報の引き継ぎを説明するための図である。
以下、図面を参照して、開示の技術に係る実施形態の一例を説明する。本実施形態では、店舗内での不審者への自動的な声掛けに開示の技術に係る情報出力装置を適用する例について説明する。
図1に示すように、本実施形態に係る情報出力システム100は、情報出力装置10と、撮像装置32と、出力装置34とを含む。撮像装置32及び出力装置34の各々は、店舗内に複数設置され、情報出力装置10とネットワークを介して接続される。撮像装置32は、撮像範囲(図1中の破線で示す範囲)を撮像した映像を出力する。出力装置34は、例えば指向性を有するスピーカであり、出力される音声の到達範囲(以下、「出力範囲」という、図1中の1点鎖線で示す範囲)が特定の範囲に限定されるように音声を出力する。図1に示すように、撮像装置32及び出力装置34の各々は、撮像装置32の撮像範囲内に、出力装置34の出力範囲が含まれるように配置する。
情報出力装置10は、機能的には、図2に示すように、抽出部12と、特定部14と、出力部16とを含む。また、情報出力装置10の所定の記憶領域には、人物DB(Database)22と、出力情報DB24とが記憶される。
抽出部12は、撮像装置32から出力された映像が入力されると、映像をフレーム単位の撮像画像に分解し、各撮像画像から人物を検出する。人物の検出には、例えばDPM(Deformable Part Models)など一般的な手法を用いることができる。抽出部12は、現在の時刻以前に入力された撮像画像及び人物の追跡結果を利用して、過去の撮像画像から検出された人物と現在の撮像画像から検出された人物との対応付けを行うことで、人物の追跡を行う。人物の追跡には、例えばKCF(Kernelized Correlation Filters)などを利用することができる。
抽出部12は、過去の撮像画像から検出された人物と対応付けができた人物、すなわち追跡できた人物に対しては、その過去の人物に付与されている人物IDと同一の人物IDを付与する。また、抽出部12は、過去の撮像画像から検出された人物と対応付けができなかった人物、すなわち追跡ができなかった人物に対しては、新規の人物IDを付与する。
また、抽出部12は、撮像画像から検出した人物の各々について、外観特徴及び状態特徴を抽出する。なお、以下では、外観特徴と状態特徴とを区別なく説明する場合、単に「特徴量」という。
外観特徴とは、人物の性別、服装の種類、服装の色、帽子の有無、眼鏡の有無、ひげの有無など、人物の外観に関する特徴として、周囲から認識可能な特徴である。抽出部12は、外観特徴を、例えば、ディープラーニングなどの手法で人物の持ち物などをクラス分類することにより抽出する。
状態特徴は、移動速度、移動方向、顔向き等の人物の動きや、人物の位置など、人物の状態を示す特徴である。抽出部12は、例えば、人物の所定点(例えば、足元の点)の撮像画像上での座標位置と、予めキャリブレーションしておいた撮像装置32の位置及び姿勢とに基づいて算出した3次元の世界座標系のx,y座標を、人物の位置として抽出する。また、抽出部12は、複数時刻の撮像画像における人物の位置の変化から、移動速度及び移動方向を抽出する。また、抽出部12は、検出した人物の撮像画像上の領域内から、Viola-Jonesの手法などで人物の顔を抽出する。そして、抽出部12は、様々な角度の顔画像を予め学習させておき、撮像画像から抽出した顔画像と学習した結果とを比較して最も近い角度を顔向きとして抽出する。
なお、外観特徴は、後述する声掛けの対象者を周辺人物と区別するために用いる特徴であり、外観特徴及び状態特徴は、対象者を特定するために用いる特徴である。本実施形態では、一例として、万引きや強盗などの不正行為を行いそうな不審者を対象者とする。不審者の場合、全身の服装の色や形、所持品とその位置、顔の向きなどに特徴が現れる傾向があるため、これらの特徴を特定可能な特徴量を外観特徴として抽出すればよい。なお、外観特徴及び状態特徴は本実施形態の例に限定されず、他の特徴を採用してもよい。
抽出部12は、撮像画像から検出した人物毎に抽出した特徴量を人物DB22に記憶する。図3に、人物DB22の一例を示す。図3の例では、人物DB22には、人物毎に付与された、人物の識別情報である「人物ID」に対応付けて、「対象特定結果」、「外観特徴」、及び「状態特徴」が人物情報として記憶されている。「状態特徴」は、時刻毎に「データ0」、「データ1」、・・・として複数記憶される。「対象特定結果」は、後述する特定部14による対象者か否かの特定結果である。
今回の撮像画像から検出された人物は、追跡により前時刻の撮像画像から検出された人物と対応付けが行われている。そのため、抽出部12は、人物DB22に既に同じ人物IDが記憶されている場合は、今回抽出した特徴量を、同一の人物IDについて記憶済みの特徴量の最大のデータ番号を1つ進めたデータ番号に対応付けて記憶する。また、抽出部12は、新規の人物IDを付与した場合には、新規の人物IDに対応する新たな行を設け、データ0に対応付けて、抽出した特徴量を記憶する。
特定部14は、抽出部12により抽出された外観特徴及び状態特徴の少なくとも一方に基づいて、撮像画像から検出された人物のうち、情報を出力する対象者を特定する。具体的には、特定部14は、撮像画像から検出される人物の位置、顔向き、移動速度、及び外観特徴の少なくとも1つが、対象者の特徴として予め定めた条件を満たす人物を対象者として特定する。
対象者として不審者を特定する場合の具体例としては、例えば、特定部14は、人物DB22に記憶された人物情報毎に、外観特徴が、例えば、黒い服、サングラス、マスク、帽子等を着用しているなどの予め定めた条件に一致を示しているか否かにより特定する。また、例えば、特定部14は、状態特徴に含まれる複数時刻分の人物の位置の変化が、同一範囲内を往復していることや、状態特徴に含まれる顔向きの変化が、所定時間内に所定回数以上左右に振れていることを示しているかなどにより特定することもできる。また、特定部14は、顔向きの時間変化と移動方向とに基づいて、移動方向以外の方向を注目している(顔が向いている)人物を不審者として特定してもよい。
上記のように、状態特徴の時間変化に基づいて対象者を特定する場合など、所定時間分の特徴量を総合して対象者を特定するため、特定部14は、人物DB22に人物情報が記憶されてから所定時間経過した人物から順に、対象者か否かを特定するようにしてもよい。さらに、対象者の特定は、時間の経過により人物DB22に蓄積される人物情報が増加することで精度が向上するため、一定時間毎に実施する。そのため、特定部14は、人物DB22に記憶された人物情報が示す人物のうち、初期検出時刻(「データ0」の「時刻」)から一定時間経過している人物、又は、前回の特定処理から一定時間経過した人物を抽出して、特定処理を実施してもよい。前回の特定処理から一定時間経過したか否かは、人物ID毎に特定処理の時刻を記録しておき、その時刻からの経過時間で判断すればよい。
特定部14は、対象者か否かの特定結果を、人物DB22の各人物IDに対応付けて「対象特定結果」欄に書き込む。例えば、特定部14は、その人物IDが示す人物が対象者として特定された場合には、対象特定結果として“1”を書き込み、対象者として特定されなかった場合には“0”を書き込む。
出力部16は、特定部14により対象者であると特定された人物が、出力範囲に侵入した場合に、声掛けの音声メッセージが出力装置34から出力されるように制御する。この際、出力部16は、抽出部12により抽出された外観特徴のうち、特定部14で特定された対象者は有し、対象者の周辺に存在する周辺人物は有さない外観特徴を声掛けの音声メッセージに含める。単独の外観特徴で対象者のみが有する特徴がない場合には、対象者のみが有する外観特徴の組合せを声掛けの音声メッセージに含めてもよい。また、出力部16は、対象者が侵入した出力範囲に存在する対象者以外の人物を周辺人物として特定する。
具体的には、出力部16は、人物DB22に記憶されている人物情報のうち、特徴量の最新データの時刻が現在時刻から一定時間内の人物情報を、現在店舗内にいる人物の人物情報として抽出する。出力部16は、抽出した人物情報のうち、「対象特定結果」が“1”の人物情報、すなわち、対象者として特定された人物の人物情報の状態特徴に含まれる「位置」を抽出する。出力部16は、抽出した位置と、出力装置34の設置位置及び出力強度等から予め定まる出力範囲とを比較し、対象者が出力範囲に侵入したか否かを判定する。
また、出力部16は、人物DB22に記憶された人物情報から、最新の状態特徴に含まれる「位置」が出力範囲に含まれる人物情報が示す人物を、対象者の周辺人物として特定する。なお、出力部16は、現在店舗内にいる人物の人物情報として抽出された人物情報に含まれる「位置」と対象者の「位置」とから、対象者と各人物との間の距離を算出し、その距離が所定値以内の人物を周辺人物として特定してもよい。
また、出力部16は、声掛けの音声メッセージの出力開始から終了までの間に、出力範囲の外に出ることが予測される人物を周辺人物から除外してもよい。また、出力部16は、声掛けの音声メッセージの出力開始から終了までの間に、出力範囲に侵入することが予測される人物を周辺人物に追加してもよい。
例えば、出力部16は、人物情報に含まれる「位置」の時間変化から求められる移動速度や、「移動方向」などを利用して、現在から声掛けが終了する数秒後の各人物の位置を予測する。そして、出力部16は、予測した各人物の位置を出力範囲と比較したり、対象者の位置との距離を算出したりすることにより、周辺人物として特定するか否かを判定してもよい。
出力部16は、図4に示すように、対象者及び周辺人物(図4の例では、人物A、B、C)の各々の人物情報に含まれる「外観特徴」を比較し、対象者のみの外観特徴を特定する。図4の例では、外観特徴として、「上着(の色)」、「ズボン(の色)」、及び「性別」が用いられている。このうち、「ズボン:黒」及び「性別:男」は、対象者のみが有する外観特徴ではないが、「上着:赤」については、対象者のみが有する外観特徴である。
また、出力部16は、1つの外観特徴の種類のみで、対象者のみが有する外観特徴を特定できない場合には、複数の種類の外観特徴の組合せで、対象者のみが有するものを特定する。例えば、図4の例で、人物Aも「上着:赤」の外観特徴を有しているとする。この場合、外観特徴「上着:赤」のみでは、対象者と人物Aとを区別することができないが、外観特徴「上着:赤」かつ「性別:男」であれば、対象者のみが有する外観特徴の組合せとなる。
出力部16は、特定した対象者のみが有する外観特徴又は外観特徴の組合せと、出力情報DB24に記憶された情報とに基づいて、声掛けの音声メッセージを生成する。
図5に、出力情報DB24の一例を示す。図5の例では、出力情報DB24は、テンプレートテーブル24Aと、挿入内容テーブル24Bとを含む。テンプレートテーブル24Aは、声掛けの目的に応じた音声メッセージのテンプレートが記憶されたテーブルである。図5の例では、テンプレートテーブル24Aには、テンプレートの識別情報である「ID」に対応付けて、複数の「テンプレート」が記憶されている。テンプレートテーブル24Aに記憶された各テンプレートのXXXXXXX部分には、対象者の外観特徴に応じた内容が挿入される。挿入内容テーブル24Bには、「外観特徴」と、その外観特徴に応じてテンプレートのXXXXXXX部分に挿入するための「挿入内容」とが対応付けて記憶されている。
出力部16は、挿入内容テーブル24Bから、特定した対象者のみが有する外観特徴に対応する挿入内容を取得し、テンプレートテーブル24Aから選択したテンプレートに、取得した挿入内容を挿入して、声掛けの音声メッセージを生成する。テンプレートテーブル24Aからのテンプレートの選択は、ランダムに選択してもよいし、対象者の位置(例えば売り場)に応じたテンプレートを選択するなど、所定のルールで選択してもよい。
例えば、上記の図4の例で、対象者のみが有する外観特徴として「上着:赤」が特定された場合、「赤い上着のお客さま、棚の商品は割れ易いのでお気を付けください。」のようなメッセージが生成される。また、対象者のみが有する外観特徴の組合せとして「上着:赤」かつ「性別:男性」が特定された場合、「赤い上着の男性のお客さま、探している商品がありましたら店員までご連絡ください。」のようなメッセージが生成される。
出力部16は、対象者が存在する出力範囲に対応する出力装置34を指定して、生成した声掛けの音声メッセージを出力する。これにより、指定された出力装置34から声掛けの音声メッセージが出力される。図4に示すように、出力される音声メッセージには、対象者のみが有する外観特徴が含まれているため、音声メッセージを聞いた対象者は、出力された音声メッセージが自分に対するメッセージであることを認識することができる。また、周辺人物は、音声メッセージに含まれる外観特徴が自分に当てはまらないため、自分へのメッセージではないことを認識することができる。
情報出力装置10は、例えば図6に示すコンピュータ40で実現することができる。コンピュータ40は、CPU(Central Processing Unit)41と、一時記憶領域としてのメモリ42と、不揮発性の記憶部43とを備える。また、コンピュータ40は、入力部、表示部等の入出力装置44と、記憶媒体49に対するデータの読み込み及び書き込みを制御するR/W(Read/Write)部45とを備える。また、コンピュータ40は、インターネット等のネットワークに接続される通信I/F(Interface)46を備える。CPU41、メモリ42、記憶部43、入出力装置44、R/W部45、及び通信I/F46は、バス47を介して互いに接続される。
記憶部43は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部43には、コンピュータ40を、情報出力装置10として機能させるための情報出力プログラム50が記憶される。情報出力プログラム50は、抽出プロセス52と、特定プロセス54と、出力プロセス56とを有する。また、記憶部43は、人物DB22及び出力情報DB24の各々を構成する情報が記憶される情報記憶領域60を有する。
CPU41は、情報出力プログラム50を記憶部43から読み出してメモリ42に展開し、情報出力プログラム50が有するプロセスを順次実行する。CPU41は、抽出プロセス52を実行することで、図2に示す抽出部12として動作する。また、CPU41は、特定プロセス54を実行することで、図2に示す特定部14として動作する。また、CPU41は、出力プロセス56を実行することで、図2に示す出力部16として動作する。また、CPU41は、情報記憶領域60から情報を読み出して、人物DB22及び出力情報DB24の各々をメモリ42に展開する。これにより、情報出力プログラム50を実行したコンピュータ40が、情報出力装置10として機能することになる。なお、プログラムを実行するCPU41はハードウェアである。
なお、情報出力プログラム50により実現される機能は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。
次に、本実施形態に係る情報出力システム100の作用について説明する。情報出力システム100の稼動中において、撮像装置32により撮像された映像が情報出力装置10に入力される。そして、情報出力装置10において、図7に示す特徴抽出処理、図8に示す対象者特定処理、及び図9に示す声掛け処理が並行して実行される。なお、特徴抽出処理、対象者特定処理、及び声掛け処理は、開示の技術の情報出力方法の一例である。以下、特徴抽出処理、対象者特定処理、及び声掛け処理の各々について詳述する。
まず、図7に示す特徴抽出処理について説明する。
ステップS12で、抽出部12が、撮像画像を取得したか否かを判定する。撮像装置32から映像が入力されている場合、抽出部12が、入力された映像をフレーム単位の撮像画像に分解し、1フレーム分の撮像画像を取得し、ステップS14へ移行する。映像が入力されていない場合には、本ステップの判定を繰り返す。
ステップS14では、抽出部12が、取得した撮像画像から、例えばDPMなどの手法を用い人物を検出する。
次に、ステップS16で、抽出部12が、現在の時刻以前に入力された撮像画像及び人物の追跡結果を利用して、過去の撮像画像から検出された人物と現在の撮像画像から検出された人物との対応付けを行うことで、人物の追跡を行う。抽出部12は、過去の撮像画像から検出された人物と対応付けができた人物に対して、その過去の人物に付与されている人物IDと同一の人物IDを付与する。また、抽出部12は、過去の撮像画像から検出された人物と対応付けができなかった人物に対しては、新規の人物IDを付与する。
次に、ステップS18で、抽出部12が、撮像画像から検出した人物の各々について、人物の性別、服装の種類、服装の色、帽子の有無、眼鏡の有無、ひげの有無などの外観特徴を抽出する。
次に、ステップS20で、抽出部12が、撮像画像から検出した人物の各々について、人物の移動速度、移動方向、顔向き等の人物の動きや、人物の位置などの状態特徴を抽出する。
次に、ステップS22で、抽出部12が、人物DB22を更新する。具体的には、抽出部12が、追跡できた人物については、上記ステップS14で付与された人物IDと同一の人物IDについて記憶済みの特徴量の最大のデータ番号を1つ進めたデータ番号に対応付けて、上記ステップS18及びS20で抽出した特徴量を記憶する。また、抽出部12は、新規の人物については、上記ステップS14で付与された人物IDに対応する新たな行を設け、データ0に対応付けて、上記ステップS18及びS20で抽出した特徴量を記憶する。そして、処理はステップS12に戻る。
次に、図8に示す対象者特定処理について説明する。
ステップS32で、特定部14が、人物DB22に記憶されている人物情報を、先頭から順に1つ選択する。
次に、ステップS34で、特定部14が、選択した人物情報について、前回の特定処理から所定時間を経過しているか否かを判定する。所定時間を経過している場合には、ステップS36へ移行し、所定時間を経過していない場合には、ステップS32に戻る。
ステップS36では、特定部14が、選択した人物情報に含まれる特徴量が、対象者の特徴として予め定めた条件を満たすか否かにより、選択した人物情報が示す人物が対象者か否かを特定する。
次に、ステップS38で、特定部14が、上記ステップS36において、上記ステップS32で選択した人物情報が示す人物が対象者であると特定した場合には、人物DB22の該当の人物IDに対応付けて「対象特定結果」欄に“1”を書き込む。また、特定部14は、上記ステップS32で選択した人物情報が示す人物が対象者ではないと特定した場合には、人物DB22の該当の人物IDに対応付けて「対象特定結果」欄に“0”を書き込む。そして、処理はステップS32に戻る。
次に、図9に示す声掛け処理について説明する。
ステップS42で、出力部16が、人物DB22に記憶されている人物情報のうち、特徴量の最新データの時刻が現在時刻から一定時間内の人物情報を、現在店舗内にいる人物の人物情報、すなわち処理対象の人物情報として抽出する。
次に、ステップS44で、出力部16が、上記ステップS42で抽出した人物情報から1つの人物情報を選択する。
次に、ステップS46で、出力部16が、上記ステップS44で選択した人物情報の「対象特定結果」が“1”か否かを判定することにより、選択した人物情報が示す人物が対象者(ここでは、不審者)か否かを判定する。対象者の場合には、ステップS48へ移行し、対象者ではない場合には、ステップS56へ移行する。
ステップS48では、出力部16が、上記ステップS44で選択した人物情報の状態特徴に含まれる「位置」と、出力装置34の設置位置及び出力強度等から予め定まる出力範囲とを比較し、対象者が出力範囲に侵入したか否かを判定する。対象者が出力範囲に侵入した場合には、ステップS50へ移行し、侵入していない場合には、ステップS56へ移行する。
ステップS50では、出力部16が、上記ステップS42で抽出した人物情報から、最新の状態特徴における「位置」が出力範囲に含まれる人物情報が示す人物を、対象者の周辺人物として特定する。また、出力部16が、声掛けの音声メッセージの出力開始から終了までの間に、出力範囲の外に出ることが予測される人物を周辺人物から除外し、出力範囲に侵入することが予測される人物を周辺人物に追加する。
次に、ステップS52で、出力部16が、対象者及び周辺人物の各々の人物情報に含まれる「外観特徴」を比較し、対象者のみが有する外観特徴又は外観特徴の組合せを特定する。
次に、ステップS54で、出力部16が、出力情報DB24の挿入内容テーブル24Bから、上記ステップS52で特定した対象者のみが有する外観特徴に対応する挿入内容を取得する。また、出力部16は、テンプレートテーブル24Aから選択したテンプレートに、取得した挿入内容を挿入して、声掛けの音声メッセージを生成する。そして、出力部16は、対象者が存在する出力範囲に対応する出力装置34を指定して、生成した声掛けの音声メッセージを出力する。これにより、指定された出力装置34から声掛けの音声メッセージが出力される。
次に、ステップS56で、出力部16が、上記ステップS42で抽出した人物情報を全て選択済みか否かを判定する。未選択の人物情報が存在する場合にはステップS44に戻り、全て選択済みの場合には、ステップS42に戻る。
以上説明したように、本実施形態に係る情報出力システムによれば、情報出力装置が、声掛けの対象者を特定し、その対象者のみが有し、対象者の周辺人物は有さない外観特徴を声掛けの音声メッセージに含めて出力する。これにより、音声メッセージを聞いた対象者は、出力された音声メッセージが自分に対するメッセージであることを、周辺人物は、自分へのメッセージではないことを容易に認識することができる。
なお、上記実施形態では、不審者に対して音声メッセージによる声掛けを行う例について説明したが、これに限定されない。例えば、対象者に対する情報の出力は、ディスプレイへのメッセージの表示等で行ってもよい。この場合、ディスプレイを視認可能な範囲を出力範囲として、対象者の出力範囲への侵入の判定や、対象者の周辺人物の特定等を行えばよい。
また、上記実施形態では、不審者を対象者とする場合について説明したが、これに限定されない。本実施形態は、不特定多数の人が存在する場所において、特定の人物に情報を出力したい場合に有効である。例えば、店舗で商品の検討したり、駅などの施設で行き先等を探したりしている人物を、動きや視線の情報等を用いて対象者として特定し、販売促進のためのメッセージや、案内などのメッセージを出力することもできる。
また、上記実施形態では、図1において、1つの撮像装置の撮像範囲から特定された対象者に、その撮像範囲に対応する出力範囲内において声掛けの音声メッセージを出力する場合について示しているが、これに限定されない。例えば、図10に示すように、ある撮像装置の撮像画像から検出された人物を、その人物の移動方向、移動速度、撮像装置の配置などに基づいて、他の撮像装置の撮像画像において追跡し、人物DBに記憶された人物情報も引き継ぐようにしてもよい。この場合、対象者が検出された撮像範囲に対応する出力範囲以外の出力範囲で声掛けの音声メッセージを出力することができる。これにより、例えば、周辺人物の少ない出力範囲に対象者が侵入した際に声掛けの音声メッセージを出力するなど、対象者に対する情報の出力として、より効果的な方法を採用することができる。
また、人物と撮像装置との位置関係によっては、人物の下半身が棚の後ろに隠れるなど、人物の一部の外観特徴が抽出できない場合がある。その場合は、対象者及び周辺人物の各々から抽出することができた外観特徴のみを利用して、対象者のみが有する外観特徴を特定するようにしてもよい。
また、出力範囲が設定されている場所の特性により、利用する外観特徴を変更してもよい。具体的には、出力範囲に存在する人物の多くが有する外観特徴が予め想定される場合には、その外観特徴以外の外観特徴を利用するようにしてもよい。例えば、女性客が多いと想定される化粧品売り場に設定されている出力範囲においては、外観特徴として性別以外を利用するなどとすることができる。また、時間帯に応じて利用する外観特徴を変更してもよい。
また、上記実施形態では、情報出力プログラムが記憶部に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD−ROM、DVD−ROM、USBメモリ等の記憶媒体に記憶された形態で提供することも可能である。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
撮像画像から検出された複数の人物の外観特徴を含む特徴情報を抽出する抽出部と、
前記抽出部により抽出された前記特徴情報に基づいて、前記撮像画像から検出された前記複数の人物のうち、情報を出力する対象である第1の人物を特定する特定部と、
前記抽出部により抽出された前記外観特徴のうち、前記特定部で特定された前記第1の人物は有し、かつ、前記撮像画像から検出された前記複数の人物のうち、前記第1の人物以外の第2の人物は有さない外観特徴を含む情報を出力する出力部と、
を含む情報出力装置。
(付記2)
前記出力部は、前記第1の人物は有し、前記第2の人物は有さない外観特徴の組合せを含む情報を出力する付記1に記載の情報出力装置。
(付記3)
前記出力部は、出力する情報の到達範囲に前記第1の人物が侵入した場合に、前記情報を出力する付記1又は付記2に記載の情報出力装置。
(付記4)
前記出力部は、出力する情報の到達範囲に存在する人物を前記第2の人物として特定する付記1〜付記3のいずれか1項に記載の情報出力装置。
(付記5)
前記特徴情報が前記複数の人物の各々の位置及び動きを示す状態特徴を含む場合、前記出力部は、前記状態特徴に基づいて、前記情報の出力開始から終了までの間に、前記到達範囲の外に出ることが予測される人物を前記第2の人物から除外し、前記情報の出力開始から終了までの間に、前記到達範囲に侵入することが予測される人物を前記第2の人物に追加する付記4に記載の情報出力装置。
(付記6)
前記特徴情報が前記複数の人物の各々の位置及び動きを示す状態特徴を含む場合、前記出力部は、複数種類の前記外観特徴のうち、前記状態特徴に含まれる前記第1の人物の位置に応じて、利用する外観特徴を変更する付記1〜付記5のいずれか1項に記載の情報出力装置。
(付記7)
前記外観特徴は、前記第1の人物及び前記第2の人物の性別、服装の種類、服装の色、帽子の有無、眼鏡の有無、ひげの有無の少なくとも1つを含む付記1〜付記6のいずれか1項に記載の情報出力装置。
(付記8)
前記特定部は、前記撮像画像から検出される人物の位置、顔向き、移動速度、及び外観特徴の少なくとも1つが、前記第1の人物の特徴として予め定めた条件を満たす人物を前記第1の人物として特定する付記1〜付記7のいずれか1項に記載の情報出力装置。
(付記9)
撮像画像から検出された複数の人物の外観特徴を含む特徴情報を抽出し、
抽出した前記特徴情報に基づいて、前記撮像画像から検出された前記複数の人物のうち、情報を出力する対象である第1の人物を特定し、
抽出した前記外観特徴のうち、特定した前記第1の人物は有し、かつ、前記撮像画像から検出された前記複数の人物のうち、前記第1の人物以外の第2の人物は有さない外観特徴を含む情報を出力する
ことを含む処理をコンピュータが実行する情報出力方法。
(付記10)
前記第1の人物は有し、前記第2の人物は有さない外観特徴の組合せを含む情報を出力する付記9に記載の情報出力方法。
(付記11)
出力する情報の到達範囲に前記第1の人物が侵入した場合に、前記情報を出力する付記9又は付記10に記載の情報出力方法。
(付記12)
出力する情報の到達範囲に存在する人物を前記第2の人物として特定する付記9〜付記11のいずれか1項に記載の情報出力方法。
(付記13)
前記特徴情報が前記複数の人物の各々の位置及び動きを示す状態特徴を含む場合、前記状態特徴に基づいて、前記情報の出力開始から終了までの間に、前記到達範囲の外に出ることが予測される人物を前記第2の人物から除外し、前記情報の出力開始から終了までの間に、前記到達範囲に侵入することが予測される人物を前記第2の人物に追加する付記12に記載の情報出力方法。
(付記14)
前記特徴情報が前記複数の人物の各々の位置及び動きを示す状態特徴を含む場合、複数種類の前記外観特徴のうち、前記状態特徴に含まれる前記第1の人物の位置に応じて、利用する外観特徴を変更する付記9〜付記13のいずれか1項に記載の情報出力方法。
(付記15)
前記外観特徴は、前記第1の人物及び前記第2の人物の性別、服装の種類、服装の色、帽子の有無、眼鏡の有無、ひげの有無の少なくとも1つを含む付記9〜付記14のいずれか1項に記載の情報出力方法。
(付記16)
前記撮像画像から検出される人物の位置、顔向き、移動速度、及び外観特徴の少なくとも1つが、前記第1の人物の特徴として予め定めた条件を満たす人物を前記第1の人物として特定する付記9〜付記15のいずれか1項に記載の情報出力方法。
(付記17)
撮像画像から検出された複数の人物の外観特徴を含む特徴情報を抽出し、
抽出した前記特徴情報に基づいて、前記撮像画像から検出された前記複数の人物のうち、情報を出力する対象である第1の人物を特定し、
抽出した前記外観特徴のうち、特定した前記第1の人物は有し、かつ、前記撮像画像から検出された前記複数の人物のうち、前記第1の人物以外の第2の人物は有さない外観特徴を含む情報を出力する
ことを含む処理をコンピュータに実行させるための情報出力プログラム。
(付記18)
前記第1の人物は有し、前記第2の人物は有さない外観特徴の組合せを含む情報を出力する付記17に記載の情報出力プログラム。
(付記19)
出力する情報の到達範囲に前記第1の人物が侵入した場合に、前記情報を出力する付記17又は付記18に記載の情報出力プログラム。
(付記20)
撮像画像から検出された複数の人物の外観特徴を含む特徴情報を抽出し、
抽出した前記特徴情報に基づいて、前記撮像画像から検出された前記複数の人物のうち、情報を出力する対象である第1の人物を特定し、
抽出した前記外観特徴のうち、特定した前記第1の人物は有し、かつ、前記撮像画像から検出された前記複数の人物のうち、前記第1の人物以外の第2の人物は有さない外観特徴を含む情報を出力する
ことを含む処理をコンピュータに実行させるための情報出力プログラムを記憶した記憶媒体。
10 情報出力装置
12 抽出部
14 特定部
16 出力部
22 人物DB
24 出力情報DB
24A テンプレートテーブル
24B 挿入内容テーブル
32 撮像装置
34 出力装置
40 コンピュータ
41 CPU
42 メモリ
43 記憶部
49 記憶媒体
50 情報出力プログラム
100 情報出力システム

Claims (10)

  1. 撮像画像から検出された複数の人物の外観特徴を含む特徴情報を抽出する抽出部と、
    前記抽出部により抽出された前記特徴情報に基づいて、前記撮像画像から検出された前記複数の人物のうち、情報を出力する対象である第1の人物を特定する特定部と、
    前記抽出部により抽出された前記外観特徴のうち、前記特定部で特定された前記第1の人物は有し、かつ、前記撮像画像から検出された前記複数の人物のうち、前記第1の人物以外の第2の人物は有さない外観特徴を含む情報を出力する出力部と、
    を含む情報出力装置。
  2. 前記出力部は、前記第1の人物は有し、前記第2の人物は有さない外観特徴の組合せを含む情報を出力する請求項1に記載の情報出力装置。
  3. 前記出力部は、出力する情報の到達範囲に前記第1の人物が侵入した場合に、前記情報を出力する請求項1又は請求項2に記載の情報出力装置。
  4. 前記出力部は、出力する情報の到達範囲に存在する人物を前記第2の人物として特定する請求項1〜請求項3のいずれか1項に記載の情報出力装置。
  5. 前記特徴情報が前記複数の人物の各々の位置及び動きを示す状態特徴を含む場合、前記出力部は、前記状態特徴に基づいて、前記情報の出力開始から終了までの間に、前記到達範囲の外に出ることが予測される人物を前記第2の人物から除外し、前記情報の出力開始から終了までの間に、前記到達範囲に侵入することが予測される人物を前記第2の人物に追加する請求項4に記載の情報出力装置。
  6. 前記特徴情報が前記複数の人物の各々の位置及び動きを示す状態特徴を含む場合、前記出力部は、複数種類の前記外観特徴のうち、前記状態特徴に含まれる前記第1の人物の位置に応じて、利用する外観特徴を変更する請求項1〜請求項5のいずれか1項に記載の情報出力装置。
  7. 前記外観特徴は、前記第1の人物及び前記第2の人物の性別、服装の種類、服装の色、帽子の有無、眼鏡の有無、ひげの有無の少なくとも1つを含む請求項1〜請求項6のいずれか1項に記載の情報出力装置。
  8. 前記特定部は、前記撮像画像から検出される人物の位置、顔向き、移動速度、及び外観特徴の少なくとも1つが、前記第1の人物の特徴として予め定めた条件を満たす人物を前記第1の人物として特定する請求項1〜請求項7のいずれか1項に記載の情報出力装置。
  9. 撮像画像から検出された複数の人物の外観特徴を含む特徴情報を抽出し、
    抽出した前記特徴情報に基づいて、前記撮像画像から検出された前記複数の人物のうち、情報を出力する対象である第1の人物を特定し、
    抽出した前記外観特徴のうち、特定した前記第1の人物は有し、かつ、前記撮像画像から検出された前記複数の人物のうち、前記第1の人物以外の第2の人物は有さない外観特徴を含む情報を出力する
    ことを含む処理をコンピュータが実行する情報出力方法。
  10. 撮像画像から検出された複数の人物の外観特徴を含む特徴情報を抽出し、
    抽出した前記特徴情報に基づいて、前記撮像画像から検出された前記複数の人物のうち、情報を出力する対象である第1の人物を特定し、
    抽出した前記外観特徴のうち、特定した前記第1の人物は有し、かつ、前記撮像画像から検出された前記複数の人物のうち、前記第1の人物以外の第2の人物は有さない外観特徴を含む情報を出力する
    ことを含む処理をコンピュータに実行させるための情報出力プログラム。
JP2019091177A 2019-05-14 2019-05-14 情報出力装置、方法、及びプログラム Active JP7423904B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019091177A JP7423904B2 (ja) 2019-05-14 2019-05-14 情報出力装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019091177A JP7423904B2 (ja) 2019-05-14 2019-05-14 情報出力装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020187518A true JP2020187518A (ja) 2020-11-19
JP7423904B2 JP7423904B2 (ja) 2024-01-30

Family

ID=73223501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019091177A Active JP7423904B2 (ja) 2019-05-14 2019-05-14 情報出力装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7423904B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6947899B1 (ja) * 2020-11-20 2021-10-13 株式会社 日立産業制御ソリューションズ 画像解析システム、画像解析方法、および、画像解析プログラム
JP7507524B1 (ja) 2023-09-28 2024-06-28 株式会社アジラ 注目行動呼びかけシステム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010039095A (ja) * 2008-08-04 2010-02-18 Seiko Epson Corp 音声出力制御装置、音声出力装置、音声出力制御方法、及び、プログラム
JP2010044277A (ja) * 2008-08-15 2010-02-25 Sharp Corp 撮像装置および撮像方法
JP2012205242A (ja) * 2011-03-28 2012-10-22 Nikon Corp 電子機器及び情報伝達システム
JP2013200738A (ja) * 2012-03-26 2013-10-03 Zenrin Datacom Co Ltd 優先席利用支援システム、携帯通信端末、乗客支援装置および優先席利用支援方法
JP2014174830A (ja) * 2013-03-11 2014-09-22 Hitachi Omron Terminal Solutions Corp 自動取引装置
JP2015194915A (ja) * 2014-03-31 2015-11-05 住友電気工業株式会社 移動体追跡装置、移動体追跡方法、移動体追跡システムおよびカメラ

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010039095A (ja) * 2008-08-04 2010-02-18 Seiko Epson Corp 音声出力制御装置、音声出力装置、音声出力制御方法、及び、プログラム
JP2010044277A (ja) * 2008-08-15 2010-02-25 Sharp Corp 撮像装置および撮像方法
JP2012205242A (ja) * 2011-03-28 2012-10-22 Nikon Corp 電子機器及び情報伝達システム
JP2013200738A (ja) * 2012-03-26 2013-10-03 Zenrin Datacom Co Ltd 優先席利用支援システム、携帯通信端末、乗客支援装置および優先席利用支援方法
JP2014174830A (ja) * 2013-03-11 2014-09-22 Hitachi Omron Terminal Solutions Corp 自動取引装置
JP2015194915A (ja) * 2014-03-31 2015-11-05 住友電気工業株式会社 移動体追跡装置、移動体追跡方法、移動体追跡システムおよびカメラ

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6947899B1 (ja) * 2020-11-20 2021-10-13 株式会社 日立産業制御ソリューションズ 画像解析システム、画像解析方法、および、画像解析プログラム
WO2022107612A1 (ja) * 2020-11-20 2022-05-27 株式会社日立産業制御ソリューションズ 画像解析システム、画像解析方法、および、画像解析プログラム
JP2022082270A (ja) * 2020-11-20 2022-06-01 株式会社 日立産業制御ソリューションズ 画像解析システム、画像解析方法、および、画像解析プログラム
JP7507524B1 (ja) 2023-09-28 2024-06-28 株式会社アジラ 注目行動呼びかけシステム

Also Published As

Publication number Publication date
JP7423904B2 (ja) 2024-01-30

Similar Documents

Publication Publication Date Title
US10380603B2 (en) Assessing personality and mood characteristics of a customer to enhance customer satisfaction and improve chances of a sale
US20190005785A1 (en) Security system, security method, and non-transitory computer readable medium
JP5478928B2 (ja) 人物同定装置、人物同定方法、及び人物同定プログラム
TWI778030B (zh) 店鋪裝置、店鋪管理方法及程式
JP2018093283A (ja) 監視情報収集システム
KR101515214B1 (ko) 얼굴 인식을 통한 신원확인 방법과 얼굴인식을 이용한 출입관리 경보 시스템 및 출입관리 경보 제어방법
JP6440327B2 (ja) 防犯システム、防犯方法、及びロボット
JP2018181159A (ja) 防犯システム、防犯方法、及びロボット
JP7416165B2 (ja) 情報処理装置
CN110717357B (zh) 预警方法、装置、电子设备及存储介质
JP2007061394A (ja) 監視装置および方法、並びにプログラム
JP7423904B2 (ja) 情報出力装置、方法、及びプログラム
JP6206627B1 (ja) 情報処理装置、制御方法、及びプログラム
JP2017068394A (ja) 犯罪抑止システム、情報処理装置、犯罪抑止方法及びプログラム
TWI671701B (zh) 交易行為偵測系統及其方法
JP2018092599A (ja) 情報処理装置、制御方法、及びプログラム
JP7566548B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6301759B2 (ja) 顔識別装置及びプログラム
JP4873216B2 (ja) 監視システムおよび方法、不正遊技者認識サーバおよび方法、並びにプログラム
EP3855349A1 (en) Extracting information about people from sensor signals
JP2022117096A (ja) 画像処理装置、画像処理方法、及びプログラム
JP7363113B2 (ja) 制御装置、制御方法および制御プログラム
US12039510B2 (en) Information processing apparatus, information processing method, and storage medium
WO2023181155A1 (ja) 処理装置、処理方法、および記録媒体
JP6954416B2 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20230206

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240101

R150 Certificate of patent or registration of utility model

Ref document number: 7423904

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150