JP5994397B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP5994397B2
JP5994397B2 JP2012125940A JP2012125940A JP5994397B2 JP 5994397 B2 JP5994397 B2 JP 5994397B2 JP 2012125940 A JP2012125940 A JP 2012125940A JP 2012125940 A JP2012125940 A JP 2012125940A JP 5994397 B2 JP5994397 B2 JP 5994397B2
Authority
JP
Japan
Prior art keywords
information
terminal device
image
matching
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012125940A
Other languages
English (en)
Other versions
JP2013251800A (ja
Inventor
呂尚 高岡
呂尚 高岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012125940A priority Critical patent/JP5994397B2/ja
Priority to US13/865,433 priority patent/US20130325887A1/en
Priority to CN2013101991219A priority patent/CN103455789A/zh
Publication of JP2013251800A publication Critical patent/JP2013251800A/ja
Application granted granted Critical
Publication of JP5994397B2 publication Critical patent/JP5994397B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/27Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Social Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Information Transfer Between Computers (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
カメラは、今やいたるところに存在する。例えば、交通機関やショッピング施設などの人が集まる場所には、警備などのための監視カメラが多く備えつけられている。また、携帯電話などの端末装置にカメラを搭載することもごく一般的になってきている。それゆえ、カメラによって画像が撮像される局面が、飛躍的に増加している。
そのような中、カメラによって撮像された画像を活用する技術も進展している。例えば、特許文献1には、画像に映っている顔を識別するための学習方法に関する技術が記載されている。このように、画像の被写体を自動的に識別して、識別結果を活用する技術が、多く提案されている。
特開2012−083938号公報
上記の特許文献1に記載の技術のように、画像解析によって画像の被写体を識別するためには、予め被写体のサンプル画像を登録したり、学習によって被写体の画像の特徴量を把握したりする工程が必要である。つまり、例えば画像に映っているユーザを識別するためには、ユーザが映った画像のデータが予め与えられていなければならない。
しかしながら、ユーザの顔の画像は、個人情報の最たるものであり、そのデータを登録することには、抵抗を感じるユーザが多い。また、撮像された画像において、ユーザは必ずしも顔を向けて映っているとは限らず、そのような場合には顔の画像を用いたユーザの識別は困難である。
そこで、本開示では、ユーザの画像などを予め登録することなく、画像に映っているユーザを識別する情報を得ることが可能な、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提案する。
本開示によれば、対象物に関連する画像の解析によって検出された、上記対象物の動作を示す第1の動作情報を取得する第1の取得部と、上記対象物に携帯または装着された端末装置のセンサの出力から検出された、上記対象物の動作を示す第2の動作情報を取得する第2の取得部と、上記第1の動作情報と上記第2の動作情報とをマッチングして上記対象物と上記端末装置との関係を特定するマッチング部とを含む情報処理装置が提供される。
また、本開示によれば、対象物に関連する画像の解析によって検出された、上記対象物の動作を示す第1の動作情報を取得することと、上記対象物に携帯または装着された端末装置のセンサの出力から検出された、上記対象物の動作を示す第2の動作情報を取得することと、上記第1の動作情報と上記第2の動作情報とをマッチングして上記対象物と上記端末装置との関係を特定することとを含む情報処理方法が提供される。
また、本開示によれば、対象物に関連する画像の解析によって検出された、上記対象物の動作を示す第1の動作情報を取得する機能と、上記対象物に携帯または装着された端末装置のセンサの出力から検出された、上記対象物の動作を示す第2の動作情報を取得する機能と、上記第1の動作情報と上記第2の動作情報とをマッチングして上記対象物と上記端末装置との関係を特定する機能とをコンピュータに実現させるためのプログラムが提供される。
本開示の実施形態では、画像に関連する対象物が、動作情報を用いて特定される。画像から第1の動作情報を検出するためには、対象物個別の画像の登録は特に必要ではない。一方、対象物の特定は、対象物に携帯または装着された端末装置のセンサによって取得される第2の動作情報が第1の動作情報とマッチングされることで実現される。端末装置と対象物とを少なくとも一時的に対応付ける情報は必要になるが、それ以外の情報については、予め登録しなくても、画像に映っているユーザを識別することが可能である。
以上説明したように本開示によれば、ユーザの画像などを予め登録することなく、画像に映っているユーザを識別する情報を得ることができる。
本開示の第1の実施形態における動作情報のマッチングの処理を概略的に説明するための図である。 本開示の第1の実施形態における加速度を用いた動作情報取得について説明するための図である。 本開示の第1の実施形態において用いられうる加速度情報の例を示す図である。 本開示の第1の実施形態において用いられうる加速度情報の例を示す図である。 本開示の第1の実施形態において広告配信サービスを提供するための概略的なシステム構成を示す図である。 本開示の第1の実施形態において広告配信サービスを提供するための概略的なシステム構成の変形例を示す図である。 本開示の第1の実施形態に係る端末装置の概略的な機能構成を示すブロック図である。 本開示の第1の実施形態に係るマッチングサーバの概略的な機能構成を示すブロック図である。 本開示の第1の実施形態に係るモニタサーバの概略的な機能構成を示すブロック図である。 本開示の第1の実施形態に係る広告配信サーバの概略的な機能構成を示すブロック図である。 本開示の第2の実施形態において測位サービスを提供するための概略的なシステム構成を示す図である。 本開示の第2の実施形態に係る位置配信サーバの概略的な機能構成を示すブロック図である。 本開示の第3の実施形態における概略的なシステム構成を示す図である。 本開示の第4の実施形態について概略的に説明するための図である。 本開示の第5の実施形態における概略的なシステム構成を示す図である。 本開示の第5の実施形態における概略的なシステム構成の変形例を示す図である。 情報処理装置のハードウェア構成について説明するためのブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1−1.処理の概略
1−2.センサからの動作情報の取得
1−3.マッチングの具体的な例
1−4.サービス提供のためのシステム構成
1−5.各装置の機能構成
2.第2の実施形態
2−1.サービス提供のためのシステム構成
2−2.装置の機能構成
2−3.画像処理のさらなる利用
3.第3の実施形態
4.第4の実施形態
5.第5の実施形態
6.ハードウェア構成
7.補足
(1.第1の実施形態)
まず、図1〜図4を参照して、本開示の第1の実施形態について説明する。本実施形態では、例えばショッピングモールなどに設置された監視カメラなどの画像の中で指定されたターゲットユーザについて、そのユーザが携帯している端末装置を特定し、広告情報を端末装置にプッシュ送信する。これによって、画像から認識される“広告情報を送りたいユーザ”に、端末装置を介して広告情報を提供することができる。
(1−1.処理の概略)
図1は、本開示の第1の実施形態における動作情報のマッチングの処理を概略的に説明するための図である。図示されているように、本実施形態におけるマッチングの処理では、一つの入力として、各ユーザが所持している端末装置の加速度センサで計測した歩行ピッチと位相とがマッチングサーバにアップロードされる(S1)。また、もう一つの入力として、複数のユーザが映っている監視カメラの画像においてターゲットユーザが選択され(S2)、画像の解析によってターゲットユーザの歩行ピッチと位相とが取得される(S3)。マッチングサーバでは、上記の端末装置からの入力と、監視カメラからの入力とをマッチングして、ターゲットユーザの端末装置がどれであるかを特定する(S4)。ターゲットユーザの端末装置には、例えば画像から判定されるそのユーザの属性に応じた広告情報や、ユーザの位置情報がプッシュ方式で通知される(S5)。
(1−2.センサからの動作情報の取得)
次に、本実施形態におけるセンサからの動作情報の取得について説明する。上記のように、本実施形態では、端末装置の加速度センサによってユーザの動作情報を取得する。そこで、加速度を用いた動作情報の取得について、以下で例を示して詳細に説明する。
なお、端末装置で動作情報の取得のために用いられるセンサとしては、ジャイロセンサや気圧センサなど各種のセンサが用いられてもよい。また、これらのセンサが、加速度センサと併用されてもよい。なお、気圧センサは、気圧の測定によって端末装置の高度の情報を取得することが可能なセンサである。
図2は、本開示の第1の実施形態における加速度を用いた動作情報取得について説明するための図である。図示されているように、本実施形態では、加速度センサの出力からユーザの歩行動作を検出する。
ここでは、歩行動作におけるユーザの体の上下動と進行方向の加速度とに注目している。上下動についてみると、両足が揃って頭が上がりきった時(または、足を踏み出して頭が下がりきった時)が、鉛直方向の加速度が最小になる時として特定される。従って、端末装置の加速度センサの測定結果がユーザの歩行動作を示している場合、鉛直方向の加速度が最小になる時刻(センサによって検出された歩行動作の特徴点)と、画像内で歩行動作をしているユーザの画像を解析して検出された、ユーザの両足が揃って頭が上がりきった時刻(画像から検出された歩行動作の特徴点)とを時間軸上でマッチングすれば、画像に映っているユーザと端末装置を携帯しているユーザとを対応付けることが可能である。
あるいは、加速度センサの測定結果と画像の解析結果のそれぞれにおいて、歩行動作における1歩の時間間隔が特定されるため、この時間間隔をマッチングさせることによって、画像に映っているユーザと端末装置を所持しているユーザとを対応付けてもよい。
一方、進行方向の加速度についてみると、ユーザが足を踏み出すと、ユーザの体が前方の倒れかかることによって加速度が増大し、踏み出した足が接地すると加速度が減少に転じる。このような進行方向の加速度でも、上記の鉛直方向の加速度の場合と同様に、歩行動作の特徴点を時間軸上でマッチングさせることが可能である。例えば、水平方向の加速度が最大になる時刻(加速度が減少に転じる点)と、ユーザの画像を解析して検出された、ユーザの踏み出した足が接地した時刻とを時間軸上でマッチングすれば、画像に映っているユーザと端末装置を携帯しているユーザとを対応付けることが可能である。あるいは、進行方向の加速度についても、歩行動作における1歩の時間間隔を特定し、時間間隔によるマッチングを実行してもよい。
図3および図4は、本開示の第1の実施形態において用いられうる加速度情報の例を示す図である。
図3は、ユーザが端末装置を胸ポケットに入れている場合の鉛直方向の加速度の例を示す。胸ポケットなどの上半身に端末装置が携帯されている場合、歩行中に右足を踏み出した場合と左足を踏み出した場合との加速度波形はほぼ同じになる。
一方、図4は、ユーザが端末装置を尻ポケットに入れている場合の加速度の例である。尻ポケットなどの下半身に端末装置が携帯されている場合、歩行中に右足を踏み出した場合と左足を踏み出した場合との加速度波形は異なる。
しかし、図3および図4に示したどちらの場合も、加速度が最小となる特徴点は明確に現れるため、右足での踏み出し、左足での踏み出しにかかわらず、1歩の時間間隔(周期)と、鉛直方向の加速度が最小になる位相とを抽出することが可能である。
また、上記のように、上半身に端末装置を携帯している場合と下半身に端末装置を携帯している場合との波形の傾向には相違がある。また、例えば端末装置の表示部(液晶など)が起動されているか否かの情報を利用すれば、ユーザが端末装置の表示を見ながら歩いているかどうかも判定可能でありうる。この違いを利用して、例えば、端末装置の所持位置などから、送信された広告情報などに気づいてその場で見る可能性が高いと推定されるユーザに情報を送信してもよい。また、動作の特徴点が抽出されるのは、上記のような周期的な動作の場合に限らず、例えば立ち止まる、端末装置を取り出すなど、一過性の動作が特徴点として抽出されてもよい。
(1−3.マッチングの具体的な例)
次に、上記のようにセンサから取得された動作情報と、画像を解析して取得された動作情報とをマッチングする処理の具体的な例について、さらに説明する。なお、画像を解析して動作情報を取得する処理については、公知の画像解析技術を用いることが可能であるため、詳細な説明は省略する。
例えば、端末装置の加速度センサによって取得された鉛直方向の加速度の解析結果から、以下のように、各端末装置(端末A,端末B,端末C)において鉛直加速度が極小になる時刻のデータが取得される。
Figure 0005994397
一方、ターゲットユーザの画像解析から、以下のように、ユーザの頭が最も上がっている、またはユーザの両足が揃っている時刻のデータが取得される。
Figure 0005994397
マッチングの処理では、各端末装置から取得された時刻データのうち、画像から取得された時刻データとの間の差が最も小さい時刻データを提供した端末装置を、ターゲットユーザが携帯している端末装置として特定する。例えば、具体的には以下のように差分値ErrA〜ErrCを計算し、最も小さい差分値の端末装置を探す。
Figure 0005994397
ただし、場合によっては、情報を提供している端末装置を携帯しているユーザが画像に映っていないというような場合もありうるため、差分値が所定の閾値より大きかった場合には、“該当なし”という判定をしてもよい。
上記の時刻データは、例えばUTC(Coordinated Universal Time)を共通で用いるなどして誤差がないことが望ましいが、各装置の時計のずれなどによって時刻に誤差が発生する場合もありうる。そのような場合には、以下のように誤差δの値を加味して上記の差分値を算出してもよい。
Figure 0005994397
誤差δは、端末A〜端末Cのそれぞれについて設定される。まず、誤差δ,δを、端末装置から送信される情報のタイムスタンプがとりうる誤差の範囲で変化させ、差分値ErrA,ErrB,ErrCのそれぞれが最小になるように誤差δ,δを設定する。ただし、これによって各端末装置を間違ったユーザにマッチングさせてしまう可能性もあるため、可能であれば端末装置でのセンサ検出結果と、取得された画像データとに共通するタイムスタンプが付加されていることが望ましい。
なお、例えば上記の図2〜図4の例では、ユーザの歩行動作が定常的に行われている例を紹介したが、必ずしもそのような動作ばかりがマッチングの対象になるわけではない。例えば、ユーザが立ち止まったり、向きを変えたり、再び歩きだしたりといったような非定常な動作も、マッチングの対象になる。むしろ、そのような動作の方が、開始点や終了点などの特徴点が抽出しやすく、マッチングが容易である場合もある。
上記で説明したマッチングの例は一例であり、本開示の他の実施形態では異なるマッチング処理が実行されうる。他の実施形態でのマッチング処理は、例えば、相関係数を求める処理など、公知の各種のマッチング処理でありうる。
(1−4.サービス提供のためのシステム構成)
図5は、本開示の第1の実施形態において広告配信サービスを提供するための概略的なシステム構成を示す図である。システムは、端末装置100と、マッチングサーバ200と、モニタサーバ300と、カメラ400と、広告配信サーバ500とを含む。以下、システムの各構成要素の動作を順に説明する。
なお、端末装置100は、ユーザによって携帯される携帯電話(スマートフォンを含む)やタブレット型PC(Personal Computer)などであり、後述する情報処理装置のハードウェア構成を用いて実現されうる。マッチングサーバ200、モニタサーバ300、および広告配信サーバ500は、ネットワーク上にある1または複数のサーバ装置によって実現されうる。例えば、各サーバの機能をまとめて1つのサーバ装置が実現してもよいし、各サーバの機能がさらに複数のサーバ装置に分散して実現されてもよい。個々のサーバ装置は、後述する情報処理装置のハードウェア構成を用いて実現されうる。また、サーバ装置が複数ある場合、各サーバ装置は有線または無線の各種のネットワークによって接続される(以下で説明する本開示の他の実施形態における他のサーバについても同様)。
まず、端末装置100と広告配信サーバ500との間では、サービス登録(S101)およびアカウント発行(S102)が実行される。これは、端末装置100のユーザが、上述したようなマッチングに基づく広告配信のサービスを利用するための登録である。この登録によって、端末装置100からは、マッチングサーバ200に、アカウント情報とともにセンサ情報(またはセンサ情報から抽出された動作情報)が、時刻情報(タイムスタンプ)とともに提供されるようになる(S103)。
なお、S101におけるサービスの登録は、その登録情報によってユーザを識別するためのものではない。従って、この登録では、ユーザの顔画像などの個人情報は登録されなくてよい。ユーザから広告配信サーバ500に提供される情報は、少なくとも後述する広告配信の際の送信先(メールアドレス、デバイスID、またはプッシュ通知用のトークンなど)を含んでいればよい。
また、S103において、センサ情報は、アカウント情報、および時刻情報に加えて、概略の位置情報とともに端末装置100からマッチングサーバ200に提供されてもよい。これは、例えば、“ショッピングモールにいる”といったような、端末装置の大まかな位置を示す情報であり、例えばGPS(Global Positioning System)や、Wi−Fi(Wireless Fidelity)のアクセスポイント、または携帯基地局を用いた測位などによって取得されうる。これによって、マッチングサーバ200は、カメラ400によって画像が取得される範囲に存在しうるユーザをある程度限定することができ(例えば、カメラ400があるショッピングモールに設置されている場合、ショッピングモールにいないユーザの端末装置はマッチングの対象外にしてよい)、マッチングの処理負荷が軽減されうる。
一方、カメラ400は、モニタサーバ300に画像を提供している。モニタサーバ300では、例えば、広告主体である店舗などのユーザが、画像を見て広告を配信したいと思ったユーザを選択することによってターゲットユーザを指定する(S104)。あるいは、ターゲットユーザは、画像を解析して得られたユーザの位置(店舗の近くにいる、など)や属性(例えば性別、年齢など)を、広告主体のユーザが予め設定した条件でフィルタリングすることで自動的に選択されてもよい。
モニタサーバ300は、ターゲットユーザが指定されると、カメラ400から提供された画像(動画像)と、指定されたターゲットユーザの画像内での座標、および画像が取得された時刻の情報を、マッチングサーバ200に提供する(S105)。ここで、モニタサーバ300は、さらに、カメラ400の位置の情報を、マッチングサーバ200に提供してもよい。例えば、カメラ400が複数設置されている場合、どの位置に設置されたカメラかを示す位置の情報をマッチングサーバ200に提供することによって、上記の端末装置100から提供される概略的な位置情報を合わせて、マッチングの対象を限定し、処理負荷が軽減されうる。なお、別の実施形態として、モニタサーバ300で画像の解析を実行し、抽出された動作情報をマッチングサーバ200に提供してもよい。
S103で提供された端末装置100のセンサ情報と、S105で提供された画像の情報とに基づいて、マッチングサーバ200でマッチングが実行される(S106)。マッチングの結果、画像において指定されたターゲットユーザに対応する端末装置100のアカウント情報が抽出される。ターゲットユーザのアカウント情報は、マッチングサーバ200からモニタサーバ300に提供される(S107)。
モニタサーバ300は、ターゲットユーザのアカウント情報を広告配信サーバ500に提供して、広告の配信を依頼する(S108)。このとき、例えばユーザの位置や属性に従って自動的にターゲットユーザが選択された場合には、ターゲットユーザの位置および属性の情報があわせて提供されてもよい。広告配信サーバ500は、モニタサーバ300から提供された情報に従って、ユーザに広告を配信する(S109)。広告はクーポンを含んでもよい。
(変形例)
図6は、本開示の第1の実施形態において広告配信サービスを提供するための概略的なシステム構成の変形例を示す図である。上記の図5の例が、マッチングサーバ200、モニタサーバ300、カメラ400、および広告配信サーバ500が、広告配信専用のシステムであったのに対し、図6の例は、広告配信に限らない汎用的なマッチングサービスとしてマッチングサーバ200とカメラ400とを含むシステムが存在し、それを広告配信サーバ500が利用する。以下、システムの各構成要素の動作を順に説明する。
まず、端末装置100と広告配信サーバ500との間では、サービス登録(S201)およびアカウント発行(S202)が実行される。これは、端末装置100のユーザが、マッチングに基づく広告配信のサービスを受けるための情報である。一方、広告配信サーバ500は、広告配信のターゲットユーザの位置と属性を指定する情報を、予めマッチングサーバ200に提供する(S203)。例えば、ここで提供される位置と属性を示す情報は、“AショッピングモールのBという店の前にいる、20代男性”といったように、どこにいるどのようなユーザに広告を配信したいかを示す情報でありうる。
端末装置100からは、マッチングサーバ200に、広告配信サーバ500に対応するサービス名およびアカウント情報とともに、センサ情報(またはセンサ情報から抽出された動作情報)が、時刻情報(タイムスタンプ)とともに提供される(S204)。ここで、アカウント情報とともにサービス名の情報が提供されるのは、マッチングサービスが汎用的なサービスとして提供されており、広告配信サーバ500によって提供されるサービス以外のサービスのために利用される場合もあるためである。マッチングサーバ200は、例えばこのサービス名の情報によって、端末装置100から送信されるセンサ情報と、広告配信サーバ500から提供されるターゲットユーザの情報とを関連付ける。なお、上記の図5の例と同様に、ここでも、端末装置100の概略の位置情報がマッチングサーバ200に提供されてもよい。
マッチングサーバ200は、S203で広告配信サーバから提供されたターゲットユーザの位置を指定する情報に従って、複数あるカメラ400の中からマッチング対象のカメラを絞り込んでもよい(S205)。また、マッチングサーバは、カメラ400の画像に映っているユーザの属性を解析し(S206)、広告配信サーバから提供されたターゲットユーザの属性の情報と照合してもよい。例えばこのようにして、マッチングサーバ200は、カメラ400の画像に映っているユーザの中からターゲットユーザを抽出する(S207)。
抽出されたターゲットユーザについて、マッチングサーバ200は、S204で提供された端末装置100のセンサ情報と、S207までの処理で取得された画像の情報とに基づいて、マッチングを実行する(S208)。マッチングの結果、ターゲットユーザに対応する端末装置100のアカウント情報が抽出される。ターゲットユーザのアカウント情報は、マッチングサーバ200から広告配信サーバ500に提供される(S209)。このとき、例えばS203で複数の位置および属性の情報が提供されているような場合には、ターゲットユーザの位置および属性の情報があわせて提供されてもよい。広告配信サーバ500は、マッチングサーバ200から提供された情報に従って、ユーザに広告を配信する(S210)。広告はクーポンを含んでもよい。
(1−5.各装置の機能構成)
次に、上記の図5または図6のシステムにおける各装置の機能構成について説明する。上述したとおり、以下で説明する各装置の機能構成は、情報処理装置のシステム構成によって実現されうる。
(端末装置)
図7は、本開示の第1の実施形態に係る端末装置の概略的な機能構成を示すブロック図である。図示されているように、端末装置100は、センサ情報取得部110、制御部120、通信部130、および表示部140を含む。端末装置100は、さらに位置取得部150を含んでもよい。
センサ情報取得部110は、ユーザの動作を示す各種のセンサである。センサは、例えば、加速度センサ、ジャイロセンサ、気圧センサ、地磁気センサ、カメラなどを含みうる。このうち、加速度センサおよびジャイロセンサは、ユーザの動作による端末装置100の加速度や角速度の変化を検出する。また、気圧センサは、ユーザの動作による端末装置100の高度の変化を気圧の変化によって検出する。地磁気センサおよびカメラは、例えば端末装置100がヘッドマウント型であるような場合に、ユーザの頭の向きや視界の画像などを取得する。
制御部120は、例えばCPU(Central Processing Unit)を用いてソフトウェア的に実現され、図示された端末装置100の機能構成を制御する。制御部120は、例えば、端末装置100にインストールされる、広告配信サービスを利用するためのアプリケーションプログラムでありうる。他の実施形態では、制御部120が、センサ情報取得部110が取得したセンサ情報を解析してユーザの動作情報を抽出してもよい。
通信部130は、例えば通信装置によって実現され、マッチングサーバ200、または広告配信サーバ500との間で有線または無線の各種ネットワークを介して通信する。例えば、通信部130は、広告配信サーバ500との間で、サービス登録の申請および発行されたアカウントの情報を送受信する。また、通信部130は、マッチングサーバ200に、センサ情報取得部110が取得したセンサ情報を送信する(他の実施形態では、センサ情報を解析して得られたユーザの動作情報を送信してもよい)。さらに、通信部130は、マッチングの結果に従って広告配信サーバ500から送信される広告配信情報を受信する。
表示部140は、例えば各種のディスプレイによって実現され、ユーザに各種の情報を呈示する。例えば、表示部140には、通信部130を介して広告配信サーバ500から受信された広告情報が表示される。他の実施形態では、表示部140とともに、またはこれに代えて音声出力部が設けられ、音声によってユーザに広告情報を出力してもよい。
位置取得部150は、上記のように、端末装置100からマッチングサーバに概略の位置情報を提供する場合に設けられる。位置情報は、例えばGPSや、Wi−Fiのアクセスポイント、または携帯基地局を用いた測位などによって取得されうる。あるいは、位置情報は、RFID(Radio Frequency IDentification)、IMES(Indoor Messaging System)、またはBluetooth(登録商標)のアクセスポイントを用いた測位によって取得されてもよい。また、測位の結果だけではなく、測位の精度指標や使用した測位方法の情報もあわせて送信することで、マッチングサーバ200側で、端末装置100の位置情報の精度を考慮したマッチング処理が可能である。この場合、例えば、位置情報の精度が高くない端末装置100については、位置情報に対応するカメラ400の範囲をより広く設定してもよい。
なお、端末装置100からマッチングサーバ200に位置情報を送信することは、必ずしも必要ではない。サービスが提供されるエリアが広い場合には、マッチングの対象になるカメラ400や端末装置100の数も多いため、端末装置100が位置情報を送信することは有効である。しかし、例えば他の実施形態で、エリアやターゲットユーザが限定されている場合には、端末装置100からマッチングサーバ200に位置情報を送信しなくてよい。
(マッチングサーバ)
図8は、本開示の第1の実施形態に係るマッチングサーバの概略的な機能構成を示すブロック図である。図示されているように、マッチングサーバ200は、画像取得部210、動作解析部220、センサ情報取得部230、センサ情報記憶部240、マッチング部250、および通知部260を含む。なお、センサ情報記憶部240以外の各部は、例えばCPUを用いてソフトウェア的に実現されうる。
画像取得部210は、モニタサーバ300から(またはカメラ400から)、画像(動画像)を取得する。上記のように、端末装置100から位置情報が送信され、その位置情報に従ってマッチングに使用するカメラ400が選択されている場合、画像取得部210によって取得される画像は選択されたカメラ400からの画像でありうる。また、画像取得部210は、画像とともに、画像中でターゲットユーザを指定する情報を取得する。ターゲットユーザは、例えば画像内での座標によって指定されうる。
動作解析部220は、画像取得部210によって取得された画像を解析して、ターゲットユーザの動作を解析する。上述の通り、ここで用いられる画像解析の手法としては、公知の様々な手法が応用されうる。動作解析部220は、例えば上記の歩行動作の例であれば、ターゲットユーザの頭が最も上がっている、またはターゲットユーザの両足が揃っている時刻などを解析によって抽出する。このように、動作解析部220によって取得される動作情報は、後述するセンサ情報取得部230が取得するセンサ出力に基づく動作情報とマッチングされるため、センサ出力からも検出可能な動作の特徴点を示す情報でありうる。動作解析部220によって取得される情報は、ユーザが映っている画像の解析によって検出された、ユーザの動作を示す第1の動作情報ともいえる。
センサ情報取得部230は、端末装置100からセンサ情報を取得する。センサ情報は、端末装置100について説明したように、例えば加速度センサ、ジャイロセンサ、気圧センサ、地磁気センサ、カメラなどを用いて取得される。センサ情報取得部230は、これらのセンサからの出力を連続的に取得してもよいし、例えば上記の歩行動作の例のように、特徴点のタイムスタンプ配列などとして離散的に取得してもよい。センサ情報取得部230によって取得される情報は、ユーザが携帯している端末装置のセンサの出力から検出された、ユーザの動作を示す第2の動作情報ともいえる。
センサ情報記憶部240は、センサ情報取得部230が取得したセンサ情報を記憶する。本実施形態では、画像中でターゲットユーザが指定されるため、動作解析部220によって検出される第1の動作情報が、いわば正解としてある。これに対して、センサ情報取得部230は複数のユーザの端末装置100からセンサ情報を第2の動作情報として取得し、第1の動作情報とマッチングする。従って、センサ情報について、複数のユーザの端末装置からのものを少なくとも一時的に蓄積しておく必要がある。なお、画像取得部210が取得する画像の情報や、動作解析部220またはマッチング部250の処理中に生成される情報などを一時的に記憶するメモリは、センサ情報記憶部240とは別に設けられうる。
マッチング部250は、動作解析部220によって取得された第1の動作情報と、センサ情報取得部230によって取得されてセンサ情報記憶部240に格納された第2の動作情報とをマッチングして、ユーザと端末装置100との関係を特定する。マッチング部250は、例えば上記の歩行動作の例のように、第1の動作情報と第2の動作情報とによってそれぞれ示される動作の特徴点を時間軸上でマッチングさせてもよい。また、センサ情報の種類によって、これ以外のマッチングの例もありうる。以下、そのいくつかの例について説明する。
例えば、センサ情報が気圧センサの出力を含む場合、動作解析部220は、画像の解析によってターゲットユーザの高度を推定し、推定された高度の情報を第1の動作情報の1つとしてマッチング部250に提供する。マッチング部250は、画像から推定されたターゲットユーザの高度と、端末装置100の気圧センサによって検出された高度とをマッチングしうる。このようなマッチングは、例えば、画像取得部210によって取得される画像が、階段やエスカレータ、吹き抜けなどの高度差がある場所を撮像したものである場合に特に有効でありうる。
また、例えば、センサ情報が地磁気センサの出力を含む場合、動作解析部220は、画像の解析によってターゲットユーザの頭の向きを特定し、その情報を第1の動作情報の1つとしてマッチング部250に提供する。マッチング部250は、画像から特定されたターゲットユーザの頭の向きと、端末装置100(例えばヘッドマウント型)の地磁気センサによって検出されたユーザの頭の向きとをマッチングする。
また、例えば、センサ情報がカメラによって取得されたユーザの視界の画像を含む場合、動作解析部220は、画像の解析によってユーザが見ている方向を推定し、推定された情報を第1の動作情報の1つとしてマッチング部250に提供する。この解析のために、例えば画像内でどの方向を見た場合には何が見えるかという情報が予めマッチング部250に与えられていてもよい。あるいは、マッチング部250は、画像内の他のユーザなどをオブジェクトとして認識した結果を動作解析部220から取得し、そのオブジェクトをユーザの視界に含まれる画像とマッチングしてもよい。
通知部260は、マッチング部250におけるマッチングの結果に基づいて、ターゲットユーザのアカウント情報を、モニタサーバ300または広告配信サーバ500に通知する。上述のように、通知される情報には、ターゲットユーザの位置および属性の情報が含まれてもよい。
(モニタサーバ)
図9は、本開示の第1の実施形態に係るモニタサーバの概略的な機能構成を示すブロック図である。図示されているように、モニタサーバ300は、画像取得部310、ターゲット指定部320、および通信部330を含む。モニタサーバ300は、さらに表示部340を含んでもよい。なお、画像取得部310およびターゲット指定部320は、例えばCPUを用いてソフトウェア的に実現されうる。
画像取得部310は、カメラ400から画像(動画像)を取得する。カメラ400が複数ある場合、どのカメラ400の画像を取得するかは後述する表示部340を介して選択可能であってもよい。
ターゲット指定部320は、画像取得部310が取得した画像に映っているユーザの中からターゲットユーザを指定する。ターゲットユーザは、自動的に指定される場合と、ユーザ操作によって指定される場合とがある。ターゲットユーザを自動的に指定する場合、ターゲット指定部320は、例えば画像取得部310によって取得された画像を解析して、映っているユーザの位置(店舗の近くにいる、など)や属性(例えば性別、年齢など)を取得してもよい。ターゲット指定部320は、これらの位置や属性に基づいて、広告主体のユーザが予め設定した条件で画像中のユーザをフィルタリングし、ターゲットユーザを特定してもよい。あるいは、ターゲット指定部320は、画像に映っているユーザを検出し、そのすべてをターゲットユーザにしてもよい。
一方、ターゲットユーザをユーザ操作によって指定する場合、ターゲット指定部320は、画像取得部310によって取得された画像を表示部340に提供し、表示部340を介して取得されたユーザの操作に従ってターゲットユーザを特定する。上記のいずれの場合も、指定されたターゲットユーザの情報は、例えば画像内での座標の情報として、通信部330を介してマッチングサーバ200に提供されうる。
通信部330は、例えば通信装置によって実現され、マッチングサーバ200、および広告配信サーバ500との間で有線または無線の各種ネットワークを介して通信する。例えば、通信部330は、マッチングサーバ200に、画像取得部310によって取得された画像と、ターゲット指定部320によって指定されたターゲットユーザを示す情報とを送信する。また、通信部330は、マッチングサーバ200から、マッチングの結果特定された、ターゲットユーザが携帯している端末装置100のアカウント情報を受信する。さらに、通信部330は、広告配信サーバ500に、広告配信の依頼として、ターゲットユーザのアカウント情報を送信する。このとき、通信部330は、ターゲットユーザの位置および属性の情報をあわせて送信してもよい。
表示部340は、画像中のターゲットユーザが、例えば広告主体のユーザの操作によって指定される場合に設けられる。表示部340は、例えば各種のディスプレイによって実現され、ユーザに各種の情報を呈示する。例えば、表示部340には、画像取得部310によって取得された画像が表示される。表示部340には、タッチパネルなどの入力部が付属し、これを用いた入力操作によって、画像に映っているユーザの中からターゲットユーザが指定される。表示部340には、上記のようにしてターゲットユーザを指定する操作のためのGUI(Graphical User Interface)が表示されてもよい。
(広告配信サーバ)
図10は、本開示の第1の実施形態に係る広告配信サーバの概略的な機能構成を示すブロック図である。図示されているように、広告配信サーバ500は、登録情報取得部510、アカウント記憶部520、ターゲット情報取得部530、広告選択部540、および配信部550を含む。なお、アカウント記憶部520以外の各部は、例えばCPUを用いてソフトウェア的に実現されうる。
登録情報取得部510は、端末装置100との通信によって、端末装置100のユーザが広告配信サービスを利用するための登録を受け付ける。受け付けられた登録情報は、アカウント記憶部520に記録され、端末装置100のユーザがマッチングによってターゲットユーザとして特定されたときに、広告選択部540によって参照される。登録情報は、例えば広告配信の際の送信先(メールアドレス、デバイスID、またはプッシュ通知用のトークンなど)の情報を含みうる。
ターゲット情報取得部530は、モニタサーバ300(またはマッチングサーバ200)から、マッチングの結果特定されたターゲットユーザの端末装置100のアカウント情報を取得する。このとき、ターゲット情報取得部530は、ターゲットユーザの位置および属性の情報をあわせて受信してもよい。
広告選択部540は、ターゲット情報取得部530が取得した情報に従って、配信する広告を選択する。配信される広告は、予め設定されているものであってもよいし、ターゲット情報取得部530が取得したターゲットユーザの位置および属性の情報に応じて選択されてもよい。広告選択部540は、アカウント記憶部520を参照して、広告情報を端末装置100にプッシュ送信するための送信先(メールアドレス、デバイスID、またはプッシュ通知用のトークンなど)の情報を取得しうる。
配信部550は、広告選択部540が選択した広告の情報を、ターゲットユーザの端末装置にプッシュ送信によって配信する。上記のように、配信される情報には、広告に加えてクーポンなどが含まれてもよい。
以上、本開示の第1の実施形態について説明した。なお、本実施形態、および以下で説明される他の実施形態について、画像およびセンサ出力が、そのままデータとしてマッチングサーバ200に提供されるか、モニタサーバ、カメラまたは端末装置での解析によって得られた動作情報としてマッチングサーバ200に提供されるかは、例えば各装置の能力などに応じて適宜設計されうる。従って、マッチングサーバ200において取得される動作情報は、必ずしもマッチングサーバ200自身が画像やセンサ出力の解析によって抽出したものでなくてもよい。
(2.第2の実施形態)
次に、図11および図12を参照して、本開示の第2の実施形態について説明する。本実施形態では、携帯している端末装置から位置情報の通知を要求したターゲットユーザについて、監視カメラなどの画像に映っているユーザの中からそのユーザを特定し、画像から認識される位置情報を端末装置に送信する。これによって、他の方法によって高精度な位置情報を得ることが難しい屋内などでも、精度の高い位置情報をユーザに提供することができる。
なお、本実施形態は、ユーザの動作情報の取得や、動作情報のマッチングなどといった点については、上記の第1の実施形態と共通でありうる。それゆえ、これらの点については詳細な説明を省略する。
(2−1.サービス提供のためのシステム構成)
図11は、本開示の第2の実施形態において測位サービスを提供するための概略的なシステム構成を示す図である。システムは、端末装置100と、マッチングサーバ200と、モニタサーバ300と、カメラ400と、位置配信サーバ600とを含む。以下、システムの各構成要素の動作を順に説明する。
まず、端末装置100と位置配信サーバ600との間では、サービス登録(S301)およびアカウント発行(S302)が実行される。これは、端末装置100のユーザが、上述したようなマッチングに基づく測位サービスを利用するための登録である。この登録によって、端末装置100からは、マッチングサーバ200に、アカウント情報とともにセンサ情報(またはセンサ情報から抽出された動作情報)が、時刻情報(タイムスタンプ)とともに提供されるようになる(S303)。
なお、第1の実施形態と同様に、S301におけるサービスの登録は、その登録情報によってユーザを識別するためのものではない。従って、この登録では、ユーザの顔画像などの個人情報は登録されなくてもよい。ユーザから位置配信サーバ600に提供される情報は、少なくとも後述する位置配信の際の送信先(メールアドレス、デバイスID、またはプッシュ通知用のトークンなど)を含んでいればよい。
また、S103において、センサ情報は、アカウント情報、および時刻情報に加えて、概略の位置情報とともに端末装置100からマッチングサーバ200に提供されてもよい。これは、例えば、“ショッピングモールにいる”といったような、端末装置の大まかな位置を示す情報であり、例えばGPSや、Wi−Fiのアクセスポイント、または携帯基地局を用いた測位などによって取得されうる。これによって、第1の実施形態と同様にマッチングの処理負荷が軽減されうる。なお、後に位置配信サーバ600から端末装置100に配信される位置情報は、ここで送信される概略の位置情報よりもずっと詳細な位置情報である。
一方、モニタサーバ300は、カメラ400から画像を取得する(S304)。第1の実施形態の場合とは異なり、この時点では画像に映っているユーザのうちのどれが位置情報を要求しているユーザであるかは未知である。従って、必ずしもモニタサーバ300でターゲットは指定されない。モニタサーバ300は、カメラ400から提供された画像(動画像)、および画像が取得された時刻の情報を、マッチングサーバ200に提供する(S305)。ここで、モニタサーバ300は、さらに、カメラ400の位置の情報を、マッチングサーバ200に提供してもよい。これによって、第1の実施形態と同様にマッチングの処理負荷が軽減されうる。ここでも、別の実施形態として、モニタサーバ300で画像の解析を実行し、抽出された動作情報をマッチングサーバ200に提供してもよい。
S303で提供された端末装置100のセンサ情報と、S305で提供された画像の情報とに基づいて、マッチングサーバ200でマッチングが実行される(S306)。マッチングの結果、センサ情報を送信した端末装置100に対応する画像中のユーザ(ターゲットユーザ)が抽出される。マッチングサーバ200は、画像の中でターゲットユーザを特定する情報、例えばターゲットユーザの画像内での座標の情報を、ターゲットユーザの端末装置100に対応するアカウント情報とともにモニタサーバ300に提供する(S307)。
モニタサーバ300は、画像におけるターゲットユーザの位置から、ターゲットユーザの実際の位置を推定し(S308)、推定された位置の情報を、ターゲットユーザのアカウント情報とともに位置配信サーバ600に提供する(S309)。位置配信サーバ600は、モニタサーバ300から提供された情報に従って、ユーザに位置情報を通知する(S310)。なお、ターゲットユーザの実際の位置の推定は、必ずしもモニタサーバ300で実行されなくてもよく、例えば位置配信サーバ600、またはマッチングサーバ200で実行されてもよい。
(変形例)
なお、システム構成について、本実施形態でも、上記の第1の実施形態と同様の変形例が可能である。上記の図11の例では、マッチングサーバ200、モニタサーバ300、カメラ400、および位置配信サーバ600が、位置配信専用のシステムであったのに対し、変形例では、位置配信に限らない汎用的なマッチングサービスとしてマッチングサーバ200とカメラ400とを含むシステムが存在し、それを位置配信サーバ600が利用する。これによって、例えば、上記の第1の実施形態における広告配信サービスと、本実施形態における位置配信サービスとを、共通のマッチングサーバ200を用いて提供することも可能である。
(2−2.装置の機能構成)
次に、上記の図11のシステムおよびその変形例における装置の機能構成について説明する。上述したとおり、以下で説明する各装置の機能構成は、情報処理装置のシステム構成によって実現されうる。なお、位置配信サーバ600以外の装置の機能構成については、上記の第1の実施形態と同様にすることが可能であるため、上記のシステム構成の説明をもって詳細な説明に代える。
(位置配信サーバ)
図12は、本開示の第2の実施形態に係る位置配信サーバの概略的な機能構成を示すブロック図である。図示されているように、位置配信サーバ600は、登録情報取得部610、アカウント記憶部620、ターゲット情報取得部630、および位置配信部640を含む。なお、アカウント記憶部620以外の各部は、例えばCPUを用いてソフトウェア的に実現されうる。
登録情報取得部610は、端末装置100との通信によって、端末装置100のユーザから測位サービスを利用するための登録を受け付ける。受け付けられた登録情報は、アカウント記憶部620に記録され、端末装置100のユーザがマッチングによってターゲットユーザとして特定された時に、位置配信部640によって参照される。登録情報は、例えば位置配信の際の連絡先(メールアドレス、デバイスID、またはプッシュ通知用のトークンなど)の情報を含みうる。
ターゲット情報取得部630は、モニタサーバ300(またはマッチングサーバ200)から、マッチングの結果特定されたターゲットユーザの位置(詳細な位置)と、ターゲットユーザの端末装置100のアカウント情報とを取得する。
位置配信部640は、ターゲット情報取得部630が取得した情報に従って、ユーザの端末装置100に位置情報を配信する。配信される位置情報は、例えば地図上の座標情報のようなものには限らず、建物の何階にいるかの情報や、建物の区域分け、付近の目印などの情報を含んでもよい。
(2−3.画像処理のさらなる利用)
本開示の実施形態では、画像中のターゲットユーザについて、一旦特定された後はイメージトラッキングによって追尾することも可能である。例えば、上記の第1の実施形態の場合であれば、一旦画像において指定されたターゲットユーザを、その後はイメージトラッキングによって追尾し、そのユーザが特定の店舗に近づくなどした際には、最初のマッチングによって特定されたターゲットユーザの端末装置に広告情報を配信してもよい。また、例えば、上記の第2の実施形態の場合であれば、一旦ターゲット端末との関係が特定された画像中のユーザを、その後はイメージトラッキングによって追尾し、そのユーザに継続的に位置情報を提供してもよい。
また、本開示の実施形態では、一旦特定されたターゲットユーザについて、あるカメラの画像から出て別のカメラの画像に入ってきた場合や、またそのカメラの画像に戻ってきた場合などに、最初に特定されたときのターゲットユーザの画像とのイメージマッチングによってそのユーザを特定してもよい。このように、公知の画像処理技術を応用したイメージトラッキングやイメージマッチングを組み合わせることによって、マッチングを頻繁に実行しなくてもユーザと端末装置との関係を特定することを可能にし、マッチングによる処理負荷を軽減してもよい。
(3.第3の実施形態)
次に、図13を参照して、本開示の第3の実施形態について説明する。本実施形態では、画像から検出された動作情報とセンサ出力から検出された動作情報とのマッチングが、蓄積された過去の情報について実行される。これによって、例えば、後からカメラの画像を見た場合にも、そこに映っているユーザと端末装置との関係を特定することが可能である。本実施形態は、例えば上記の第1および第2の実施形態のような広告配信サービスや位置配信サービスなどに利用可能であるほか、犯罪捜査などにも利用可能である。
図13は、本開示の第3の実施形態における概略的なシステム構成を示す図である。システムは、端末装置100と、マッチングサーバ200と、モニタサーバ300と、カメラ400と、センサ情報DB700と、監視カメラ画像DB800とを含む。以下、システムの各構成要素の動作を順に説明する。
端末装置100は、機器ID、センサ情報、概略位置、および時刻などを含む情報を、定期的にアップロードしている(S401)。アップロードされた情報は、センサ情報DB700に蓄積される。なお、情報のアップロードにあたり、端末装置100はシステムに登録されるが、図ではその登録の手順は省略されている。
一方、カメラ400は、撮影している動画のデータを、撮影された位置および時刻の情報とともにアップロードしている(S402)。アップロードされた画像の情報は、監視カメラ画像DB800に蓄積される。
モニタサーバ300では、画像に映っているユーザと端末装置との関係を特定する必要が生じた場合に、対象になる位置および時刻の情報とともに、動画の要求が監視カメラ画像DB800に送信される(S403)。監視カメラ画像DB800は、この要求に応じて、指定された位置および時刻にカメラ400によって撮影された動画のデータをモニタサーバ300に提供する(S404)。
ここで、モニタサーバ300では、例えばユーザの操作によって、カメラ画像の中からターゲットユーザが指定される(S405)。指定されたターゲットユーザの画像内での座標は、動画のデータとともにマッチングサーバ200に送信される(S406)。このとき、上記の各実施形態と同様に、マッチング処理の負荷軽減のため、カメラ画像が撮影された位置および時刻の情報があわせて送信される。
モニタサーバ300から動画データの提供を受けたマッチングサーバ200は、センサ情報DB700に対して、動画データに対応する位置および時刻のセンサ情報(機器IDを含む)を要求する(S407)。センサ情報DB700は、この要求に応じて、指定された位置および時刻に端末装置100からアップロードされたセンサ情報をマッチングサーバ200に提供する(S408)。
センサ情報を取得したマッチングサーバ200は、動画データとセンサ情報とを用いてマッチングを実行し、カメラ画像において指定されたターゲットユーザが携帯していた端末装置100の機器IDを特定する(S409)。マッチングサーバ200は、特定されたターゲットユーザの機器IDの情報を、モニタサーバ300に提供する(S410)。
このように、例えばセンサ情報とカメラ画像とをそれぞれ時刻情報とともに蓄積するDBを設置することによって、上記の各実施形態におけるリアルタイムのマッチングと同様に、過去のデータについても、画像に映っているユーザとユーザが携帯している端末装置との関係を特定することが可能である。
なお、例えば上記のように過去のデータについてのマッチングが可能である場合、センサ情報を提供する端末装置100のユーザとしては、自分が過去にいた位置が特定されることが望ましくない場合もある。そのような場合、例えば、端末装置100からセンサ情報をアップロードするときに付加されるアカウント情報(または機器ID)を、ユーザがサービスの利用登録をしてから所定の時間だけ有効な、例えばOTP(One Time Password)のような、所定の期間が経過すると無効化される一時的なIDにしてもよい。そのような問題がない場合、センサ情報に付加されるアカウント情報(または機器ID)は、端末装置100についてユニークなIDであってもよい。このIDは、例えば、ユーザが使用する端末装置を変更した場合でもサービスを受けられるように、ユーザに対して与えられるサービスのアカウントのようなものであってもよい。
(4.第4の実施形態)
次に、図14を参照して、本開示の第4の実施形態について説明する。本実施形態では、あるユーザが持っている端末装置のカメラが、上記の各実施形態における監視カメラと同様に使用される。
図14は、本開示の第4の実施形態について概略的に説明するための図である。図示されているように、本実施形態では、マッチングサーバ200と公開情報サーバ1000とがシステムに含まれる。以下、システムにおける処理を順に説明する。
まず、情報公開者の端末装置から、アクセスIDおよびセンサ情報がマッチングサーバ200に送信される(S501−1)。それとともに、情報公開者の端末装置から、所定の情報公開内容が公開情報サーバ1000に送信される(S501−2)。なお、アクセスIDは、情報公開者が公開した情報にアクセスするためのIDであり、後に情報取得者によって使用される。なお、ここでは、端末装置や情報公開者のIDではなく、公開情報にアクセスするための一時的なキー情報であるアクセスIDが送信される。これは、図示された例において、情報公開者と情報取得者との関係が、公開情報を取得するための一時的なものであることによる。情報の公開が終了した後は、アクセスIDは用を為さないため、情報公開者が情報取得者によって特定されることはない。
一方、情報取得者は、端末装置に搭載されたカメラの画像に映った情報公開者を、ターゲットユーザとして指定する(S502)。これによって、情報取得者の端末装置は、ターゲットユーザに関する問い合わせをマッチングサーバ200に送信する(S503)。この問い合わせは、情報取得者が画像の中で指定したターゲットユーザを特定し、当該ユーザが公開している情報へのアクセスを求めるものでありうる。問い合わせには、情報取得者の端末装置によって撮影された動画のデータ、画像内でのターゲットユーザの座標情報、および動画が撮影された時刻や位置の情報が含まれうる。
マッチングサーバ200は、S503で受信した問い合わせに含まれる動画からターゲットユーザの動作情報を抽出し、これをS501−1で受信したセンサ情報から検出される動作情報とマッチングする。その結果、ターゲットユーザのセンサ情報が特定された場合、マッチングサーバ200は、当該センサ情報とともに送信されたアクセスIDを、情報取得者の端末装置に通知する(S504)。
ターゲットユーザのアクセスIDの通知を受けた情報取得者の端末装置は、公開情報サーバ1000にアクセスIDを送信し、ターゲットユーザの公開情報を要求する(S505)。公開情報サーバ1000は、これに応じてターゲットユーザ(情報公開者)の公開情報を通知する(S506)。この結果として、情報取得者の端末装置の表示部には、情報公開者からの公開情報(図示された例では自らの服装の宣伝)が表示される(S507)。
この公開情報に対して、情報取得者は、何らかのアクションをすることが可能である(S508)。図示された例では、賛同または評価を示すボタンが公開情報として表示されており、情報取得者はこのボタンを押下することで、情報公開者の服装に対する賛意を示すアクションをすることが可能である。アクションの情報は、情報公開サーバ1000に通知され(S509)、さらに情報公開者本人の端末装置に通知される(S510)。
このように、本開示の実施形態に係るマッチング処理は、監視カメラによって取得された画像だけではなく、ユーザが所持している端末装置のカメラによって取得された画像も利用することが可能である。
(変形例)
本実施形態の変形例として、テレビの画像に含まれる人物の中からユーザがターゲットを指定し、そのターゲットが動作情報のマッチングによって特定されてもよい。例えば、あるテレビ番組で、複数の出演者がそれぞれ端末装置を携帯しており、テレビカメラで各出演者の画像が撮影されるとともに、各出演者の端末装置からセンサ情報がアップロードされるものとする。この場合、テレビ番組の視聴者は、例えば画像に映る出演者の中で気に入った出演者がいれば、その出演者をターゲットユーザとして指定してもよい。
この場合、マッチングサーバによって、画像で指定されたターゲットユーザの動作と各出演者のセンサ情報に基づく動作情報とがマッチングされ、どの出演者が視聴者によってターゲットユーザに指定されたかが特定される。例えば、これを、出演者に対する視聴者の応援のアクションとして利用することが可能である。また、出演者はスポーツ中継における競技者であってもよい。例えば、視聴者が競技者をターゲットユーザとして指定することによって、その競技者への声援が届いたり、少額寄付がされたりしてもよい。
(5.第5の実施形態)
次に、図15および図16を参照して、本開示の第5の実施形態について説明する。本実施形態では、マッチングの処理を用いて、ユーザが撮影した画像に映っている他のユーザが特定される。
図15は、本開示の第5の実施形態における概略的なシステム構成を示す図である。システムは、端末装置100と、マッチングサーバ200と、カメラ400と、SNSサーバ1100とを含む。以下、システムの各構成要素の動作を順に説明する。
まず、端末装置100とSNSサーバ1100との間では、サービス登録(S601)およびアカウント発行(S602)が実行される。これは、端末装置100のユーザが、マッチングによって画像の中で特定されるサービスを利用するための登録である。この登録によって、端末装置100からは、マッチングサーバ200に、アカウント情報とともにセンサ情報(またはセンサ情報から抽出された動作情報)が、時刻情報(タイムスタンプ)とともに提供されるようになる(S603)。
上記の各実施形態と同様に、S601でのサービスの登録は、その登録情報によってユーザを識別するためのものではない。ユーザからSNSサーバ1100に提供される情報は、SNSサーバ1100によって提供されるSNSのアカウントと、端末装置100のユーザとを対応付ける情報として用いられる。また、S603において、センサ情報は、アカウント情報、および時刻情報に加えて、概略の位置情報とともに端末装置100からマッチングサーバ200に提供されてもよい。
一方、別のユーザが所持しているカメラ400では、端末装置100のユーザが映っている画像が撮影される。カメラ400のユーザは、この撮影画像において、人物を識別したい対象をターゲットユーザとして指定する(S604)。なお、ターゲットユーザは、撮影画像に映っている人物すべて(または、ある程度大きく映っている人物など)として自動的に検出されてもよい。カメラ400は、動画のデータとともに、指定されたターゲットユーザの画像内での座標、および画像が取得された時刻の情報を、マッチングサーバ200に提供する(S605)。ここで、カメラ400は、さらに、自らの位置の情報を、マッチングサーバ200に提供してもよい。なお、別の実施形態として、カメラ400で画像の解析を実行し、抽出された動作情報をマッチングサーバ200に提供してもよい。
S603で提供された端末装置100のセンサ情報と、S605で提供された画像の情報とに基づいて、マッチングサーバ200でマッチングが実行される(S606)。マッチングの結果、画像において指定されたターゲットユーザに対応する端末装置100のアカウント情報が抽出される。ターゲットユーザのアカウント情報は、マッチングサーバ200からカメラ400に提供される(S607)。
カメラ400では、ターゲットユーザのアカウント情報を用いて、動画に映っているターゲットユーザにタグを付加する(S608)。ここで付加されるタグは、例えばSNSサーバ1100によって提供されるSNSにおけるターゲットユーザのユーザ名のタグであってもよい。そのため、カメラ400は、SNSにおけるユーザ名と、端末装置100のユーザがセンサ情報を送信するときのアカウント情報とを対応付ける情報を、予めSNSサーバ1100から取得していてもよい。あるいは、カメラ400は、マッチングサーバ200によって提供されたターゲットユーザのアカウント情報をSNSサーバ1100に送信し、それがSNSにおける誰であるのかの識別をSNSサーバ1100に依頼してもよい。
付加的に、カメラ400は、タグ付けされた動画をSNSサーバ1100にアップロードしてもよい(S609)。また、動画がアップロードされた場合、SNSサーバ1100から端末装置100に、タグ付けがされたことの通知が送信されてもよい(S610)。
以上のような構成によれば、例えばユーザが所持しているビデオカメラで撮影した動画に映っているのが誰であるのかを自動的に識別し、動画にタグを付加することが可能になる。この場合、各ユーザが所持している端末装置と各ユーザ(例えばSNSにおけるアカウント)とが、予め対応付けられていることが前提になりうる。
このとき、例えば動画に映っていない人物であっても、その人物が動画の撮影時に動画の撮影位置の近くにおり、その人物と動画を撮影した人物との間にSNS上の友人関係があるような場合には、“撮影時に近くにいた人”として動画にタグ付けされてもよい。また、動画の揺れからカメラ400を保持している人物の動作を検出し、これと端末装置100のセンサ情報とをマッチングすることによって、撮影者自身も特定してタグ付け等することが可能である。
なお、この“動画の揺れから撮影者の動作を検出”することは、例えば上記の各実施形態において、ヘッドマウント型の端末装置が用いられ、ユーザの視界を示す画像がセンサ情報として提供される場合にも応用可能である。
(変形例)
図16は、本開示の第5の実施形態における概略的なシステム構成の変形例を示す図である。上記の図15の例ではマッチングサーバを用いてマッチングが実行されていたのに対し、この変形例では、端末装置100との間の機器間通信を利用して、カメラ400によってマッチングが実行される。なお、機器間通信には、Bluetooth(登録商標)やWi−Fiなど各種の通信方式が用いられうる。また、機器間通信では、必ずしも各機器が直接接続されなくてもよく、例えばインターネットなどのネットワークを介したP2P(Peer to Peer)接続であってもよい。
端末装置100は、SNSサーバ1100から、友人関係の情報を予め取得してキャッシュしている(S701)。カメラ400は、動画を撮影した場合に、近傍に位置している端末装置100に、機器間通信によって友人関係の問い合わせを送信する(S702)。端末装置100は、キャッシュされた友人関係の情報を参照して、カメラ400のユーザとの間に友人関係があれば、友人関係を認める応答を送信する(S703)。
さらに、端末装置100は、カメラ400のユーザとの間に友人関係がある場合、カメラ400にセンサ情報を提供する(S704)。ここで提供されるセンサ情報には、端末装置100のユーザのSNS上での名前の情報と時刻情報とが含まれうる。
端末装置100からセンサ情報を取得したカメラ400は、撮影画像からターゲットユーザを指定し(S705)、センサ情報とターゲットユーザの画像とを用いてマッチングを実行する(S706)。なお、上記の例と同様に、ターゲットユーザは、カメラ400のユーザによって指定されてもよいし、自動的に検出されてもよい。
マッチングの結果、どの端末装置100から送信されたセンサ情報が、ターゲットユーザに対応するかが判定される。そこで、カメラ400は、端末装置100からセンサ情報とともに送信された名前の情報を用いて、動画に映っているターゲットユーザにタグを付加する(S707)。さらに、カメラ400は、S704でセンサ情報を送信してきたものの、マッチングによっては特定されなかった端末装置100のユーザを、撮影画像に映ってはいないが近くにいる人としてタグ付けしてもよい(S708)。
付加的に、カメラ400は、タグ付けされた動画をSNSサーバ1100にアップロードしてもよい(S709)。また、動画がアップロードされた場合、SNSサーバ1100から端末装置100に、タグ付けがされたことの通知が送信されてもよい(S710)。
(6.ハードウェア構成)
次に、図17を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図17は、情報処理装置のハードウェア構成について説明するためのブロック図である。図示された情報処理装置900は、例えば、上記の実施形態における端末装置100、マッチングサーバ200、モニタサーバ300、カメラ400、広告配信サーバ500、位置配信サーバ600、センサ情報DB700、監視カメラ画像DB800、公開情報サーバ1000、およびSNSサーバ1100を実現しうる。
情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置900は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)などの処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、気圧センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
(7.補足)
(サービス例のまとめ)
本開示の実施形態を用いて提供されうるサービスの例について、以下にまとめる。
例えば、本開示の実施形態は、クーポンや広告の配布サービスに適用可能である。この場合、例えば、店舗の近くまで来ているユーザを画像から識別し、そのユーザの属性に応じてクーポン情報を送信する。これによって、女性客には化粧品の広告を呈示する、といったように、例えばティッシュ配り(配布者は、通行人の属性に応じて、広告入りのティッシュを配っている)と同様の広告効果が期待される。
また、例えば、本開示の実施形態は、測位ソリューションとしても適用可能である。上述したように、屋内ではGPSの利用が困難であり、またWi−Fiなどのアクセスポイントを利用した測位も精度の点では十分ではない。本開示の実施形態によれば、屋内であっても、ユーザに“今どこにいるか”を高い精度で通知することが可能である。
また、例えば、本開示の実施形態は、顧客の来店を判断するためにも利用可能である。従来は、ユーザが何らかのチェックイン操作(店舗に対応する位置情報の取得など)を実行して、システムに来店を通知していた。しかし、本開示の実施形態によれば、店舗に入ったユーザの端末装置を識別することが可能であるため、チェックインの操作をしなくても、来店を通知することが可能である。また、店舗では、例えば入口とレジカウンタとにカメラを設置して、それぞれの画像に映ったユーザを識別すれば、店舗で実際に商品を購入したユーザと見ただけのユーザとを区別することも可能である。さらに、端末装置のIDが継続的に利用されるユニークなものであれば、来店頻度などをユーザの属性とともに記録することも可能である。識別されるのは端末装置であるため、例えばユーザの服装や髪形などが変化していても識別には影響しない。
また、例えば、本開示の実施形態は、犯罪捜査にも利用可能である。例えば、防犯カメラの画像を蓄積しておき、何らかの事件が発生した際に、カメラに映った犯人の動作情報と一致する動作情報が取得された端末装置を特定することで、犯人を割り出すことが可能である。
また、例えば、本開示の実施形態は、美術館や博物館などにおいて用いられるガイド用の専用端末にも利用可能である。例えば、専用端末にセンサを搭載し、各専用端末のセンサ情報から検出される動作情報と、館内のカメラに映ったユーザの動作情報とをマッチングすることで、館内でのユーザの詳細な位置情報を提供したり、ユーザの位置に応じた展示物のガイド情報を送信したりすることが可能である。
(その他補足)
上記の実施形態の説明は、センサ情報を取得する端末装置がユーザ(人)によって携帯される例を紹介したが、本開示の実施形態はこのような例には限られない。例えば、端末装置は、家畜などの動物に装着されてもよい。この場合、例えば、画像で群れから離れた個体が確認された場合に、その個体をターゲットとして指定する。マッチングによって個体が装着している端末装置が特定されれば、その端末装置を介して個体に群れに戻ることを促す指示などを与えることができる。また、画像を観察しながら個体を識別できるため、遠隔地から個体の選別などを実行することも可能である。
また、センサ情報を取得する端末装置は、荷物に装着されてもよい。この場合、例えば、家畜の場合と同様に、遠隔地から荷物の選別をすることができる。また、作業員が入れないようなところを搬送されている荷物を、画像を介して目視でチェックし、必要に応じて端末装置にフラグ情報を設定するような場合にも利用可能である。
本開示の実施形態は、例えば、上記で説明したような情報処理装置(端末装置またはサーバ)、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された記録媒体を含みうる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)対象物に関連する画像の解析によって検出された、前記対象物の動作を示す第1の動作情報を取得する第1の取得部と、
前記対象物に携帯または装着された端末装置のセンサの出力から検出された、前記対象物の動作を示す第2の動作情報を取得する第2の取得部と、
前記第1の動作情報と前記第2の動作情報とをマッチングして前記対象物と前記端末装置との関係を特定するマッチング部と
を備える情報処理装置。
(2)前記マッチング部は、前記第1の動作情報および前記第2の動作情報のそれぞれによって示される前記対象物の動作の特徴点を時間軸上でマッチングする、前記(1)に記載の情報処理装置。
(3)前記第2の取得部は、前記端末装置の加速度センサの出力から検出された前記第2の動作情報を取得する、前記(2)に記載の情報処理装置。
(4)前記対象物は、人物であり、
前記マッチング部は、前記第1の動作情報および前記第2の動作情報のそれぞれによって示される前記人物の歩行動作の特徴点を時間軸上でマッチングする、前記(2)または(3)に記載の情報処理装置。
(5)前記第1の取得部は、前記対象物の中から指定されたターゲットについて前記第1の動作情報を取得し、
前記マッチング部は、前記第1の動作情報と前記第2の動作情報とをマッチングして、前記ターゲットに携帯または装着された前記端末装置を特定する、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)前記ターゲットは、所定の属性を有する対象物として指定され、
前記マッチング部は、前記特定された端末装置の情報を、前記ターゲットに情報を配信するための情報として出力する、前記(5)に記載の情報処理装置。
(7)前記ターゲットは、未識別の前記対象物として指定され、
前記マッチング部は、前記特定された端末装置の情報を、前記ターゲットを識別する情報として出力する、前記(5)に記載の情報処理装置。
(8)前記ターゲットを識別する情報は、前記ターゲットが公開している情報にアクセスするための一時的なキー情報である、前記(7)に記載の情報処理装置。
(9)前記第2の取得部は、前記端末装置の中から指定されたターゲット端末装置について前記第2の動作情報を取得し、
前記マッチング部は、前記第1の動作情報と前記第2の動作情報とをマッチングして、前記ターゲット端末装置が携帯または装着されている前記対象物を特定する、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(10)前記ターゲット端末装置は、位置情報を要求している端末装置であり、
前記マッチング部は、前記特定された対象物の情報を、前記画像に基づいて特定された前記対象物の位置を前記ターゲット端末装置に通知するために出力する、前記(9)に記載の情報処理装置。
(11)前記対象物は、人物であり、
前記第2の取得部は、前記人物を識別するID情報に対応付けられた前記第2の動作情報を取得し、
前記マッチング部は、前記ID情報を用いて前記人物を特定する、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)前記ID情報は、所定の期間が経過すると無効化される、前記(11)に記載の情報処理装置。
(13)前記マッチング部は、前記対象物に対応付けられた前記ID情報を、前記画像に前記対象物を示すタグ情報を付加するために出力する、前記(11)または(12)に記載の情報処理装置。
(14)前記第1の取得部は、異なる位置から撮像された複数の前記画像の解析によってそれぞれ検出された前記第1の動作情報を取得し、
前記第2の取得部は、前記端末装置の概略的な位置を示す情報に対応付けられた前記第2の動作情報を取得し、
前記マッチング部は、前記概略的な位置を示す情報を用いて、マッチングに使用する前記第1の動作情報を選択する、前記(1)〜(13)のいずれか1項に記載の情報処理装置。
(15)前記マッチング部は、マッチングによって関係が特定された前記対象物および前記端末装置が後の画像に映っている場合、該後の画像については前記画像における前記対象物の特徴を用いて前記対象物を識別することによって前記マッチングを省略する、前記(1)〜(14)のいずれか1項に記載の情報処理装置。
(16)前記第2の取得部は、前記端末装置の地磁気センサの出力から検出された前記対象物の向きの情報を含む前記第2の動作情報を取得する、前記(1)〜(15)のいずれか1項に記載の情報処理装置。
(17)前記対象物は、人物または動物であり、
前記第2の取得部は、前記端末装置の撮像部の出力から検出された前記対象物の視界画像の情報を含む前記第2の動作情報を取得する、前記(1)〜(16)のいずれか1項に記載の情報処理装置。
(18)前記第2の取得部は、前記端末装置の気圧センサの出力から検出された前記対象物の高度の情報を含む前記第2の動作情報を取得する、前記(1)〜(17)のいずれか1項に記載の情報処理装置。
(19)対象物に関連する画像の解析によって検出された、前記対象物の動作を示す第1の動作情報を取得することと、
前記対象物に携帯または装着された端末装置のセンサの出力から検出された、前記対象物の動作を示す第2の動作情報を取得することと、
前記第1の動作情報と前記第2の動作情報とをマッチングして前記対象物と前記端末装置との関係を特定することと
を含む情報処理方法。
(20)対象物に関連する画像の解析によって検出された、前記対象物の動作を示す第1の動作情報を取得する機能と、
前記対象物に携帯または装着された端末装置のセンサの出力から検出された、前記対象物の動作を示す第2の動作情報を取得する機能と、
前記第1の動作情報と前記第2の動作情報とをマッチングして前記対象物と前記端末装置との関係を特定する機能と
をコンピュータに実現させるためのプログラム。
100 端末装置
200 マッチングサーバ
210 画像取得部
220 動作解析部
230 センサ情報取得部
240 センサ情報記憶部
250 マッチング部
260 通知部
300 モニタサーバ
400 カメラ
500 広告配信サーバ
600 位置配信サーバ
700 センサ情報DB
800 監視カメラ画像DB
1000 公開情報サーバ
1100 SNSサーバ

Claims (17)

  1. 対象物に関連する画像の解析によって検出された、前記対象物の動作を示す第1の動作情報を取得する第1の取得部と、
    前記対象物に携帯または装着された端末装置の加速度センサの出力から検出された、前記対象物の動作を示す第2の動作情報を取得する第2の取得部と、
    前記第1の動作情報および前記第2の動作情報のそれぞれによって示される前記対象物の動作の特徴点を時間軸上でマッチングして前記対象物と前記端末装置との関係を特定するマッチング部と
    を備え、
    前記第2の動作情報によって示される前記対象物の動作の特徴点は、鉛直方向の加速度が極小になる時刻を含み、
    前記第1の取得部は、異なるカメラ位置から撮像された複数の前記画像の解析によってそれぞれ検出され、前記カメラ位置を示す情報に対応付けられた、前記第1の動作情報を取得し、
    前記第2の取得部は、前記端末装置の概略的な位置を示す情報に対応付けられた前記第2の動作情報を取得し、
    前記マッチング部は、前記カメラ位置を示す情報、及び前記概略的な位置を示す情報を用いて、マッチングに使用する前記第1の動作情報を選択する、情報処理装置。
  2. 前記対象物は、人物であり、
    前記マッチング部は、前記第1の動作情報および前記第2の動作情報のそれぞれによって示される前記人物の歩行動作の特徴点を時間軸上でマッチングする、請求項1に記載の情報処理装置。
  3. 前記第1の取得部は、前記対象物の中から指定されたターゲットについて前記第1の動作情報を取得し、
    前記マッチング部は、前記第1の動作情報と前記第2の動作情報とをマッチングして、前記ターゲットに携帯または装着された前記端末装置を特定する、請求項1に記載の情報処理装置。
  4. 前記ターゲットは、所定の属性を有する対象物として指定され、
    前記マッチング部は、前記特定された端末装置の情報を、前記ターゲットに情報を配信するための情報として出力する、請求項3に記載の情報処理装置。
  5. 前記ターゲットは、未識別の前記対象物として指定され、
    前記マッチング部は、前記特定された端末装置の情報を、前記ターゲットを識別する情報として出力する、請求項3に記載の情報処理装置。
  6. 前記ターゲットを識別する情報は、前記ターゲットが公開している情報にアクセスするための一時的なキー情報である、請求項5に記載の情報処理装置。
  7. 前記第2の取得部は、前記端末装置の中から指定されたターゲット端末装置について前記第2の動作情報を取得し、
    前記マッチング部は、前記第1の動作情報と前記第2の動作情報とをマッチングして、前記ターゲット端末装置が携帯または装着されている前記対象物を特定する、請求項1に記載の情報処理装置。
  8. 前記ターゲット端末装置は、位置情報を要求している端末装置であり、
    前記マッチング部は、前記特定された対象物の情報を、前記画像に基づいて特定された前記対象物の位置を前記ターゲット端末装置に通知するために出力する、請求項7に記載の情報処理装置。
  9. 前記対象物は、人物であり、
    前記第2の取得部は、前記人物を識別するID情報に対応付けられた前記第2の動作情報を取得し、
    前記マッチング部は、前記ID情報を用いて前記人物を特定する、請求項1に記載の情報処理装置。
  10. 前記ID情報は、所定の期間が経過すると無効化される、請求項9に記載の情報処理装置。
  11. 前記マッチング部は、前記対象物に対応付けられた前記ID情報を、前記画像に前記対象物を示すタグ情報を付加するために出力する、請求項10に記載の情報処理装置。
  12. 前記マッチング部は、マッチングによって関係が特定された前記対象物および前記端末装置が後の画像に映っている場合、該後の画像については前記画像における前記対象物の特徴を用いて前記対象物を識別することによって前記マッチングを省略する、請求項1に記載の情報処理装置。
  13. 前記第2の取得部は、前記端末装置の地磁気センサの出力から検出された前記対象物の向きの情報を含む前記第2の動作情報を取得する、請求項1に記載の情報処理装置。
  14. 前記対象物は、人物または動物であり、
    前記第2の取得部は、前記端末装置の撮像部の出力から検出された前記対象物の視界画像の情報を含む前記第2の動作情報を取得する、請求項1に記載の情報処理装置。
  15. 前記第2の取得部は、前記端末装置の気圧センサの出力から検出された前記対象物の高度の情報を含む前記第2の動作情報を取得する、請求項1に記載の情報処理装置。
  16. 対象物に関連する画像の解析によって検出された、前記対象物の動作を示す第1の動作情報を取得することと、
    前記対象物に携帯または装着された端末装置の加速度センサの出力から検出された、前記対象物の動作を示す第2の動作情報を取得することと、
    前記第1の動作情報および前記第2の動作情報のそれぞれによって示される前記対象物の動作の特徴点を時間軸上でマッチングして前記対象物と前記端末装置との関係を特定することとを含み、
    前記第2の動作情報によって示される前記対象物の動作の特徴点は、鉛直方向の加速度が極小になる時刻を含み、
    前記第1の動作情報は、異なるカメラ位置から撮像された複数の前記画像の解析によってそれぞれ検出され、前記カメラ位置を示す情報に対応付けられた情報であり、
    前記第2の動作情報は、前記端末装置の概略的な位置を示す情報に対応付けられた情報であり、
    前記マッチングに使用される前記第1の動作情報は、前記カメラ位置を示す情報、及び前記概略的な位置を示す情報を用いて選択される、情報処理方法。
  17. 対象物に関連する画像の解析によって検出された、前記対象物の動作を示す第1の動作情報を取得する機能と、
    前記対象物に携帯または装着された端末装置の加速度センサの出力から検出された、前記対象物の動作を示す第2の動作情報を取得する機能と、
    前記第1の動作情報によって示される前記対象物の動作の特徴点、および鉛直方向の加速度が極小になる時刻を含む前記第2の動作情報によって示される前記対象物の動作の特徴点を時間軸上でマッチングして前記対象物と前記端末装置との関係を特定する機能と
    をコンピュータに実現させるためのプログラムであって、
    前記第1の動作情報は、異なるカメラ位置から撮像された複数の前記画像の解析によってそれぞれ検出され、前記カメラ位置を示す情報に対応付けられた情報であり、
    前記第2の動作情報は、前記端末装置の概略的な位置を示す情報に対応付けられた情報であり、
    前記マッチングに使用される前記第1の動作情報は、前記カメラ位置を示す情報、及び前記概略的な位置を示す情報を用いて選択される、プログラム。
JP2012125940A 2012-06-01 2012-06-01 情報処理装置、情報処理方法およびプログラム Expired - Fee Related JP5994397B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012125940A JP5994397B2 (ja) 2012-06-01 2012-06-01 情報処理装置、情報処理方法およびプログラム
US13/865,433 US20130325887A1 (en) 2012-06-01 2013-04-18 Information processing apparatus, information processing method, and program
CN2013101991219A CN103455789A (zh) 2012-06-01 2013-05-24 信息处理设备,信息处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012125940A JP5994397B2 (ja) 2012-06-01 2012-06-01 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2013251800A JP2013251800A (ja) 2013-12-12
JP5994397B2 true JP5994397B2 (ja) 2016-09-21

Family

ID=49671601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012125940A Expired - Fee Related JP5994397B2 (ja) 2012-06-01 2012-06-01 情報処理装置、情報処理方法およびプログラム

Country Status (3)

Country Link
US (1) US20130325887A1 (ja)
JP (1) JP5994397B2 (ja)
CN (1) CN103455789A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11854214B2 (en) 2021-03-09 2023-12-26 Kabushiki Kaisha Toshiba Information processing apparatus specifying a relationship between a sensor and an object included in image data, and method and non-transitory computer-readable storage medium

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103959805B (zh) * 2013-10-24 2017-08-04 华为终端有限公司 一种显示图像的方法和装置
WO2015115944A1 (en) * 2014-01-28 2015-08-06 Telefonaktiebolaget L M Ericsson (Publ) Providing information to a service in a communication network
JP6289965B2 (ja) * 2014-03-27 2018-03-07 京セラ株式会社 携帯電子機器、制御方法、及び制御プログラム
JP6333603B2 (ja) * 2014-03-31 2018-05-30 セコム株式会社 情報処理装置及び情報処理システム
JP6186306B2 (ja) * 2014-05-30 2017-08-23 日本電信電話株式会社 配信サーバ装置、配信システム及びプログラム
WO2016093553A1 (ko) * 2014-12-12 2016-06-16 서울대학교 산학협력단 이벤트 데이터를 수집하는 시스템, 이벤트 데이터를 수집하는 방법, 이벤트 데이터를 수집하는 서비스 서버 및 카메라
KR102345650B1 (ko) * 2015-02-10 2021-12-30 삼성전자주식회사 위치 기반 정보 제공 시스템 및 그 방법
JP2016194755A (ja) * 2015-03-31 2016-11-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP6468062B2 (ja) * 2015-05-11 2019-02-13 株式会社デンソー 物体認識システム
CN107615341B (zh) * 2015-06-12 2019-11-05 索尼公司 信息处理装置、信息处理方法和程序
CN108141903A (zh) 2015-08-05 2018-06-08 爱奇 用于与接收单元通信的方法和装置
US9813857B2 (en) * 2015-08-13 2017-11-07 Eski Inc. Methods and apparatus for creating an individualized record of an event
WO2017038574A1 (ja) * 2015-08-28 2017-03-09 日本電気株式会社 影響度測定装置および影響度測定方法
CN106529982B (zh) * 2015-09-10 2020-05-26 西安云景智维科技有限公司 用于身份匹配的数据处理方法、匹配处理器和系统
CN106557940B (zh) * 2015-09-25 2019-09-17 杭州海康威视数字技术股份有限公司 信息发布终端和方法
JP6521093B2 (ja) * 2015-11-19 2019-05-29 パナソニックIpマネジメント株式会社 歩行動作表示システム及びプログラム
US9788152B1 (en) 2016-04-01 2017-10-10 Eski Inc. Proximity-based configuration of a device
US20180204223A1 (en) * 2017-01-13 2018-07-19 International Business Machines Corporation Determining audience interest levels during presentations based on user device activity
US20180213048A1 (en) * 2017-01-23 2018-07-26 Microsoft Technology Licensing, Llc Secured targeting of cross-application push notifications
CN108696293B (zh) * 2017-03-03 2020-11-10 株式会社理光 可穿戴设备、移动设备及其连接方法
JP6822906B2 (ja) 2017-06-23 2021-01-27 株式会社東芝 変換行列算出装置、位置推定装置、変換行列算出方法および位置推定方法
CN109426826B (zh) * 2017-08-22 2020-12-29 中国电信股份有限公司 用户行为分析方法和装置
KR102022971B1 (ko) * 2017-10-18 2019-09-19 한국전자통신연구원 영상의 객체 처리 방법 및 장치
JP2019111625A (ja) * 2017-12-25 2019-07-11 カシオ計算機株式会社 情報処理装置、ロボット、情報処理方法及びプログラム
CN112753046A (zh) * 2018-07-20 2021-05-04 拜耳作物科学株式会社 信息处理装置和程序
JP2020178242A (ja) * 2019-04-18 2020-10-29 パナソニックIpマネジメント株式会社 無線制御装置、及び、無線制御システム
JP6757009B1 (ja) * 2019-08-19 2020-09-16 株式会社エクサウィザーズ コンピュータプログラム、対象物特定方法、対象物特定装置及び対象物特定システム
JP7083800B2 (ja) * 2019-11-25 2022-06-13 Kddi株式会社 マッチング装置、マッチング方法及びコンピュータプログラム
JP7107452B2 (ja) * 2019-12-17 2022-07-27 日本電信電話株式会社 撮影対象照合方法、撮影対象照合装置、及びプログラム
CN111815496A (zh) * 2020-06-11 2020-10-23 浙江大华技术股份有限公司 关联检测方法以及相关设备、装置
WO2022249269A1 (ja) * 2021-05-25 2022-12-01 日本電気株式会社 データ処理装置、データ処理方法及び非一時的なコンピュータ可読媒体

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004096501A (ja) * 2002-08-30 2004-03-25 Ntt Advanced Technology Corp 移動体の位置検出システム、移動体の位置検出方法、及びプログラム
JP2004274101A (ja) * 2003-03-05 2004-09-30 Shigeo Kaneda 移動体識別システム
US7330566B2 (en) * 2003-05-15 2008-02-12 Microsoft Corporation Video-based gait recognition
JP4761307B2 (ja) * 2006-07-25 2011-08-31 Kddi株式会社 自らの位置を検出する移動端末、カメラ及びプログラム
US8457392B2 (en) * 2007-07-27 2013-06-04 Sportvision, Inc. Identifying an object in an image using color profiles
US8225343B2 (en) * 2008-01-11 2012-07-17 Sony Computer Entertainment America Llc Gesture cataloging and recognition
US7970573B2 (en) * 2008-12-22 2011-06-28 Intel Corporation Techniques for determining orientation of a three-axis accelerometer
WO2011068184A1 (ja) * 2009-12-03 2011-06-09 独立行政法人産業技術総合研究所 移動体の測位装置
JP5712569B2 (ja) * 2010-11-11 2015-05-07 富士通株式会社 移動物特定システム、移動物特定装置および移動物特定プログラム
WO2012135372A2 (en) * 2011-03-29 2012-10-04 Visa International Service Association Using mix-media for payment authorization
US8831642B2 (en) * 2011-08-15 2014-09-09 Connectquest Llc Close proximity notification system
US8892461B2 (en) * 2011-10-21 2014-11-18 Alohar Mobile Inc. Mobile device user behavior analysis and authentication

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11854214B2 (en) 2021-03-09 2023-12-26 Kabushiki Kaisha Toshiba Information processing apparatus specifying a relationship between a sensor and an object included in image data, and method and non-transitory computer-readable storage medium

Also Published As

Publication number Publication date
US20130325887A1 (en) 2013-12-05
JP2013251800A (ja) 2013-12-12
CN103455789A (zh) 2013-12-18

Similar Documents

Publication Publication Date Title
JP5994397B2 (ja) 情報処理装置、情報処理方法およびプログラム
TWI661723B (zh) 攜帶資訊機器及資訊取得系統
JP2020047110A (ja) 人物検索システムおよび人物検索方法
US20150063642A1 (en) Computer-Vision-Assisted Location Check-In
US20120113145A1 (en) Augmented reality surveillance and rescue system
US20140035952A1 (en) Individual identification character display system, terminal device, individual identification character display method, and computer program
JP4282091B1 (ja) 端末装置、情報処理方法及びプログラム
JP2014078910A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US9501832B1 (en) Using pose data and positioning information to locate online photos of a user
US20190320061A1 (en) Proximity-based event networking system and wearable augmented reality clothing
TW201802764A (zh) 群集監視裝置以及群集監視系統
JP2022059044A (ja) 店舗装置、店舗システム、店舗管理方法、プログラム
JP2022062248A (ja) 端末装置、情報処理装置、情報出力方法、情報処理方法、接客支援方法及びプログラム
US10257129B2 (en) Information processing apparatus, information processing method, program, recording medium, and information processing system for selecting an information poster and displaying a view image of the selected information poster
KR101738443B1 (ko) 증강 현실 콘텐츠를 스크리닝하는 방법, 장치, 및 시스템
KR20150011241A (ko) 장소를 추천하는 방법 및 그 장치
KR101554776B1 (ko) 피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기
JP7243413B2 (ja) 見守りシステム、通知装置および通知方法
KR101933279B1 (ko) IoT환경에서 관람객의 활동 기반 전시 서비스 제공 방법 및 시스템
WO2021240889A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2010053192A1 (ja) 行動分析装置及び行動分析方法並びに記録媒体
WO2013169080A2 (ko) 피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기
JP2014164374A (ja) 情報表示システム、情報端末、サーバ装置、情報端末の制御方法、サーバ装置の制御方法、及びプログラム
JP6435640B2 (ja) 混雑度推定システム
JP6077930B2 (ja) 情報管理装置、情報管理システム、通信端末および情報管理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160808

R151 Written notification of patent or utility model registration

Ref document number: 5994397

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees