JP2014116891A - 情報表示システム、サーバ装置、情報処理装置、サーバ装置の制御方法、情報処理装置の制御方法及びプログラム - Google Patents

情報表示システム、サーバ装置、情報処理装置、サーバ装置の制御方法、情報処理装置の制御方法及びプログラム Download PDF

Info

Publication number
JP2014116891A
JP2014116891A JP2012271385A JP2012271385A JP2014116891A JP 2014116891 A JP2014116891 A JP 2014116891A JP 2012271385 A JP2012271385 A JP 2012271385A JP 2012271385 A JP2012271385 A JP 2012271385A JP 2014116891 A JP2014116891 A JP 2014116891A
Authority
JP
Japan
Prior art keywords
information
person
display
group
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012271385A
Other languages
English (en)
Inventor
Yuji Naya
佑治 名屋
Hiromi Okuma
啓水 奥間
Hitoshi Imai
仁 今井
Hiroshi Ogasawara
拓 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012271385A priority Critical patent/JP2014116891A/ja
Publication of JP2014116891A publication Critical patent/JP2014116891A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】 情報処理装置で撮影された人物に対して表示すべきコンテンツの内容と表示態様を自動的に切り替えて視認性と識別性に優れたコンテンツ表示を行う。
【解決手段】
被写体を撮影する内蔵カメラとで撮影された被写体に含まれる人物に対応づけられた個人識別情報をサーバ装置に要求する。そして、サーバ装置から受信する各人物の個人識別情報と、設定されるコンテンツ情報の表示モードとに基づいて前記表示手段に表示すべきコンテンツ情報をそれぞれ生成する。切替手段は、生成されたコンテンツ情報の数と、表示手段に表示される各人物の位置と、コンテンツ情報の表示範囲とに基づいて、前記表示手段に表示すべきコンテンツ情報の表示モードを個人表示モードからグループ表示モードに切り替えることを特徴とする。
【選択図】 図12

Description

本発明は、情報表示システム、サーバ装置、情報処理装置、サーバ装置の制御方法、情報処理装置の制御方法及びプログラムに関するものである。
従来、実世界上の人物の動線追跡を行うシステムは、カメラなど映像を撮像するセンサを空間内に複数配置することでセンサ空間を構築している。例えば、時系列に撮像された複数の画像から人物の動線追跡、及び、速度ベクトルの算出を行うシステムがある。該システムは、算出された速度ベクトルと、人物の顔画像からの視線方向取得処理などの画像処理結果から、複数人物のグループ関連付けとグループ特性を決定し、その特性に応じてグループに対して表示するコンテンツを決定する(特許文献1)。
また、複数人物が画像を観察する際、人物間の関連情報に基づいて表示コンテンツを制御するシステムがある。例えば、カメラによって撮像された複数人物の顔画像から特徴データを抽出し、その特徴データから人物を特定する。その人物が特定された結果と人物間の相対位置関係から、表示コンテンツの順番、もしくは、表示の大きさを制御するものがある(特許文献2)。
また、実世界上の人物の動線情報を利用して、人物の個人情報コンテンツをディスプレイを通してリアルタイムに観測者に表示するようなシステムが提案されている。
特開2011−248548号公報 特開2012−29119公報
しかし、特許文献1では、複数人物をグルーピングし、そのグループへ単一コンテンツを表示することを想定しており、コンテンツはグループへの提示優先度が高いもののみしか表示されない。また、特許文献2では、カメラによって撮像された複数人物が多くなると、一人当たりの表示コンテンツの大きさが小さくなりすぎてしまう可能性がある。
また、人物の個人情報コンテンツをディスプレイを通して見るシステムでは、観測対象の人物が複数人になると、ディスプレイ上に個人の情報コンテンツが溢れてしまい、観測者が人物の情報を取得しにくいという課題がある。
本発明は、上記の課題を解決するためになされたもので、本発明の目的は、情報処理装置で撮影された人物に対して表示すべきコンテンツの内容と表示態様を自動的に切り替えて視認性と識別性に優れたコンテンツ表示を行える仕組みを提供することである。
上記目的を達成する本発明の情報表示システムは以下に示す構成を備える。
人物を撮影する複数のカメラを含むカメラシステムと、サーバ装置と、情報処理装置とが通信する情報表示システムであって、前記カメラシステムは、各カメラで撮影される画像情報から人物を検出する検出手段と、検出された人物を特定する人物識別情報を割り当てる割当手段と、検出された人物の部地理空間位置を特定する位置情報を算出する算出手段と、算出された位置情報と割り当てられた前記識別情報とを対応づけた人物情報を前記サーバ装置に送信する第1の送信手段と、検出された人物の画像情報から当該人物の顔情報に基づく特徴情報を抽出する抽出手段と、抽出された特徴情報と前記識別情報とを対応づけて人物特徴情報を前記サーバ装置に送信する第2の送信手段と、を備え、前記サーバ装置は、人物を個別に識別するための個人識別情報と、個人属性情報と、人物の顔情報と、現在の物理位置情報と、各人物が属するグループ情報とをデータベースに登録して管理する管理手段と、前記カメラシステムから受信する人物特徴情報と登録された顔情報とを比較して各カメラで撮影された人物を認識する認識手段と、認識された人物の個人識別情報に対応づけ前記データベースに登録されている現在の物理位置情報を更新する更新手段と、前記情報処理装置から複数の人物の個人識別情報とともに受け付けるコンテンツ表示に用いる人物関連情報の取得要求に応じて、前記データベースから読み出される人物関連情報を複数の人物の個人識別情報とともに前記情報処理装置に送信する第3の送信手段と、を備え、前記情報処理装置は、被写体を撮影する内蔵カメラと、撮影された画像を表示する表示手段と、撮影された被写体に含まれる人物に対応づけられた個人識別情報とともに、当該個人識別情報に対応づけられた人物関連情報の取得要求を前記サーバ装置に行う第1の要求手段と、前記サーバ装置から受信する各人物の人物関連情報と、設定されるコンテンツ情報の表示モードとに基づいて前記表示手段に表示すべきコンテンツ情報をそれぞれ算出する算出手段と、算出されたコンテンツ情報の数と、前記表示手段に表示される各人物の位置と、各人物のコンテンツ情報の表示範囲とに基づいて、前記表示手段に表示される各人物に対応づけてコンテンツ情報を表示する表示制御手段と、算出されたコンテンツ情報の数と、前記表示手段に表示される各人物の位置と、各人物のコンテンツ情報の表示範囲とに基づいて、前記表示制御手段が前記表示手段に表示すべきコンテンツ情報の表示モードを個人表示モードからグループ表示モードに切り替える切替手段と、を備えることを特徴とする。
上記目的を達成する本発明のサーバ装置は以下に示す構成を備える。
カメラシステムまたは情報処理装置と通信するサーバ装置であって、人物を個別に識別するための個人識別情報と、個人属性情報、人物の顔情報と、現在の物理位置情報と、各人物が属するグループ情報とをデータベースに登録して管理する管理手段と、前記カメラシステムから受信する人物特徴情報と登録された顔情報とを比較して各カメラで撮影された人物を認識する認識手段と、認識された人物の個人識別情報に対応づけ前記データベースに登録されている現在の物理位置情報を更新する更新手段と、前記情報処理装置から複数の人物の個人識別情報とともに受け付けるコンテンツ表示に用いる人物関連情報の取得要求に応じて、前記データベースから読み出される人物関連情報を複数の人物の個人識別情報とともに前記情報処理装置に送信する送信手段と、を備えることを特徴とする。
上記目的を達成する本発明の情報処理装置は以下に示す構成を備える。
サーバ装置と通信する情報処理装置であって、被写体を撮影する内蔵カメラと、撮影された画像を表示する表示手段と、撮影された被写体に含まれる人物に対応づけられた個人識別情報とともに、当該個人識別情報に対応づけられた人物関連情報の取得要求を前記サーバ装置に行う第1の要求手段と、前記サーバ装置から受信する各人物の人物関連情報と、設定されるコンテンツ情報の表示モードとに基づいて前記表示手段に表示すべきコンテンツ情報をそれぞれ算出する算出手段と、算出されたコンテンツ情報の数と、前記表示手段に表示される各人物の位置と、各人物のコンテンツ情報の表示範囲とに基づいて、前記表示手段に表示される各人物に対応づけてコンテンツ情報を表示する表示制御手段と、算出されたコンテンツ情報の数と、前記表示手段に表示される各人物の位置と、各人物のコンテンツ情報の表示範囲とに基づいて、前記表示制御手段が前記表示手段に表示すべきコンテンツ情報の表示モードを個人表示モードからグループ表示モードに切り替える切替手段と、を備えることを特徴とする。
本発明によれば、情報処理装置で撮影された人物に対して表示すべきコンテンツの内容と表示態様を自動的に切り替えて視認性と識別性に優れたコンテンツ表示を行える。
情報表示システムの一例を示す図である。 図1に示したタブレット端末のハードウェア構成を説明するブロック図である。 図2に示したタブレット端末の外観を示す図である。 図1に示した処理サーバのハードウェア構成を説明するブロック図である。 図1に示したネットワークカメラのハードウェア構成を示すブロック図である。 ディスプレイに表示される画面イメージの一例を示す図である。 ディスプレイに表示される画面イメージの一例を示す図である。 処理サーバがHDDに保持する個人情報データベースの内容を説明する図である。 処理サーバがHDDに保持する個人と個人、及び、個人とグループの関わりを表す情報データベースの内容を示す図である。 情報表示システムの制御方法を説明するフローチャートである。 サーバ装置の制御方法を説明するフローチャートである。 情報表示システムの制御方法を説明するフローチャートである。 情報処理装置の制御方法を説明するフローチャートである。 サーバ装置の制御方法を説明するフローチャートである。 ディスプレイを通して見ている被観測者を導出する方法の概念図である。 ディスプレイ上のコンテンツ表示位置の算出処理を示す図である。 サーバ装置の制御方法を説明するフローチャートである。 ディスプレイに表示される画面イメージ例を示す図である。 グループとグループの関わりを表す情報データベースの内容を示す図である。 サーバ装置の制御方法説明するフローチャートである。
次に本発明を実施するための最良の形態について図面を参照して説明する。
<システム構成の説明>
〔第1実施形態〕
図1は、本実施形態を示す情報表示システムの一例を示す図である。本例は、処理サーバ300と情報処理装置の一例であるタブレット端末200とが通信可能な情報表示システム例を示す。本実施形態では、複数のネットワークカメラを用いたカメラシステムで撮影される人物に割り当てられる識別情報が処理サーバ300に送信されることで、各人物が移動する物理空間内での各人物の物理位置情報が更新されて管理されるシステムが構築される。
図1において、本情報表示システムは、Aさんが持つカメラ内蔵のタブレット端末200と、ネットワークカメラ500、ワイヤレスアクセスポイント100、処理サーバ300等から構成されている。ここで、タブレット端末200とワイヤレスアクセスポイント100は無線LANで接続されており、処理サーバ300とネットワークカメラ500とワイヤレスアクセスポイント100は有線LANで構成されるネットワーク9000で接続されている。Aさんは、Bさん、Cさん、Dさんが含まれるBetaグループG1の方向を向いており、グループを観測しているものとする。また、AさんとEさんはAlphaグループG2とする。
図2は、図1に示したタブレット端末200のハードウェア構成を説明するブロック図である。
図2に示すタブレット端末200において、内部バス211は、メモリコントローラ207、I/Oコントローラ209間で情報の伝達が出来るよう、電気信号を伝搬する。メモリコントローラ207は、メインメモリ208に対するメモリアクセス全般を統括する。I/Oコントローラ209は、フラッシュメモリ210、LANポート202、タッチパネルを兼ねるディスプレイ201のタッチパネル、カメラ203、地磁気センサ212、内部バス211を介して接続している処理部との情報の授受を行う。
LANポート202は、ネットワーク9000を介して接続されている他の機器、I/Oコントローラ209との情報の授受を行う。フラッシュメモリ210にはブートローダプログラム及び本特許の実施形態を含むタブレット端末制御プログラムが格納されている。ブートローダプログラムに関しては、本発明の特徴との関わりは薄いため説明は割愛する。メインメモリ208は揮発性メモリであり、高速アクセスが可能であるので、フラッシュメモリ210に記憶されている情報や一時的に使用する情報はここに格納される。
タブレット端末200の電源投入時には、CPU204がブートローダプログラムを読み出して実行し、フラッシュメモリ210に格納されているタブレット端末制御プログラムを取り出し、メインメモリ208に格納する。
そして、CPU204がメインメモリ208に格納されているタブレット端末制御プログラムを実行し、タブレット端末の備える各機能を実行する。タブレット端末200は、情報を表示するディスプレイとユーザからの情報入力を受けるタッチパネルが一体化したディスプレイ201を備える。
グラフィックコントローラ206は、ディスプレイ201のディスプレイへの表示を制御する。タブレット端末200は、ユーザに情報を提示する際にはディスプレイ201に情報を表示し、ユーザは、ディスプレイ201に対するタッチ操作でタブレット端末200への情報入力が可能である。タブレット端末200は、内蔵カメラ(以下、カメラと呼ぶ)203を備えている。
カメラ203は撮像した撮像画像をデジタル画像に変換してメインメモリ208に格納する。カメラ203は、I/Oコントローラ209と情報の授受を行う。タブレット端末200は、地磁気センサ212を備えている。地磁気センサ212は、東西南北の方角と、三次元方向の傾きを計測することが可能であり、計測した情報をデジタル情報に変換してCPU204に出力する。地磁気センサ212は、I/Oコントローラ209と情報の授受を行う。
CPU204は、地磁気センサ212により、タブレット端末200を持っているユーザが、物理空間上でどの方向にタブレット端末200を向けているのかが把握可能である。図示しないバッテリは、電力をタブレット端末200全体に供給する。昨今、タブレット端末200は一般的な技術となっており、その詳細技術は本発明とは直接関係しないため、これ以上の説明は割愛する。
図3は、図2に示したタブレット端末200の外観を示す図である。
図3の(a)に示す通り、タブレット端末200は前面にディスプレイ201を備えている。図3の(b)に示す通り、タブレット端末は裏面にカメラ203を備えている。この構造により、ユーザはタブレット端末200のディスプレイ表示を見つつ、カメラで視線方向を撮像することが可能である。
図4は、図1に示した処理サーバ300のハードウェア構成を説明するブロック図である。
図4に示す処理サーバ300おいて、内部バス311は、メモリコントローラ307、I/Oコントローラ309間で情報の伝達が出来るよう、電気信号を伝搬する。メモリコントローラ307は、メインメモリ308に対するメモリアクセス全般を統括する。
I/Oコントローラ309は、HDD310、LANポート304、キーボード302、マウス303、内部バス311を介して接続している処理部との情報の授受を行う。LANポート304は、ネットワーク9000を介して接続されている他の機器、I/Oコントローラ309との情報の授受を行う。HDD310にはブートローダプログラム及び本特許の実施形態を含む処理サーバ制御プログラムが格納されている。
ブートローダプログラムに関しては、本発明の特徴との関わりは薄いため説明は割愛する。メインメモリ308は揮発性メモリであり、高速アクセスが可能であるので、HDD310に記憶されている情報や一時的に使用する情報はここに格納される。
処理サーバ300の電源投入時には、CPU305がブートローダプログラムを読み出して実行し、HDD310に格納されている処理サーバ制御プログラムを取り出し、メインメモリ308に格納する。
そして、CPU305がメインメモリ308に格納されている処理サーバ制御プログラムを実行し、処理サーバの備える各機能を実行する。処理サーバ300は、情報を表示するディスプレイ201を備える。
グラフィックコントローラ306は、ディスプレイ201への表示を制御する。処理サーバ300は、ユーザに情報を提示する際にはディスプレイ201に情報を表示し、ユーザは、キーボード302又はマウス303に対する操作で処理サーバ300への情報入力が可能である。昨今、サーバは一般的な技術となっており、その詳細技術は本発明とは直接関係しないため、これ以上の説明は割愛する。
図5は、図1に示したネットワークカメラ500のハードウェア構成を説明するブロック図である。
図5に示すネットワークカメラ500おいて、内部バス509は、メモリコントローラ505、I/Oコントローラ507間で情報の伝達が出来るよう、電気信号を伝搬する。メモリコントローラ505は、メインメモリ506に対するメモリアクセス全般を統括する。I/Oコントローラ507は、ROM508、LANポート502、カメラ501、内部バス509を介して接続している処理部との情報の授受を行う。LANポート502は、ネットワーク9000を介して接続されている他の機器、I/Oコントローラ507との情報の授受を行う。
ROM508にはブートローダプログラム及び本特許の実施形態を含むネットワークカメラ制御プログラムが格納されている。ブートローダプログラムに関しては、本発明の特徴との関わりは薄いため説明は割愛する。
メインメモリ506は揮発性メモリであり、高速アクセスが可能であるので、ROM508に記憶されている情報や一時的に使用する情報はここに格納される。ネットワークカメラ500の電源投入時には、CPU503がブートローダプログラムを読み出して実行し、ROM508に格納されているネットワークカメラ制御プログラムを取り出し、メインメモリ506に格納する。
そして、CPU503がメインメモリ506に格納されているネットワークカメラ制御プログラムを実行し、ネットワークカメラの備える各機能を実行する。ネットワークカメラ500は、カメラ501を備えている。カメラ501は撮像した撮像画像をデジタル変換する。
カメラ501は、I/Oコントローラ507との情報の授受を行う。このカメラ501は建物内の天井に取り付けられるようになっており、建物空間内を広く撮像することが可能である。勿論、カメラとしては、天井取り付け型ではなく、壁面に埋め込んだものであったり、スタンドに設置したりするものであっても良い。
昨今、カメラは一般的な技術となっており、その詳細技術は本発明とは直接関係しないため、これ以上の説明は割愛する。
図6は、図2に示したタブレット端末200のディスプレイ201に表示される画面イメージの一例を示す図である。本例は、図1に示したAさんが、Bさん、Cさん、Dさんを観測したときに、本発明を適用する前のタブレット端末200のディスプレイ201に表示される画面イメージ例である。
図6において、ディスプレイ201には、Bさん、Cさん、Dさんの位置に合わせて各人物のAさんとの関わり情報601、602、603が重畳表示され、観測者(Aさん)はディスプレイ201を通して人物の情報を視認することができる。ディスプレイ201上の各人物の位置とその関わり情報は線604で結ばれる。
Aさんとの関わり情報601は、後述する図9の接触日・接触時間(Contact_Day_Time列の属性)、接触した内容(Title列の属性)から導出される。
しかし、図6に示すように、Aさんがカメラ203を介して複数の人物を観測している場合、Cさんの情報602がBさんの情報601とDさんの情報603とで重なってしまっており、各人物の情報が読みづらくなってしまっている。この例では3人のみだが、より複数の人物を観測した場合、人物の情報は更に見づらくなってしまうことが想定される。尚、Bさん、Cさん、DさんとAさんとの関わり情報は、観測者のタッチ操作或いは予め設定した内容などにより、図8のInformaition列の属性を表示するよう切り替えてもよい。
図7は、図2に示したタブレット端末200のディスプレイ201に表示される画面イメージの一例を示す図である。
本例は、本発明を適用した時に、図1のAさんが、Bさん、Cさん、Dさんを観測したときに、タブレット端末200のディスプレイ201に表示される画面イメージ例である。
図7において、表示される情報は、Bさん、Cさん、Dさんが含まれるグループ情報701であり、グループ情報701はAさんとの関わりに基づいて処理サーバ300によって算出される。ここでは、Bさん、Cさん、Dさんが含まれるグループとして「Beta」グループというグループ情報が表示されている。また、Aさんとの関わりを表す情報が「2012/03/08にDB策定会議を1時間5分行いました。」という情報として表示される。グループ情報を表示するか個人の情報を表示するかは、図6に示した個人情報を重畳表示した場合にCPU204が個人情報の重なりの範囲から自動的に判定される。また、ディスプレイ201上の各人物の位置とそのグループ情報は線702で結ばれる。
図8は、図1に示した処理サーバ300がHDD310に保持する個人情報データベースの内容を説明する図である。
図8において、801〜805の各行は、それぞれAさん、Bさん、Cさん、Dさん、Eさんの個人情報を表す。個人ID(個人識別情報)はID列に示す固有のIDで管理する。各個人の名前はName列で管理する。
例えば、Nameが"A"となっているのは、Aさんであることを示す。各個人の趣味や近況などの情報(人物関連情報)はInfomation列として管理する。各個人が自分のPC端末(不図示)などでInfomationを編集すると、その内容がこのInfomation列に反映される。
例えば、ID=0003(Cさん)のInfomationは、趣味が「ゲーム」で、近況が「Rubyに興味があります。」という内容になる。各個人の管理するスケジュールの内容はSchedule列として管理する。各個人が自分のPC端末などでスケジュールを編集すると、その内容がこのSchedule列に反映される。例えば、ID=0002(Bさん)とID=0003(Cさん)は共にタイトルが「DB策定会議」で開催日時が「2012/3/15の10:00〜11:00」というミーティングに出席予定ということになる。各個人の顔画像はFace_Image列として管理する。例えば、企業では社員証用に撮像した写真を登録する。
各個人が物理空間(例えばオフィス空間)のどこにいるかを示す物理位置情報はLocation列として管理する。例えば、ID=0001(Aさん)の物理位置情報は、カメラの撮像画像から人体検出した際に割り振られるIDがManIDという属性で表され、値は0であることを表している。
また、システムを管理するAさんの物理空間における位置座標はCoordという属性で表され、x座標は3030mm、y座標は1533mm、z座標(高さ)は1階にいることを表している。各個人の所属グループの情報はGroup列として管理する。各個人が自分のPC端末(不図示)などでGroupを編集すると、その内容がこのGroup列に反映される。例えば、ID=0004(Dさん)の所属グループは、"Beta"グループと"Gamma"グループということになる。
図9は、図1に示した処理サーバ300がHDD310に保持する個人と個人、及び、個人とグループの関わりを表す情報データベースの内容を示す図である。本例は処理サーバ300が行う第1の生成処理に基づき生成される情報データベースの例である。
図9において、個人IDはID列に示す固有のIDで管理しており、図8のIDと同じ人物であることを示している。例えば、図9のID列が"0001"となっているのは、"A"さんであることを示す。
各個人の接触した人物のIDはContact_ID列で管理する。例えば、Contact_IDが"0002"となっているのは、ID=0001(Aさん)がID=0002(Bさん)と接触したことを示す。
各個人の接触したグループはContact_Group列として管理する。例えば、Contact_Groupが"Beta"となっているのは、ID=0001(Aさん)がグループ"Beta"と接触したことを示す。
接触した個人、もしくはグループとの接触した日及び接触した時間はContact_Day_Time列として管理する。例えば、ID=0001(Aさん)がID=0003(Cさん)と"接触した日"は「2012/03/12」であり、"接触した時間"(接触開始から終了までの経過時間)は「01:50:00(1時間50分00秒)」ということになる。
接触した内容はTitle列として管理しており、図8のSchedule列のTitleから引用されて登録される。例えば、ID=0001(Aさん)がID=0004(Dさん)と接触したのは「商品企画DR」という内容になる。これはID=0004(Dさん)と接触した日時のID=0001(Aさん)のScheduleのTitleが「商品企画DR」であったことを示す。
図9では、簡単のためID=0001(Aさん)の情報データベースのみ示しているが、実際には、他の人物(Bさん、Cさんなど)の情報データベースも同様に存在する。
図10は、本実施形態を示す情報表示システムの制御方法を説明するフローチャートである。本例は、撮像画像処理例である。なお、図10に示すS1101からS1111はネットワークカメラ500の撮像画像処理であり、図10に示すS1112〜S1121は処理サーバ300の撮像画像処理である。
また、本フローチャートのS1101〜S1111は、ネットワークカメラ500のROM508に格納されたプログラムに従ってCPU503が実行することによって実現される。
また、本フローチャートのS1112〜S1121は、処理サーバ300のHDD310に格納されたプログラムに従ってCPU305が実行することによって実現される。
〔ネットワークカメラ500の撮影画像処理〕
S1101では、ネットワークカメラ500が、内蔵カメラ(以下、カメラと呼ぶ)501で空間を撮像し、S1102に進む。S1102では、ネットワークカメラ500のCPU503が、カメラ501で撮像される画像情報から人物の人体を検出し、S1103に進む。
ここで、撮像画像から人物の人体を検出する方法について述べる。撮像される画像情報から人体を検出する方法としては様々な公知の方式があるが、例えば内蔵カメラ501から被写体までの距離を測定できる深度センサを用いた技術などが広く知られている。
S1103では、検出した人体が新規のものかどうか判定し、新規のものであればS1104に進み、そうでなければS1105に進む。
S1104では、新規の人体に新たなManID(人物識別情報)を割当て、S1106に進む。ここで、ManIDとは、システムが深度センサなどを用いて検出した人体をシステムの内部的に区別するために、各人体に自動的に割り振る個別の番号である。
S1105では、人体が既に検出済みであるため、既存のManIDを割り当て、S1106に進む。
S1106では、ネットワークカメラ500が、撮像画像から物理空間における人物の位置を算出し、S1107に進む。ここで、物理空間における人物の位置とは、人物のいる水平面上の位置であって高さ方向の位置を除いた3次元の位置である。
以下、物理空間での位置(物理空間位置)の算出方法について述べる。物理空間における位置を算出する方法としては様々な公知の方式があるが、例えば先述の深度センサであれば、測定対象に関する深度情報と、深度センサ撮像面の法線と測定対象の成す角度から算出する方法などがある。
S1107では、ネットワークカメラ500が、第1の送信処理として算出した人物の位置情報をManIDに紐付けた人物情報を処理サーバ300に送信し、S1108に進む。S1108では、ネットワークカメラ500のCPU503が人物の顔を認識できるかどうかを判定する。ここで、出来るとCPU503が判断した場合はS1109に進み、出来ないとCPU503が判断した場合はネットワークカメラ500による撮影画像処理を終了する。
なお、人物の顔が認識できるかどうかは、例えば、特徴空間ベクトルを用いた検出方法を用い、検出出来た場合は認識できるものとして扱うことが考えられる。
S1109では、ネットワークカメラ500のCPU503が、撮像画像から人物の顔を検出し、撮像画像中の人物の顔の画像を抽出して、S1110に進む。S1110では、ネットワークカメラ500のCPU503が、前記撮像画像中の人物の顔の画像から、人物の顔の特徴情報を算出し、S1111に進む。
S1111では、ネットワークカメラ500が、第2の送信処理として前記撮像画像中の人物の顔の特徴情報(人物特徴情報)をManIDに紐付けて処理サーバ300に送信し、ネットワークカメラの処理を終了する。
〔処理サーバ300の撮像画像処理〕
S1112では、処理サーバ300が、ネットワークカメラ500から送信された人物の位置情報とManIDを受信し、S1113に進む。S1113では、処理サーバ300のCPU305が、HDD310から各個人の物理位置情報(図8のLocation列の属性)を読み出す。
S1114では、CPU305が物理位置情報から一致するManIDがHDD310に既に登録されているかどうかを判定する。ここで、登録済みのManIDがあるとCPU305が判断した場合、S1115へ進み、登録済みのManIDがないとCPU305が判断した場合S1116へ進む。
S1115では、CPU305が登録済みのManIDの位置情報を更新し、S1117へ進む。S1116では、CPU305は新規にManIDと紐付けて位置情報をHDD310に登録し、S1117へ進む。S1117では、処理サーバ300が、ネットワークカメラ500から送信された撮像画像中の人物の顔の特徴情報とManIDを受信し、S1118に進む。
S1118では、処理サーバ300のCPU305が、詳細は図11に示す顔認識処理を実行し、S1119に進む。S1119では、処理サーバ300のCPU305が、HDD310から特定した個人の個人ID(図8のID列の属性)と物理位置情報(図8のLocation列の属性)を読み出し、S1120へ進む。
S1120では、CPU305は、ManIDが個人IDに紐付けられて登録されているかどうかを判断する。ここで、ManIDが個人IDに紐付けられて登録されていないとCPU305が判断した場合、S1121へ進み、既に紐付けられていると判断した場合は、処理サーバ300の撮像画像処理を終了する。
S1121では、新規にManIDと個人IDとを紐付けて登録し、処理サーバ300の撮像画像処理を終了する。
なお、本実施形態において、処理サーバ300の位置情報登録・更新処理(S1112〜S1116)と個人ID登録処理(S1117〜S1121)は非同期に動作させている。その理由は、個人ID登録処理の顔認識処理が成功するかどうかは、ネットワークカメラ500が人物の顔を観測出来る位置と向きに人物が存在する必要があり、顔を認識できないことが多々あるためである。
そのため、まずは人物の位置を把握しておき、顔認識が成功し個人が特定できた時点で、人物の位置情報と個人IDを結びつけることが重要になる。本実施形態で図1に示す通りネットワークカメラ500を4台異なる方向に設置しているのは、人物の顔を観測出来る条件を増やし、個人認識の確率を向上させるためである。
図11は、本実施形態を示すサーバ装置の制御方法を説明するフローチャートである。本例は、処理サーバ300による顔認識処理例である。なお、本フローチャートのS1201〜S1204は、処理サーバ300のHDD310に格納されたプログラムに従ってCPU305が実行することによって実現される。
S1201では、処理サーバ300のCPU305が、記憶装置(HDD310)から各個人の顔情報画像(図8のFace_Image列の情報)を順次読み出して特徴情報を算出し、S1202に進む。S1202では、CPU305が、S1201で算出した特徴情報と撮像画像中の人物の顔の特徴情報の類似度を算出し、S1203に進む。
ここで、人物の顔の特徴情報の類似度を算出する方法としては、例えば、2つの特徴空間ベクトルの成す角度の相関を求める方法などの公知の方法が多くあり、いずれかの方法を用いて類似度を算出すればよい。
S1203では、CPU305が、S1202で算出した類似度が一定値以上かどうかを判定する。ここで、類似度が一定値以上であるとCPU305が判断した場合、S1204に進み、一定値未満であるとCPU305が判断した場合は、S1201に進み、次の個人情報に関して類似度を比較する処理を進める。
S1204では、CPU305が現在参照している個人情報が、撮像画像中の人物であると個人特定し、本処理を終了する。
図12は、本実施形態を示す情報表示システムの制御方法を説明するフローチャートである。なお、S1301〜S1312はタブレット端末200の情報表示処理例であり、観察者がディスプレイ201を通して非観察者を視認することで、観察者は非観察者の情報を個人の情報或いはグループの情報として得ることができる。S1313〜S1318は、タブレット端末200の情報表示処理に応じて処理を実行する処理サーバ300の情報表示処理例である。以下、処理サーバ300から受信する混物の物理位置情報と個人IDと個人属性情報に従いタブレット端末200に表示される人物にコンテンツ情報を表示する表示制御を説明する。ここで、個人属性情報とは、Name(名前情報),Infomation(個人に関わる特定情報)、Schedule(スケジュール情報)等が該当する。
なお、タブレット端末200の表示モードは、ユーザにより、個人表示モードかグループ表示モードとするかが選択されているものとする。本実施形態では、CPU204は、後述するコンテンツ情報の判断に応じて、表示モードを個人表示モードからグループ表示モードに切替制御する例を説明する。
また、本フローチャートのS1301〜S1312は、タブレット端末200のフラッシュメモリ210に格納されたプログラムに従ってCPU204が実行することによって実現される。さらに、本フローチャートのS1313〜S1318は、処理サーバ300のHDD310に格納されたプログラムに従ってCPU305が実行することによって実現される。
〔タブレット端末200による情報指示処理〕
S1301では、タブレット端末200のコンテンツ表示モードを、グループコンテンツ情報優先表示モードとするか、通常表示モードとするかを観測者(本実施形態では、Aさん)が予め選択し、S1302に進む。
この処理は、観測者がタブレット端末の表示モードを選択することにより、タブレット端末200のCPU204が表示モードの設定をフラッシュメモリ210に保存するという動作になる。ここで、観測者が通常表示モードを選択した場合は、CPU204は、グループコンテンツ情報の表示は行わない。
S1302では、タブレット端末200が、カメラ203で空間を撮像し、S1303に進む。S1303では、タブレット端末200のCPU204が、地磁気センサ212の情報からタブレット端末200の向きを算出し、S1304に進む。
S1304では、タブレット端末200が、第1の要求処理として観測者の個人ID(図8のID列の属性)と共に、撮影場所に存在する人物の物理位置情報(図8のLocation列の属性)、個人ID(図8のID列の属性)、個人属性情報(図8のName列、Information列、Schedule列の属性)の取得要求を処理サーバ300に送信し、S1305に進む。
S1305では、タブレット端末200が、人物の物理位置情報、個人ID、個人属性情報を処理サーバ300から受信し、S1306に進む。
S1306では、タブレット端末200が、詳細は図13に示すコンテンツ表示情報算出処理を実施し、S1307に進む。
S1307では、CPU204が表示モードがグループコンテンツ情報表示優先モードであるか判定する。ここで、グループコンテンツ情報表示優先モードであるとCPU204が判断した場合、S1308へ進み、グループコンテンツ情報表示優先モードでないとCPU204が判断した場合は、S1309へ進む。
S1308では、CPU204が、表示するコンテンツの数が所定数より少なく、且つ、重なり範囲が所定範囲以内であるか判定する。ここで、重なり範囲が所定範囲以内であるとCPU204が判断した場合はS1309に進み、重なり範囲が所定範囲以内でないとCPU204が判断した場合は、S1310へ進む。なお、コンテンツの数及び重なり範囲は、それぞれ後述のS1401、S1407で算出される。
ここで、所定数より少なくとは、例えば所定数を「3」とするならば、表示するコンテンツの数が「3」より少ない状態のことを表す。また、重なり範囲が所定範囲以内であるとは、例えばコンテンツの重なっている領域が20,000ピクセル以内であるといった状態のことを表す。所定数や所定範囲以内の値は、任意に設定できる。
S1309では、S1306のコンテンツ表示情報算出処理で算出されたコンテンツ表示位置、コンテンツの大きさをもとに、CPU204はコンテンツ情報を撮像画像に重畳させてディスプレイ201に表示する。その後、タブレット端末200の情報表示処理を終了する。
例えば、図6においてCさんがいない場合には、CPU204は、BさんとDさんの各個人のコンテンツ情報がディスプレイ201に表示するように制御する。
S1310では、タブレット端末200が、第2の要求処理としてグループコンテンツ表示に用いる観測者の個人IDと共に、コンテンツを表示する人物の個人IDとグループコンテンツの情報取得要求を処理サーバ300に送信し、S1311に進む。S1311では、タブレット端末200が、グループコンテンツ情報と、該グループに含まれる人物の個人IDを処理サーバ300から受信し、S1312に進む。
S1312では、CPU204がグループコンテンツ情報及び該グループに含まれる人物とグループコンテンツ情報を結ぶ接続線を撮像画像に重畳させてディスプレイ201に表示し、タブレット端末200の情報表示処理を終了する。
例えば、図7のように、Bさん、Cさん、Dさんのグループコンテンツ情報と、グループに含まれる各人物とグループコンテンツ情報を結ぶ線702がタブレット端末200のディスプレイ201に表示される。
〔処理サーバ300による情報表示処理〕
S1313では、処理サーバ300が、タブレット端末200から観測者の個人ID(図8のID列の属性)と共に、場にいる人物の物理位置情報(図8のLocation列の属性)、個人ID(図8のID列の属性)、個人属性情報(図8のName列、Information列、Schedule列の属性)の取得要求を受信し、S1314に進む。
S1314では、処理サーバ300のCPU305が、HDD0310から各個人の個人ID、個人属性情報、物理位置情報を読み出し、S1315へ進む。S1315では、処理サーバ300が、第3の送信処理としてS1314で読み出された個人ID、個人属性情報、物理位置情報をタブレット端末200に送信し、S1316に進む。
S1316では、処理サーバ300が、タブレット端末200から観測者の個人ID(図8のID列の属性)と共に、ディスプレイ201に表示される人物の個人ID(図8のID列の属性)とグループコンテンツ情報取得要求を受信し、S1317に進む。
S1317では、処理サーバ300のCPU305が、図14に示すグループコンテンツ情報導出処理を実行し、観測者と被観測者グループの関係性を示すグループコンテンツ情報(グループ関連情報)を導出する。S1318では、処理サーバ300が、第4の送信処理としてグループコンテンツ情報と、そのグループに含まれる人物の個人IDをタブレット端末200に送信し、処理サーバ300の情報表示処理を終了する。
図13は、本実施形態を示す情報処理装置の制御方法を説明するフローチャートである。本例は、図2に示したタブレット端末200のコンテンツ表示情報算出処理例である。本フローチャートは、図12のS1306で実施される。また、本フローチャートのS1401からS1407は、タブレット端末200のフラッシュメモリ210に格納されたプログラムに従ってCPU204が実行することによって実現される。
S1401では、CPU204が人物の物理位置情報(図8のLocation列の属性)とタブレットの向き情報から、観測者がディスプレイ201を通して見ている被観測者を導出し、S1402に進む。ここで導出された被観測者からその被観測者の数も同時に導出される。被観測者の導出方法については、後述の図15で説明する。
S1402では、CPU204は、S1401で導出された被観測者の個人属性情報から、ディスプレイ201に表示するコンテンツ情報を導出し、S1403に進む。S1403では、CPU204は、S1402で導出されたコンテンツ情報から、表示コンテンツの大きさを算出し、S1404に進む。
ここで、コンテンツの大きさの算出は、コンテンツ情報の文字量と、1文字あたりのピクセル数から算出することが可能である。例えば、1バイト文字の大きさが「16x16(横x縦)」(単位はピクセル)で、文字数が10文字である場合は、表示コンテンツの大きさを「160×16」と算出することができる。改行文字がある場合は、表示コンテンツの縦を「16×(改行文字の数)」、横を最も長い文字数の行のピクセル数で算出できる。また、例えば文字から算出したピクセル数に縦横10ピクセルなどの余白をつけることも可能である。
S1404では、CPU204は、タブレット端末200の向き情報と被観測者の物理位置情報から、タブレット端末200のディスプレイ201上のコンテンツ表示位置を算出し、S1405に進む。コンテンツ表示位置の算出方法については、後述の図16で説明する。
S1405では、CPU204がS1403及びS1404で算出されたコンテンツの表示位置と、コンテンツの大きさから、ディスプレイ201におけるコンテンツの表示範囲を算出する。例えば、ディスプレイ201の大きさが「1280×800」(単位はピクセル)で、表示コンテンツの大きさが「400×200」、コンテンツの表示位置が(600ピクセル、400ピクセル)であるとする。
ただし、(xピクセル、yピクセル)はディスプレイの左上を原点として、それぞれ右にxピクセル及び下にyピクセル分シフトした座標を表す。この場合、ディスプレイ201におけるコンテンツの表示範囲は、(600ピクセル、400ピクセル)を中心とした「400x200」の長方形となる。
すなわち、左上(401ピクセル、301ピクセル)、右上(800ピクセル、301ピクセル)、左下(401ピクセル、500ピクセル)、右下(800ピクセル、500ピクセル)の4点を結んだ長方形として表示範囲を算出する。
S1406では、CPU204がディスプレイ0201に表示するコンテンツが複数あるかどうかを判定する。ここで、コンテンツの数が複数であるとCPU204が判断した場合はS1407へ、コンテンツの数が複数でないとCPU204が判断した場合は、本処理を終了する。
S1407では、CPU204がS1405で算出されたコンテンツの表示範囲から、各コンテンツの重なり範囲を算出し、本処理を終了する。
例えば、コンテンツの表示範囲が、S1405の例で挙げた長方形と、左上(601ピクセル、301ピクセル)、右上(1000ピクセル、301ピクセル)、左下(601ピクセル、500ピクセル)、右下(1000ピクセル、500ピクセル)の4点を結んだ長方形であるとする。
この場合、コンテンツの重なり範囲は、左上(601ピクセル、301ピクセル)、右上(800ピクセル、301ピクセル)、左下(601ピクセル、500ピクセル)、右下(800ピクセル、500ピクセル)を結んだ長方形なので、40,000ピクセル(200x200)と算出できる。
図14は、本実施形態を示すサーバ装置の制御方法を説明するフローチャートである。本例は、図1に示した処理サーバ300のグループコンテンツ情報導出処理例である。本フローチャートは、図12のS1317で実施される。なお、本フローチャートのS1501〜S1503は、処理サーバ300のHDD0310に格納されたプログラムに従ってCPU305が実行することによって実現される。
S1501では、処理サーバ300のCPU305が、タブレット端末200から受信した観測者の個人IDおよびコンテンツを表示する人物の個人IDを参照する。そして、処理サーバ300のCPU305はこの参照によって、表示する人物の個人ID(図8のID列の属性)に対応する所属グループ情報(図8のGroup列の属性)をHDD0310から読み出し、S1502へ進む。
S1502では、処理サーバ300のCPU305が、S1501で読み出されたグループ情報の共通グループを求め、S1503へ進む。ここで、共通グループであるとは、図8のGroup列のグループ名が同じである場合のことを言う。
例えば、図8のID=0002(Bさん)、ID=0003(Cさん)、ID=0004(Dさん)に共通するグループ情報は、"Beta"グループということになる。
S1503では、処理サーバ300のCPU305が、S1502で求められた共通グループと、図9の個人とグループの関わりを表す情報データベースをもとに、グループコンテンツ情報を生成し、本処理を終了する。
例えば、観測者がID=0001(Aさん)であり、観測しているグループがS1502で求められた"Beta"グループの場合、図9のContact_Group列、Contact_Day_Time列、Title列の属性をもとに、図7で示したようなグループコンテンツ情報を生成する。つまり生成されるグループコンテンツ情報は、観測者と被観測者グループの関係性を示す情報である。
図15は、図1の観測者(Aさん)がタブレット端末200のディスプレイ201を通して見ている被観測者を導出する方法の概念図である。
図15において、タブレット端末200のコントローラ220は、図10で説明したS1106の処理によってネットワークカメラ500が検出した全ての人物の物理位置情報を図9のデータテーブルのLocation列の属性からネットワークを介して取得する。また、コントローラ220は、図12のS1303から観測者の持つタブレット端末200の向き情報を取得する。
これらの人物の物理位置情報およびタブレット端末200の向き情報から、コントローラ220は、図15に示すようなマップを内部生成する。図15のマップは観測者と他の人物の位置関係を上から見た例である。
すなわち、コントローラ220は、人物の物理位置情報のLocation情報から建物内の空間(物理空間)において、観測者であるユーザの位置座標(Xo,Yo)を基点として他の人物であるユーザの位置座標(Xt,Yt)を取得する。また、コントローラ220は、タブレット端末の向き(以下ではタブレット端末200の法線2001と表記する)θをタブレット端末200の向き情報から取得する。なお、θはradian単位とするが、Location情報はdegree単位であり、相互に変換可能である。
次にコントローラ220は、図15に示される角度γを求める。角度γは、観測者の持つタブレット端末200の法線2001に対する他の人物(非観測者)の位置する方向の角度となる。γは以下の数1で求める。
Figure 2014116891
そして、コントローラ220のCPU204は、タブレット端末200のディスプレイ201のカバーする視野角αと角度γを比較することで、他の人物(非観測者)が被観測者であるかどうかを判定する。ここでいう被観測者とは、観測者の持つタブレット端末200のディスプレイ201越しに見える人物のことである。コントローラ220は、|γ|<α/2であれば他の人物が被観測者であると判定し、そうでない場合に他の人物は被観測者ではないと判定する。
図16は、図13のS1404でタブレット端末がディスプレイ201上のコンテンツ表示位置の算出処理を説明する図である。
図16に示すようにタブレット端末200の法線2101に基づいて図15で算出した他の人物(非観測者)の位置する方向の角度γの傾き方向を示す線2102と、タブレット端末200のディスプレイの交点が、コンテンツ表示位置Pdisplayとなる。この位置Pdisplayは、観測者から見た被観測者がタブレット端末200のディスプレイ201越しに視認される位置であり、コンテンツ情報がディスプレイ201上に表示されるコンテンツ表示位置である。
コントローラ220は、このコンテンツ表示位置Pdisplayを次の数2に基づいて算出する。
Figure 2014116891

このDは、観測者の目からディスプレイ201までの距離であって、予め決まった値である。
図17は、本実施形態を示すサーバ装置の制御方法を説明するフローチャートである。本例は、処理サーバ300の人物の関係性生成処理例である。なお、本フローチャートのS1801〜S1810は、処理サーバ300のHDD310に格納されたプログラムに従ってCPU305が実行することによって実現される。以下、データベースに登録された個人識別情報、現在の物理位置情報、スケジュール情報、グループ情報に基づいて、各人物と各人物との接触関係を特定する関係性情報を生成して登録する処理を説明する。
S1801では、CPU305がHDD310から人物の物理位置情報(図8のLocation列の属性)を読み出し、S1802へ進む。
S1802では、CPU305は、S1801で読み出された人物の物理位置情報をもとに所定範囲以内に複数人物がいるか判定する。ここで、複数人物がいるとCPU305が判断した場合、S1803へ、複数人物がいないとCPU305が判断した場合、本処理を終了する。
例えば、ある人物を中心に半径2m以内に他の人物がいる場合や、会議室などの特定の場所に複数人物がいる場合に、CPU305は、所定範囲以内に複数人物がいると判定する。なお、CPU305が所定範囲以内に複数人物がいると判定した場合に、所定範囲以内にいる複数の人物は、互いに接触していると判定される。
S1803では、CPU305は、HDD310から、所定範囲以内にいる人物の個人ID(図8のID列の属性)、スケジュール(図8のSchedule列の属性)、所属グループ(図8のGroup列の属性)を読み出し、S1804へ進む。
S1804では、CPU305が2人以上から成るグループが複数あるか判定する。ここで、CPU305が2人以上から成るグループが複数あると判断した場合、S1808へ進み、2人以上から成るグループが複数ないと判断した場合、S1805へ進む。
例えば、図8のID=0001(Aさん)、ID=0002(Bさん)、ID=0003(Cさん)、ID=0004(Dさん)、ID=0005(Eさん)が所定範囲以内にいるとする。
この場合、AさんとEさんが"Alpha"グループ、Bさん、Cさん、Dさんが"Beta"グループになるので、2人以上から成るグループが複数あると判定される。尚、S1804からS1808、S1809、S1810へ至るフローの説明はここでは行わず、後述の第2実施形態で説明する。
S1805では、CPU305は、所定範囲以内にいる各人物について、接触している人物・グループの接触した時間(接触開始から接触終了までの経過時間)を上述したデータベースに登録し、S1806へ進む。
例えば、ID=0001(Aさん)がID=0002(Bさん)と接触した時間は第1の生成処理に基づいて図9の接触日・接触時間情報(Contact_Day_Time列の属性)のように、接触日を「2012/03/08」、接触した時間(接触開始から終了までの経過時間)を「01:05:20(1時間5分20秒)」としてCPU305がデータベース上に登録する。
S1806では、CPU305が接触している人物同士の接触時のお互いのスケジュール(図8のSchedule列の属性)が一致するかどうか判定する。ここで、接触している人物同士の接触時のお互いのスケジュール(図8のSchedule列の属性)が一致すると判断した場合、S1807へ進み、接触している人物同士の接触時のお互いのスケジュールが一致していないと判断した場合は、本処理を終了する。ここで、接触している人物同士の接触時のお互いのスケジュールが一致するとは、図8のSchedule列の属性の"Title"、"Day"、"Start_Time"、"End_Time"が一致する場合のことを言う。
ただし、属性の全てが一致するのではなく、一部が一致する場合にしても良い。たとえば、"Title"の文字列の一部を抜き出したキーワードが一致する場合にしてもよいし、"Title"が一致する場合において、人物同士の"Start_Time"から"End_Time"の時間が一定時間以上重なる場合にしても良い。
S1807では、CPU305が接触の内容をスケジュールが一致している人物同士のスケジュール(図8のSchedule列の属性)の"Title"から引用してデータベースに登録して、本処理を終了する。これにより、処理サーバ300は、個人と個人との接触関係を管理する関係性情報管理処理を行うことができる。
ここで、接触の内容とは、接触している人物同士のお互いのスケジュール(図8のSchedule列)の属性の"Title"のことを言う。
例えば、ID=0001(Aさん)がID=0002(Bさん)と接触した内容は図8のSchedule列の属性の"Title"から「DB策定会議」として、図9の"Title"列に登録される。S1808からS1810は、後述の第2実施形態で説明するため、ここでの説明は割愛する。
第1実施形態では、観測者がタブレット端末のディスプレイを通して複数の被観測者を観測することにより、被観測者のグループ情報を視認することができる。これにより、被観測者が大人数になった場合でも、ディスプレイ上の個人情報コンテンツが重なり視認しづらくなるようなことが少なくなる。また、観測者は被観測者をグループとして視認できるようになるので、観測者が被観測者同士のつながりを認識しやすくなる。
〔第2実施形態〕
以下、第2実施形態について説明する。
第1実施形態では、観測者自身がグループに含まれていない例について示した。第2実施形態の実施例では、観測者自身があるグループに含まれている例を示す。特に、第2実施形態では第1実施形態に加えて、観測者がグループに含まれるかどうかを判定する処理が加わるため、その点に着目しながら説明する。以下、第1実施形態との差分を中心に説明する。
図18は、図2に示したタブレット端末200のディスプレイ201に表示される画面イメージ例を示す図である。本例は、図1のAさんが、Bさん、Cさん、Dさんの"Beta"グループG1を観測したときに、タブレット端末200のディスプレイ201に表示される画面イメージ例である。
第1実施形態との差分は、図1のAさんとEさんが同じ"Alpha"グループG2に含まれる場合の画面イメージである点である。
特に、Bさん、Cさん、Dさんが含まれるグループの情報は、AさんとEさんが含まれる"Alpha"グループとの関わりにもとづいて処理サーバ300によって算出される。ここでは、第1実施形態で表示される情報に加え、Aさん、Eさんの"Alpha"グループとの関わりを表す情報が追加で「"Alphaグループ"と、」という形で表示される。
図19は、図4に示した処理サーバ300のHDD310に保持するグループとグループの関わりを表す情報データベースの内容を説明する図である。
図19において、第1実施形態で説明した図9との差分は、ID列がGroup列になり、Contact_ID列が無くなった点である。
図19では、Group列のグループ"Alpha"が、グループ"Beta"に接触したことを示している。各グループの接触したグループ名はContact_Group列で管理する。ここでは、Contact_Groupが"Beta"となっているのは、グループ"Alpha"がグループ"Beta"と接触したことを示す。
接触したグループとの接触日及び接触時間はContact_Day_Time列として管理する。ここでは、グループ"Alpha"がグループ"Beta"と接触した日は「2012/03/05」であり、接触した時間は「02:32:40(2時間32分40秒)」ということになる。
グループ同士が接触した内容はTitle列として管理される。ここでは、グループ"Alpha"がグループ"Beta"と接触した内容は「DB策定会議」という内容になる。この内容は、各グループの人物の共通Schedule情報から導出される。ここでは、グループ"Alpha"の情報データベースしか示していないが、実際には他のグループの情報データベースも存在する。
〔処理サーバ300のグループコンテンツ情報導出処理〕
図20は、本実施形態を示すサーバ装置の制御方法説明するフローチャートである。本例は、第2実施形態における処理サーバ300のグループコンテンツ情報導出処理例である。なお、本フローチャートは、図12のS1317で実施される。また、本フローチャートのS2101〜S2108は、処理サーバ300のHDD310に格納されたプログラムに従ってCPU305が実行することによって実現される。
第1実施形態で説明した図14との差分は、S2103〜S2107のフローであり、観測者自身がグループに含まれるかどうか判定した上でグループコンテンツ情報を生成する点である。S2101〜S2102は、第1実施形態の図14のS1501〜S1502と同じである。
S2103では、処理サーバ300のCPU305が、HDD310から人物の物理位置情報(図8のLocation列の属性)を読み出し、観測者から所定範囲以内にいる人物を導出し、S2104へ進む。
S2104では、CPU305は観測者から所定範囲以内に人物がいるかどうかを判断する。ここで、観測者から所定範囲以内に人物がいるとCPU305が判断した場合、S2105へ進み、観測者から所定範囲以内に人物がいないとCPU305が判断した場合は、S2108へ進む。
S2105では、処理サーバ300のCPU305が、S2103で導出された人物のグループ情報(図8のGroup列の属性)と個人ID(図8のID列の属性)を導出し、S2106へ進む。
S2106では、CPU305がS2105で導出された人物が、観測者のグループと同じであるかどうか判定する。ここで、導出された人物が、観測者のグループと同じであるとCPU305が判断した場合、S2107へ進み、導出された人物が、観測者のグループと同じでないとCPU305が判断した場合、S2108へ進む。
例えば、観測者が図8のID=0001(Aさん)である場合、所定範囲以内にいる人物がID=0005(Eさん)であるならば、AさんとEさんは同じグループ"Alpha"であると判定される。
S2107では、処理サーバ300のCPU305が、第2の生成処理としてS2102で算出されたグループと、図19に示したグループとグループの関わりを表す情報データベースをもとに、観測者グループに関連するグループコンテンツ情報を生成し、本処理を終了する。
例えば、観測者グループが"Alpha"であり、観測しているグループが"Beta"グループの場合、図19のContact_Group列、Contact_Day_Time列、Title列の属性をもとに、図18で示したようなコンテンツ情報を生成する。
一方、S2108では、観測者がグループに入らないため、第2の生成処理としてCPU305が観測者に関連するグループコンテンツ情報を生成する。本処理は、第1実施形態に示した図14のS1503と同じ処理結果になり、本処理を終了する。
以下、図17を用いて第2実施形態における処理サーバの関係性生成処理について説明する。
第1実施形態との差分は、グループとグループの関係性を示す情報を生成する処理を示すS1808〜S1810のフローがあることである。以下、第1実施形態との差分である、S1808〜S1810について説明する。
S1808では、CPU305が各グループについて、接触しているグループとの接触した時間をデータベースに登録し、S1809へ進む。例えば、グループ"Alpha"がグループ"Beta"と接触した時間は、図19の接触日・接触時間情報(Contact_Day_Time列の属性)のように、接触日を「2012/03/05」、接触した時間を「02:32:40(2時間32分40秒)」としてデータベース上に登録する。
S1809では、CPU305が接触しているグループの人物同士の接触時のスケジュール(図8のSchedule列の属性)が一致するかどうか検索して判定する。ここで、接触しているグループの人物同士の接触時のスケジュールが一致するとCPU305が判断した場合、S1810へ進み、接触しているグループの人物同士の接触時のスケジュールが一致しないと判断した場合は、本処理を終了する。
S1810では、CPU305が接触の内容をスケジュールが一致しているグループの人物同士のスケジュール(図8のSchedule列の属性)の"Title"から引用して登録して、本処理を終了する。例えば、グループ"Alpha"(Aさん、Eさんが含まれる)とグループ"Beta"(Bさん、Cさん、Dさんが含まれる)が接触した内容は図8のSchedule列の属性の"Title"から「DB策定会議」として、図19のデータベース上の"Title"列に登録される。
第2実施形態では、観測者自身がグループに含まれる場合について述べた。これにより、観測者グループと被観測者グループの関係性が視認できるようになるので、観測者が被観測者グループとのつながりをより認識しやすくなる。
第1実施形態及び第2実施形態では、タブレット端末200を用いて被観測者を観測する場合について述べたが、タブレット端末の代わりに地磁気センサを備えたHMD(ヘッドマウントディスプレイ)或いはHUD(ヘッドアップディスプレイ)を用いても良い。(半)透過ディスプレイを備えたHMD及びHUDを用いた場合、観測者はカメラ映像を通すことなく、観測者の目で直接被観測者を見ながら情報コンテンツを視認することができる。そのため観測者は、実際に見える被観測者に重ねて情報コンテンツを視認することが可能となる。
本発明の各工程は、ネットワーク又は各種記憶媒体を介して取得したソフトウエア(プログラム)をパソコン(コンピュータ)等の処理装置(CPU、プロセッサ)にて実行することでも実現できる。
本発明は上記実施形態に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施形態の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。
200 タブレット端末
300 処理サーバ
500 ネットワークカメラ

Claims (17)

  1. 人物を撮影する複数のカメラを含むカメラシステムと、サーバ装置と、情報処理装置とが通信する情報表示システムであって、
    前記カメラシステムは、
    各カメラで撮影される画像情報から人物を検出する検出手段と、
    検出された人物を特定する人物識別情報を割り当てる割当手段と、
    検出された人物の物理空間位置を特定する位置情報を算出する算出手段と、
    算出された位置情報と割り当てられた前記識別情報とを対応づけた人物情報を前記サーバ装置に送信する第1の送信手段と、
    検出された人物の画像情報から当該人物の顔情報に基づく特徴情報を抽出する抽出手段と、
    抽出された特徴情報と前記識別情報とを対応づけて人物特徴情報を前記サーバ装置に送信する第2の送信手段と、を備え、
    前記サーバ装置は、
    人物を個別に識別するための個人識別情報と、個人属性情報と、人物の顔情報と、現在の物理位置情報と、各人物が属するグループ情報とをデータベースに登録して管理する管理手段と、
    前記カメラシステムから受信する人物特徴情報と登録された顔情報とを比較して各カメラで撮影された人物を認識する認識手段と、
    認識された人物の個人識別情報に対応づけ前記データベースに登録されている現在の物理位置情報を更新する更新手段と、
    前記情報処理装置から複数の人物の個人識別情報とともに受け付けるコンテンツ表示に用いる人物関連情報の取得要求に応じて、前記データベースから読み出される人物関連情報を複数の人物の個人識別情報とともに前記情報処理装置に送信する第3の送信手段と、を備え、
    前記情報処理装置は、
    被写体を撮影する内蔵カメラと、
    撮影された画像を表示する表示手段と、
    撮影された被写体に含まれる人物に対応づけられた個人識別情報とともに、当該個人識別情報に対応づけられた人物関連情報の取得要求を前記サーバ装置に行う第1の要求手段と、
    前記サーバ装置から受信する各人物の人物関連情報と、設定されるコンテンツ情報の表示モードとに基づいて前記表示手段に表示すべきコンテンツ情報をそれぞれ算出する算出手段と、
    算出されたコンテンツ情報の数と、前記表示手段に表示される各人物の位置と、各人物のコンテンツ情報の表示範囲とに基づいて、前記表示手段に表示される各人物に対応づけてコンテンツ情報を表示する表示制御手段と、
    算出されたコンテンツ情報の数と、前記表示手段に表示される各人物の位置と、各人物のコンテンツ情報の表示範囲とに基づいて、前記表示制御手段が前記表示手段に表示すべきコンテンツ情報の表示モードを個人表示モードからグループ表示モードに切り替える切替手段と、
    を備えることを特徴とする情報表示システム。
  2. 前記サーバ装置は、
    前記情報処理装置から複数の人物の個人識別情報とともに受け付けるグループコンテンツ表示に用いるグループ関連情報の取得要求に応じて、前記データベースから読み出されるグループ関連情報を複数の人物の個人識別情報とともに前記情報処理装置に送信する第4の送信手段を備え、
    前記情報処理装置は、
    前記表示モードをグループ表示モードに切り替える場合、複数の人物の個人識別情報とともにグループコンテンツ表示に用いるグループ関連情報の取得要求を行う第2の要求手段を設け、
    前記表示制御手段は、前記サーバ装置から複数の人物の個人識別情報とともに受信するグループコンテンツ情報と当該グループコンテンツ情報とに基づいて、前記表示手段に撮影された人物の画像にグループコンテンツ情報を重畳して表示することを特徴とする請求項1記載の情報表示システム。
  3. 前記個人属性情報は、個人の名前情報、当該個人に関わる特定情報、当該個人のスケジュール情報を含むことを特徴とする請求項1または2記載の情報表示システム。
  4. 前記サーバ装置は、
    前記データベースに登録された個人識別情報と、現在の物理位置情報と、スケジュール情報と、グループ情報とに基づいて各人物と各人物との接触関係を特定する関係性情報を生成する第1の生成手段と、
    生成された関係性情報を前記データベースに登録して管理する関係性情報管理手段と、を備え
    前記関係性情報管理手段は、人物の前記現在の物理位置情報を検索して所定範囲にいる人物のスケジュール情報に基づいて関係性情報を更新することを特徴とする請求項1記載の情報表示システム。
  5. 前記サーバ装置は、
    前記内蔵カメラを操作する観測者の個人識別情報と、前記内蔵カメラで撮影される人物の人物識別情報とに対応づけられたグループ情報が一致するかどうかを判断する判断手段と、
    前記グループ情報が一致すると判断した場合、観測者のグループに関連するグループコンテンツ情報を生成し、前記グループ情報が一致しないと判断した場合、観測者に関連するグループコンテンツ情報を生成する第2の生成手段と、を備え、
    前記第4の送信手段は、第2の生成手段により生成される観測者のグループに関連するグループコンテンツ情報または観測者に関連するグループコンテンツ情報を前記情報処理装置に送信することを特徴とする請求項2記載の情報表示システム。
  6. 人物を撮影する複数のカメラを含むカメラシステムと、サーバ装置とが通信する情報表示システムであって、
    前記カメラシステムは、
    各カメラで撮影される画像情報から人物を検出する検出手段と、
    検出された人物を特定する識別情報を割り当てる割当手段と、
    検出された人物の空間位置を特定する位置情報を算出する算出手段と、
    算出された位置情報と割り当てられた前記識別情報とを対応づけた人物情報を前記サーバ装置に送信する第1の送信手段と、
    検出された人物の画像情報から当該人物の顔情報に基づく特徴情報を抽出する抽出手段と、
    抽出された特徴情報と前記識別情報とを対応づけて人物特徴情報を前記サーバ装置に送信する第2の送信手段と、を備え、
    前記サーバ装置は、
    人物を個別に識別するための個人識別情報と、個人属性情報と、人物の顔情報と、現在の物理位置情報と、各人物が属するグループ情報とをデータベースに登録して管理する管理手段と、
    前記カメラシステムから受信する人物特徴情報と登録された顔情報とを比較して各カメラで撮影された人物を認識する認識手段と、
    認識された人物の個人識別情報に対応づけ前記データベースに登録されている現在の物理位置情報を更新する更新手段と、を備えることを特徴とする情報表示システム。
  7. サーバ装置と、情報処理装置とが通信する情報表示システムであって、
    前記サーバ装置は、
    前記情報処理装置から複数の人物の個人識別情報とともに受け付けるコンテンツ表示に用いる人物関連情報の取得要求に応じて、データベースから読み出される人物関連情報を複数の人物の個人識別情報とともに前記情報処理装置に送信する送信手段を備え、
    前記情報処理装置は、
    被写体を撮影する内蔵カメラと、
    撮影された画像を表示する表示手段と、
    撮影された被写体に含まれる人物に対応づけられた個人識別情報とともに、当該個人識別情報に対応づけられた人物関連情報の取得要求を前記サーバ装置に行う第1の要求手段と、
    前記サーバ装置から受信する各人物の人物関連情報と、設定されるコンテンツ情報の表示モードとに基づいて前記表示手段に表示すべきコンテンツ情報をそれぞれ算出する算出手段と、
    算出されたコンテンツ情報の数と、前記表示手段に表示される各人物の位置と、各人物のコンテンツ情報の表示範囲とに基づいて、前記表示手段に表示される各人物に対応づけてコンテンツ情報を表示する表示制御手段と、
    算出されたコンテンツ情報の数と、前記表示手段に表示される各人物の位置と、各人物のコンテンツ情報の表示範囲とに基づいて、前記表示制御手段が前記表示手段に表示すべきコンテンツ情報の表示モードを個人表示モードからグループ表示モードに切り替える切替手段と、
    を備えることを特徴とする情報表示システム。
  8. カメラシステムまたは情報処理装置と通信するサーバ装置であって、
    人物を個別に識別するための個人識別情報と、個人属性情報と、人物の顔情報と、現在の物理位置情報と、各人物が属するグループ情報とをデータベースに登録して管理する管理手段と、
    前記カメラシステムから受信する人物特徴情報と登録された顔情報とを比較して各カメラで撮影された人物を認識する認識手段と、
    認識された人物の個人識別情報に対応づけ前記データベースに登録されている現在の物理位置情報を更新する更新手段と、
    前記情報処理装置から複数の人物の個人識別情報とともに受け付けるコンテンツ表示に用いる人物関連情報の取得要求に応じて、前記データベースから読み出される人物関連情報を複数の人物の個人識別情報とともに前記情報処理装置に送信する送信手段と、を備えることを特徴とするサーバ装置。
  9. 前記情報処理装置から複数の人物の個人識別情報とともに受け付けるグループコンテンツ表示に用いるグループ関連情報の取得要求に応じて、前記データベースから読み出されるグループ関連情報を複数の人物の個人識別情報とともに前記情報処理装置に送信する第4の送信手段を備え、を備えることを特徴とする請求項8記載のサーバ装置。
  10. サーバ装置と通信する情報処理装置であって、
    被写体を撮影する内蔵カメラと、
    撮影された画像を表示する表示手段と、
    撮影された被写体に含まれる人物に対応づけられた個人識別情報とともに、当該個人識別情報に対応づけられた人物関連情報の取得要求を前記サーバ装置に行う第1の要求手段と、
    前記サーバ装置から受信する各人物の人物関連情報と、設定されるコンテンツ情報の表示モードとに基づいて前記表示手段に表示すべきコンテンツ情報をそれぞれ算出する算出手段と、
    算出されたコンテンツ情報の数と、前記表示手段に表示される各人物の位置と、各人物のコンテンツ情報の表示範囲とに基づいて、前記表示手段に表示される各人物に対応づけてコンテンツ情報を表示する表示制御手段と、
    算出されたコンテンツ情報の数と、前記表示手段に表示される各人物の位置と、各人物のコンテンツ情報の表示範囲とに基づいて、前記表示制御手段が前記表示手段に表示すべきコンテンツ情報の表示モードを個人表示モードからグループ表示モードに切り替える切替手段と、
    を備えることを特徴とする情報処理装置。
  11. 前記表示モードをグループ表示モードに切り替える場合、
    複数の人物の個人識別情報とともにグループコンテンツ表示に用いるグループ関連情報の取得要求を行う第2の要求手段を設け、
    前記表示制御手段は、前記サーバ装置から複数の人物の個人識別情報とともに受信するグループコンテンツ情報と当該グループコンテンツ情報とに基づいて、前記表示手段に撮影された人物の画像にグループコンテンツ情報を重畳して表示することを特徴とする請求項10記載の情報処理装置。
  12. カメラシステムまたは情報処理装置と通信するサーバ装置の制御方法であって、
    人物を個別に識別するための個人識別情報と、個人属性情報と、人物の顔情報と、現在の物理位置情報と、各人物が属するグループ情報とをデータベースに登録して管理する管理工程と、
    前記カメラシステムから受信する人物特徴情報と登録された顔情報とを比較して各カメラで撮影された人物を認識する認識工程と、
    認識された人物の個人識別情報に対応づけ前記データベースに登録されている現在の物理位置情報を更新する更新工程と、
    前記情報処理装置から複数の人物の個人識別情報とともに受け付けるコンテンツ表示に用いる人物関連情報の取得要求に応じて、前記データベースから読み出される人物関連情報を複数の人物の個人識別情報とともに前記情報処理装置に送信する第1の送信工程と、を備えることを特徴とするサーバ装置の制御方法。
  13. 前記情報処理装置から複数の人物の個人識別情報とともに受け付けるグループコンテンツ表示に用いるグループ関連情報の取得要求に応じて、前記データベースから読み出されるグループ関連情報を複数の人物の個人識別情報とともに前記情報処理装置に送信する第2の送信工程を備えることを特徴とする請求項12記載のサーバ装置の制御方法。
  14. 被写体を撮影する内蔵カメラと、撮影された画像を表示する表示手段とを備え、サーバ装置と通信する情報処理装置の制御方法であって、
    内蔵カメラで撮影された被写体に含まれる人物に対応づけられた個人識別情報とともに、当該個人識別情報に対応づけられた人物関連情報の取得要求を前記サーバ装置に行う第1の要求工程と、
    前記サーバ装置から受信する各人物の人物関連情報と、設定されるコンテンツ情報の表示モードとに基づいて前記表示手段に表示すべきコンテンツ情報をそれぞれ算出する算出工程と、
    算出されたコンテンツ情報の数と、前記表示手段に表示される各人物の位置と、各人物のコンテンツ情報の表示範囲とに基づいて、前記表示手段に表示される各人物に対応づけてコンテンツ情報を表示する表示制御工程と、
    算出されたコンテンツ情報の数と、前記表示手段に表示される各人物の位置と、各人物のコンテンツ情報の表示範囲とに基づいて、前記表示制御工程が前記表示手段に表示すべきコンテンツ情報の表示モードを個人表示モードからグループ表示モードに切り替える切替工程と、
    を備えることを特徴とする情報処理装置の制御方法。
  15. 前記表示モードをグループ表示モードに切り替える場合、複数の人物の個人識別情報とともにグループコンテンツ表示に用いるグループ関連情報の取得要求を行う第2の要求工程を設け、
    前記表示制御工程は、前記サーバ装置から複数の人物の個人識別情報とともに受信するグループコンテンツ情報と当該グループコンテンツ情報とに基づいて、前記表示手段は、撮影された人物の画像にグループコンテンツ情報を重畳して表示することを特徴とする請求項14記載の情報処理装置の制御方法。
  16. 請求項12または13に記載のサーバ装置の制御方法をコンピュータに実行させることを特徴とするプログラム。
  17. 請求項14または15に記載の情報処理装置の制御方法をコンピュータに実行させることを特徴とするプログラム。
JP2012271385A 2012-12-12 2012-12-12 情報表示システム、サーバ装置、情報処理装置、サーバ装置の制御方法、情報処理装置の制御方法及びプログラム Pending JP2014116891A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012271385A JP2014116891A (ja) 2012-12-12 2012-12-12 情報表示システム、サーバ装置、情報処理装置、サーバ装置の制御方法、情報処理装置の制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012271385A JP2014116891A (ja) 2012-12-12 2012-12-12 情報表示システム、サーバ装置、情報処理装置、サーバ装置の制御方法、情報処理装置の制御方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2014116891A true JP2014116891A (ja) 2014-06-26

Family

ID=51172452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012271385A Pending JP2014116891A (ja) 2012-12-12 2012-12-12 情報表示システム、サーバ装置、情報処理装置、サーバ装置の制御方法、情報処理装置の制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2014116891A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106792117A (zh) * 2016-12-19 2017-05-31 广州华多网络科技有限公司 手机直播横屏开播的方法、装置和系统
US11836959B2 (en) 2020-09-10 2023-12-05 Canon Kabushiki Kaisha Information presentation system, control method thereof, and non-transitory computer-readable storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106792117A (zh) * 2016-12-19 2017-05-31 广州华多网络科技有限公司 手机直播横屏开播的方法、装置和系统
CN106792117B (zh) * 2016-12-19 2020-08-07 广州华多网络科技有限公司 手机直播横屏开播的方法、装置和系统
US11836959B2 (en) 2020-09-10 2023-12-05 Canon Kabushiki Kaisha Information presentation system, control method thereof, and non-transitory computer-readable storage medium

Similar Documents

Publication Publication Date Title
US9721388B2 (en) Individual identification character display system, terminal device, individual identification character display method, and computer program
US9256986B2 (en) Automated guidance when taking a photograph, using virtual objects overlaid on an image
JP6635037B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP6683127B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US8659595B2 (en) Method and system for combining 2D image and 3D model and non-transitory computer readable storage medium thereof
JP6348741B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
KR101181967B1 (ko) 고유식별 정보를 이용한 3차원 실시간 거리뷰시스템
US20120256950A1 (en) Medical support apparatus, medical support method, and medical support system
JP2011203984A (ja) ナビゲーション装置、ナビゲーション画像生成方法及びプログラム
CN109584374A (zh) 用于使用可移动引导标记来提供交互导航辅助的方法、装置和计算机可读存储介质
JP2015119833A5 (ja)
JP2017120650A (ja) 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム
JP2015087909A (ja) 情報処理システム、情報処理装置、情報処理サーバ、情報処理方法、及びプログラム
JP2014164374A (ja) 情報表示システム、情報端末、サーバ装置、情報端末の制御方法、サーバ装置の制御方法、及びプログラム
JPWO2017068925A1 (ja) 情報処理装置及び情報処理装置の制御方法、並びにコンピュータ・プログラム
US20180082119A1 (en) System and method for remotely assisted user-orientation
WO2021057887A1 (zh) 用于为目标设置可呈现的虚拟对象的方法和系统
JP6021366B2 (ja) 情報処理システム、情報処理システムの制御方法、情報処理装置、コンピュータプログラム。
JP2014116891A (ja) 情報表示システム、サーバ装置、情報処理装置、サーバ装置の制御方法、情報処理装置の制御方法及びプログラム
CN108896035B (zh) 通过影像信息实现导航的方法、设备以及导航机器人
KR101036107B1 (ko) 고유식별 정보를 이용한 증강 현실 구현시스템
WO2022176450A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2016151958A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP6208977B2 (ja) 情報処理装置、通信端末およびデータ取得方法
WO2020032239A1 (ja) 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム