JP6021366B2 - 情報処理システム、情報処理システムの制御方法、情報処理装置、コンピュータプログラム。 - Google Patents

情報処理システム、情報処理システムの制御方法、情報処理装置、コンピュータプログラム。 Download PDF

Info

Publication number
JP6021366B2
JP6021366B2 JP2012055002A JP2012055002A JP6021366B2 JP 6021366 B2 JP6021366 B2 JP 6021366B2 JP 2012055002 A JP2012055002 A JP 2012055002A JP 2012055002 A JP2012055002 A JP 2012055002A JP 6021366 B2 JP6021366 B2 JP 6021366B2
Authority
JP
Japan
Prior art keywords
information
user
person
content
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012055002A
Other languages
English (en)
Other versions
JP2013190869A5 (ja
JP2013190869A (ja
Inventor
今井 仁
仁 今井
拓 小笠原
拓 小笠原
佑治 名屋
佑治 名屋
啓水 奥間
啓水 奥間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012055002A priority Critical patent/JP6021366B2/ja
Priority to US13/791,564 priority patent/US9041646B2/en
Publication of JP2013190869A publication Critical patent/JP2013190869A/ja
Publication of JP2013190869A5 publication Critical patent/JP2013190869A5/ja
Application granted granted Critical
Publication of JP6021366B2 publication Critical patent/JP6021366B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management

Description

本発明は、人物間のコミュニケーションを促進するための情報処理技術に関する。
人物間のコミュニケーションを促進させることを目的とした情報処理システムがある。
特許文献1の開示する情報処理システムは、各人物の位置情報を取得して各人物間の物理的距離が近い人物どうしについて、その人物間の関わり度合いを表す情報距離を算出する。そして、算出された情報距離が近い(つまり関わり度合いが大きい)場合に、近くに関わり度合いが大きい人物がいることをディスプレイに表示する。このようにすることで、関わり度合いの大きい人物と積極的に接触することが可能になり、人物間のコミュニケーションを促進する。
特開2009−301407
しかしながら、特許文献1では関わり度合いの大きい人物が近くにいることが示されるものの、その人物がどのような関係性を有している人物であるのかはわかりにくい。また、近くに複数の人物がいた場合に、どの人物が関わり度合いの大きい人物であるのかが分かりにくい。
そこで、本発明では、近くにいる人物が自分とどのような関係を持った人物であるかというコンテンツ情報を、実際に近くにいる人物に紐づけて表示する情報処理システムを提供することを目的とする。
本発明の情報処理システムは、透過型ディスプレイを有する装置のユーザーによって視認されている人物に関するコンテンツ情報を、当該透過型ディスプレイ上に表示する情報処理システムであって、前記ユーザーの位置情報および前記ユーザーとは異なる人物の位置情報に基づいて、当該異なる人物が前記ユーザーによって視認されていると判定する第1の判定手段と、前記ユーザーの、所定の情報投稿サービスにおける投稿内容に関する報、および、前記視認されていると判定された人物の、前記所定の情報投稿サービスにおける投稿内容に関する情報を記憶している記憶手段と、前記記憶手段に記憶されている前記ユーザーの前記情報および前記視認されていると判定された人物の前記情報に基づいて、前記ユーザーが前記所定の情報投稿サービスに投稿した投稿内容に対する前記視認されていると判定された人物の反応があるかを判定する第2の判定手段と、前記第2の判定手段による前記反応があるとの判定に基づいた、前記反応を表すコンテンツ情報を、前記透過型ディスプレイ上に表示する表示制御手段と、を有することを特徴とする。
被観測者との関係性に基づいたコンテンツ情報を、被観測者の画像とともに表示するため、被観測者がどのような関係性を持っている人物であるかをユーザにわかりやすく提示することができる。
実施例1のシステム構成を示す図 本実施形態で用いるタブレット端末のハードウェアブロック図 本実施形態で用いる処理サーバーのハードウェアブロック図 本実施形態において処理サーバーが記憶装置に保持する個人情報データベースを示す図 本実施形態で用いるコンテンツ表示スクリプトの一例を示す図 実施例1における全体処理のフロー 本実施形態における処理サーバーの顔認識処理のフローを示す図 本実施形態における処理サーバーのコンテンツ生成処理のフローを示す図 実施例1におけるコンテンツ表示の例を示す図 実施例2及び実施例3のシステム構成を示す図 本実施形態で用いるHMDのハードウェアブロック図 本実施形態で用いるネットワークカメラのハードウェアブロック図 実施例2及び実施例3の撮影画像処理と個人特定処理のフローを示す図 実施例2の情報表示処理のフローを示す図 図14のS1907記載の観測者がHMDディスプレイを通して見ている被観測者を導出する方法の概念図 図14のS1909で処理サーバーがHMDのディスプレイ上のコンテンツ表示位置を算出する方法の概念図 実施例2におけるコンテンツ表示の例を示す図 実施例3の情報表示処理のフローを示す図 実施例3におけるコンテンツ表示の例を示す図 実施例4における処理サーバーがコンテンツ表示スクリプトをユーザに設定させる画面の例 実施例4における処理サーバーのコンテンツ表示スクリプト設定処理のフローを示す図
以下、本発明を実施するための形態について図面を用いて説明する。
(実施例1)
<実施例1のシステム構成>
図1は実施例1のシステム構成を示す図である。本実施例のシステムは、ユーザCとユーザDの2名が持つタブレット端末0200、ワイヤレスアクセスポイント0400、処理サーバー0300、ネットワーク9000を有する。各タブレット端末0200とワイヤレスアクセスポイント0400は無線通信を行い、各タブレット端末0200はワイヤレスアクセスポイント0400を介して有線のネットワーク9000と接続されている。処理サーバー0300とワイヤレスアクセスポイント0400は有線のネットワーク9000を介して接続されている。ユーザAは、ユーザC及びユーザDの方向を向いており、ユーザCおよびユーザDの持つタブレット端末0200の有するカメラ0203はユーザAの顔を撮像出来るものとする。
<タブレット端末>
図2は本実施形態で用いるタブレット端末0200のハードウェアブロック図である。タブレット端末0200は、コントローラ0220、ディスプレイ兼タッチパネル0201、LANポート0202、カメラ0203を有する。
コントローラ0220の構成についてさらに説明する。
内部バス0211は、メモリコントローラ0207、I/Oコントローラ0209間で情報の伝達が出来るよう、電気信号を送受信する。メモリコントローラ0207は、メインメモリ0208に対するメモリアクセス全般を統括する。I/Oコントローラ0209は、フラッシュメモリ0210、LANポート0202、ディスプレイ兼タッチパネル0201(以下ディスプレイ0201と呼ぶ)のタッチパネル、カメラ0203、内部バス0211を介して接続している処理部との情報の送受信を行う。
LANポート0202は、ワイヤレスアクセスポイント0400と無線通信することで、ネットワーク9000を介して接続されている処理サーバー0300などの他の機器と、I/Oコントローラ0209との情報の送受信を中継する。
フラッシュメモリ0210にはブートローダプログラム及びタブレット端末制御プログラムが格納されている。メインメモリ0208は揮発性メモリであり、高速アクセスが可能であるので、フラッシュメモリ0210に記憶されている情報やカメラで撮像した画像など一時的に使用する情報はここに格納される。
タブレット端末0200の電源投入時には、CPU0204がブートローダプログラムを読み出して実行し、フラッシュメモリ0210に格納されているタブレット端末制御プログラムを取り出し、メインメモリ0208に格納する。そして、CPU0204がメインメモリ0208に格納されているタブレット端末制御プログラムを実行し、タブレット端末の有する各機能および図6のS0901〜S0907の処理を実行する。
以上がコントローラ0220についての構成の説明である。
タブレット端末0200は、情報を表示するディスプレイ0201とユーザからの情報入力を受けるタッチパネルが一体化したディスプレイ0201を備える。グラフィックコントローラ0206は、ディスプレイ0201の表示領域への表示を制御する。タブレット端末0200は、ユーザに情報を提示する際にはディスプレイ0201の表示領域上に情報を表示し、ユーザは、ディスプレイ0201に対するタッチ操作でタブレット端末0200への情報入力が可能である。
またタブレット端末0200は、カメラ(撮像手段)0203を備えている。カメラ0203は撮像画像をデジタル変換する。カメラ0203は、I/Oコントローラ0209との情報の送受信を行う。
<処理サーバー>
図3は本実施形態で用いる処理サーバーのハードウェアブロック図である。0300は処理サーバーである。処理サーバー0300はコントローラ0320、ディスプレイ0301、キーボード0302、マウス0303を有する。
コントローラ0320の構成についてさらに説明する。
内部バス0311は、メモリコントローラ0307、I/Oコントローラ0309間で情報の伝達が出来るよう、電気信号を送受信する。
メモリコントローラ0307は、メインメモリ0308に対するメモリアクセス全般を統括する。I/Oコントローラ0309は、HDD0310、LANポート0304、キーボード0302、マウス0303、内部バス0311を介して接続している処理部との情報の送受信を行う。LANポート0304は、ネットワーク9000やワイヤレスアクセスポイントを介して接続されている他の機器、I/Oコントローラ0309との情報の送受信を行う。
HDD0310にはブートローダプログラム及び処理サーバー制御プログラムが格納されている。メインメモリ0308は揮発性メモリであり、高速アクセスが可能であるので、HDD0310に記憶されている情報や一時的に使用する情報はここに格納される。処理サーバー0300の電源投入時には、CPU0305がブートローダプログラムを読み出して実行し、HDD0310に格納されている処理サーバー制御プログラムを取り出し、メインメモリ0308に格納する。そして、CPU0305がメインメモリ0308に格納されている処理サーバー制御プログラムを実行し、処理サーバーの有する各機能を実行する。また、CPU0305がこの処理サーバー制御プログラムを実行することで、図6、11、18、19、23、26に示される処理サーバーの行う処理が実行される。
以上がコントローラ0320の構成についての説明である。
処理サーバー0300は、情報を表示するディスプレイ0301を備える。グラフィックコントローラ0306は、ディスプレイ0301のディスプレイ0301への表示を制御する。
処理サーバー0300は、ユーザに情報を提示する際にはディスプレイ0301に情報を表示し、ユーザは、キーボード0302又はマウス0303に対する操作で処理サーバー0300への情報入力が可能である。
<個人情報データベース>
図4は本実施形態において処理サーバーがHDD0310に保持する個人情報データベースとして管理するデータテーブル0700である。このデータテーブルは図4のデータテーブルの1行を1レコードとして、以下の8つの属性の情報を管理する。なお1ユーザにつき、1レコードのデータが個人情報として管理される。
a−1)node.id:ユーザの個人情報はnode.id列に示す固有のIDで管理する。このIDはユーザを他のユーザと区別して一意に特定するために用いられるものであり、ユーザが予めタブレット端末0200に対して設定するものとする。例えばユーザの社員番号などがIDとして予めタブレット端末0200に設定されていてもよい。なお設定されるIDは、コントローラ0220内のメインメモリ0208に格納され、必要に応じて読みだされる。
a−2)node.name:各ユーザの名前はnode.name列で管理する。例えば、node.idが0001でnode.nameが“A”となっているのは、node.id=0001として管理されている個人情報はユーザAのものであることを示す。
a−3)node.edge:node.edge列ではユーザどうしの顔見知り関係が管理される。例えばnode.id=0001として個人情報が管理されるユーザAのレコードのnode.edgeの情報には{node.id=2, 0}が設定されているので、ユーザAは、node.id=0002として個人情報が管理されるユーザBと顔見知りではないことが示される。また、node.id=0001として個人情報が管理されるユーザAのレコードのnode.edgeの情報には{node.id=3, 1}および{node.id=4, 1}も設定されているので、ユーザAは、node.id=0003およびnode.id=0004として個人情報が管理されるユーザCおよびDと顔見知りであることが示される。つまりあるユーザXについて1レコードのnode.edgeの情報に設定される{node.id=Y, Z}はZが1であれば、ユーザXは、node.id=Yとして個人情報が管理されるユーザと顔見知りであることが示される。また、node.edgeの情報に設定される{node.id=Y, Z}はZが0であれば、ユーザXは、node.id=Yとして個人情報が管理されるユーザとは顔見知りでないことが示される。
a−4)node.todo:各ユーザの管理するToDoリストの内容はnode.todo列として管理する。各ユーザが、処理サーバー0300と接続している情報処理端末(不図示)上で動作するスケジューラアプリによって管理されるToDoリストを編集すると、その内容がこのnode.todo列に反映される。例えば、node.id=0003(ユーザC)のToDoリストは、タイトルが「XX社との契約作業の進捗確認」で、詳細内容が「20日までに完了させる必要あり。契約課ユーザAに確認。」という内容になる。
a−5)node.sns:各ユーザがSNS(Social Network Service)に投稿した内容はnode.sns列として管理する。各ユーザが、処理サーバー0300と接続している情報処理端末(不図示)を介して、SNS(例えば社内SNS)にコメントを投稿すると、投稿コメントがこのnode.sns列に反映される。
a−6)node.schedule:各ユーザの管理するスケジュールの内容はnode.schedule列として管理する。各ユーザが、処理サーバー0300と接続している情報処理端末上で動作するスケジューラアプリによって管理されるスケジュールリストを編集すると、その編集結果がこのnode.schedule列に反映される。例えば、node.id=0002(ユーザB)とnode.id=0003(ユーザC)は共にタイトルが「新製品デザインレビュー」で開催日時が「2012/3/15の15:00〜17:00」というミーティングに出席予定ということになる。
a−7)node.face_image:各ユーザの顔画像はnode.face_image列として管理する。例えば、企業では社員証用に撮影された写真が登録される。
a−8)node.trace_info:各ユーザが建物内などの物理空間(例えばオフィス)内のどこにいるかを示す物理位置情報はnode.trace_infoで管理する。例えば、図4のデータテーブルにおいてnode.id=0001(ユーザA)の物理位置情報として、後述するネットワークカメラの撮像から人体を検出した際に割り振られるIDはskeletonIDという属性で表されて、値は0である。また、システムの管理するユーザAの物理空間における位置座標はcoordという属性で表され、x座標は1m、y座標は1m、z座標(高さ)は0mの位置にユーザAがいることを表している。また、システムの管理するユーザAの向いている方角はdirectionという属性で表され、ユーザAは物理空間における座標系で90度方向の向きを向いていることを表している。
<コンテンツ表示スクリプト>
図5は本実施形態で用いるコンテンツ表示スクリプトの一例を示す図である。ユーザは本スクリプト言語仕様で予め定義された複数のコマンドを組み合わせることで、ユーザの望む処理を表現可能である。図5の左に書いてある数字は行番号を示しており、右に書いてある文字列群がコマンドで表現されたスクリプトの内容である。本スクリプトは図8に示すフローに従い、処理サーバー0300によって解釈実行される。
<実施例1の処理フロー>
図6を用いて実施例1における全体処理のフローを説明する。図6のS0901〜S0907の処理はタブレット端末0200のコントローラ0220によって実行され、図6のS0908〜S0911の処理は処理サーバー0300のコントローラ0320によって実行される。
S0901で、ユーザによる操作で、コントローラ0220がカメラ0203を制御することで人物を撮像し、処理をS0902に進める。
S0902で、コントローラ0220が、撮像画像から人物の顔を検出し、撮像画像中における人物の顔の位置座標情報を算出し、コントローラ0220内のメインメモリ0208に保持する。そして、コントローラ0220は撮像画像中の人物の顔の画像を抽出し、処理をS0903に進める。
S0903で、コントローラ0220が、前記撮像画像中の人物の顔の画像から、人物を特定するための顔の特徴情報を算出し、処理をS0904に進める。本実施例では、撮像画像から人物の顔を検出し、顔の特徴情報を算出する方法として、顔の画像を特徴空間ベクトルに変換する方法を用いる。しかし、その他の公知の方法を用いて顔の特徴情報を算出してもよい。
S0904で、コントローラ0220が、観測者(タブレット端末0200のカメラ0203で人物を撮像しているユーザ)の個人情報を特定するための情報と共に、前記撮像画像中の人物の顔の特徴情報を処理サーバー0300に送信する。観測者の個人情報を特定するための情報とは、データテーブル0700で管理されている複数の個人情報から観測者であるユーザの個人情報を一意に特定するための情報である。本実施例では、例えば観測者であるユーザの個人情報を管理する図4のnode.idの値であって、予めタブレット端末0200に設定されている情報が用いられる。
ここで、処理サーバー0300のコントローラ0320が、S0908でタブレット端末0200から観測者の個人情報を特定するための情報と、撮像中の人物の顔の特徴情報を受信し、処理をS0909に進める。ここで撮像画像中の人物の顔画像の特徴情報は、後述するS0909での顔認識処理で用いられる、撮像画像中の人物の個人情報を特定するために用いられる情報である。
S0909で、コントローラ0320が、図7に示す顔認識処理を実施し、処理をS0910に進める。
S0910で、コントローラ0320が、図8に示すコンテンツ生成処理を行い、処理をS0911に進める。
S0911で、コントローラ0320が、S0910で生成したコンテンツ情報をタブレット端末0200に送信し、処理サーバー0300の処理が終了する。
ここで、タブレット端末のコントローラ0220が、S0905で処理サーバー0300からコンテンツ情報を受信し、処理をS0906に進める。
S0906でコントローラ0220が、カメラ0203によって撮像された撮像画像をディスプレイ0201に表示し、処理をS0907に進める。
S0907で、コントローラ0220は、前記撮像画像中の人物の顔画像の位置座標近傍の位置座標を算出する。そしてコントローラ0220は、撮像画像上の算出された位置座標の表示領域上に、コンテンツ情報を重畳して表示する。すなわちコントローラ0220は、コンテンツ情報を被観測者の画像とともにディスプレイ0201に表示することで、コンテンツ情報を被観測者と紐づけて表示する手段として機能する。なお人物の顔の位置座標近傍とは、例えば、S0902でメインメモリ0208に保持されている顔の位置座標から、所定の距離オフセットさせた位置の座標である。これにより、コンテンツ情報が撮像画像中の人物(被観測者)に紐づいて表示されることになる。
<顔認識処理>
図7は本実施形態における処理サーバー0300の実行する顔認識処理のフローを示す図である。
S1001で処理サーバーのコントローラ0320が、記憶装置(HDD0310)のデータテーブル0700から各ユーザの顔情報画像(図4のnode.face_imageの情報)をnode.idごとに読み出し、顔情報画像から顔の特徴情報を算出し、処理をS1002に進める。
S1002で、コントローラ0320が、S1001で算出した特徴情報と撮像画像中の人物の顔画像の特徴情報の類似度を算出し、処理をS1003に進める。本実施例では、人物の顔の特徴情報の類似度を算出する方法として、例えば、2つの特徴空間ベクトルの成す角度の相関を求める方法を用いるが、他の公知の方法を用いてもよい。
S1003で、コントローラ0320が、S1002で算出した類似度が一定値以上かどうかを判定し、一定値以上であれば処理をS1004に進める。一定値未満であれば、コントローラ0320は処理をS1001に進め、S1001でこれまでに読み出していないnode.idで管理される個人情報の中から、次の個人情報を読み出して、上述したS1001、S1002の処理を繰り返す。
S1004で、コントローラ0320は、現在参照しているnode.idで管理される個人情報(データテーブル0700のレコード)が、撮像されている人物の個人情報であると特定し、本処理を終了する。
<コンテンツ生成処理>
図8は本実施形態における処理サーバー0300のコンテンツ生成処理のフローを示す図である。
S1101で、処理サーバーのコントローラ0320が、記憶装置(HDD0310)から例えば図5に示したコンテンツ表示スクリプトを読み込み、1コマンドずつ解釈し、S1102に進む。
S1102で、コントローラ0320が、解釈したコマンド種類に応じて、処理をS1103からS1110の8つの処理に分岐させる。
b−1):コントローラ0320が、解釈したコマンド種類が“if”の場合、S1103で、“if”に続く()内の真偽を判定し、真であれば続く処理ブロックを処理し、偽であれば続く処理ブロックは読み飛ばし、S1111に進む。
b−2):コントローラ0320の解釈したコマンド種類が“todo.search”の場合、S1104で、“todo.search”コマンドの属するクラスのToDoの中から、続く()内のテキスト情報を含むものを返し、なければNULLを返し、S1111に進む。前記コマンドの属するクラスとは、コマンド記載の前の“.”(ピリオド)の前に書かれている情報を示しており、その情報がコマンドの処理対象となる。例えば、図5の150行目の“observer.todo.search()”という記載は、“search”コマンドは“observer.todo”(観察者のToDo)情報を対象に“search”処理を行う。
b−3):コントローラ0320の解釈したコマンド種類が“meeting.search”の場合、S1105で、“meeting.search”コマンドの属するクラスのミーティングの中から、続く()内の同じtitle、day、start_time、end_time属性を有するものを返す、なければNULLを返し、S1111に進む。
b−4):コントローラ0320の解釈したコマンド種類が“blank.search”の場合、S1106で、“blank.search”コマンドの属するクラスの何もスケジュールが入っていない時間帯を検索し、その中から、続く()内の時間帯と重複する時間帯を返す、なければNULLを返し、S1111に進む。
b−5) :コントローラ0320の解釈したコマンド種類が“term.search”の場合、S1107で、“term.search”コマンドの属するクラスの時間帯から、続く()内の時間帯と重複する時間帯を返す、なければNULLを返し、S1111に進む。
b−6):コントローラ0320の解釈したコマンド種類が“article.search”の場合、S1108で、“article.search”コマンドの属するクラスのSNS投稿情報から、続く()内のSNS投稿情報を含むものを返す、なければNULLを返し、S1111に進む。
b−7):コントローラ0320の解釈したコマンド種類が“next”の場合、S1109で、“next”コマンドの属するクラス関して複数の候補があれば次の候補を返す、なければNULLを返し、S1111に進む。
b−8):コントローラ0320の解釈したコマンド種類が“display”の場合、s1110で、“display”コマンドに続く()内のコンテンツひな形を採用し、S1111に進む。
そして上記b−1)からb−8)のいずれかの処理を実行した後、S1111で、コントローラ0320は、採用するコンテンツひな形が決定したかどうかを判定し、決定していれば処理をS1112に進め、決定していなければ処理をS1101に進める。
S1112で、コントローラ0320は、図7の顔認識処理によって特定された個人情報(特定されたnode.idのレコード)を読み込み、この個人情報をコンテンツひな形の文章に、ひな形の書式指定に従って合成することで、コンテンツ情報を生成する。
以上の処理は、観測者であるユーザと被観測者であるユーザの個人情報から、ユーザどうしがどのような関連性を有しているのかを判定する処理と、判定された関連性に基づいた内容をディスプレイ0201に表示するためのコンテンツ情報を生成する処理である。すなわち、ここでコントローラ0320はユーザどうしの個人情報に基づいて、ユーザ間の関連性を判定する手段および判定された関連性に基づいてコンテンツ情報を生成する手段として機能している。
なお図5に示されるコンテンツ表示スクリプトに基づいて実行されるコンテンツ生成処理において、行番号100に記載のコマンドによって、観測者であるユーザと被観測者であるユーザが顔見知りであるかどうかを判定する処理が行われる。
観測者であるユーザが被観測者であるユーザと顔見知りであると判定された場合、行番号110〜480までの処理が実行される。この行番号110〜480の処理は、観測者と被観測者との関連性を判定する処理および判定された関連性に基づいてコンテンツ情報を生成する処理である。
一方で、観測者であるユーザが被観測者であるユーザと顔見知りでないと判定された場合、行番号500〜540の処理が実行される。この行番号500〜540の処理は、観測者と被観測者との関連性を判定せずに、観測者と被観測者との関連性を示さないコンテンツ情報(例えば被観測者が誰であるかを示すだけのコンテンツ情報)を生成する処理である。
<コンテンツ情報の表示>
図9は実施例1におけるコンテンツ情報の表示の例を示す図である。
図9(a)は、ユーザCがタブレット端末0200のカメラ0203でユーザAを撮影すると、ディスプレイ0201にユーザAの画像に紐付けて、図8で生成されたコンテンツ情報が表示されることを示している。このコンテンツ情報の表示内容は、図4で示す個人情報データベースのデータテーブル0700の内容とコンテンツ生成処理において実行される図5に示すコンテンツ表示スクリプトにもとづいて決まる。
表示されるコンテンツ情報について、図5のスクリプトの流れに沿って説明する。まず100行目で、observer.edge.target即ち、観察者(例えばユーザC)のedge情報の中の被観察者(例えばユーザA)の情報、即ち、図4のnode.id=0003のnode.edgeの属性の中を参照し、{node.id=1, 1}を得る。{node.id=1, 1}はnode.id(ユーザA)とは“1”(顔見知り)の関係であることを示している。従って、図5の100行目の条件はtrueとなり、処理は110行目からのブロックに進む。スクリプト中の“//”はコメント行を示しており、処理には反映されない。
次に、150行目のif( result1 = observer.todo.search( target.name ))が処理される。図8のS1104に従い、ユーザCのToDo、つまり図4のnode.id=0003のnode.todo属性の中に、ユーザAの名前、つまり図4のnode.id=0001のnode.nameが含まれるかを判定する。ユーザCのToDoにはユーザAの名前が含まれるので、result1にはobserver.todoが代入される。“if”コマンド判定で、result1は真であるので、処理は160行目からのブロックに進む。
170、180行目で、display( “あなたのToDo「¥s」の関係者です”,result1.title )を処理する。図8のS1110に従い、“あなたのToDo「¥s」の関係者です”というコンテンツひな形を採用する。“¥s”に部分には、result1.titleの内容が代入される。先ほどresult1にはobserver.todoが代入されているので、result1.titleとはobserver.todo.titleの意味となり、これはユーザCのToDoのタイトル、即ち、図4のnode.id=0003のnode.todo属性の中のtitleの内容”XX社との契約作業の進捗確認”となる。
図5の210、290、430行目の“else if”コマンドは、既にその前の“if”コマンドの条件判定が真になっていた場合には読み飛ばされるため処理されない。これにより、図8のS1112で生成するコンテンツは、“あなたのToDo「XX社との契約作業の進捗確認」の関係者です”という内容になる。タブレット端末が、該コンテンツを、ユーザAのビデオ映像に紐付けて表示することで、図9(a)のように表示される。
図12(b)は、ユーザDがタブレット端末0200のカメラ0203でユーザAを撮影すると、ディスプレイ0201にユーザAの画像に紐付けて、図8のコンテンツ生成処理で生成されたコンテンツ情報が表示されることを示している。図9(b)のコンテンツ情報がディスプレイ0201に表示される処理の流れは、前述の、ユーザCがユーザAを撮影するケースと同様であるので、詳細な説明は割愛する。ユーザDのタブレット端末0200は、“あなたのSNSのスキー旅行の記事にお気に入りマークを残してくれた方です”というコンテンツ情報をユーザAの画像に紐付けて表示する。
このように、他のユーザとの関係性を反映したコンテンツ情報を、他のユーザを撮影するだけで得られる。そのため、本実施例の情報処理システムによれば、他のユーザを見かけた際に手軽に相手との共通話題を得られ、会話のきっかけを作りやすいという効果を得ることができる。
なお、本実施例においては、被観察者となるユーザは1人であったが、本発明はこれに限られない。すなわち、カメラ0203で複数のユーザ(被観測者)を撮像した場合、タブレット端末0200および処理サーバー0300は、撮像画像に含まれる複数のユーザそれぞれに対して、これまでの実施例で説明した処理を実行する。
具体的には、撮像画像に含まれる複数の被観測者の顔画像からそれぞれの被観測者の個人情報を特定し、特定されたそれぞれの被観測者の個人情報および観測者であるユーザの個人情報に基づいて、複数の被観測者それぞれに対応するコンテンツ情報をそれぞれ生成する。そして生成された複数のコンテンツ情報に対して、それぞれの被観測者の顔画像の位置座標近傍の座標を算出し、算出されたそれぞれの位置に、対応するコンテンツ情報それぞれを重畳して表示することになる。
例えばユーザCがユーザAとユーザBをタブレット端末のカメラで撮像すると、ユーザCのタブレット端末には図9(c)のようなコンテンツ情報が表示される。すなわち、ユーザA(図9(c)の右側)の顔画像の位置座標近傍にユーザAとユーザCとの関係性に基づいて生成されたコンテンツ情報が表示される。さらに、ユーザB(図9(c)の右側)の顔画像の位置座標近傍にユーザBとユーザCとの関係性に基づいて生成されたコンテンツ情報が表示される。
このように複数のユーザを撮像した場合であっても、撮像画像におけるユーザのそれぞれの位置に対応した位置にそれぞれのコンテンツ情報が表示される。そのため、複数のコンテンツ情報が表示されても、コンテンツ情報が対応する被観測者であるユーザと紐づいて表示されて、撮像画像に写っている複数のユーザと複数のコンテンツ情報との対応が分かりやすくなる。
(実施例2)
<実施例2のシステム構成>
図10は実施例2のシステム構成を示す図である。本実施例のシステムは、ユーザCとユーザDの2名が装着するHMD(Head Mounted Display)1500と、ネットワークカメラ1700、ワイヤレスアクセスポイント0400、処理サーバー0300、ネットワーク9000を有する。各HMD1500とワイヤレスアクセスポイント0400は無線で接続されており、処理サーバー0300とワイヤレスアクセスポイント0400はネットワーク9000で接続されている。実施例1との違いとして、ユーザBは、ユーザC及びユーザDに背を向けており、ユーザCおよびユーザDのいずれからも顔を観測出来ないものとする。
<HMD>
本実施形態で用いるHMD1500は市販されているものと同様のものであり、フレームで頭部に装着するようになっている。又、片目若しくは両目に透過型のディスプレイ1501が取り付けられた構造になっており、ユーザはディスプレイに表示された人工像(表示画像)と、ディスプレイ1501の先にある実像を同時に見ることが出来る。HMD1500にはカメラ1502も取り付けられており、ユーザの目に近い視点で撮影することが可能である。
図11は本実施形態で用いるHMD1500のハードウェアブロック図である。HMD1500は、コントローラ1520、透過型のディスプレイ1501、カメラ1502を有する。
コントローラ1520の構成についてさらに説明する。
内部バス1512は、メモリコントローラ1507、I/Oコントローラ1509間で情報の伝達が出来るよう、電気信号を送受信する。メモリコントローラ1507は、メインメモリ1508に対するメモリアクセス全般を統括する。I/Oコントローラ1509は、ROM1510、LANポート1503、透過型ディスプレイ1501、地磁気センサ1511、内部バス1512を介して接続している処理部との情報の送受信を行う。LANポート1503は、アクセスポイント0400および/またはネットワーク9000を介して接続されている処理サーバ0300などの他の機器、I/Oコントローラ1509との情報の送受信を行う。
ROM1510にはブートローダプログラム及びHMD制御プログラムが格納されている。メインメモリ1508は揮発性メモリであり、高速アクセスが可能であるので、ROM1510に記憶されている情報や一時的に使用する情報はここに格納される。HMD1500の電源投入時には、CPU1504がブートローダプログラムを読み出して実行し、ROM1510に格納されているHMD制御プログラムを取り出し、メインメモリ1508に格納する。そして、CPU1504がメインメモリ1508に格納されているHMD制御プログラムを実行し、HMD1500の有する各機能を実行する。また、CPU1504がこのHMD制御プログラムを実行することで、図14、23に示されるHMD1500の行う処理が実行される。
以上がコントローラ1520の構成についての説明である。
HMD1500は、情報を表示する透過型ディスプレイ1501を備える。グラフィックコントローラ1506は、透過型ディスプレイ1501への表示を制御する。HMD1500は、ユーザに情報を提示する際には透過型ディスプレイ1501に情報を表示する。HMD1500は、カメラ1502を備えている。カメラ1502は撮影した撮像画像をデジタル変換する。カメラ1502は、I/Oコントローラ1509との情報の送受信を行う。HMD1500は、地磁気センサ1511を備えている。地磁気センサ1511は、東西南北の方角と、三次元方向の傾きを計測することが可能であり、計測した情報をデジタル情報に変換する。地磁気センサ1511は、I/Oコントローラ1509との情報の送受信を行う。地磁気センサ1511により、HMD1500を装着しているユーザが、物理空間上でどの方向に顔を向けているのかが把握可能である。バッテリー1505は、電力をHMD1500全体に供給する。
<ネットワークカメラ>
本実施形態で用いるネットワークカメラ1700は天井に取り付けられるようになっており、建物空間内を広く撮影することが可能である。勿論、ネットワークカメラとしては、天井取り付け型ではなく、壁面に埋め込んだものであったり、スタンドに設置したものであっても良い。図12は本実施形態で用いるネットワークカメラ1700のハードウェアブロック図である。ネットワークカメラ1700は、コントローラ1720、カメラ1701を有する。以下でコントローラ1720の構成についてさらに説明する。
内部バス1709は、メモリコントローラ1705、I/Oコントローラ1707間で情報の伝達が出来るよう、電気信号を送受信する。メモリコントローラ1705は、メインメモリ1706に対するメモリアクセス全般を統括する。I/Oコントローラ1707は、ROM1708、LANポート1702、カメラ1701、内部バス1709を介して接続している処理部との情報の送受信を行う。
LANポート1702は、アクセスポイント0400および/またはネットワーク9000を介して接続されている処理サーバー0300などの他の機器、I/Oコントローラ1707との情報の送受信を行う。
ROM1708にはブートローダプログラム及びネットワークカメラ制御プログラムが格納されている。メインメモリ1706は揮発性メモリであり、高速アクセスが可能であるので、ROM1708に記憶されている情報や一時的に使用する情報はここに格納される。ネットワークカメラ1700の電源投入時には、CPU1703がブートローダプログラムを読み出して実行し、ROM1708に格納されているネットワークカメラ制御プログラムを取り出し、メインメモリ1706に格納する。そして、CPU1703がメインメモリ1706に格納されているネットワークカメラ制御プログラムを実行し、ネットワークカメラの有する各機能を実行する。また、CPU1703がこのネットワークカメラ制御プログラムを実行することで、図13に示されるネットワークカメラ1700の行う処理が実行される。
以上がコントローラ1720の構成についての説明である。
ネットワークカメラ1700は、カメラ1701を備えている。カメラ1701は撮影した撮像画像をデジタル変換する。カメラ1701は、I/Oコントローラ1707との情報の送受信を行う。
なお、処理サーバー0300、ワイヤレスアクセスポイント0400、ネットワーク9000は実施例1と同様の構成を有するため、説明はしない。
<実施例2の処理フロー>
図13は実施例2の撮影画像処理と個人特定処理のフローを示す図である。S1801からS1808はネットワークカメラ1700のコントローラ1720によって実行される撮影画像処理である。
S1801で、ネットワークカメラ1700のコントローラ1720がカメラ1701を制御することで、建物内の空間(物理空間)を撮像し、処理をS1802に進める。
S1802で、コントローラ1720が、撮像画像から人物の人体を検出し、新規に検出された人体に対しては、skeletonIDを新規に割り当てる。既に検出済みの人体であればコントローラ1720は既存のskeletonIDを、検出された人体に対して割り当て、処理をS1803に進める。撮像画像からの人物の人体を検出する方法としては様々な方式があり、本実施例においては、カメラ1701から被写体までの距離を測定することができる深度センサを用いた技術を用いるが、本発明はこれに限定されない。前記skeletonIDとは、コントローラ1720が検出した人体を、以下の処理において区別して一意に特定するために、各人体に自動的に割り振る個別の番号である。なお、以下の処理には検出された人体に対して割り振られたskeletonIDが用いられる。
S1803で、コントローラ1720が、撮像画像から物理空間における人物の位置を算出し、処理をS1804に進める。物理空間における位置を算出する方法としては様々な方式があり、本実施例においては、先述の深度センサを用いて、測定対象に関する深度情報と、深度センサ撮影面の法線と測定対象の成す角度から算出する方法を用いる。しかし本発明は人物の位置を算出する方法によって限定されない。
S1804で、コントローラ1720が、算出した人物の位置情報をskeletonIDに紐付けて処理サーバー0300に送信し、処理をS1805に進める。
S1805で、コントローラ1720が人物の顔が観測できるかどうかを判定し、出来る場合は処理をS1806に進め、出来ない場合はネットワークカメラ1700の処理を終了する。人物の顔が観測できるかどうかは、例えば実施例1でも言及した特徴空間ベクトルを用いた検出方法を用いればよく、検出出来た場合は観測できるものとして扱う。
S1806で、コントローラ1720が、撮像画像から人物の顔を検出し、撮像画像中の人物の顔の画像を抽出し、処理をS1807に進める。
S1807で、コントローラ1720が、前記撮像画像中の人物の顔の画像から、人物の顔の特徴情報を算出し、処理をS1808に進める。
S1808で、コントローラ1720が、前記撮像画像中の人物の顔の特徴情報をskeletonIDに紐付けて処理サーバーに送信し、ネットワークカメラの処理を終了する。
S1809からS1810は処理サーバー0300のコントローラ0320によって実行される撮影画像処理である。
S1809で、コントローラ0320が、ネットワークカメラ1700から人物の位置情報とskeletonIDを受信し、S1810に進む。
S1810で、コントローラ0320が、HDD0310に記憶されているデータテーブル0700の各レコードから個人の物理位置情報(図4のnode.trace_info列の属性)を読み出す。そして、コントローラ0320は、S1809で受信したskeletonIDと一致するskeletonIDを有するレコードを探す。一致するskeletonIDが見つかった場合、コントローラ0320は、見つかったskeletonIDと共に管理されている位置情報(node.trace_infoのcoord情報)を、S1809で受信した位置情報で更新し、撮影画像処理を終了する。また、一致するskeletonIDが見つからなかった場合(つまり受信したskeletonIDが新規だった場合)、コントローラ0320は、メインメモリ0308にS1809で受信したskeletonIDおよび位置情報を一時的に記憶する。この一時的に記憶されるskeletonIDおよび位置情報は、後述のS1813での処理で個人情報と紐づけられる。以上でコントローラ0320は撮影画像処理を終了する。
S1811からS1813は処理サーバー0300のコントローラ0320が実行する個人特定処理である。
S1811で、コントローラ0320が、ネットワークカメラ1700から撮像画像中の人物の顔の特徴情報とskeletonIDを受信し、処理をS1812に進める。
S1812で、コントローラ0320が、図7に示す顔認識処理を実施して撮像画像中の人物の個人情報(データテーブル0700のレコード)を特定し、処理をS1813に進める。
S1813で、コントローラ0320が、HDD0310のデータテーブル0700から、S1812で特定した個人情報の物理位置情報(図4のnode.trace_info列の属性)を読み出す。そしてコントローラ0320は、読み出した物理位置情報にskeletonIDが割り当てられているかを判定する。skeletonIDが割り当てられている場合、コントローラ0320は処理を終了する。一方、skeletonIDが割り当てられていない場合、コントローラ0320は、S1812で特定した個人情報の物理位置情報に対して、S1811で受信したskeletonIDを新たに割り当てる。この際にコントローラ0320は、S1809でskeletonIDに紐づけられて受信された人物の位置情報で、新たに割り当てられたskeletonIDを含む物理位置情報のcoord情報を更新する。以上で処理サーバー0300の個人特定処理を終了する。
なお本実施例において、処理サーバーの撮影画像処理と個人特定処理は非同期に動作させている。その理由は、顔認識処理が成功するかどうかは、カメラが人物の顔を観測出来る位置と向きに人物が存在する必要があり、顔を認識できないことが多々あるためである。そのため、まずは人物の位置を把握しておき、顔認識が成功し個人が特定できた時点で、人物の位置情報と個人情報を結びつけられることが重要になる。本実施例で図10に示す通りネットワークカメラを4台異なる方向に設置しているのは、人物の顔を観測出来る条件を増やし、個人認識の確率を向上させるためである。
<情報表示処理>
図14は実施例2の情報表示処理のフローを示す図である。S1901からS1905はHMD1500のコントローラ1520が実行する情報表示処理である。
S1901で、コントローラ1520が、透過型ディスプレイ1501を通して観察者であるユーザに被観察者であるユーザを視認させ、S1902に進む。これは、コントローラ1520が処理を行うというわけではなく、観察者が透過型ディスプレイ越しに被観察者を見るという動作になる。
S1902で、コントローラ1520が、地磁気センサ1511からの地磁気センサ情報から観測者の顔の向きを導出し、処理をS1903に進める。
S1903で、コントローラ1520が、予めメインメモリ1508に設定された観測者であるユーザの個人情報を特定するための情報と、この情報と共に観測者の視線の向きの情報を処理サーバーに送信し、処理をS1904に進める。なお、個人情報を特定するための情報とは、図4のデータテーブル0700でのnode.id列の属性のIDであり、このIDはユーザを他のユーザと区別して一意に特定するために用いられるものである。このIDは前述の実施例1においては、ユーザが予めタブレット端末0200に対して設定したものであったが、本実施襟においては、ユーザが予めHMD1500に対して設定したものを用いる。例えばユーザの社員番号などがIDとして予めタブレット端末0200に設定されていてもよい。なお設定されるIDは、コントローラ1520内のメインメモリ1508に格納されている。
S1904で、コントローラ1520が、処理サーバー0300からコンテンツ情報とコンテンツ表示位置を受信し、処理をS1905に進める。
S1905で、コントローラ1520が、受信したコンテンツ情報を透過型ディスプレイ1501のコンテンツ表示位置に表示し、コントローラ1520の情報表示処理を終了する。
S1906からS1910は処理サーバー0300のコントローラ0320が実行する情報表示処理である。
S1906で、コントローラ0320が、S1903にてHMD1500が送信した観測者の個人情報を特定するための情報および向き情報を受信し、処理をS1907に進める。
S1907で、コントローラ0320が、HDD0310のデータテーブル0700から、受信した観測者の個人情報を特定するための情報を含むレコード(個人情報)を読み出す。そしてコントローラ0320は、読み出したレコードから物理位置情報(図4のnode.trace_info属性の情報)を取得する。そしてコントローラ0320は、取得した物理位置情報のdirection情報を、S1906で受信した向き情報で更新する。またコントローラ0320は、更新した物理位置情報に基づいて、観測者であるユーザがHMD1500の透過型ディスプレイ1501を通して見ている被観測者を導出する。そしてコントローラ0320は、該被観測者の個人情報をデータテーブル0700から抽出し、処理をS1908に進める。なお、被観測者を導出する方法については、図15を用いて後述する。
S1908で、コントローラ0320が、図8に示したコンテンツ生成処理を実施してコンテンツ情報を生成して、処理をS1909に進める。
S1909で、コントローラ0320が、観測者の向き情報と被観測者の物理位置情報からHMD1500の透過型ディスプレイ1501上のコンテンツ表示位置を算出し、処理をS1910に進める。なお、コンテンツ表示位置の算出方法については、図16を用いて後述する。
S1910で、コントローラ0320が、生成したコンテンツ情報とコンテンツ表示位置をHMD1500に送信し、本処理を終了する。
<被観測者の導出>
図15は図14のS1907記載の観測者がHMD1500の透過型ディスプレイ1501を通して見ている被観測者を導出する方法について説明する図である。
ここで処理サーバー0300のコントローラ0320は、図13で説明した処理によって、ネットワークカメラ1700が検出した全ての人物の物理位置情報をデータテーブル0700から取得する。また、コントローラ0320は、図14のS1907で更新された物理位置情報のdirection情報(観測者の向き情報)を取得する。
これらの人物の物理位置情報および観測者の向き情報から、コントローラ0320は、図15に示すようなマップを内部生成する。図15のマップは観測者と他の人物の位置関係を上から見た図である。すなわち、コントローラ0320は、人物の物理位置情報のcoord情報から建物内の空間(物理空間)において、観測者であるユーザの位置座標(Xo, Yo)を他の人物であるユーザの位置座標(Xt, Yt)を取得する。また、コントローラ0320は、観測者であるユーザの向き(以下ではHMD1500の法線2001と表記する)θをdirection情報から取得する。なおここでθはradian単位とするが、direction情報はdegree単位であり、相互に変換可能である。
次にコントローラ0320は、図15に示される角度γを求める。角度γは、観測者の装着するHMD1500の法線2001に対する他の人物(非観測者)の位置する方向の角度となる。γは以下の式で求める。
Figure 0006021366
そして、コントローラ0320は、HMD1500の透過型ディスプレイ1501のカバーする視野角αと角度γを比較することで、他の人物(非観測者)が被観測者であるかどうかを判定する。ここでいう被観測者とは、観測者の装着するHMD1500の透過型ディスプレイ1501越しに見える人物のことである。コントローラ0320は、|γ|<α/2であれば他の人物が被観測者であると判定し、そうでない場合に他の人物は被観測者ではないと判定する。
<コンテンツ情報の表示位置の算出>
図16は、図14のS1909で処理サーバー0300のコントローラ0320が、HMD1500の透過型ディスプレイ1501上のコンテンツ情報の表示位置を算出する方法について説明する図である。
図16のように観測者の目の法線2101(HMDの法線2001と等しい)に基づいて図15で算出した他の人物(非観測者)の位置する方向の角度γの傾き方向を示す線2102と、HMDのディスプレイの交点が、コンテンツ表示位置Pdisplayとなる。この位置Pdisplayは、観測者から見た被観測者がHMD1500の透過型ディスプレイ1501越しに視認される位置であり、コンテンツ情報が透過型ディスプレイ1501上に表示されるコンテンツ表示位置である。
コントローラ0320は、このコンテンツ表示位置Pdisplayを次の式に基づいて算出する。
Figure 0006021366
このDは、観測者の目から透過型ディスプレイ1501までの距離であって、予め決まった値である。
<実施例2のコンテンツ情報の表示>
図17は実施例2におけるコンテンツ情報の表示の例を示す図である。
図17(a)は、ユーザCがHMD1500越しにユーザBを見た際に、透過型ディスプレイ1501にユーザBの実像に紐付けてコンテンツ情報が表示されることを示している。コンテンツ情報の表示内容は、実施例1で説明したように図4で示す個人情報データベースの内容と図5に示すコンテンツ表示スクリプトで決まる。コンテンツ生成処理の流れは、実施例1のケースと同様であるので、詳細な説明は割愛する。
ユーザCのHMD1500は、“本日、15:00からユーザBと新製品デザインレビュー件に関して打ち合わせ予定です”というコンテンツをユーザBの実像に紐付けて表示する。図17(b)は、ユーザDがHMD1500越しにユーザBを見た際に、透過型ディスプレイ1501にユーザBの実像に紐付けてコンテンツ情報が表示されることを示している。コンテンツ生成処理の流れは、実施例1のケースと同様であるので、詳細な説明は割愛する。ユーザDのHMDは、“本日、あなたがユーザBと直接会話出来るチャンスは今から15:00までです”というコンテンツ紹鴎をユーザBの実像に紐付けて表示する。
このように、実世界上で人を見かけた際に、相手の顔が視認できない場合や物陰にいるなど観測者側から個人を判別出来ない場合であっても、相手の存在を確認でき、自分と相手の共通話題を得られるため、会話のきっかけを作りやすいという効果が得られる。
なお、本実施例においては、被観察者となるユーザは1人であったが、本発明はこれに限られない。すなわち、観察者が透過型ディスプレイ越しに複数のユーザを見た場合、HMD1500および処理サーバー0300は、観測者が見ている複数の被観測者を特定し、それぞれの被観測者に対して、これまでの実施例で説明した処理を実行する。すると、それぞれの被観測者ごとに生成されたコンテンツ情報が、透過型ディスプレイ1501上の、透過型ディスプレイ1501越しに見える被観測者の実像の近傍の位置に表示されることになる。この場合の表示は、透過型ディスプレイとタブレット端末の違いはあるが、例えば、図9(c)のように複数の被観測者の実像の近傍位置にコンテンツ情報が表示されるものと類似した表示が行われる。
(実施例3)
実施例3の構成は実施例2と特に断りがなければ同様である。但し、実施例2とは異なり、物理空間上の人物位置をHMD1500の透過型ディスプレイ1501上にアイコンとして表示することで、自分も含めた人物の位置関係を俯瞰的に把握可能にしている。
<実施例3の情報表示処理>
図18は実施例3の情報表示処理のフローを示す図である。
S2301からS2303は、HMD1500のコントローラ1520の実行する情報表示処理である。
S2301で、コントローラ1520が、観測者の個人情報を特定するための情報を処理サーバーに送信し、S2302に進む。
S2302で、コントローラ1520が、被観測者ごとのコンテンツ情報と、観測者および被観測者の物理位置情報を受信し、S2303に進む。
S2303で、コントローラ1520が、観測者と被観測者の物理位置情報に基づいて観測者および被観測者を示すアイコンを二次元平面上にマッピングする。そしてコントローラ0320は、マッピング後のアイコン画像を透過型ディスプレイ1501に表示し、情報表示処理を終了する。
S2304からS2307は、処理サーバー0300のコントローラ0320の実行する情報表示処理である。
S2304で、コントローラ0320が、観測者の個人情報を特定するための情報を受信し、S2305に進む。
S2305で、コントローラ0320が、HDD0310のデータテーブル0700からS2304で受信した情報に基づいて各個人の個人情報を特定し、特定した個人情報から物理位置情報を読み出す。そしてコントローラ0320は、観測者の位置の近傍にいる人物から被観測者を導出し、該被観測者の個人情報を抽出して、S2306に進む。なお観測者の位置の近傍にいる人物から被観測者を導出するには、コントローラ0320は、観測者と他の人物それぞれの物理位置情報のcoord情報を読み出す。そしてコントローラ0320は、観測者のcoord情報で示される位置座標と他の人物のcoord情報で示される位置座標との距離が所定の距離内であるかを判定する。コントローラ0320は、位置座標間の距離が所定の距離内となる人物を被観測者とする。
S2306で、コントローラ0320が、図8に示したコンテンツ生成処理を実施し、S2307に進む。
S2307で、コントローラ0320は、S2306で生成した被観測者ごとのコンテンツ情報と、観測者および被観測者の物理位置情報をタブレット端末に送信し、処理サーバーの情報表示処理を終了する。
<実施例3のコンテンツ情報の表示>
図19は実施例3におけるコンテンツ情報の表示の例を示す図である。図は、ユーザCのHMD1500の透過型ディスプレイ1501に表示されるコンテンツ情報であり、ユーザA、ユーザB、ユーザCの3名が近くにいることが俯瞰図として表示される。
図19中の符号(a)は、ユーザAのアイコン表示に紐付けてコンテンツ情報が表示されることを示している。図19中の符号(b)は、ユーザBのアイコン表示に紐付けてコンテンツ情報が表示されることを示している。また、図19中の符号(c)は、自分(この場合はユーザC)のアイコン表示である。コンテンツ情報の表示内容は、実施例1で説明したように、図4で示す個人情報データベースの内容と図5に示すコンテンツ表示スクリプトで決まる。なおコンテンツ生成処理の流れは、実施例2と同様である。
このようにして、実施例3では、実施例1や実施例2とは異なり、俯瞰的に人の情報を見ることが可能となり、自分の用事のある相手に話しかけに行く前に、その相手がどこにいるのかを把握しやすくなり、相手にたどり着きやすくなる。
(実施例4)
実施例4は、図5に示したコンテンツ表示スクリプトをユーザに設定させる動作の例である。
<コンテンツ表示スクリプトの設定画面の表示>
図20は、実施例4における処理サーバーのコントローラ0320が、コンテンツ生成処理に用いられるコンテンツ表示スクリプトを、ユーザに設定させる画面を表示する例である。画面にはスクリプトを入力する領域と、保存ボタンとキャンセルボタンがある。スクリプトはユーザがキーボード0302で入力し、保存ボタンとキャンセルボタンはユーザがマウス0303で押下する。ユーザは、本画面のスクリプトを入力する領域で新規にスクリプトを記載するか編集し、保存することで、コンテンツ表示スクリプトを設定することが可能である。
<コンテンツ表示スクリプト設定処理>
図21は実施例4における処理サーバー0300のコントローラ0320の実行するコンテンツ表示スクリプト設定処理のフローを示す図である。
S2601で、コントローラ0320はが、HDD0310からコンテンツ表示スクリプトを読み出し、S2602に進む。
S2602で、コントローラ0320はが、コンテンツ表示スクリプトの入力を促すメッセージ、スクリプト入力エリア、保存ボタン、キャンセルボタンから成るコンテンツ表示スクリプト設定画面をディスプレイ0301表示し、S2603に進む。
S2603で、コントローラ0320は、ユーザの操作を判別する。
ユーザの操作がコンテンツ表示スクリプトの編集であれば、S2604で、コントローラ0320は、キーボード入力を画面に反映し、S2603に進む。
ユーザの操作が保存であれば、S2605で、コントローラ0320は、入力されたコンテンツ表示スクリプトをHDD0310に書き込み、本処理を終了する。
ユーザの操作がキャンセルであれば、何もせずに本処理を終了する。
尚、実施例4ではスクリプトをユーザに入力させたが、より簡易的にシステムの挙動の選択肢をディスプレイに表示し、その選択肢の中からユーザに選択させても良い。
以上のように本実施例では、図5に例示したコンテンツ表示スクリプトを、ユーザによって自由に編集可能にする。そのため、コンテンツ生成処理によって生成されるコンテンツ情報をユーザが自由にカスタマイズ出来るようになり、ユーザの目的に合ったコンテンツ情報をディスプレイの表示することができる。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。その処理は、上述した実施例の機能を実現させるソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (8)

  1. 透過型ディスプレイを有する装置のユーザーによって視認されている人物に関するコンテンツ情報を、当該透過型ディスプレイ上に表示する情報処理システムであって、
    前記ユーザーの位置情報および前記ユーザーとは異なる人物の位置情報に基づいて、当該異なる人物が前記ユーザーによって視認されていると判定する第1の判定手段と、
    前記ユーザーの、所定の情報投稿サービスにおける投稿内容に関する情報、および、前記視認されていると判定された人物の、前記所定の情報投稿サービスにおける投稿内容に関する情報を記憶している記憶手段と、
    前記記憶手段に記憶されている前記ユーザーの前記情報および前記視認されていると判定された人物の前記情報に基づいて、前記ユーザーが前記所定の情報投稿サービスに投稿した投稿内容に対する前記視認されていると判定された人物の反応があるかを判定する第2の判定手段と、
    前記第2の判定手段による前記反応があるとの判定に基づいた、前記反応を表すコンテンツ情報を、前記透過型ディスプレイ上に表示する表示制御手段と、
    を有することを特徴とする情報処理システム。
  2. 前記第1の判定手段は、前記ユーザーの位置情報、および、前記ユーザーとは異なる人物の位置情報、および、前記ユーザーの視線の向きに関する情報に基づいて、当該異なる人物が前記ユーザーによって視認されていると判定することを特徴とする請求項1に記載の情報処理システム。
  3. 前記視認されていると判定された人物の像は、前記透過型ディスプレイを通して前記ユーザーによって視認されており、
    前記表示制御手段は、前記視認されていると判定された人物の像の前記透過型ディスプレイ上の位置に基づく、前記透過型ディスプレイ上の表示位置に、前記コンテンツ情報を表示することを特徴とする請求項1または2に記載の情報処理システム。
  4. 透過型ディスプレイを有する装置のユーザーによって視認されている人物に関するコンテンツ情報を、当該透過型ディスプレイ上に表示する情報処理システムの制御方法であって、
    前記ユーザーの位置情報および前記ユーザーとは異なる人物の位置情報に基づいて、当該異なる人物が前記ユーザーによって視認されていると判定する第1の判定工程と、
    記憶手段に記憶されている前記ユーザーの、所定の情報投稿サービスにおける投稿内容に関する情報、および、前記視認されていると判定された人物の、前記所定の情報投稿サービスにおける投稿内容に関する情報に基づいて、前記ユーザーが前記所定の情報投稿サービスに投稿した投稿内容に対する前記視認されていると判定された人物の反応があるかを判定する第2の判定工程と、
    前記反応があるとの前記判定に基づいた、前記反応を表すコンテンツ情報を、前記透過型ディスプレイ上に表示する表示制御工程と、
    を有することを特徴とする情報処理システムの制御方法。
  5. 前記第1の判定工程は、前記ユーザーの位置情報、および、前記ユーザーとは異なる人物の位置情報、および、前記ユーザーの視線の向きに関する情報に基づいて、当該異なる人物が前記ユーザーによって視認されていると判定することを特徴とする請求項4に記載の情報処理システムの制御方法。
  6. 前記視認されていると判定された人物の像は、前記透過型ディスプレイを通して前記ユーザーによって視認されており、
    前記表示制御工程は、前記視認されていると判定された人物の像の前記透過型ディスプレイ上の位置に基づく、前記透過型ディスプレイ上の表示位置に、前記コンテンツ情報を表示することを特徴とする請求項4または5に記載の情報処理システムの制御方法。
  7. 請求項1乃至3の何れか1項に記載の各手段として、1つ以上のコンピュータを機能させるためのコンピュータプログラム。
  8. 透過型ディスプレイを有する装置を装着しているユーザーによって視認されている人物に関するコンテンツ情報を、当該透過型ディスプレイに表示させる情報処理装置であって、
    前記ユーザーの位置情報および前記ユーザーとは異なる人物の位置情報に基づいて、当該異なる人物が前記ユーザーによって視認されていると判定する判定手段と、
    前記ユーザーが前記所定の情報投稿サービスに投稿した投稿内容に対する前記視認されていると判定された人物の反応があるとの判定に基づいた、前記反応を表すコンテンツ情報を、前記透過型ディスプレイに表示させる制御手段とを有することを特徴とする情報処理装置。
JP2012055002A 2012-03-12 2012-03-12 情報処理システム、情報処理システムの制御方法、情報処理装置、コンピュータプログラム。 Expired - Fee Related JP6021366B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012055002A JP6021366B2 (ja) 2012-03-12 2012-03-12 情報処理システム、情報処理システムの制御方法、情報処理装置、コンピュータプログラム。
US13/791,564 US9041646B2 (en) 2012-03-12 2013-03-08 Information processing system, information processing system control method, information processing apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012055002A JP6021366B2 (ja) 2012-03-12 2012-03-12 情報処理システム、情報処理システムの制御方法、情報処理装置、コンピュータプログラム。

Publications (3)

Publication Number Publication Date
JP2013190869A JP2013190869A (ja) 2013-09-26
JP2013190869A5 JP2013190869A5 (ja) 2015-02-19
JP6021366B2 true JP6021366B2 (ja) 2016-11-09

Family

ID=49113637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012055002A Expired - Fee Related JP6021366B2 (ja) 2012-03-12 2012-03-12 情報処理システム、情報処理システムの制御方法、情報処理装置、コンピュータプログラム。

Country Status (2)

Country Link
US (1) US9041646B2 (ja)
JP (1) JP6021366B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013046386A (ja) * 2011-08-26 2013-03-04 Sharp Corp 表示装置、受信装置、表示方法、テレビジョン受像機、表示システム、プログラムおよび記録媒体
US10905943B2 (en) * 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
JP6413268B2 (ja) * 2014-03-17 2018-10-31 株式会社ニコン コンテンツ感想出力装置およびコンテンツ感想出力システム
CN106296724B (zh) * 2015-05-12 2020-04-03 杭州海康威视数字技术股份有限公司 一种目标人物的轨迹信息的确定方法、系统及处理服务器

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060061551A1 (en) * 1999-02-12 2006-03-23 Vega Vista, Inc. Motion detection and tracking system to control navigation and display of portable displays including on-chip gesture detection
US7324081B2 (en) * 1999-03-02 2008-01-29 Siemens Aktiengesellschaft Augmented-reality system for situation-related support of the interaction between a user and an engineering apparatus
US20040104935A1 (en) * 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
JP4720167B2 (ja) * 2004-12-03 2011-07-13 株式会社ニコン 電子カメラおよびプログラム
WO2006070047A1 (en) * 2004-12-31 2006-07-06 Nokia Corporation Provision of target specific information
US20080051033A1 (en) * 2006-08-28 2008-02-28 Charles Martin Hymes Wireless communications with visually- identified targets
US20080268876A1 (en) * 2007-04-24 2008-10-30 Natasha Gelfand Method, Device, Mobile Terminal, and Computer Program Product for a Point of Interest Based Scheme for Improving Mobile Visual Searching Functionalities
JP5200015B2 (ja) * 2007-06-14 2013-05-15 パナソニック株式会社 画像認識装置及び画像認識方法
JP2009301407A (ja) 2008-06-16 2009-12-24 Takenaka Komuten Co Ltd 情報距離報知装置及び情報距離報知プログラム
JP2010061265A (ja) * 2008-09-02 2010-03-18 Fujifilm Corp 人物検索登録システム
JP5247337B2 (ja) * 2008-10-02 2013-07-24 キヤノン株式会社 画像認識装置および画像認識方法
JPWO2010041377A1 (ja) * 2008-10-06 2012-03-01 パナソニック株式会社 代表画像表示装置及び代表画像選択方法
JP4816717B2 (ja) * 2008-12-09 2011-11-16 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2010287059A (ja) * 2009-06-11 2010-12-24 Sony Corp 移動端末、サーバ装置、コミュニティ生成システム、表示制御方法およびプログラム
JP2011065278A (ja) * 2009-09-15 2011-03-31 Toshiba Corp 電子機器、画像検索方法およびコンテンツ再生プログラム
JP5564319B2 (ja) * 2010-04-13 2014-07-30 株式会社Nttドコモ 通信端末、通信システムおよびプログラム
US9183546B2 (en) * 2011-10-07 2015-11-10 Hewlett-Packard Development Company, L.P. Methods and systems for a reminder servicer using visual recognition
US9424255B2 (en) * 2011-11-04 2016-08-23 Microsoft Technology Licensing, Llc Server-assisted object recognition and tracking for mobile devices
US20130176202A1 (en) * 2012-01-11 2013-07-11 Qualcomm Incorporated Menu selection using tangible interaction with mobile devices

Also Published As

Publication number Publication date
US20130234932A1 (en) 2013-09-12
US9041646B2 (en) 2015-05-26
JP2013190869A (ja) 2013-09-26

Similar Documents

Publication Publication Date Title
JP5942456B2 (ja) 画像処理装置、画像処理方法及びプログラム
EP3340177B1 (en) Method and system for creating virtual message onto a moving object and searching the same
CN108303994B (zh) 面向无人机的群控交互方法
CN108876934B (zh) 关键点标注方法、装置和系统及存储介质
US9122916B2 (en) Three dimensional fingertip tracking
JP6496671B2 (ja) 情報処理装置、端末装置、情報処理方法及びプログラム
US20130010071A1 (en) Methods and systems for mapping pointing device on depth map
US10127667B2 (en) Image-based object location system and process
US20140035952A1 (en) Individual identification character display system, terminal device, individual identification character display method, and computer program
JP2012168798A (ja) 情報処理装置、オーサリング方法及びプログラム
JP2013080326A (ja) 画像処理装置、画像処理方法及びプログラム
CN108776773A (zh) 一种基于深度图像的三维手势识别方法及交互系统
JP6021366B2 (ja) 情報処理システム、情報処理システムの制御方法、情報処理装置、コンピュータプログラム。
CN110908504B (zh) 一种增强现实博物馆协作交互方法与系统
JP2013165366A (ja) 画像処理装置、画像処理方法及びプログラム
JP5837848B2 (ja) 画像処理装置、画像処理システム、画像処理方法
JP2013164697A (ja) 画像処理装置、画像処理方法、プログラム及び画像処理システム
US20180197342A1 (en) Information processing apparatus, information processing method, and program
JP2015087909A (ja) 情報処理システム、情報処理装置、情報処理サーバ、情報処理方法、及びプログラム
US20140195300A1 (en) Site of interest extraction device, site of interest extraction method, and computer-readable recording medium
JP2022507502A (ja) 拡張現実(ar)のインプリント方法とシステム
JP2021026336A (ja) 情報処理装置、及び、マーケティング活動支援装置
US20210201586A1 (en) Augmented reality remote communication method and system for providing security function for 3d space
TW202114409A (zh) 用於為目標設置可呈現的虛擬對象的方法和系統
CN114299809B (zh) 方向信息显示方法、显示装置、电子设备和可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161004

R151 Written notification of patent or utility model registration

Ref document number: 6021366

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees