JP6881193B2 - 情報処理装置、情報処理方法、プログラム、表示制御装置、表示制御方法、プログラムおよび情報処理システム - Google Patents

情報処理装置、情報処理方法、プログラム、表示制御装置、表示制御方法、プログラムおよび情報処理システム Download PDF

Info

Publication number
JP6881193B2
JP6881193B2 JP2017187960A JP2017187960A JP6881193B2 JP 6881193 B2 JP6881193 B2 JP 6881193B2 JP 2017187960 A JP2017187960 A JP 2017187960A JP 2017187960 A JP2017187960 A JP 2017187960A JP 6881193 B2 JP6881193 B2 JP 6881193B2
Authority
JP
Japan
Prior art keywords
dimensional
user
camera
person
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017187960A
Other languages
English (en)
Other versions
JP2019061629A (ja
Inventor
伸一 深澤
伸一 深澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2017187960A priority Critical patent/JP6881193B2/ja
Publication of JP2019061629A publication Critical patent/JP2019061629A/ja
Application granted granted Critical
Publication of JP6881193B2 publication Critical patent/JP6881193B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、情報処理方法、プログラム、表示制御装置、表示制御方法、プログラムおよび情報処理システムに関する。
近年、従来のようにハードウェアで実装される電話機に代わって、アプリケーションソフトウェアで実装されるソフトフォンが普及してきている。ソフトフォンはソフトウェアで実装されるため、ソフトフォンへの機能追加、ソフトフォンと他のアプリケーションソフトウェアとの連携等を比較的容易に実現することができる。そのため、ソフトフォンに関する様々な応用技術が提案されている。
例えば、特許文献1には、フロアを俯瞰的に撮影する複数のカメラを備えたシステムと、そのカメラから得られた撮像画像の表示画面において当該撮像画像に写っている人物をタッチすると、顔認識により当該人物を特定し、当該人物の電話番号を取得し、当該人物への電話発信を行う技術が、開示されている。
特開2007−208863号公報 特開2004−152276号公報
Gaver et al., One is not enough: multiple views in a media space, inProceedings of INTERCHI'93, pp.335-341, 1993.
しかし、上記特許文献1では、前記システムに複数のカメラを切り換える機能が備えられる旨は記載されているものの、そのカメラ切り換え操作のためのユーザインタフェースが具体的にどのような仕様になっているかということに関する記述が全くなされていない。
ここで、遠隔コミュニケーション支援システムにおけるカメラ切り換え機能とその操作の重要性について説明する。
遠隔地の被呼対象者に対して電話発呼を行う直前に、その遠隔地の映像が見えることで、発呼するユーザは前記被呼対象者のプレゼンス情報を知ることができる。プレゼンス情報は相手の状況を伝達するもので、その情報は量・質ともに高い方が好ましい。プレゼンス情報の質が高まると、被呼対象者が在席しているか否かのような大雑把な状況把握だけでなく、今は忙しそうか、もうすぐ離席しようとしているか等の、被呼対象者に関するさらに高度な状況把握が可能になる。その結果、発呼するユーザにとっては被呼対象者への話しかけやすさが向上し、一方、被呼対象者にとっては話しかけられたくない状況時に被呼される不都合の機会が減少する、という両者にとって有用な効果が得られる。
そして、被呼対象者が在席しているか否かではなく、上記のような高度な状況把握、すなわち「様子見」行動を遠隔環境で効果的に行うためには、相手の身体状態を多角的に観察できるシステム機能が必要となる。その機能を実現するために、前記遠隔コミュニケーション支援システムは複数のカメラを備えることが望ましいが、それだけでは十分ではない。
なぜなら、遠隔地に設置された複数のカメラの切り換え操作において、その操作ユーザが、いま自分は遠隔地のどこをどのカメラで見ているのか、見たい対象・位置を見るためには次にどのカメラを選択すればよいのかといった、複数カメラ同士の相互位置関係がわからず混乱してしまう問題(Spatial Discontinuities)の存在が従来指摘されているからである(非特許文献1)。
さらに、例えば、特許文献2には、ユーザが実行した機器機能選択操作履歴の情報からユーザが次に実行する機能選択操作の傾向を、ユーザが入力を行った時間と紐づけて学習し、ユーザによる機能選択操作を予測して支援する技術が、開示されている。
しかし、上記特許文献2は、ユーザが操作するある情報機器において、あらかじめある機器開発者によって人的に定義された連鎖可能な機能系列内の機能単位を選択した情報を対象にした技術である。一方、本発明は、後述するように、実空間に対応する「位置」の指定情報を対象にした技術である。特に「カメラと被写人物との位置関係性」に基づき、ユーザ毎の視点選好という心理的特性に応じた位置指定履歴情報をシステムが学習する。そして、ユーザが指定した位置と前記視点選好特性に応じて、ユーザ毎に最適と予測される視点の位置をシステムがユーザに推薦提示するユーザインタフェースに関する技術である。
そこで、本発明は、前記の複数カメラ同士の相互位置関係がわからず混乱してしまう問題を解決しつつ、直感的かつ効率的な操作を行えることによって、発呼するユーザが遠隔地の被呼対象者の状況を容易かつ高度に把握することを可能にするユーザインタフェースを提供する従来発明の効果をさらに高める技術を提供するものである。本発明は、位置情報に基づいた視点選択行動の学習処理により、各ユーザの行動および心理的特性に適した視点の映像を、遠隔コミュニケーション支援システムがユーザに提供できるようにすることを目的とする。
本発明によれば、ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定された場合、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件を算出し、前記閲覧条件と前記視点位置の指定回数との関係を算出する学習部を備える、情報処理装置が提供される。
前記学習部は、前記視点位置の指定回数が最大となる前記閲覧条件を算出してもよい。
前記学習部は、前記3次元選択位置と前記3次元設置位置とに基づいて、少なくとも3次元仮想空間における前記人物と前記ユーザとの距離を前記閲覧条件として算出してもよい。
前記学習部は、前記距離と前記視点位置の指定回数との関係式を算出し、前記関係式に基づいて、前記視点位置の指定回数が最大となる前記距離を算出してもよい。
前記学習部は、前記3次元選択位置と前記3次元設置位置と前記人物の身体方向の情報とに基づいて、少なくとも3次元仮想空間における前記人物に対する前記ユーザの視点位置の角度を前記閲覧条件として算出してもよい。
前記学習部は、前記人物に紐づけられた前記3次元仮想空間に対応する実空間における机の設置方向の情報に基づいて前記人物の身体方向を取得してもよい。
前記学習部は、前記撮像装置による撮像画像に対する前記人物の顔検出処理または人体3次元モデル作成処理に基づいて前記人物の身体方向を取得してもよい。
前記学習部は、前記人物の身体に備え付けられたセンサ装置によって検出されたセンサデータに基づいて前記人物の身体方向を取得してもよい。
前記学習部は、前記角度と前記視点位置の指定回数との関係式を算出し、前記関係式に基づいて、前記視点位置の指定回数が最大となる前記角度を算出してもよい。
前記学習部は、前記3次元選択位置と前記3次元設置位置と前記人物の身体方向の情報とに基づいて、3次元仮想空間における前記人物と前記ユーザとの距離および前記人物に対する前記ユーザの視点位置の角度を前記閲覧条件として算出し、前記距離および前記角度と前記視点位置の指定回数とを変数として含む回帰式を算出し、前記回帰式に基づいて、前記視点位置の指定回数が最大となる前記距離および前記角度を算出してもよい。
また、本発明によれば、ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定された場合、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件を算出し、前記閲覧条件と前記視点位置の指定回数との関係を算出することを含む、情報処理方法が提供される。
また、本発明によれば、コンピュータを、ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定された場合、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件を算出し、前記閲覧条件と前記視点位置の指定回数との関係を算出する学習部を備える、情報処理装置として機能させるためのプログラムが提供される。
また、本発明によれば、ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定され、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件が算出され、前記閲覧条件と前記視点位置の指定回数との関係が算出された場合、前記関係に応じた表示を制御する表示制御部を備える、表示制御装置が提供される。
前記表示制御部は、前記視点位置の指定回数が最大となる前記閲覧条件に応じた3次元ラインを選択し、選択した3次元ラインに対応する2次元ラインと他の3次元ラインに対応する2次元ラインとが区別可能に視認されるように、前記選択した3次元ラインに対応する2次元ラインと前記他の3次元ラインに対応する2次元ラインとのうち少なくとも一方の表示態様を変更してもよい。
前記表示制御部は、前記視点位置の指定回数が最大となる前記閲覧条件に応じた3次元ラインにおける視点位置を算出し、算出した前記視点位置に対応する撮像画像が表示されるように制御してもよい。
また、本発明によれば、ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定され、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件が算出され、前記閲覧条件と前記視点位置の指定回数との関係が算出された場合、前記関係に応じた表示を制御すること、を含む、表示制御方法が提供される。
また、本発明によれば、コンピュータを、ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定され、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件が算出され、前記閲覧条件と前記視点位置の指定回数との関係が算出された場合、前記関係に応じた表示を制御する表示制御部を備える、表示制御装置として機能させるためのプログラムが提供される。
また、本発明によれば、ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定された場合、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件を算出し、前記閲覧条件と前記視点位置の指定回数との関係を算出する学習部と、前記関係に応じた表示を制御する表示制御部と、を有する、情報処理システムが提供される。
以上説明したように本発明によれば、遠隔コミュニケーション支援システムにおいて、ユーザが遠隔地の複数カメラ同士の相互位置関係がわからず認知的に混乱する問題を解決しつつ、直感的かつ効率的な操作を行えることによって、発呼するユーザが遠隔地の被呼対象者の状況を容易かつ高度に把握することが可能なシステムのユーザインタフェースの、利用品質が向上する。具体的には、ユーザが指定した遠隔地内の見たい位置に対して前記ユーザが選択できる見る位置の視点候補が複数である場合に、視点の候補数があらかじめ絞り込まれることで選択行為に伴うユーザの認知負荷が低減されたり、学習データの蓄積が増え予測精度が上がれば、ユーザは前記見たい位置を指定するだけでその後の前記見る位置の決定をシステムに任せられるため、操作ステップ数が減り、ユーザの指定入力行為の労力が低減されたりする。
一実施形態に係る情報処理システムの概略的な構成の一例を示す説明図である。 一実施形態に係る端末装置のハードウェア構成の一例を示すブロック図である。 一実施形態に係る端末装置の機能構成の一例を示すブロック図である。 俯瞰モードで表示される表示画面の一例を説明するための説明図である。 近接モードで表示される表示画面の一例を説明するための説明図である。 ユーザにより指定される近接撮像画像内の位置の第1の例を説明するための説明図である。 ユーザにより指定される近接撮像画像内の位置の第2の例を説明するための説明図である。 センタオフィスに対応する3次元仮想空間の第1の例を説明するための説明図である。 図8に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。 センタオフィスに対応する3次元仮想空間の第2の例を説明するための説明図である。 図10に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。 会話モードで表示される表示画面の一例を説明するための説明図である。 表示モードの遷移の一例を説明するための遷移図である。 センタオフィスに対応する3次元仮想空間内におけるカメララインの例を説明するための説明図である。 端末装置の表示画面に表示されるカメララインの一例を説明するための説明図である。 カメラライン上の位置を指定するタッチ入力とそれに対するフィードバック表示のいくつかの例を説明するための説明図である。 図14に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。 カメララインが近傍に複数存在する場合の端末装置100の表示画面の一例を説明するための説明図である。 一実施形態に係る端末装置のソフトウェア構成の一例を示すブロック図である。 一実施形態に係る情報管理サーバのハードウェア構成の一例を示すブロック図である。 一実施形態に係る情報管理サーバの機能構成の一例を示すブロック図である。 一実施形態に係る情報処理の概略的な流れの一例を示すフローチャートである。 一実施形態に係る起動処理の概略的な流れの一例を示すフローチャートである。 図18に対して変形例1の機能を適用した表示の一例を示す図である。 撮影画像の品質の高低をカメララインの表示形態に対応させて描画した例を示す図である。 端末装置の表示画面に表示される選好予測カメララインの一例を説明するための説明図である。 視点の位置指定データの学習処理に用いられるデータの一例を示す図である。 人物周りの水平面角度分類概念図である。 あるユーザAの視点位置指定操作履歴における閲覧人物角度の統計データの一例を示す図である。 あるユーザBの視点位置指定操作履歴における閲覧人物角度の統計データの一例を示す図である。 本実施形態に係る学習および推薦処理の概略的な流れの一例を示すフローチャートである。
以下に添付の図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
以降、<1.情報処理システムの概略的な構成>、<2.端末装置の構成>、<3.情報管理サーバの構成>、<4.処理の流れ>という順序で本発明の実施形態を説明する。
<<1.情報処理システムの概略的な構成>>
まず、図1を参照して、本発明の実施形態に係る情報処理システムの概略的な構成を説明する。図1は、本実施形態に係る情報処理システムの概略的な構成の一例を示す説明図である。図1を参照すると、情報処理システムは、例えば、複数の拠点にわたって存在する。この例では、情報処理システムは、センタオフィス10とサテライトオフィス20(又はホームオフィスと20)にわたって存在する。センタオフィス10は、比較的大規模なオフィスであり、サテライトオフィス20(又はホームオフィスと20)は、比較的小規模なオフィスである。
情報処理システムは、センタオフィス10において、カメラ11、マイクロフォン13、センサ15、メディア配信サーバ17、情報管理サーバ200(情報処理装置)、及びLAN(Local Area Network)19を含む。また、情報処理システムは、サテライトオフィス20(又はホームオフィスと20)において、端末装置100(表示制御装置)、ディスプレイ21、及びLAN23を含む。また、情報処理システムは、さらにPBX(Private Branch eXchange)40を含む。
(カメラ11)
カメラ11は、当該カメラ11が向いている方向(即ち、撮像方向)の領域を撮像する。センタオフィス10には、複数のカメラ11が設置される。そして、設置された各カメラ11は、それぞれの設置位置からセンタオフィスの一部又は全体を撮像する。このように、情報処理システムでは、様々な位置からセンタオフィスが撮像される。カメラ11を通じて生成される撮像画像は、静止画像であってもよく、又は動画像(即ち映像)であってもよい。
また、カメラ11は、例えば、自動で向きを変えることができる。さらに、カメラ11は、例えば、ズーム機能を有する。当該ズーム機能は、光学ズーム機能であってもよく、又はデジタルズーム機能であってもよい。
また、カメラ11は、位置を変えることが可能であってもよい。一例として、カメラ11は、ドリーにより可動であってもよい。即ち、カメラ11は、レールに沿って可動であってもよい。この場合に、レールに沿って動くためのモータの制御により、カメラ11が前後に動いてもよい。これにより、1台のカメラ11であっても、異なる位置から被写体が撮像された撮像画像を生成することが可能になる。
また、カメラ11が位置を変えることが可能である場合に、上記ズーム機能は、カメラ11の位置を変えることによるズーム機能であってもよい。一例として、上記ズーム機能は、ドリーによるズーム機能であってもよい。例えば、被写体に向かってカメラ11を動かすことによりズームインを行い、カメラ11が被写体から離れる方向にカメラ11を動かすことによりズームアウトを行ってもよい。なお、ドリーによるズームは、光学ズーム又はデジタルズームのように、精緻なズームである必要はない。例えば、ズームインでは、被写体がより大きく写った撮像画像が生成されればよく、ズームアウトでは、被写体がより小さく写った撮像画像が生成されればよい。
(マイクロフォン13)
マイクロフォン13は、当該マイクロフォン13の周囲の音を集音する。センタオフィス10には、複数のマイクロフォン13が設置される。そして、設置された各マイクロフォン13は、センタオフィス内のそれぞれの設置位置の周囲の音を集音する。このように、情報処理システムでは、センタオフィス10内の様々な位置での音が集音される。
(センサ15)
センサ15は、様々な種類のセンサを含み得る。例えば、センサ15は、人物が座席にいるか否かを判定する座席センサを含む。当該座席センサは、各座席に設置され、各座席に人物が座っているか否かを判定する。座席センサは、例えば、押圧を検出可能ないずれかのセンサである。
(メディア配信サーバ17)
メディア配信サーバ17は、要求に応じて端末装置にメディア(例えば、音声、映像等)を配信する。
(情報管理サーバ200)
情報管理サーバ200は、情報処理システムにおいて用いられる様々な情報を管理する。即ち、情報管理サーバ200は、当該様々な情報を記憶し、適時に当該様々な情報を更新する。
例えば、情報管理サーバ200は、カメラ11、マイクロフォン13及びセンサ15に関するパラメータを管理する。具体的には、例えば、情報管理サーバ200は、カメラ11のパラメータとして、カメラ11の設置位置、撮像方向(例えば、カメラのレンズと垂直な方向)、ズーム率等の情報を記憶し、更新する。
また、例えば、情報管理サーバ200は、実空間に対応する3次元仮想空間のデータを管理する。当該3次元仮想空間は、例えば、センタオフィス10を模した3次元仮想空間である。また、当該3次元仮想空間には、オブジェクトが配置される。例えば、当該オブジェクトは、人物に対応する。そして、当該オブジェクトは、センタオフィス10の各座席の位置に対応する上記3次元仮想空間内の3次元仮想位置に配置される。即ち、人物が座席に座っている場合には当該人物が存在するであろう位置に対応する3次元仮想位置に、上記オブジェクトが配置される。一例として、当該オブジェクトは、円柱のオブジェクトである。3次元仮想空間については後述する。
(LAN19)
また、LAN19は、センタオフィス10内の各装置を接続するネットワークである。また、LAN19は、外部ネットワーク30を介して、センタオフィス10内の各装置とセンタオフィス10外の装置とを接続する。当該外部ネットワーク30は、例えば、インターネットを含む。
(端末装置100)
端末装置100は、ユーザにより使用される。例えば、端末装置100は、電話、メール等のコミュニケーションを行うための機能をユーザに提供する。端末装置100は、一例としてタブレット端末である。なお、端末装置100は、タブレット端末の代わりに、スマートフォン、PC(Personal Computer)、ディスプレイ付き電話機等の、表示機能及び通信機能を有する別の装置であってもよい。
(ディスプレイ21)
ディスプレイ21は、いずれかの画面を表示する。例えば、ディスプレイ21は、カメラ11を通じて生成された撮像画像を含む画面を表示する。これにより、端末装置100のユーザを含む多数の人物が、ディスプレイ21を介してセンタオフィス10の様子を見ることができる。
また、ディスプレイ21は、例えば、いずれかの音声も出力する。例えば、ディスプレイ21は、マイクロフォン13により集音される音声を出力する。これにより、端末装置100のユーザを含む多数の人物が、ディスプレイ21を介してセンタオフィス10の音を聞くことができる。
(LAN23)
また、LAN23は、サテライトオフィス20(又はホームオフィス20)内の各装置を接続するネットワークである。また、LAN23は、外部ネットワーク30を介して、サテライトオフィス20内の各装置とサテライトオフィス20外の装置とを接続する。
(PBX40)
PBX40は、外部ネットワーク30を介した装置間の通信を可能にする。PBX40は、例えば、H.323又はSIP(Session Initiation Protocol)に従って動作する。
具体的には、例えば、PBX40は、通信用の識別情報(例えば、電話番号)とIP(Internet Protocol)アドレスとを、互いに対応付けて記憶する。そして、PBX40は、要求に応じて、通信用の識別情報をIPアドレスに変換し、当該IPアドレスを要求元に提供する。
なお、PBX40は、LAN19又はLAN23に接続されてもよい。
<<2.端末装置の構成>>
続いて、図2〜図19を参照して、本実施形態に係る端末装置100の構成の一例を説明する。
<2−1.ハードウェア構成>>
まず、図2を参照して、本実施形態に係る端末装置100のハードウェア構成の一例を説明する。図2は、本実施形態に係る端末装置100のハードウェア構成の一例を示すブロック図である。図2を参照すると、端末装置100は、CPU(Central Processing Unit)801、ROM(Read Only Memory)803、RAM(Random Access Memory)805、バス807、記憶装置809、通信インターフェース811、カメラ813、マイクロフォン815、スピーカ817及びタッチパネル820を備える。
CPU801は、端末装置100における様々な処理を実行する。また、ROM803は、端末装置100における処理をCPU801に実行させるためのプログラム及びデータを記憶する。また、RAM805は、CPU801の処理の実行時に、プログラム及びデータを一時的に記憶する。
バス807は、CPU801、ROM803及びRAMを相互に接続する。バス807には、さらに、記憶装置809、通信インターフェース811、カメラ813、マイクロフォン815、スピーカ817及びタッチパネル820が接続される。バス807は、例えば、複数の種類のバスを含む。一例として、バス807は、CPU801、ROM803及びRAM805を接続する高速バスと、当該高速バスよりも低速の1つ以上の別のバスを含む。
記憶装置809は、端末装置100内で一時的又は恒久的に保存すべきデータを記憶する。記憶装置809は、例えば、ハードディスク(Hard Disk)等の磁気記憶装置であってもよく、又は、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ(flash memory)、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)及びPRAM(Phase change Random Access Memory)等の不揮発性メモリ(nonvolatile memory)であってもよい。
通信インターフェース811は、端末装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)外部装置と通信する。通信インターフェース811は、無線通信用のインターフェースであってもよく、この場合に、例えば、通信アンテナ、RF回路及びその他の通信処理用の回路を含んでもよい。また、通信インターフェース811は、有線通信用のインターフェースであってもよく、この場合に、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。
カメラ813は、被写体を撮像する。カメラ813は、例えば、光学系、撮像素子及び画像処理回路を含む。
マイクロフォン815は、周囲の音を集音する。マイクロフォン815は、周囲の音を電気信号へ変換し、当該電気信号をデジタルデータに変換する。
スピーカ817は、音声を出力する。スピーカ817は、デジタルデータを電気信号に変換し、当該電気信号を音声に変換する。
タッチパネル820は、タッチ検出面821及び表示面823を含む。
タッチ検出面821は、タッチパネル820におけるタッチ位置を検出する。より具体的には、例えば、ユーザが、タッチパネル820にタッチすると、タッチ検出面821は、当該タッチを感知し、当該タッチの位置に応じた電気信号を生成し、そして当該電気信号をタッチ位置の情報に変換する。タッチ検出面821は、例えば、静電容量方式、抵抗膜方式、光学式等の任意のタッチ検出方式に従って形成され得る。
表示面823は、端末装置100からの出力画像(即ち、表示画面)を表示する。表示面823は、例えば、液晶、有機EL(Organic Light-Emitting Diode:OLED)、CRT(Cathode Ray Tube)等を用いて実現され得る。
<2−2.機能構成>>
次に、本実施形態に係る端末装置100の機能構成の一例を説明する。図3は、本実施形態に係る端末装置100の機能構成の一例を示すブロック図である。図3を参照すると、端末装置100は、通信部110、入力部120、撮像部130、集音部140、表示部150、音声出力部160、記憶部170及び制御部180を備える。
(通信部110)
通信部110は、他の装置と通信する。例えば、通信部110は、LAN23に直接的に接続され、サテライトオフィス20内の各装置と通信する。また、通信部110は、外部ネットワーク30及びLAN19を介して、センタオフィス10内の各装置と通信する。具体的には、例えば、通信部110は、カメラ11、マイクロフォン13、センサ15、メディア配信サーバ17及び情報管理サーバ200と通信する。なお、通信部110は、例えば、通信インターフェース811により実装され得る。
(入力部120)
入力部120は、端末装置100のユーザによる入力を受け付ける。そして、入力部120は、入力結果を制御部180へ提供する。
例えば、入力部120は、表示画面においてユーザにより指定される位置を検出する。より具体的には、例えば、入力部120は、タッチ検出面821により実装され、タッチパネル820におけるタッチ位置を検出する。そして、入力部120は、検出されたタッチ位置を制御部180へ提供する。
(撮像部130)
撮像部130は、被写体を撮像する。例えば、撮像部130は、端末装置100の正面方向の領域を撮像する。この場合に、撮像部130は、端末装置100のユーザを撮像する。撮像部130は、撮像結果(即ち、撮像画像)を制御部180に提供する。なお、撮像部130は、例えば、カメラ813により実装され得る。
(集音部140)
集音部140は、端末装置100の周囲の音を集音する。例えば、集音部140は、端末装置100のユーザの声を集音する。集音部140は、集音結果(即ち、音声データ)を制御部180に提供する。なお、集音部140は、例えば、マイクロフォン815により実装され得る。
(表示部150)
表示部150は、端末装置100からの出力画像(即ち、表示画面)を表示する。表示部150は、制御部180による制御に応じて表示画面を表示する。なお、表示部150は、例えば、表示面823により実装され得る。
(音声出力部160)
音声出力部160は、端末装置100から音声を出力する。音声出力部160は、制御部180による制御に応じて音声を出力する。なお、音声出力部160は、例えば、スピーカ817により実装され得る。
(記憶部170)
記憶部170は、端末装置100の動作のためのプログラム及びデータを記憶する。なお、記憶部170は、例えば、記憶装置809により実装され得る。
例えば、記憶部170は、実空間に対応する3次元仮想空間のデータを記憶する。具体的には、例えば、情報管理サーバ200が、センタオフィス10に対応する3次元仮想空間のデータを記憶しているので、制御部180が、通信部110を介して、上記3次元仮想空間のデータを取得する。そして、記憶部170は、取得された当該3次元仮想空間のデータを記憶する。
(制御部180)
制御部180は、端末装置100の様々な機能を提供する。制御部180は、実空間情報提供部181、位置取得部183、オブジェクト選択部185、ID取得部187、電話部189、カメラライン制御部191、カメラライン選別部193及びカメラライン推薦部195を含む。なお、制御部180は、例えば、CPU801、ROM803及びRAM805により実装され得る。
(実空間情報提供部181)
実空間情報提供部181は、実空間の情報を端末装置100のユーザに提供する。
例えば、実空間情報提供部181は、表示部150に、実空間の撮像画像の表示画面を表示させる。より具体的には、例えば、当該撮像画像は、実空間(センタオフィス10)内にあるカメラ11を通じて生成される撮像画像である。当該撮像画像は、カメラ11により生成された撮像画像であってもよく、又は、カメラ11により生成された撮像画像を加工することにより生成された撮像画像であってもよい。また、上記表示画面は、当該撮像画像を一部又は全体に含む画面である。
実空間情報提供部181は、通信部110を介して、カメラ11により生成される撮像画像を取得する。そして、実空間情報提供部181は、撮像画像を含む表示画面を生成し、表示部150に当該表示画面を表示させる。
また、例えば、上記撮像画像は、実空間内にある複数の撮像装置のうちの選択された1つの撮像装置を通じて生成された撮像画像である。より具体的には、例えば、上記撮像画像は、センタオフィス10に配置された複数のカメラ11のうちの選択された1つのカメラ11を通じて生成された撮像画像である。ユーザがカメラ11をどのように選択するかに関する具体的な手法は後述する。カメラ11を選択できるので、ユーザは所望の位置からの撮像画像を見ることができる。そして、後述するように撮像画像の位置を指定する際に、ユーザはより望ましい撮像画像で位置を指定することができる。
また、例えば、上記表示画面は、表示モードに応じた撮像画像を含む。より具体的には、例えば、上記表示画面は、第1の表示モードでは、実空間の第1の領域が撮像された第1の撮像画像を含み、第2の表示モードでは、第1の領域よりも狭い第2の領域が撮像された第2の撮像画像を含む。即ち、実空間情報提供部181は、第1の表示モードでは、上記第1の撮像画像を表示部150に表示させ、第2の表示モードでは、上記第2の撮像画像を表示部150に表示させる。
さらに具体的には、例えば、上記第1の撮像画像は、第1のズーム率に対応する撮像画像である。そして、上記第2の撮像画像は、上記第1のズーム率よりも大きい第2のズーム率に対応する撮像画像である。例えば、実空間情報提供部181は、通信部110を介して、カメラ11へのズーム(光学ズーム、デジタルズーム、又は撮像装置の位置の変更によるズーム(例えば、ドリーによるズーム))に関する要求を行うことにより、第1のズーム率に対応する撮像画像、又は第2のズーム率に対応する撮像画像を取得する。または、実空間情報提供部181は、カメラ11により生成された撮像画像に対するデジタルズームにより、第1のズーム率に対応する撮像画像、又は第2のズーム率に対応する撮像画像を生成してもよい。なお、ここでのズーム率は、1.5倍、2倍等の精緻な値である必要はなく、被写体が撮像画像に写る大きさの程度を直接的又は間接的に示すものであればよい。例えば、とりわけカメラ11の位置の変更によるズーム(例えば、ドリーによるズームイン及びズームアウト)が用いられる場合には、ズーム率は、1.5倍、2倍等の精緻な値ではなく、被写体の大きさの程度を直接的に示すもの(例えば、被写体の概ねの大きさの程度を示すパラメータ、等)、又は、被写体の大きさの程度を間接的に示すもの(例えば、レールにおけるカメラ11の位置、等)であってもよい。第1のズーム率に対応する撮像画像は、被写体がより小さく写っている撮像画像であり、第1のズーム率よりも大きい第2のズーム率に対応する撮像画像は、被写体がより大きく写っている撮像画像であればよい。
一例として、上記表示画面は、俯瞰モードでは、X倍のズーム率(例えば、X=1)での撮像でカメラ11により生成された俯瞰撮像画像を含み、近接モードでは、Y倍のズーム率(Y>X)での撮像でカメラ11により生成された近接撮像画像を含む。即ち、俯瞰撮像画像は、センタオフィス10のより広い領域が撮像された撮像画像であり、近接撮像画像は、センタオフィス10のより狭い領域が撮像された撮像画像である。以下、この点について図4及び図5を参照して具体例を説明する。
−俯瞰モードで表示される表示画面
図4は、俯瞰モードで表示される表示画面の一例を説明するための説明図である。図4を参照すると、俯瞰モードで表示される表示画面60が示されている。表示画面60は、俯瞰撮像画像61、ボタン画像63、プレゼンスアイコン65、吹き出し画像67及びマップ画像69を含む。
俯瞰撮像画像61は、例えば、X倍のズーム率での撮像でカメラ11により生成された撮像画像である。一例として、X=1である。即ち、俯瞰撮像画像61は、ズームなしの撮像でカメラ11により生成された撮像画像である。
また、例えば、ユーザが、俯瞰撮像画像61の位置を指定すると、実空間情報提供部181は、表示モードを俯瞰モードから近接モードに切り替える。より具体的には、例えば、ユーザが俯瞰撮像画像61の位置をタッチし、俯瞰撮像画像61に対応するタッチ位置が検出されると、実空間情報提供部181は、表示モードを俯瞰モードから近接モードに切り替える。
また、ボタン画像63は、別のカメラ11を選択するための画像である。例えば、ユーザが、ボタン画像63の位置を指定すると、実空間情報提供部181は、別のカメラ11により生成された俯瞰撮像画像を取得し、表示部150に当該俯瞰撮像画像を表示させる。より具体的には、例えば、ユーザがボタン画像63の位置をタッチし、ボタン画像63に対応するタッチ位置が検出されると、実空間情報提供部181は、別のカメラ11により生成された俯瞰撮像画像を取得し、表示部150に当該俯瞰撮像画像を表示させる。例えば、ボタン画像63Aの位置がユーザにより指定されると、現在のカメラ11の左側に位置するカメラ11が選択される。また、ボタン画像63Bの位置がユーザにより指定されると、現在のカメラ11の右側に位置するカメラ11が選択される。そして、実空間情報提供部181は、選択されたカメラ11により生成された俯瞰撮像画像を取得し、表示部150に、当該俯瞰撮像画像を表示させる。
また、プレゼンスアイコン65は、撮像画像61に写る人物の繁忙度を示すアイコンである。例えば、プレゼンスアイコン65は、人物の繁忙度に応じて色が変わる。一例として、プレゼンスアイコンは、赤色の場合に繁忙度が高いことを示し、黄色の場合に繁忙度が普通であることを示し、青色の倍に繁忙度が低いことを示す。後述するように、撮像画像61のうちのどこに人物が写っているはずであるかが分かるので、このようなアイコンを表示することも可能である。
例えばこのように、表示画面60は、例えば、俯瞰撮像画像61に写る人物に関連する情報(以下、「人物関連情報」と呼ぶ)を含む。そして、人物関連情報は、例えば、上記人物の状態を示す状態情報を含む。上述したように、当該状態情報は、一例としてプレゼンスアイコン65である。なお、人物関連情報は、2つ以上の時点における上記人物の状態を示す状態履歴を含んでもよい。一例として、当該状態履歴情報は、撮像画像61に写る人物の繁忙度の履歴を含んでもよい。即ち、表示画面60に、人物の繁忙度の履歴が表示されてもよい。実空間情報提供部181は、例えば、通信部110を介して、情報管理サーバ200から人物関連情報、又は人物関連情報の表示に必要な情報を取得する。
このような人物関連情報により、ユーザは、人物が置かれている状況をより的確に把握することができる。また、状態情報により、ユーザは、人物にコンタクトしてもよいかをより的確に判断することができる。また、状態履歴により、ユーザは、瞬時のユーザの状態だけではなく、ある期間でのユーザの状態を把握することができるので、ユーザは、人物にコンタクトしてもよいかをさらに的確に判断することができる。
また、吹き出し画像67は、撮像画像61に写る人物により提示される文字情報を含む画像である。吹き出し画像67も、人物関連情報の一例である。
また、マップ画像69は、センタオフィス10のマップを示す画像である。マップ画像69は、さらに、使用しているカメラ11をアイコンにより示す。なお、とりわけセンタオフィス10内に1つ又は少数のカメラ11しか設置されない場合には、マップ画像69は省略され得る。
−近接モードで表示される表示画面
図5は、近接モードで表示される表示画面の一例を説明するための説明図である。図5を参照すると、近接モードで表示される表示画面70が示されている。表示画面70は、近接撮像画像71、ボタン画像73及びマップ画像75を含む。
近接撮像画像71は、例えば、Y倍のズーム率(Y>X)での撮像でカメラ11により生成された撮像画像である。一例として、Y=1.5である。即ち、俯瞰撮像画像61は、1.5倍ズームの撮像でカメラ11により生成された撮像画像である。
また、ボタン画像73は、表示モードを近接モードから俯瞰モードに切り替えるための画像である。例えば、ユーザが、ボタン画像73の位置を指定すると、実空間情報提供部181は、表示モードを近接モードから俯瞰モードに切り替える。より具体的には、例えば、ユーザがボタン画像73の位置をタッチし、ボタン画像73に対応するタッチ位置が検出されると、実空間情報提供部181は、表示モードを近接モードから俯瞰モードに切り替える。
また、マップ画像75は、俯瞰モードにおけるマップ画像69と同様に、センタオフィス10のマップを示す画像である。マップ画像75は、さらに、使用しているカメラ11を示す。例えば、近接モードでは、ズームされたことを象徴的に示すために、マップ画像75の中の使用しているカメラのアイコンが、より前進した位置に表示される。なお、俯瞰モードにおけるマップ画像69と同様に、とりわけセンタオフィス10内に1つ又は少数のカメラ11しか設置されない場合には、マップ画像75は省略され得る。
なお、近接モードで表示される表示画面70にも、プレゼンスアイコン、吹き出し画像等の人物関連情報が含まれてもよい。
以上のように表示モードによれば、より広い領域が撮像された撮像画像が表示されることにより、ユーザは実空間の全体的な状況を見ることができ、また特定の人物を容易に見つけることができる。そして、より狭い領域が撮像された撮像画像が表示されることにより、ユーザは特定の人物の位置をより容易に指定することができる。また、表示モードを切り替えるのみなので、ユーザには容易な操作しか求められない。また、より広い領域が撮像された撮像画像とより狭い領域が撮像された撮像画像とが、ズーム率が異なる撮像画像なので、ユーザは、これらの撮像画像間の関係を直感的に容易に把握することができる。よって、ユーザは、表示モードが切り替わったとしても、特定の人物を容易に見つけ、当該特定の人物の位置を指定することができる。
−その他の実空間情報
以上のように、実空間情報提供部181は、表示部150に実空間の撮像画像の表示画面を表示させることにより、実空間の視覚的な情報を提供する。さらに、実空間情報提供部181は、実空間の聴覚的な情報も提供してもよい。即ち、実空間情報提供部181は、音声出力部160に、実空間での集音により得られた音声データの音声を出力させてもよい。
例えば、実空間情報提供部181は、選択されたカメラ11に近いマイクロフォン13を選択する。そして、実空間情報提供部181は、通信部110を介して、マイクロフォン13から、センタオフィス10での集音により得られた音声データを取得する。そして、実空間情報提供部181は、音声出力部160に、取得した音声データの音声を出力させてもよい。
(位置取得部183)
位置取得部183は、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を取得する。より具体的には、例えば、入力部120が、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を検出すると、位置取得部183は、当該位置を取得する。そして、位置取得部183は、当該撮像画像内の位置をオブジェクト選択部185に提供する。
一例として、位置取得部183は、近接撮像画像71内のいずれかの位置を取得した場合に、当該位置をオブジェクト選択部185に提供する。以下、この点について図6及び図7を参照して具体例を説明する。
図6は、ユーザにより指定される近接撮像画像内の位置の第1の例を説明するための説明図である。図6を参照すると、近接モードで表示される表示画面に含まれる近接撮像画像71、及びユーザの手3が、示されている。また、近接撮像画像71に写る人物77が示されている。そして、ユーザは、手3で人物77の位置をタッチすることにより、近接撮像画像71の人物77の位置を指定している。この場合に、入力部120は、近接撮像画像71の人物77の上記位置を検出し、位置取得部183は、当該位置を取得する。そして、入力部120は、取得した当該位置をオブジェクト選択部185に提供する。
図7は、ユーザにより指定される近接撮像画像内の位置の第2の例を説明するための説明図である。図7を参照すると、近接撮像画像71に写る人物77A及び77Bが示されている。そして、ユーザは、手3で人物77Aの位置をタッチすることにより、近接撮像画像71の人物77Aの位置を指定している。この場合に、入力部120は、近接撮像画像71の人物77Aの上記位置を検出し、位置取得部183は、当該位置を取得する。そして、入力部120は、取得した当該位置をオブジェクト選択部185に提供する。
(オブジェクト選択部185)
オブジェクト選択部185は、取得される撮像画像内の位置に基づいて、実空間に対応する3次元仮想空間に配置されたオブジェクトを選択する。例えば、位置取得部183が、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を取得すると、オブジェクト選択部185は、当該位置に基づいて、上記実空間に対応する3次元仮想空間に配置されたオブジェクトを選択する。
上記オブジェクトは、上記撮像画像内の上記位置に対応する上記3次元仮想空間内の3次元仮想位置に配置されたオブジェクトである。また、例えば、上記撮像画像は、上記第2のモード(例えば、近接モード)で表示画面に含まれる撮像画像である。
一例として、位置取得部183が、カメラ11により生成された近接撮像画像内の位置を取得すると、オブジェクト選択部185は、センタオフィス10に対応する3次元仮想空間に配置されたオブジェクトのうちの、上記位置に対応するオブジェクトを選択する。なお、オブジェクト選択部185は、例えば、センタオフィス10に対応する3次元仮想空間のデータを記憶部170から取得する。
−1つのオブジェクトが配置されている場合の例
以下、図8及び図9を参照して、3次元仮想空間に1つのオブジェクトが配置されている場合の具体例を説明する。
図8は、センタオフィス10に対応する3次元仮想空間の第1の例を説明するための説明図である。図8を参照すると、センタオフィス10に対応する3次元仮想空間90が示されている。また、当該3次元仮想空間90には、オブジェクト91が配置されている。当該オブジェクト91は、人物(例えば、A氏)に対応する。そして、当該オブジェクトは、センタオフィス10の当該人物(例えば、A氏)の座席の位置に対応する3次元仮想位置に配置される。即ち、上記人物が座席に座っている場合には上記人物が存在するであろう位置に対応する3次元仮想位置に、上記オブジェクト91が配置される。この例では、オブジェクト91は、円柱のオブジェクトである。当該円柱のオブジェクトは、半径R及び高さHを伴う円柱のオブジェクトである。半径R及び高さHは、例えば、予め定められる。なお、3次元仮想空間90のデータには、各カメラ11に関連する情報も含まれている。例えば、各カメラ11に関連する情報は、各カメラ11の設置位置に対応する3次元仮想位置、撮像方向(例えば、カメラのレンズと垂直な方向)、画角等を含む。
図9は、図8に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。図9を参照すると、容易な理解のために、3次元仮想空間90における水平面における位置関係が示されている。具体的には、3次元仮想空間90に配置されたオブジェクト91、撮像に用いられるカメラ11の設置位置に対応する3次元仮想位置(以下、「仮想カメラ位置」と呼ぶ)O、カメラ11の撮像方向(例えば、カメラのレンズと垂直な方向)に対応する軸y、及び、軸yと直交する軸xが、示されている。この例では、容易な理解のために、カメラ11は、当該カメラ11の撮像方向が水平面に平行になるように設置されているものとする。
さらに、カメラ11の画角θも示されている。また、カメラ11の撮像方向に対応する軸yに垂直であり、且つ画角θに対応する幅を有する仮想面93が示されている。また、仮想面93は、仮想カメラ位置Oから距離Iだけ離れている。そして、仮想面93は、四角形の面であり、撮像画像と同一の縦横比を有する。即ち、仮想面93は、撮像画像に対応する面である。
オブジェクト選択部185は、例えば、図6に示されるようにユーザにより指定される上記撮像画像内の位置を、3次元仮想位置Aに変換する。そして、オブジェクト選択部185は、仮想カメラ位置Oと3次元仮想位置Aとを通る直線に交わるオブジェクトを特定する。この例では、オブジェクト選択部185は、オブジェクト91を特定する。そして、オブジェクト選択部185は、オブジェクト91を選択する。
図9の例では、例えば、仮想面93のうちの3次元仮想位置Bと3次元仮想位置Dとの間にある3次元仮想位置に変換される撮像画像内の位置が、撮像画像内でユーザにより指定されると、オブジェクト91が選択される。なお、このような位置は、概ね、撮像画像においてオブジェクト91に対応する人物が写っている位置である。
なお、距離Iは、仮想カメラ位置Oとオブジェクト91との間に仮想面93が位置するように決定される。一例として、距離Iは、カメラ11の焦点距離であるが、当然ながらこれに限られない。
また、容易な説明のために、3次元仮想空間90の水平面に着目してオブジェクトを選択する手法を説明したが、当然ながら、垂直方向(例えば、z軸)を加えたとしても、撮像画像内の位置を3次元仮想位置に変換して当該3次元仮想位置からオブジェクト91を特定することが可能である。
例えば以上のように、撮像画像内の位置に対応するオブジェクトが選択される。上述した例では、撮像画像内の位置を3次元仮想位置に変換することにより、撮像画像内の位置に対応するオブジェクトが特定されたが、撮像画像内の位置に対応するオブジェクトを特定する手法は、これに限られない。
一例として、オブジェクト選択部185は、仮想カメラ位置Oを原点としてオブジェクト91を仮想面93に射影し、オブジェクト91の射影範囲を、撮像画像内の範囲に変換してもよい。そして、ユーザにより指定される上記撮像画像内の位置が、上記範囲に含まれる場合に、オブジェクト選択部185は、オブジェクト91を選択してもよい。
また、別の例として、仮想カメラ位置O、軸y及び画角θを用いて3次元仮想空間90のレンダリングを行うことにより、レンダリング画像を生成し、当該レンダリング画像のうちのオブジェクト91が写っている範囲から、オブジェクト91に対応する撮像画像内の範囲を得てもよい。そして、ユーザにより指定される上記撮像画像内の位置が、上記範囲に含まれる場合に、オブジェクト選択部185は、オブジェクト91を選択してもよい。
−状態を考慮したオブジェクトの選択
また、例えば、3次元仮想空間90に配置されるオブジェクト91は、複数の状態のうちのいずれかの状態を示す状態情報に対応する。例えば、オブジェクト91は、人物に対応する。そして、オブジェクト91は、当該人物が座席に座っているか否かを示す状態情報(以下、「存否情報」と呼ぶ)に対応する。当該存否情報は、人物が座席に座っている状態、又は人物が座席に座っていない状態を示す。オブジェクト選択部185は、例えば、オブジェクト91に対応する人物が座席に座っているか否かの判定結果を、通信部110を介してセンサ15から取得する。そして、当該判定結果が存否情報となる。
そして、例えば、オブジェクト選択部185は、上記3次元仮想空間に配置されたオブジェクトであって、上記複数の状態のうちの所定の状態を示す状態情報に対応する上記オブジェクトを、選択する。例えば、オブジェクト選択部185は、上記3次元空間に配置されたオブジェクトであって、人物が座席に座っている状態を示す状態情報に対応するオブジェクトを、選択する。即ち、オブジェクト選択部185は、センサ15により人物が座席に座っていると判定される場合には、当該人物に対応するオブジェクトを選択し得るが、センサ15により人物が座席に座っていないと判定される場合には、当該人物に対応するオブジェクトを選択しない。
このように、人物の状態に応じてオブジェクトが選択されるので、本来選択されるべきでないオブジェクトが選択されることを回避することができる。例えば、人物がいない場合に当該人物に対応するオブジェクトが選択されてしまうことを、回避することができる。
−2つのオブジェクトが配置されている場合の例
また、3次元仮想空間内に2つ以上のオブジェクトが配置され得る。以下、2つのオブジェクトが配置される具体例を、図10を参照して説明する。
図10は、センタオフィス10に対応する3次元仮想空間の第2の例を説明するための説明図である。図10を参照すると、センタオフィス10に対応する3次元仮想空間90が示されている。また、当該3次元仮想空間90には、オブジェクト91A及びオブジェクト91Bが配置されている。オブジェクト91Aは、ある人物(例えば、A氏)に対応し、センタオフィス10の当該ある人物の座席の位置に対応する3次元仮想位置に配置される。また、オブジェクト91Bは、ある人物(例えば、B氏)に対応し、センタオフィス10の当該ある人物の座席の位置に対応する3次元仮想位置に配置される。図8の例と同様に、オブジェクト91は、半径R及び高さHを伴う円柱のオブジェクトである。
このように3次元仮想空間内に2つ以上のオブジェクトが配置される場合には、複数のオブジェクトが、ユーザにより指定される撮像画像内の位置に対応し得る。例えば、図10の例において、オブジェクト91Aとオブジェクト91Bの両方が、ユーザにより指定される撮像画像内の位置に対応し得る。一例として、図7に示されるように撮像画像内に2人の人物が写り得るような場合に、ユーザが、撮像画像において当該2人の人物が重なり合う位置を指定すると、当該2人の人物に対応する2つのオブジェクトが、上記位置に対応し得る。
そこで、このような場合(即ち、複数のオブジェクトが、ユーザにより指定される撮像画像の位置に対応する場合)には、オブジェクト選択部185は、上記複数のオブジェクトのうちのいずれか1つのオブジェクトを選択する。即ち、オブジェクト選択部185は、ユーザにより指定される撮像画像内の位置に対応する3次元仮想空間内の3次元仮想位置にそれぞれ配置された複数のオブジェクトがある場合に、当該複数のオブジェクトのうちのいずれか1つのオブジェクトを選択する。
例えば、上記撮像画像は、実空間内にある撮像装置を通じて生成される。そして、オブジェクト選択部185は、上記複数のオブジェクトのうちの、上記撮像装置に対応する3次元仮想空間内の3次元仮想位置により近いオブジェクトを選択する。より具体的には、例えば、撮像画像は、センタオフィス10内にあるカメラ11を通じて生成される。そして、オブジェクト選択部185は、ユーザにより指定される撮像画像内の位置に対応する複数のオブジェクトがある場合に、カメラ11の設置位置に対応する3次元仮想位置(即ち、仮想カメラ位置O)により近いオブジェクトを選択する。以下、この点について図10及び図11を参照して具体例を説明する。
図11は、図10に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。図11を参照すると、容易な理解のために、3次元仮想空間90における水平面における位置関係が示されている。具体的には、3次元仮想空間90に配置されたオブジェクト91A及びオブジェクト91Bが示されている。また、図9と同様に、仮想カメラ位置O、軸y、軸x、画角θ及び仮想面93が、示されている。この例でも、図9と同様に、容易な理解のために、カメラ11は、当該カメラ11の撮像方向が水平面に平行になるように設置されているものとする。
例えば、図7に示されるようにユーザにより上記撮像画像内の位置が指定される。この場合に、図9を参照して説明した手法に従うと、撮像画像内の上記位置が、3次元仮想位置B’と3次元仮想位置Dとの間にある3次元仮想位置に変換される場合には、オブジェクト91A及びオブジェクト91Bの両方が、撮像画像内の上記位置に対応するオブジェクトとして特定される。そして、オブジェクト選択部185は、オブジェクト91A及びオブジェクト91Bのうちの、仮想カメラ位置Oにより近いオブジェクト91Aを選択する。
なお、ユーザにより指定される撮像画像内の位置が、3次元仮想位置Bと3次元仮想位置B’との間にある3次元仮想位置に変換される場合には、オブジェクト91Aが、上記撮像画像内の位置に対応するオブジェクトとして特定され、選択される。また、ユーザにより指定される撮像画像内の位置が、3次元仮想位置Dと3次元仮想位置D’との間にある3次元仮想位置に変換される場合には、オブジェクト91Bが、上記撮像画像内の位置に対応するオブジェクトとして特定され、選択される。
このように複数のオブジェクトから1つのオブジェクトが選択されることにより、複数のオブジェクトが選択されてその後の処理でエラー(複数の通信用IDを取得することによるエラー)が発生することを、回避することができる。また、複数のオブジェクトのうちのカメラ11に対応する仮想カメラ位置に近いオブジェクトが選択されることにより、例えば、撮像画像において人物が重なりあっているような場合でも、手前に写っている人物に対応するオブジェクトが選択される。よって、ユーザが意図した人物に対応するオブジェクトが選択される。
以上のように、オブジェクト選択部185は、オブジェクトを選択する。そして、オブジェクト選択部185は、選択したオブジェクトの識別情報(以下、「オブジェクトID」と呼ぶ)をID取得部187に提供する。当該オブジェクトIDは、選択されたオブジェクトに対応する人物の識別情報であってもよく、又は、選択されたオブジェクトに付された単なる番号であってもよい。
(ID取得部187)
ID取得部187は、選択される上記オブジェクトに対応する識別情報を取得する。例えば、当該識別情報は、選択される上記オブジェクトに対応する通信用の識別情報(以下、「通信用ID」と呼ぶ)である。当該通信用IDは、一例として電話番号である。
具体的には、例えば、オブジェクト選択部185が、オブジェクトを選択すると、ID取得部187は、選択された当該オブジェクトのオブジェクトIDを取得する。そして、オブジェクト選択部185は、通信部110を介して、オブジェクトIDを情報管理サーバ200へ送信し、オブジェクトIDに対応する通信用IDを取得する。当該通信用IDは、選択されたオブジェクトに対応する人物の通信用IDである。
例えば以上のように、ID取得部187は、選択されるオブジェクトに対応する通信用IDを取得する。当該通信用IDは、オブジェクトに対応する人物(即ち、ユーザにより指定された撮像画像の位置に写っている人物)の通信装置の通信用IDである。そして、ID取得部187は、取得した通信用IDを電話部189に提供する。
以上のように、ユーザにより撮像画像内の位置が指定されると、当該位置に対応するオブジェクトが選択され、当該オブジェクトに対応する通信用IDが取得される。これにより、ユーザは、直感的な操作で対象の人物にコンタクトすることが可能になる。また、撮像画像において人物がどのように写っているかによらず、当該人物に対応するオブジェクトが選択され、通信用IDが取得されるので、より確実に当該人物にコンタクトすることが可能になる。
(電話部189)
電話部189は、電話を行うための機能を提供する。例えば、電話部189は、ソフトフォンの機能を提供する。
例えば、電話部189は、ID取得部187により提供される通信用IDを取得すると、当該通信用IDを用いて電話発信を行う。より具体的には、例えば、電話部189は、通信用IDを取得すると、通信部110を介して、当該通信用IDをPBX40に提供し、PBX40からIPアドレスを取得する。そして、電話部189は、当該IPアドレスを有する通信装置(即ち、着信先の通信装置)との間で、セッションを確立するための一連のシーケンスを実行する。
このように、電話部189は、表示画面においてユーザにより指定された撮像画像内の位置に写る人物への電話のための電話発信を行う。即ち、電話部189は、当該人物の通信装置への電話発信を行う。
また、電話の相手先の通信装置からの音声データが、通信部110により受信されると、電話部189は、音声出力部160に、当該音声データの音声を出力させる。また、電話部189は、通信部110に、集音部140により提供される音声データを電話の相手先の通信装置へ送信させる。また、電話部189は、例えば、通信部110に、撮像部130により提供される撮像画像(例えば、端末装置100のユーザが写っている撮像画像)も電話の相手先の通信装置へ送信させる。
また、電話部189は、表示部150に、電話時の表示画面を表示させる。例えば、電話時の表示画面を表示する表示モードを、会話モードと呼ぶ。この場合に、電話部189は、ID取得部187により提供される通信用IDを取得すると、表示モードを、近接モードから会話モードへ切り替える。以下、会話モードの表示画面について図12を参照して具体例を説明する。
図12は、会話モードで表示される表示画面の一例を説明するための説明図である。図12を参照すると、会話モードで表示される表示画面80が示されている。表示画面80は、相手側撮像画像81、ボタン画像83及び自分側撮像画像85を含む。
相手側撮像画像81は、例えば、電話の相手先の通信装置から取得された撮像画像である。例えば、電話の相手先の通信装置からの撮像画像が、通信部110により受信されると、電話部189は、当該撮像画像を相手側撮像画像81として利用する。
また、ボタン画像63は、電話を終了させるための画像である。例えば、ユーザが、ボタン画像83の位置を指定すると、電話部189は、電話を終了させる。より具体的には、例えば、ユーザがボタン画像83の位置をタッチし、ボタン画像83に対応するタッチ位置が検出されると、電話部189は、セッションの切断を含む電話終了用のシーケンスを実行する。また、例えば、電話部189は、表示モードを会話モードから俯瞰モードに切り替える。
自分側撮像画像85は、撮像部130により提供される撮像画像である。
(その他:表示モードの遷移)
ここでは、俯瞰モード、近接モード及び会話モードの遷移の具体例を図13を参照して説明する。
図13は、表示モードの遷移の一例を説明するための遷移図である。図13を参照すると、例えばソフトウェアの起動時において、カメラ11、マイクロフォン13、センサ15、情報管理サーバ200等との接続処理が行われると、表示モードは、俯瞰モード301になる(ENTRY)。
俯瞰モード301では、俯瞰モード処理が実行される(DO)。そして、ユーザが、俯瞰撮像画像61の位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、俯瞰モード301から近接モード303に切り替わる。モード変更処理は、カメラ11のズーム処理を含む(ENTRY)。
近接モード303では、近接モード処理が実行される(DO)。そして、ユーザが、近接撮像画像71のうちの人物が写っている位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、近接モード303から会話モード305に切り替わる。この場合のモード変更処理は、通話のための処理を含む(ENTRY)。また、ユーザが、ボタン画像73の位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、近接モード303から俯瞰モード301に切り替わる。この場合のモード変更処理は、上述した接続処理を含む(ENTRY)。
会話モード305では、会話モード処理が実行される(DO)。また、ユーザが、ボタン画像83の位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、会話モード305から俯瞰モード301に切り替わる。この場合のモード変更処理は、上述した接続処理を含む(ENTRY)。
(その他:表示画面の別の例)
−表示モードに応じた撮像画像
上述したように、例えば、実空間情報提供部181は、第1の表示モード(例えば、俯瞰モード)では、実空間の第1の領域が撮像された第1の撮像画像(例えば、俯瞰撮像画像)を表示部150に表示させる。また、実空間情報提供部181は、第2の表示モード(例えば、近接モード)では、上記第1の領域よりも狭い第2の領域が撮像された第2の撮像画像(例えば、近接撮像画像)を表示部150に表示させる。そして、上述した例では、とりわけ、実空間の第1の領域が撮像された第1の撮像画像は、第1のズーム率に対応する撮像画像であり、上記第1の領域よりも狭い第2の領域が撮像された第2の撮像画像は、上記第1のズーム率よりも大きい第2のズーム率に対応する撮像画像である。しかしながら、上記第1の撮像画像及び上記第2の撮像画像はこれに限られない。
例えば、上記第1の撮像画像は、実空間内にある複数の撮像装置のうちの第1の撮像装置を通じて生成される撮像画像であり、上記第2の撮像画像は、上記複数の撮像装置のうちの第2の撮像装置を通じて生成される撮像画像であってもよい。この場合に、例えば、実空間情報提供部181は、俯瞰モードの際には、センタオフィス10の広い領域を撮像するカメラ11を選択し、当該カメラ11により生成された撮像画像を俯瞰撮像画像として取得する。そして、実空間情報提供部181は、近接モードの際には、センタオフィス10のより狭い領域を撮像するカメラ11(例えば、より前方にあるカメラ)を選択し、当該カメラ11により生成された撮像画像を近接撮像画像として取得する。
これにより、カメラ11の配置によっては、より容易に人物の位置を指定しやすくなる。また、カメラ11にズームを要求しなくてもよい。そのため、例えば、光学ズーム又はドリーによるズームを要求する場合のように、個別の端末装置からの要求が競合し、いずれかの端末装置に待ち状態が生じるようなこともない。また、例えば、デジタルズームを用いる場合のように、処理量が増大するようなこともない。
−より自由な条件での撮像により生成される撮像画像
また、上述した例では、表示モードが切り替えられる例を説明したが、表示画面はこれに限られない。例えば、表示モードの切り替えの代わりに、より自由な条件での撮像により撮像画像が生成され、当該撮像画像を含む表示画面が表示されてもよい。
例えば、実空間の撮像画像は、複数のズーム率のうちの選択されたズーム率に対応する撮像画像であってもよい。この場合に、例えば、実空間情報提供部181は、入力部120を介してユーザにより指定されるズーム率を、通信部110を介してカメラ11に要求する。その結果、カメラ11は、ズーム率を要求に従って変更し、変更後のズーム率での撮像により生成された撮像画像を端末装置100に提供する。そして、実空間情報提供部181は、表示部150に、提供された撮像画像を含む表示画面を表示させる。そして、ユーザは、当該撮像画像内の位置を指定すると、位置取得部183は、当該位置を取得する。そして、位置取得部183は、撮像画像内の当該位置をオブジェクト選択部185に提供する。
これにより、ユーザは、細かいズーム率を指定して、所望の撮像画像を表示することができる。よって、ユーザは、特定の人物の位置をより指定しやすくなる。
なお、上述したように、ここでのズーム率は、1.5倍、2倍等の精緻な値である必要はなく、被写体が撮像画像に写る大きさの程度を直接的又は間接的に示すものである。例えば、とりわけカメラ11の位置の変更によるズーム(例えば、ドリーによるズームイン及びズームアウト)が用いられる場合には、ズーム率は、1.5倍、2倍等の精緻な値ではなく、被写体の大きさの程度を直接的に示すもの(例えば、被写体の概ねの大きさの程度を示すパラメータ、等)、又は、被写体の大きさの程度を間接的に示すもの(例えば、レールにおけるカメラ11の位置、等)であってもよい。
(カメラライン制御部191)
カメラライン制御部191は、後述するカメララインに関連する各種パラメータの演算処理、カメララインの表示制御、及びカメララインへのユーザ入力の取得を行う。ここで、「カメラライン」とは、本発明の実施形態における造語であり、端末装置100の表示画面に表示されるユーザインタフェースの表示要素かつ入力要素を示すラインである。
より具体的には、上記したように、位置取得部183によってユーザの指定に基づく選択位置が取得されるが、カメララインは、センタオフィス10に対応する3次元仮想空間90において当該選択位置に対応する3次元選択位置と当該3次元選択位置を撮像範囲内に含むカメラ11の3次元設置位置とに応じたライン(以下、「3次元ライン」とも言う)であり得る(図14を用いて後述する)。なお、以下の説明においては、ユーザの指定に基づく選択位置の例として、ユーザにより指定された位置に対応するオブジェクトの位置を用いるが、ユーザにより指定された位置自体が用いられてもよい。
本実施形態においては、「ライン」の例としてストレートな線を用いて説明するが、「ライン」は、曲がった線であってもよい。また、例えば、3次元選択位置と3次元設置位置とに応じたラインは、選択位置と設置位置とを両端とするライン全体であってもよいし、選択位置と設置位置とを両端とするラインの一部であってもよい。また、以下の説明において、「カメラライン」は、3次元ラインを撮像画像の表示画面の対応する位置に射影したライン(2次元ライン)をも意味し得る。
なお、前述したように、3次元仮想空間90のデータには、各カメラ11に関連する情報も含まれている。例えば、各カメラ11に関連する情報は、各カメラ11の設置位置に対応する3次元仮想位置、撮像方向(例えば、光軸を含むカメラのレンズと垂直な方向)、画角(または撮像範囲域)等を含む。端末装置100は、当該情報を利用し、3次元選択位置を撮像範囲内に含むカメラ11がどれであるかを識別することができる。当該情報は、情報管理サーバ200に格納されており、端末装置100が当該情報を必要とする状況が発生した際に通信部110を介して適宜当該情報を取得するようにしてよい。
カメララインは、端末装置100の表示画面上、例えば、図4の俯瞰撮像画像61上やマップ画像69上に射影して重畳表示される(図15を用いて後述する)。端末装置100のユーザは、表示画面上に表示されたカメララインを見ることで、いま見ている撮像画像を撮像するカメラとは別の角度から3次元選択位置を撮像することが可能なカメラが存在しているか否か、存在している場合は、そのカメラといま見ている撮像画像を撮像するカメラと3次元選択位置とがどのような相対的位置関係にあるのか、を直感的に知ることができる。
図14は、センタオフィス10に対応する3次元仮想空間内におけるカメララインの例を説明するための説明図である。
図14を参照すると、センタオフィス10に対応する3次元仮想空間90が示されている。また、当該3次元仮想空間90には、オブジェクト91A及びオブジェクト91Bが配置されている。オブジェクト91Aは、ある人物(例えば、A氏)に対応し、センタオフィス10の当該ある人物の座席の位置に対応する3次元仮想位置に配置される。また、オブジェクト91Bは、ある人物(例えば、B氏)に対応し、センタオフィス10の当該ある人物の座席の位置に対応する3次元仮想位置に配置される。図8や図9の例と同様に、オブジェクト91は、半径R及び高さHを伴う円柱のオブジェクトである。また、オブジェクト91Aおよびオブジェクト91Bそれぞれの3次元重心位置92Aおよび92Bを図示している。
さらに、当該3次元仮想空間90には、仮想カメラ93C、仮想カメラ93D、仮想カメラ93Eが配置されており、それぞれに対応する仮想カメラ位置(例えば、仮想カメラのレンズの中心位置)94C、94D、94Eが存在する。そして、オブジェクト91Aの3次元重心位置92Aと仮想カメラ位置94C、94D、94Eとをそれぞれ両端とする線分、すなわち、カメラライン95C、95D、95Eを図示している。また、オブジェクト91Bの3次元重心位置92Bと仮想カメラ位置94Cとを両端とするカメラライン95Fも参考までに図示している。この例では、オブジェクト91Bは仮想カメラ93Cと93Eの撮像範囲内には含まれておらず、仮想カメラ93Dの撮像範囲内にのみ含まれているため、オブジェクト91Bに対するカメララインは1本だけしか存在していない。
図15は、端末装置100の表示画面に表示されるカメララインの一例を説明するための説明図である。
図15を参照すると、俯瞰モードまたは近接モードで表示される表示画面80が示されている。表示画面80は、撮像画像81、マップ画像84、射影して重畳表示されたカメラライン87C、87D、87E、86C、86D、86E、を含む。なお、撮像画像81で指定された位置に応じたオブジェクトに対応する人物映像の付近に円環上の印が重畳描画されているが、この印は、指定された位置に応じたオブジェクトが画面上のどれであるかについて操作しているユーザにフィードバック表示された結果である。
撮像画像81は、俯瞰撮像画像61または近接撮像画像71と同類の画像である。また、マップ画像84は、マップ画像69またはマップ画像75と同類の画像である。すなわち、カメララインの表示は、俯瞰モードおよび近接モードのいずれのモードにおいても同様に実現可能である。
カメラライン87は、ユーザが撮像画像81内のオブジェクトの画像を指定する操作(例えば、当該オブジェクトの位置をタッチする操作)によって、オブジェクトの画像の近傍に重畳表示される。なお、マップ画像84上でオブジェクトが指定された場合には、カメラライン86が重畳表示される。このとき、表示画面80上に描画されるカメララインは、センタオフィス10に対応する3次元仮想空間90内のカメララインが撮像画像81またはマップ画像84の2次元平面へ射影されたラインであり、撮像画像81内に映っているオブジェクトとカメラとを両端とする2次元の線分が描画要素となる。
なお、カメラおよびオブジェクトの少なくともいずれか一方は、必ずしも撮像画像81の内部に射影されなくてもよい。このとき、3次元ラインのうち撮像画像81の内部に射影されない部分は、撮像画像81をはみ出すようにして描画されてもよいし、描画されなくてもよい。ユーザは、3次元ラインのうち撮像画像81の内部に射影されない部分が描画されなくても、撮像画像81の内部に描画された線分の伸展先を推測することで、そのカメララインに対応したカメラまたはオブジェクトの位置を大まかに把握することができる。
また、カメラおよびオブジェクトの少なくともいずれか一方は、必ずしも表示画面80の内部に射影されなくてもよい。このとき、3次元ラインのうち表示画面80の内部に射影されない部分は、描画されなくてよい。ユーザは、3次元ラインのうち表示画面80の内部に射影されない部分が描画されなくても、表示画面80の内部に描画された線分の伸展先を推測することで、そのカメララインに対応したカメラまたはオブジェクトの位置を大まかに把握することができる。
さらに、カメララインは、表示要素だけでなく入力要素でもあり得る。そのため、ユーザは、カメララインの任意の1つをタッチして指定操作することで、指定入力されたカメララインに対応する実空間内のカメラ11を指定することができる。このとき、撮像画像81は、当該指定操作に対応して、指定されたカメラ11により生成された俯瞰撮像画像に切り換わる。これは、実空間情報提供部181が、指定されたカメラ11により生成された俯瞰撮像画像を取得し、表示部150に当該俯瞰撮像画像を表示させることによって実現される。
ユーザは、指定したオブジェクトと切り換え先のカメラとの相対的な位置関係をカメララインによってカメラ切り換え操作前に直感的に知ることができる。また、そのカメラライン自身が入力操作のコントローラとして機能することによって、直感的で容易なカメラ切り換え操作の入力方式が実現される。
例えば、端末装置100にカメラ切り換えボタンが備えられており、当該ボタンを押下すると、カメラ11がシステムの指定する順番に切り換わっていくような従来のカメラ切り換え操作の入力方式を想定する。係る入力方式を用いた場合には、ユーザはカメラ切り換え後の俯瞰撮像画像を見るまで、どのカメラに切り換わったかを知ることができず、前述した複数カメラ同士の相互位置関係がわからず認知的に混乱してしまう問題(Spatial Discontinuities)が発生しやすい。カメララインを利用した本実施形態に係る入力方式によれば、そのような従来のカメラ切り換え入力方式が有する課題を解決することが可能である。
さらに、カメララインは、上記した利点以外にも操作入力上の利点も備える。例えば、ユーザは、オブジェクトの指定入力後に表示されるカメララインの任意の1つをタッチして指定操作した後、指定したカメラライン上の任意の位置をさらにタッチして指定操作することで、カメラ切り換え後のズーム率を指定入力することができる。
例えば、カメララインの中点のあたりをタッチして指定すれば、カメララインの線分の両端となるオブジェクトとカメラとの中間地点の位置から当該オブジェクトを見るような視点位置指定がなされたものとみなし、指定されたカメララインに対応するカメラに切り換わるだけでなく、ズーム率が2倍の近接撮像画像として撮像画像81に表示される。また、同様に、カメラライン上でオブジェクト側端点から3分の1程度の位置をタッチして指定すれば、当該カメララインに対応したカメラでズーム率が3倍の近接撮像画像が撮像画像81に表示される。
なお、上記したように、カメラおよびオブジェクトの少なくともいずれか一方は、必ずしも撮像画像81の内部に射影されなくてもよい。このとき、カメララインにおけるカメラ側端点およびオブジェクト側端点のうち、撮像画像81の外部に射影された端点の位置は、ズーム率の算出にそのまま利用されてもよいし、撮像画像81の端部(例えば、撮像画像におけるカメララインと撮像画像の端部との交点)に補正されてからズーム率の算出に利用されてもよい。
また、カメラおよびオブジェクトの少なくともいずれか一方は、必ずしも表示画面80の内部に射影されなくてもよい。このとき、カメララインにおけるカメラ側端点およびオブジェクト側端点のうち、表示画面80の外部に射影された端点の位置は、ズーム率の算出にそのまま利用されてもよいし、表示画面80の端部(例えば、表示画面80におけるカメララインと表示画面80の端部との交点)に補正されてからズーム率の算出に利用されてもよい。
上記のカメララインへの2種類の入力方法、すなわち、複数のカメララインから切り換え先のカメラを選択指定するためのタッチ入力と、選択されたひとつのカメララインに対してズーム率を指定するためのタッチ入力とは、複数回のタッチ入力ではなく、1回のタッチ入力に統合して効率的に行うことも可能である。
例えば、ユーザがまず撮像画像81内のオブジェクトの画像領域を指で押下すると、そのオブジェクトを撮像できるカメラ11に対応するカメララインが表示画面80上に重畳表示される。このとき、ユーザは、表示画面すなわちタッチパネル820から指を離さずに、画面上のオブジェクトの位置から所望するカメラライン上の位置に指をドラッグしてから、タッチパネル820から指を離すことで、1回のタッチ入力(ドラッグ)で見たい撮像画像を撮像するカメラの指定入力と倍率のシステムへの指定入力とを行うことができる。
オブジェクト指定、切り換え希望先のカメラ指定、及び当該カメラのズーム倍率指定という、従来は3段階の指定入力操作が必要であった入力を、本実施形態に係る方式を導入することによって、このように1回のタッチ入力で行えることは、効率(efficiency)の観点からも、複数カメラ切り換え機能を有する遠隔映像伝送アプリケーションを使用するユーザへの大きなユーザビリティの向上をもたらすものである。
図16は、カメラライン上の位置を指定するタッチ入力とそれに対するフィードバック表示のいくつかの例を説明するための説明図である。図16には、表示画面80に表示されるカメララインとそれへのタッチ入力を行っているユーザの手が示されている。
図16(a)に示される例では、ユーザがカメラライン上の位置をタップやドラッグ入力で指定すると、当該カメラライン上の位置に対応する部分的な領域の色や濃度が変わることによって、ユーザへ指定された入力位置に関するフィードバック情報を返す。
図16(b)に示される例では、ユーザがカメララインの端点を移動させる入力操作を行うことによって(ユーザがカメララインの長さを変更する入力操作を行うことによって)、端点によりカメラライン上の位置を指定する。この際のタッチ入力方式は、ドラッグが望ましい。なお、カメララインで指定できる最大長をあらかじめ表示しておいても構わない。
図16(c)に示される例では、ユーザがカメララインの長さを変更する入力操作を行うことによって、カメラライン上の位置を指定する点においては、図16(b)と同様である。しかし、図16(c)に示される例では、カメララインの端点をドラッグしてカメララインの長さを調節するのではなく、カメラライン上をプレスアンドホールド(長押し)することで、押している時間の長さに応じて端点が移動される。なお、押している時間の長さに応じて、図16(a)のように部分的な領域の位置が変更されていくフィードバック表示がなされてもよい。
図17は、図14に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。図17を参照すると、容易な理解のために、3次元仮想空間90における水平面における位置関係が示されている。具体的には、3次元仮想空間90に配置されたオブジェクト91A、現在撮像に用いられているカメラ11Aの仮想カメラ位置O、切り換え先のカメラとなるカメラ11Bに対応する仮想カメラ93Eの仮想カメラ位置94E、カメラ11Bのカメラライン95Eが示されている。また、図9と同様に、軸y、軸x、画角θ及び仮想面93が示されている。この例でも、図9と同様に、容易な理解のために、カメラ11は、当該カメラ11の撮像方向が水平面に平行になるように設置されているものとする。
例えば、図7に示されるようにユーザにより上記撮像画像内の位置が指定される。この場合に、図9を参照して説明した手法に従うと、カメラライン制御部191は、撮像画像内の上記位置に対応するカメラライン(この例ではカメラライン95E)を仮想面93上のA‐Eへ射影変換処理し、表示部150にカメララインを表示させる。また、ユーザが前記A‐E領域をタッチ入力した場合、カメラライン制御部191は、タッチ指定に対応するカメララインと当該カメラライン上の2次元の指定位置の情報とを、入力部120を介して取得し、その2次元の指定位置に対応する3次元仮想位置を変換により求める。
求めた3次元仮想位置は、ユーザの所望する3次元仮想空間90内のユーザ視点位置に関する情報となり、前述のように、当該ユーザ視点位置に対応したカメラ11への切り換え処理および当該カメラ11の倍率指定ズーム処理が行われ、表示部150上の撮像画像81に対応する近接撮像画像の表示や、当該近接撮像画像における新たなカメララインの表示処理が、カメラライン制御部191を含む端末装置100によって行われる。
以上に説明したように、カメラライン制御部191は、カメララインに関連する各種パラメータの演算処理、カメララインの表示制御、及びカメララインへのユーザ入力の取得を行うことが可能である。
(カメラライン選別部193)
カメラライン選別部193は、カメララインが複数存在する場合に(例えば、複数のカメラライン同士が近傍に存在する場合に)、表示画面80上に描画されたカメララインの指定入力誤りが発生したり、指定入力しにくかったりする問題を解決するために、(近傍にある)複数のカメララインの中から条件に最適なひとつのカメララインに絞り込んでユーザに提示する処理を行う。
図18は、カメララインが近傍に複数存在する場合の端末装置100の表示画面の一例を説明するための説明図である。なお、以下では、カメラライン同士が近傍に存在する場合に行われる処理を例として説明するが、複数のカメラライン同士が近傍に存在するか否かを問わず、複数のカメララインが存在する場合に、一律的に同様の処理が行われてもよい。
図18を参照すると、俯瞰モードまたは近接モードで表示される撮像画像81が示されている。ユーザにより指定された位置に対応するオブジェクトとそれに対応するカメララインが3つ重畳表示されているが、当該3つのお互いが非常に近い表示位置に存在するため、ユーザはその内の所望のひとつのカメララインを選択してタッチ入力を行うのは困難であり、場合によっては意図しないカメララインを誤って選択入力してしまう恐れがある。また、入力以前に、カメララインが近傍に複数存在すると表示された各カメララインの視認性を損なうという問題もある。カメラライン選別部193は上記のような課題を解決する情報処理を行う。
具体的には、カメラライン選別部193は、後述するカメラライン評価条件にしたがって近傍に存在する複数のカメラライン間の比較を行い、最も評価の高かったカメララインを最適なカメララインとしてひとつ選別し、そのひとつのカメララインのみを表示画面80上に表示させる処理を行う。
以下、前記カメラライン評価条件と対応する比較処理の例をいくつか示す。
一つ目のカメラライン評価条件は、ユーザにより指定された位置に対応するオブジェクトとカメラ11との間の「距離」である。当該距離は、カメララインの全長と同義であり、図14でいえば、カメラライン95C(または95D、95E)の全長、すなわち、3次元位置92Aと94C(または94D、95E)との2点間の距離を演算することにより求められる。比較評価の高低基準としては、例えば、距離の値が大きいカメララインほど評価は高くされるとよい。その理由は、カメラ11の性能が同じであれば、距離が大きいほど撮像画像81の視野角が広くなりユーザにより指定された位置・オブジェクトの周囲の状況までより広く把握できる、また、距離が大きいほどユーザが指定できるズーム率の範囲が広くなりユーザが視点決定できる自由度が大きくなる、などユーザによって享受される効果がより優れていると考えられるためである。
二つ目のカメラライン評価条件は、センタオフィス10に対応する3次元仮想空間90におけるカメララインと水平面(床面)との成す「角度」である。当該角度は、図14でいえば、3次元位置92Aと94C、そして94Cを3次元仮想空間90の水平面(床面)上に垂直に正射影した点94C’の3点94C‐92A‐94C’の角度を余弦定理等で演算することにより求められる。比較評価の高低基準としては、例えば、角度の値が小さく0に近いカメララインほど評価は高くされるとよい。その理由は、床の水平面との角度が小さいほど、カメララインの光線も水平に近くなりユーザにより指定された対象人物の見え方が対人的視点で自然になり(他方、高角度で上から撮ると監視カメラ的になる)、ズーム表現もあたかも歩いて近づくかのような自然な演出になる(他方、高角度で上からズームすると空を滑空するような不自然な感覚になる)、などユーザによって享受される効果がより優れていると考えられるためである。
三つ目のカメラライン評価条件は、各カメララインに対応するカメラ11の「性能」であり、複数のカメラ11がそれぞれ異なる機種や性質を持っている場合に有効になる。性能とは、例えば、カメラのハードウェア性能であり、比較評価の高低基準例と併せていくつか例を記すと、撮像素子の画素数(多い方が高評価)、撮像素子の面積(大きい方が高評価)、レンズの画角(広い方が高評価)、レンズのF値(小さい方が高評価)、シャッタースピード(範囲が広い方が高評価)、最大フレームレート(大きい方が高評価)、最大ISO感度(大きい方が高評価)、光学ズーム機構の有無(有る方が高評価)、撮影可能距離(距離範囲が広い方が高評価)等になる。比較評価の高低基準の理由は、高評価のカメラほど高画質の撮像画像をユーザに提供できる可能性が高いと考えられるためである。
また、カメラライン選別部193は、カメラライン制御部191により求められた複数のカメララインが近傍に存在し前述の選別処理を行うべきか否かの判定を行う。前記近傍に存在しているか否かの判定は、例えば、表示画面80上に描画された複数のカメララインの表示領域に重複が見られたり、前記複数のカメララインの表示領域間の距離が所定の2次元距離以下であったりした場合に(例えば、前記距離が7ミリメートルや44ピクセル以下であった場合に)、該当するカメラライン群が近傍位置関係にあり前述の選別処理を行うべきであると判定してもよい。また、3次元仮想空間90内における複数のカメラライン間の成す角度が所定以下であった場合に(例えば、10度未満であった場合に)、該当するカメラライン群が近傍位置関係にあり前述の選別処理を行うべきであると判定してもよい。
以上に説明したように、カメラライン選別部193は、後述するカメラライン評価条件にしたがって近傍に存在する複数のカメラライン間の比較を行い、最も評価の高かったものを最適なカメララインとしてひとつ選別する処理を行うことが可能である。そして、カメラライン選別部193は、そのひとつのカメララインのみを表示画面80上に表示させる処理を行うことが可能である。
(カメラライン推薦部195)
カメラライン推薦部195(表示制御部)は、後述する情報管理サーバ200の視点選好学習部231によって、ユーザの指定に基づく選択位置に存在するオブジェクトに対応する人物に対するユーザの閲覧条件が算出され、閲覧条件と視点位置の指定回数との関係が算出された場合、視点選好学習部231によって算出された関係に応じた表示を制御する。ここで、閲覧条件は特に限定されない。しかし、後述する例では、閲覧条件が、3次元仮想空間における人物とユーザとの距離、3次元仮想空間における人物に対するユーザの視点位置の角度の少なくともいずれか一方である場合を想定する。視点選好学習部231によって算出された関係に応じた表示制御としては、様々な表示制御が想定される。
例えば、カメラライン推薦部195は、視点位置の指定回数が最大となる閲覧条件に応じた3次元ラインを選択し(例えば、視点位置の指定回数が最大となる閲覧条件に最も近い3次元ラインを選択し)、選択した3次元ラインに対応する2次元ラインと他の3次元ラインに対応する2次元ラインとが区別可能に視認されるように、選択した3次元ラインに対応する2次元ラインと他の3次元ラインに対応する2次元ラインとのうち少なくとも一方の表示態様を変更する。
より具体的に、カメラライン推薦部195は、あるユーザがある位置に存在する人物に対応するオブジェクトを指定した場合に提示される、前記オブジェクトに対応する複数のカメララインの中から、前記ユーザが最も好んで指定するであろうカメラライン(以下「選好予測カメラライン」)を選び、ユーザがその他のカメララインと識別できるような様態の変更を行って端末装置100の表示画面上に提示する。前記選好予測カメララインの選択は、後述する情報管理サーバ200の視点選好学習部231によって統計処理により予測されてカメラライン推薦部195に送信される予測データ(例えば、視点位置の指定回数が最大となる閲覧条件)に基づき行われる。
図26は、端末装置100の表示画面に表示される選好予測カメララインの一例を説明するための説明図である。符号89以外の符号の構成要素については、前述の図15と同一であるので重複説明を省略する。撮像画像81またはマップ画像84上には、それぞれ重畳表示されたカメララインが3個ずつ表示されている。
カメラライン推薦部195は、後述する情報管理サーバ200の視点選好学習部231から予測データ(例えば、視点位置の指定回数が最大となる閲覧条件)を受信し、後述する情報管理サーバ200の視点選好学習部231から予測データを受信し、3個のカメララインのうちの1個である87E(または86E)が前記選好予測カメララインであることを特定する。そして、カメラライン推薦部195は、前記選好予測カメララインとその他のカメララインとをユーザが視認識別できるように表示様態の変更処理を行う。
図26の例では、カメラライン推薦部195は選好予測カメララインの近傍にのみ星形の識別記号89を表示している。カメラライン推薦部195が行うその他の様態の変更の例としては、選好予測カメラライン以外のその他のカメララインだけ半透明で表示させたり、その他のカメララインの表示を行わないようにしたりする処理が考えられる。
あるいは、カメラライン推薦部195は、ユーザにカメララインを指定操作させるのではなく、視点位置の指定回数が最大となる閲覧条件に応じた3次元ライン(例えば、視点位置の指定回数が最大となる閲覧条件に最も近い条件の3次元ライン)における視点位置を算出し、算出した視点位置に対応する撮像画像が表示されるように自動的に制御してもよい。すなわち、カメラライン推薦部195は、ユーザがある位置に存在する人物に対応するオブジェクトを指定した段階で、自動的に選好予測カメララインやそのライン上の位置を視点の位置として確定し、端末装置100に情報管理サーバ200と通信させて前記確定された視点の位置からの撮像画像81を表示画面80に切り換え表示させてもよい。
<2−3.ソフトウェア構成>
次に、本実施形態に係る端末装置100のソフトウェア構成の一例を説明する。図19は、本実施形態に係る端末装置100のソフトウェア構成の一例を示すブロック図である。図19を参照すると、端末装置100は、OS(Operating System)840及びアプリケーションソフトウェアを備える。そして、端末装置100は、アプリケーションソフトウェアとして、ソフトフォン851、超臨場感クライアント853及び電話発信制御機能855を含む。
OS840は、端末装置100を動作させるための基本的な機能を提供するソフトウェアである。OS840は、各アプリケーションソフトウェアを実行する。
ソフトフォン851は、端末装置100を用いて電話を行うためのアプリケーションソフトウェアである。電話部189は、例えば、ソフトフォン851により実装され得る。
超臨場感クライアント853は、実空間の情報を端末装置100に提供するためのアプリケーションソフトウェアである。実空間情報提供部181は、例えば、超臨場感クライアント853により実装され得る。
なお、超臨場感クライアント853は、実空間(例えば、センタオフィス10)にいる人物の状態を示す状態情報を取得し、OSを介してソフトフォン851に提供してもよい。そして、ソフトフォン851は、当該状態情報に基づいて、電話発信を制御してもよい。
また、電話発信制御機能855は、表示画面内の撮像画像に写っている人物の通信装置の通信用IDを取得するアプリケーションソフトウェアである。位置取得部183、オブジェクト選択部185及びID取得部187は、電話発信制御機能855により実装され得る。
なお、電話発信制御機能855は、通信用IDを取得すると、OSを介してソフトフォン851に提供する。そして、ソフトフォン851は、当該通信用IDを用いて、電話発信を行う。
<<3.情報管理サーバの構成>>
続いて、図20及び図21を参照して、本実施形態に係る情報管理サーバ200の構成の一例を説明する。
<3−1.ハードウェア構成>>
まず、図20を参照して、本実施形態に係る情報管理サーバ200のハードウェア構成の一例を説明する。図20は、本実施形態に係る情報管理サーバ200のハードウェア構成の一例を示すブロック図である。図20を参照すると、情報管理サーバ200は、CPU901、ROM903、RAM905、バス907、記憶装置909及び通信インターフェース911を備える。
CPU901は、情報管理サーバ200における様々な処理を実行する。また、ROM903は、情報管理サーバ200における処理をCPU901に実行させるためのプログラム及びデータを記憶する。また、RAM905は、CPU901の処理の実行時に、プログラム及びデータを一時的に記憶する。
バス907は、CPU901、ROM903及びRAMを相互に接続する。バス907には、さらに、記憶装置909及び通信インターフェース911が接続される。バス907は、例えば、複数の種類のバスを含む。一例として、バス907は、CPU901、ROM903及びRAM905を接続する高速バスと、当該高速バスよりも低速の1つ以上の別のバスを含む。
記憶装置909は、情報管理サーバ200内で一時的又は恒久的に保存すべきデータを記憶する。記憶装置909は、例えば、ハードディスク等の磁気記憶装置であってもよく、又は、EEPROM、フラッシュメモリ、MRAM、FeRAM及びPRAM等の不揮発性メモリであってもよい。
通信インターフェース911は、情報管理サーバ200が備える通信手段であり、ネットワークを介して(あるいは、直接的に)外部装置と通信する。通信インターフェース911は、無線通信用のインターフェースであってもよく、この場合に、例えば、通信アンテナ、RF回路及びその他の通信処理用の回路を含んでもよい。また、通信インターフェース911は、有線通信用のインターフェースであってもよく、この場合に、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。
<3−2.機能構成>>
次に、本実施形態に係る情報管理サーバ200の機能構成の一例を説明する。図21は、本実施形態に係る情報管理サーバ200の機能構成の一例を示すブロック図である。図21を参照すると、情報管理サーバ200は、通信部210、記憶部220及び制御部230を備える。さらに、制御部230は、視点選好学習部231を備える。
(通信部210)
通信部210は、他の装置と通信する。例えば、通信部210は、LAN19に直接的に接続され、センタオフィス10内の各装置と通信する。具体的には、例えば、通信部210は、カメラ11、マイクロフォン13、センサ15及びメディア配信サーバ17と通信する。また、通信部210は、外部ネットワーク30及びLAN23を介して、サテライトオフィス20内の各装置と通信する。具体的には、例えば、通信部210は、端末装置100及びディスプレイ21と通信する。なお、通信部210は、例えば、通信インターフェース911により実装され得る。
(記憶部220)
記憶部220は、情報管理サーバ200の動作のためのプログラム及びデータを記憶する。
とりわけ本実施形態では、記憶部220は、情報処理システムにおいて用いられる様々な情報を記憶する。
第1の例として、記憶部220は、カメラ11、マイクロフォン13及びセンサ15に関するパラメータを記憶する。当該パラメータの具体的な内容は、上述したとおりである。
第2の例として、記憶部220は、実空間に対応する3次元仮想空間のデータを記憶する。当該3次元仮想空間は、例えば、センタオフィス10を模した3次元仮想空間である。当該3次元仮想空間の具体的な内容は、上述したとおりである。
第3の例として、記憶部220は、人物関連情報を記憶する。当該人物関連情報は、例えば、センタオフィス10にいる人物の人物関連情報である。当該人物関連情報の具体的な内容は、上述したとおりである。
第4の例として、記憶部220は、3次元仮想空間に配置されるオブジェクトのオブジェクトIDと通信用IDとを、互いに対応付けて記憶する。当該オブジェクトID及び通信用IDの具体的な内容は、上述したとおりである。
第5の例として、記憶部220は、ユーザ識別情報(ユーザ毎に対応した前記通信用IDでもよい)と紐づけて、各ユーザが指定したオブジェクトと視点の位置の履歴情報を記録する。さらに、記憶部220は、各ユーザが指定したオブジェクトに対応する人物の空間内における身体方向の情報も併せて記憶する。前記人物の空間内における身体方向の情報は、前述したセンタオフィス10を模した3次元仮想空間における各人物の机に対面する方向としてあらかじめ定められてもよい。また、センタオフィス10内の各人物にたとえばジャイロセンサを取り付けたり、複数のカメラ11の撮像データから各人物の3次元モデルを生成したり、顔検出処理を利用したりすること等によって、動的に前記身体方向の情報を取得してもよい。
(制御部230)
制御部230は、情報管理サーバ200の様々な機能を提供する。
例えば、制御部230は、要求に応じて、情報処理システムにおいて用いられる様々な情報を提供する。例えば、制御部230は、端末装置100による要求に応じて、3次元仮想空間のデータ、人物関連情報、オブジェクトIDに対応する通信用ID、並びに、カメラ11、マイクロフォン13及びセンサ15に関するパラメータ等を提供する。
また、例えば、制御部230は、情報処理システムにおいて用いられる様々な情報を適宜更新する。制御部230は、自動で、又は手動による指示に応じて、当該情報を更新する。
(視点選好学習部231)
視点選好学習部231(学習部)は、ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインがユーザによって指定され、ユーザによって指定された3次元ラインに対応する撮像装置が端末装置100によってユーザの視点位置として指定された場合、3次元選択位置と3次元設置位置とに基づいて、選択位置に存在するオブジェクトに対応する人物に対するユーザの閲覧条件を算出し、閲覧条件と視点位置の指定回数との関係を算出する。上記したように、閲覧条件は、3次元仮想空間における人物とユーザとの距離(以下、「閲覧距離」とも言う。)、3次元仮想空間における人物に対するユーザの視点位置の角度(以下、「閲覧人物角度」とも言う。)の少なくともいずれか一方であってよい。
例えば、視点選好学習部231は、ユーザ毎の視点の位置指定の履歴情報を学習し、あるユーザがある位置に存在するオブジェクトを指定した場合に、前記オブジェクトに対応する人物の空間内における身体方向に対応して、前記ユーザが最も好んで指定するであろう視点の位置を予測する。また、視点選好学習部231は、前記予測した視点の位置の情報(例えば、視点位置の指定回数が最大となる閲覧条件)を、通信部210を介して、端末装置100のカメラライン推薦部195へ送信する。
以下に、視点選好学習部231が行う、視点の位置指定データの学習処理および予測処理について説明する。
まず、図27に、本実施形態に係る視点の位置指定データの学習処理に用いられるデータの一例を示す。図27のデータは、たとえば記憶部220に記憶されるテーブル形式のデータであって、項目(フィールド)として、ユーザ識別情報、カメラ識別情報、視点位置、オブジェクト識別情報、オブジェクト位置、閲覧距離、人物身体方向角度、閲覧人物角度、等を有している。
ユーザ識別情報は、ある端末装置100Aを操作しているユーザの人物の識別情報であり、図27の1〜3行ではたとえば“Taro Yamada”である。
カメラ識別情報は、前述の複数のカメラ11を識別するもので、図27の例ではA、B、Cの3台が記憶されている。
視点位置は、実空間または対応する3次元仮想空間における仮想的な視点の3次元位置であり、たとえばX、Y、Zの3次元の座標情報で表される。視点位置の算出方法は、前述したカメラライン上における視点位置の算出方法と同じで構わない。カメララインは3次元空間上での位置情報を有するため、カメラライン上の1点である仮想的な視点位置もたとえばX、Y、Zの3次元の座標情報で表すことができる。
オブジェクト識別情報は、前述したオブジェクトIDと同じ情報で構わず、図27の例では“Jiro Satou”や“Saburo Tanaka”である。オブジェクト位置は、前記オブジェクトIDに対応するオブジェクトのたとえば3次元重心位置であり、たとえばX、Y、Zの3次元の座標情報で表される。
閲覧距離は、前記視点位置とオブジェクト位置間の距離であり、図27の例ではミリメートル単位で表記している。人物身体方向角度は、実世界または対応する3次元仮想空間におけるグローバル座標系の中で、当システムの管理者等によってあらかじめ一意に定められた任意のひとつの基準方向と、前記グローバル座標系の中で各オブジェクトが向けている身体方向と、の2つのベクトル間で成される角度である。身体方向は、たとえば水平面上で人物が向いている方向であり、前記基準方向との間で成される人物身体方向角度をオブジェクト毎に求めることができる。たとえば、図27の1行目のオブジェクト“Jiro Satou”の人物身体方向角度は90°で、3行目のオブジェクト“Saburo Tanaka”は270°となっているから、両人物は3次元空間の水平面上で180°真逆の向きの身体方向の関係であることがわかる。なお、ここでは説明のため、前記身体方向と前記基準方向のベクトルが2次元平面である水平面上に存在する場合の0〜360°の角度で例示したが、前記身体方向と前記基準方向のベクトルは 2次元平面ではなく3次元空間上に存在していても構わず、その場合でも2つのベクトル間で人物身体方向角度を同様に求めることができる。
閲覧人物角度は、前記身体方向のベクトルと前記カメラ識別情報に対応するカメラ11のカメララインのベクトルとが成す角度である。これはすなわち、前記オブジェクトに対応する人物をどの方向から見ているかを示す情報であり、説明のため角度を水平面上の0〜360°に話を限定すると、たとえば、図27の1行目のオブジェクト“Jiro Satou”に対応する人物は、カメラAで、身体正面から右回り(または左回り)に45°の斜め前方の視点から、撮像画像81を通してユーザに身体の撮影像を閲覧されたことになる。また、たとえば、図27の2行目のオブジェクト“Jiro Satou”
に対応する人物は、カメラBで、身体の背後(180°)からユーザに身体の撮影像を閲覧されたことになる。
本実施形態に係る視点の位置指定データの学習処理では、視点選好学習部231は、視点位置の指定回数が最大となる閲覧条件を算出する。すなわち、視点選好学習部231は、3次元選択位置と3次元設置位置とに基づいて、少なくとも3次元仮想空間における閲覧距離を閲覧条件として算出してもよいし、3次元選択位置と3次元設置位置と人物の身体方向の情報とに基づいて、少なくとも3次元仮想空間における人物に対するユーザの視点位置の閲覧人物角度を閲覧条件として算出してもよい。
閲覧人物角度は、どのようにして算出されてもよい。たとえば、視点選好学習部231は、人物に紐づけられた3次仮想空間に対応する実空間における机の設置方向の情報に基づいて人物の身体方向を取得してもよい(机の設置方向の情報を人物の身体方向としてもよい)。あるいは、視点選好学習部231は、撮像装置による撮像画像に対する人物の顔検出処理または人体3次元モデル作成処理に基づいて人物の身体方向を取得してもよい。あるいは、視点選好学習部231は、人物の身体に備え付けられたセンサ装置によって検出されたセンサデータ(例えば、加速度センサによって検出された加速度、ジャイロセンサによって検出された角速度など)に基づいて人物の身体方向を取得してもよい。
たとえば、図27のデータテーブルから、ユーザ識別情報と閲覧人物角度の情報を用い、統計的データ処理を行う。すなわち、ユーザ識別情報毎に、閲覧人物角度の指定操作の履歴回数の分布を求める。
ユーザ識別情報毎に統計処理のデータを分けるのは、視点選好の行動および心理的特性がユーザ毎に異なると考えられるためである。撮像画像81を通して遠隔地の興味対象人物の様子見を行う時、あるユーザCは相手の顔が見える身体前方から閲覧したりズームしたりすることを好む一方、別のユーザDは相手の体の傾きやキーボードやマウスの操作状況が見えやすい身体側方からの閲覧を好み、さらに別のユーザEは相手の見ているディスプレイ画面の内容を確認できる身体後方からの閲覧を好むかもしれない。このような視点選択の嗜好性(視点選好)はユーザ毎に傾向が分かれると考えられ、統計処理される閲覧人物角度のデータにもその傾向が表れる。閲覧人物角度の統計処理にあたっては、図28の人物周りの水平面角度分類概念図に示すように、たとえば、−22°〜22°の間の値を0度項目、23°〜67°の間の値を45度項目、など一定の角度幅ごとにデータを分類集計して処理を行ってもよい。
図29に、あるユーザAの視点位置指定操作履歴における閲覧人物角度の統計データの一例を示す。グラフ横軸は図28に示した45°幅の角度分類の閲覧人物角度、縦軸は視点位置指定操作回数を示す。図29のグラフを見ると、当該ユーザAは、角度分類180度の値(指定回数)が他の角度の値と比べて非常に多く、閲覧人物角度180度、すなわち興味対象人物の身体後方から閲覧したりズームしたりする様子見を好む行動および心理的特性を持ったユーザであることがわかる。また、興味対象人物の左方よりも右方側面から閲覧する方をやや好む傾向が見られる。また、図30に、あるユーザBの視点位置指定操作履歴における閲覧人物角度の統計データの一例を示す。グラフの横軸および縦軸は図29と同様である。図30のグラフを見ると、当該ユーザBは、角度分類45度および315度の値が他の角度の値と比べて非常に多く、閲覧人物角度45度または315度、すなわち興味対象人物の身体斜め前方から閲覧したりズームしたりする様子見を好む行動および心理的特性を持ったユーザであることがわかる。
図29、図30の統計データから、ユーザが興味対象人物のオブジェクトを選択した際、そのオブジェクトに対応する前述のカメララインが複数存在する場合、ユーザAは興味対象人物のオブジェクトの身体後方側にあるカメララインを選択する確率が最も高く、ユーザBは興味対象人物のオブジェクトの身体右斜め前方側にあるカメララインを選択する確率が最も高い。このように、視点選好学習部231は、各ユーザが最も選択する確率が高いカメララインを、視点位置指定操作履歴データの統計処理により予測することができる。
なお、上記では、閲覧人物角度を説明変数、視点位置指定回数を目的変数として統計処理を行った。すなわち、視点選好学習部231が、閲覧人物角度と視点位置指定回数との関係式を算出し、算出した関係式に基づいて視点位置指定回数が最大となる閲覧人物角度を算出する場合を説明した。しかし、説明変数の種類は閲覧人物角度に限られない。たとえば、説明変数を前述の閲覧距離として、視点位置指定回数を目的変数とした統計処理を行っても構わない。すなわち、視点選好学習部231は、閲覧距離と視点位置指定回数との関係式を算出し、算出した関係式に基づいて視点位置指定回数が最大となる閲覧距離を算出してもよい。
ユーザ毎に、最も指定される確率が高い閲覧距離の値が予測できることで、前述のズーム率指定操作を自動化し、ユーザの視点変更入力をより簡便なものにすることができる。すなわち、ユーザは前記見たい位置を指定するだけでその後の前記見る位置の決定はシステムに任せられるため、操作ステップが減りユーザの指定入力行為の労力が低減される。
さらに、視点選好学習部231は、視点の位置指定に関する複数種類のデータを合わせて用いることで、より高い精度でユーザの視点選択を確率予測できるようになる。たとえば、視点選好学習部231は、3次元選択位置と3次元設置位置と人物の身体方向の情報とに基づいて、閲覧距離および閲覧人物角度を閲覧条件として算出し、閲覧距離および閲覧人物角度と視点位置指定回数とを変数として含む回帰式を算出し、算出した回帰式に基づいて、視点位置指定回数が最大となる閲覧距離および閲覧人物角度を算出してもよい。以下では、例として、前述の閲覧人物角度と閲覧距離を説明変数として用いた統計処理による視点の指定位置の予測処理について述べる。
視点選好学習部231は、記憶部220における前述のユーザ毎の視点の位置指定データを用いて、閲覧人物角度と閲覧距離のデータから視点位置指定回数を予測する回帰式を算出することもできる。説明変数である閲覧人物角度および閲覧距離、目的変数である視点位置指定回数がともに量的データであるため、視点選好学習部231は公知の重回帰分析に該当する処理を行うことで前記回帰式を算出できる。さらに、視点選好学習部231は、算出した前記回帰式から、閲覧人物角度と閲覧距離の値を任意に変動させ、算出される視点位置指定回数が最大値を取る閲覧人物角度と閲覧距離を予測する。なお、視点選好学習部231は、説明変数である閲覧人物角度および閲覧距離の間に多重共線性がみられた場合は、前述の通り閲覧人物角度または閲覧距離のどちらかの単変量データだけを用いた統計処理と予測を行う方式に切り換える動作を行ってもよい。
以上により、視点選好学習部231は、ユーザ毎の視点の位置指定の履歴データから閲覧人物角度、閲覧距離、視点位置指定回数のデータを算出し、統計処理を行うことで、目的変数である視点位置指定回数が最大となるような閲覧人物角度または閲覧距離の値を算出して、あるユーザが最も指定しやすい選好条件の視点の位置を予測することができる。
<<4.処理の流れ>>
続いて、図22を参照して、本実施形態に係る情報処理の例を説明する。図22は、本実施形態に係る情報処理の概略的な流れの一例を示すフローチャートである。
ステップS401で、位置取得部183は、実空間の撮像画像の表示画面において当該撮像画像内の位置がユーザにより指定されたかを判定する。より具体的には、例えば、位置取得部183は、近接撮像画像内の位置をユーザにより指定されたかを判定する。上記位置が指定されていれば、処理はステップS403へ進む。そうでなければ、処理はステップS401を繰り返す。
ステップS403で、位置取得部183は、ユーザにより指定される上記撮像画像内の位置を取得する。
ステップS405で、オブジェクト選択部185は、実空間に対応する3次元仮想空間のデータを記憶部170から取得する。
ステップS407で、取得された上記撮像画像内の上記位置に基づいて、上記3次元仮想空間に配置されたオブジェクトを選択する。
ステップS409で、カメラライン制御部191は、取得された上記位置またはその位置に対応するオブジェクトを撮像範囲に含むカメラ11の情報を取得する。
ステップS411で、カメラライン制御部191は、取得された上記位置またはその位置に対応するオブジェクトを撮像範囲に含むカメラ11の情報から、当該カメラ11に対応するカメララインを構成するパラメータを演算により求める。
ステップS413で、カメラライン選別部193は、カメララインが近傍に複数存在しているか否かを判定する。カメララインが近傍に複数存在していれば、処理はステップS415へ進む。そうでなければ、処理はステップS417へ進む。
ステップS415で、カメラライン選別部193は、前述したカメラライン評価条件にしたがって近傍に存在する複数のカメラライン間の比較を行い、最も評価の高かったものを最適なカメララインとしてひとつ選別する。
ステップS417で、カメラライン制御部191は、取得された上記位置またはその位置に対応するオブジェクトに対応するカメララインを、表示画面80上に表示させる。
ステップS419で、カメラライン制御部191は、カメララインの内のひとつまたはそのカメラライン上の位置がユーザにより指定されたかを判定する。上記カメララインまたは位置が指定されていれば、処理はステップS423へ進む。そうでなければ、処理はステップS401を繰り返す。
ステップS421で、カメラライン制御部191は、指定されたカメララインに対応するカメラの撮像画像を取得し、指定されたズーム率で、現在のカメラの撮像画像と表示切り換えを行う形で表示画面80上に表示させ、処理は終了する。なお、カメラ切り換え後の表示画面上に、対応するカメララインを自動的に再演算し再描画しても構わない。その場合はS409から処理を再開すればよい。
以上のように、本実施形態に係る情報処理が実行される。さらに、当該情報処理の開始前に行われる起動処理の一例を、図23を参照して説明する。
図23は、本実施形態に係る起動処理の概略的な流れの一例を示すフローチャートである。
ステップS501で、ソフトフォン851の起動処理が実行される。これにより、ソフトフォン851が起動する。
ステップS503で、ソフトフォン851に関する登録処理が実行される。例えば、ソフトフォン851の登録処理の1つとして、PBX40での登録(例えば、SIP REGISTRATION)が行われる。
ステップS505で、超臨場感クライアントの起動処理が実行される。例えば、超臨場感クライアントにおいて利用されるカメラ11、マイクロフォン13、センサ15、メディア配信サーバ17、情報管理サーバ200等が特定される。
ステップS507で、超臨場感クライアントの俯瞰モード処理が実行される。そして、一連の起動処理は終了する。
図31は、本実施形態に係る学習および推薦処理の概略的な流れの一例を示すフローチャートである。
ステップS601で、端末装置100の位置取得部183は、実空間の撮像画像の表示画面において当該撮像画像内の位置がユーザにより指定されたかを判定する。上記位置が指定されていれば、処理はステップS603へ進む。そうでなければ、処理はステップS601を繰り返す。
ステップS603で、端末装置100の制御部180は、取得された前記位置に対応するカメララインを演算により求め、表示画面80上に表示させる。
ステップS605で、情報管理サーバ200の視点選好学習部231は、記憶部170に記憶された、前記位置を指定したユーザの識別情報に紐づけられた、前述の視点の位置指定データが、前述の統計的な予測処理を十分な予測精度で行える量存在するか否かを判定する。前記視点の位置指定データが十分な量あれば、処理はステップS607へ進む。そうでなければ、処理はステップS609へ進む。なお、前記が十分な量とは、たとえば前述の重回帰分析の例では、データ数(サンプル数)が説明変数の数よりも2以上多い必要がある。例として説明変数が閲覧人物角度と閲覧距離の2種であれば、データ数は最低4以上ないと不足しているといえる。その他、たとえば十分な量のデータ数の閾値を20等、任意の値に設定してもよい。
ステップS607で、情報管理サーバ200の視点選好学習部231は、前記視点の位置指定データを用いて前述の選好予測カメララインまたは当該カメラライン上の視点を予測処理し、端末装置100のカメラライン推薦部195へその情報を送信する。その情報を受信したカメラライン推薦部195は、予測された選好予測カメララインの表示画面80上の表示様態を前述のように変更する処理を行う。
ステップS609で、端末装置100のカメラライン制御部191は、(選好予測カメララインを含む)カメララインの内のひとつまたはそのカメラライン上の位置がユーザにより指定されたかを判定する。前記カメララインまたは位置が指定されていれば、処理はステップS611へ進む。そうでなければ、処理はステップS601を繰り返す。
ステップS611で、情報管理サーバ200の視点選好学習部231は、ステップS609でユーザにより指定された前記カメララインまたは位置の情報を端末装置100から受信し、記憶部170に記憶させる。記憶部170には、以前のユーザ毎の視点の位置指定の履歴情報が記録されており、その最後尾に今回の前記情報を加えてもよい。また、記憶のデータ形式は、前述の図27で説明された視点の位置指定データの形式に沿ったものでもよい。
これで、一連の学習および推薦処理は終了する。
以上、添付図面を参照しながら本発明の好適な実施形態を説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
例えば、実空間に対応する3次元仮想空間として、センタオフィスの3次元仮想空間が用意される例を説明したが、本発明はこれに限定されない。例えば、複数の3次元空間が用意されてもよい。一例として、実空間に対応する3次元仮想空間は、複数のオフィスの各々について用意されてもよい。例えば、サテライトオフィス、ホームオフィス、他のセンタオフィス等についての3次元仮想空間も用意されてもよい。この場合に、各オフィスの3次元仮想空間は、各オフィスの大きさに応じた大きさの3次元仮想空間であってもよい。また、端末装置のオブジェクト選択部は、複数の3次元仮想空間のうちの所望の3次元仮想空間のデータを取得してもよい。また、オフィス以外の3次元仮想空間が用意されてもよい。
また、人物が座席に座っている場合に限り当該人物に対応するオブジェクトが選択される例を説明したが、本発明はこれに限定されない。例えば、人物が座席に座っていない場合にもオブジェクトが選択されてもよい。一例として、人物が座席に座っている場合には、当該座席に設置された通信装置の通信用IDが取得され、人物が座席に座っていない場合には、当該人物の携帯端末の通信用IDが取得されてもよい。
また、通信用IDが電話番号である例を説明したが、本発明はこれに限定されない。通信用IDは、電話番号以外のIDであってもよい。一例として、通信用IDは、電話番号以外のソフトフォン用IDであってもよい。また、別の例として、通信用IDは、電話以外の通信のためのIDであってもよい。例えば、通信用IDは、メールアドレスであってもよく、又はショートメッセージ用のIDであってもよい。この場合に、通信用IDを用いて、メールが送信され、又はショートメッセージが送信されてもよい。
また、オブジェクトが選択された場合に当該オブジェクトに対応する通信用IDが取得される例を説明したが、本発明はこれに限定されない。例えば、オブジェクトが選択された場合に当該オブジェクトに対応するいずれかの識別情報が取得されてもよい。一例として、オブジェクトが選択された場合にオブジェクトに対応する人物のいずれかの識別情報が取得されてもよい。そして、例えば、この識別情報から、通信用IDが取得されてもよい。
また、実空間に対応する3次元仮想空間に配置されるオブジェクト(オブジェクト選択部により選択されるオブジェクト)が人物に対応し且つ円柱のオブジェクトである例を説明したが、本発明はこれに限定されない。例えば、オブジェクトは、円柱のオブジェクトではなく、別の形状のオブジェクトであってもよい。また、例えば、オブジェクトは、人物以外のものに対応してもよい。一例として、オブジェクトは、実空間の領域に対応してもよい。具体的には、例えば、オブジェクトは、座席に対応し、当該座席の位置に対応する3次元仮想位置に配置されてもよい。そして、当該座席に設置された通信装置の通信用IDと上記オブジェクトとが対応し、当該オブジェクトが選択されると、当該通信用IDが取得されてもよい。また、オブジェクトは、座席よりも広い領域に対応し、当該領域の範囲に対応する3次元仮想範囲に渡って存在してもよい。そして、当該領域内に設置された通信装置の通信用IDと上記オブジェクトとが対応し、当該オブジェクトが選択されると、当該通信用IDが取得されてもよい。
また、表示画面において撮像画像の位置がユーザによるタッチで指定される例を説明したが、本発明はこれに限定されない。例えば、撮像画像の位置は、タッチパネル以外の入力手段を用いてユーザにより指定されてもよい。例えば、撮像画像の位置は、マウスによるクリックで指定されてもよく、ボタン、キーボード等の別の入力手段を用いて指定されてもよい。
また、カメラにより生成される撮像画像、マイクロフォンにより生成される音声データ、及び、センサによる判定結果が、それぞれ、カメラ、マイクロフォン及びセンサにより、端末装置に直接提供される例を説明したが、本発明はこれに限定されない。例えば、別の装置によりこれらのデータが提供されてもよい。一例として、いずれかのサーバ(例えば、メディア配信サーバ)が、これらのデータを取得し、これらのデータを端末装置に提供してもよい。
また、位置取得部、オブジェクト選択部及びID取得部等の機能が端末装置により備えられる例を説明したが、本発明はこれに限定されない。例えば、これらの機能は、端末装置以外の装置により備えられてもよい。一例として、これらの機能はいずれかのサーバにより備えられてもよい。
また、実空間の撮像画像の表示画面が端末装置により表示される例を説明したが、本発明はこれに限定されない。例えば、当該表示画面は別の装置により表示されてもよい。一例として、上記表示画面はサテライトオフィスに設置されたディスプレイにより表示されてもよい。そして、ユーザが、当該ディスプレイにおいて、表示画像に含まれる撮像画像の位置を指定してもよい。
また、本明細書の情報処理における処理ステップは、必ずしもフローチャートに記載された順序に沿って時系列に実行されなくてよい。例えば、情報処理における処理ステップは、フローチャートとして記載した順序と異なる順序で実行されても、並列的に実行されてもよい。
また、情報処理装置(例えば、端末装置)に内蔵されるCPU、ROM及びRAM等のハードウェアに、上記情報処理装置の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させた記憶媒体も提供される。
<<5.変形例>>
<5−1.変形例1:カメラライン選別処理実施の通知機能>
変形例1として、カメラライン選別部193は、複数のカメラライン候補から最適なひとつのカメララインを選別し、当該最適なひとつのカメララインだけを表示する場合に、当該最適なひとつのカメララインの周囲に前記複数のカメラライン候補の総数を表示する機能を有していてもよい。図24に、図18に対して当変形例1の機能を適用した表示の一例を示す。例えば、カメラライン選別部193は、3つのカメララインが近傍に存在すると判定され、最適なひとつのカメララインへの選別処理がなされた場合、図24に示すように、当該最適なひとつのカメララインの表示画面80への表示に併せて、「3」という数字を表示画面80上の当該最適なひとつのカメララインの付近に表示させてもよい。
この機能により、ユーザは表示画面80上に表示されたカメララインが選別処理がなされたカメララインであるか否かを感覚的に知ることができる(逆に、当通知機能がない場合は、ユーザは各カメララインに選別処理がなされたのか否かを知ることができない)。さらに、前記複数のカメラライン候補の総数の表示部分をタッチすると、前記選別処理が解除され、前記複数のカメラライン候補がすべて表示されるようにモード切り替えができるようにしてもよい。
<5−2.変形例2:カメラライン評価条件における性能情報の取得管理機能>
変形例2として、カメラライン選別部193は、前述したカメラライン評価条件がカメラ11の「性能」である場合に、当該性能を評価し、評価の結果得られた性能情報を管理する機能を有していてもよい。例えば、カメラライン選別部193は、本実施形態に係るシステムに含まれるすべてのカメラ11に短時間の試撮影を行わせてその画像を取得し、得られた各画像のデータを自動解析して、各カメラ11の性能情報を推定してもよい。あるいは、カメラライン選別部193は、画像解析処理まで行わなくとも、各カメラ11の撮影画像に埋め込まれたExif(Exchangeable image file format)のデータから性能に関する情報を取得してもよい。
また、カメラライン選別部193は、Webページの自動巡回と情報収集を行うクローラプログラムの機能を有しており、カメラのスペック等、各カメラ11の性能に関する情報をWebから収集する機能を有していてもよい。さらに、上記のように取得された性能情報のデータを情報管理サーバ200と連携して記憶・管理してもよい。この機能により、カメラライン評価条件がカメラ11の性能である場合に、ユーザが各カメラ11の性能情報を本実施形態に係るシステムへ手入力し登録する作業負荷が軽減される。
<5−3.変形例3:カメララインへの画像品質関連情報の付与表示機能>
変形例3として、カメラライン制御部191は、各カメラ11の撮像画像の品質に応じて、対応するカメララインの表示に変更を加える機能を有していてもよい。例えば、図15において、撮像画像81内のカメラライン87C、カメラライン87D、カメラライン87Eにそれぞれ対応するカメラ11Cの撮影画素数が320×240ピクセル、カメラ11Dの撮影画素数が1920×1200ピクセル、カメラ11Eの撮影画素数が640×480ピクセルであった場合に、撮影画像の品質の高低比較は、カメラ11D>カメラ11E>カメラ11Cとなる。
しかし、カメラ切り換え処理が行われる前には、そのような画像品質の差異をユーザは予測できない。そこで、図25に示すように、撮影画像の品質の高低をカメララインの表示形態に対応させて描画することで、ユーザはカメラ切り換え処理前のカメララインを選択する段階で、切り換え先のカメラから得られる撮影画像の品質を直感的に把握することができ、より高い品質の撮影画像を得られるカメラを選択して切り換え操作を行うことができるようになる。なお、図25に示した例では、カメララインの太さで撮影画像品質の高低を表現したが、例えば、カメララインの色や表示透過度等で撮影画像品質の高低を表現しても構わない。
<5−4.変形例4:自由視点映像の映像補間視点における本発明技術適用>
本実施形態における切り換え対象のカメラとしては、主にハードウェアの実体を有する撮像装置を想定しているが、変形例4として、本実施形態は、自由視点映像技術において生成される任意の映像補間視点に対応する仮想的な撮像視点位置もカメラ11のひとつとみなしても構わない。これにより、視点切り換えを離散的ではなく連続的に行えるような自由視点映像技術を有する遠隔映像伝送アプリケーションシステムに対しても、本実施形態を適用し得る。
なお、完全な自由視点映像技術においては前記カメララインも任意に生成され得るが、その場合にも、本実施形態のカメラライン選別部193による前述の選別処理が有効にされてよい。例えば、当該選別処理を所定の空間範囲ごとに適用し、当該空間範囲に最適なカメララインが求められることで、任意のカメララインが質の高い視点候補に対応するカメララインに絞り込まれ、視点選択操作の可能性が無限にあるケースよりも操作性の高い視点選択入力方法を実現できる可能性がある。
<5−5.変形例5:各構成の位置>
上記では、端末装置100および情報管理サーバ200それぞれが有する機能ブロックの例を具体的に説明した。しかし、上記した例は、端末装置100および情報管理サーバ200それぞれが有する機能ブロックの一例に過ぎない。例えば、上記において、端末装置100が有するとして説明した機能ブロック(例えば、カメラライン推薦部195など)を、端末装置100の代わりに、情報管理サーバ200が有してもよいし、上記において、情報管理サーバ200が有するとして説明した機能ブロック(例えば、視点選好学習部231など)を、情報管理サーバ200の代わりに、端末装置100が有してもよい。
11 カメラ
13 マイクロフォン
15 センサ
17 メディア配信サーバ
19、23 LAN(Local Area Network)
21 ディスプレイ
30 外部ネットワーク
40 PBX(Private Branch eXchange)
60 表示画面(俯瞰モード)
61 俯瞰撮像画像
63、73、83 ボタン画像
70 表示画面(近接モード)
71 近接撮像画像
80 表示画面(会話モード)
81 相手側撮像画像
85 自分側撮像画像
90 3次元仮想空間
91 オブジェクト
93 仮想面
100 端末装置
180 制御部
181 実空間情報提供部
183 位置取得部
185 オブジェクト選択部
187 ID取得部
189 電話部
191 カメラライン制御部(ライン制御部)
193 カメラライン選別部(ライン選別部)
195 カメラライン推薦部
200 情報管理サーバ
210 通信部
220 記憶部
230 制御部
231 視点選好学習部

Claims (18)

  1. ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定された場合、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件を算出し、前記閲覧条件と前記視点位置の指定回数との関係を算出する学習部を備える、
    情報処理装置。
  2. 前記学習部は、前記視点位置の指定回数が最大となる前記閲覧条件を算出する、
    請求項1に記載の情報処理装置。
  3. 前記学習部は、前記3次元選択位置と前記3次元設置位置とに基づいて、少なくとも3次元仮想空間における前記人物と前記ユーザとの距離を前記閲覧条件として算出する、
    請求項1に記載の情報処理装置。
  4. 前記学習部は、前記距離と前記視点位置の指定回数との関係式を算出し、前記関係式に基づいて、前記視点位置の指定回数が最大となる前記距離を算出する、
    請求項3に記載の情報処理装置。
  5. 前記学習部は、前記3次元選択位置と前記3次元設置位置と前記人物の身体方向の情報とに基づいて、少なくとも3次元仮想空間における前記人物に対する前記ユーザの視点位置の角度を前記閲覧条件として算出する、
    請求項1に記載の情報処理装置。
  6. 前記学習部は、前記人物に紐づけられた前記3次仮想空間に対応する実空間における机の設置方向の情報に基づいて前記人物の身体方向を取得する、
    請求項5に記載の情報処理装置。
  7. 前記学習部は、前記撮像装置による撮像画像に対する前記人物の顔検出処理または人体3次元モデル作成処理に基づいて前記人物の身体方向を取得する、
    請求項5に記載の情報処理装置。
  8. 前記学習部は、前記人物の身体に備え付けられたセンサ装置によって検出されたセンサデータに基づいて前記人物の身体方向を取得する、
    請求項5に記載の情報処理装置。
  9. 前記学習部は、前記角度と前記視点位置の指定回数との関係式を算出し、前記関係式に基づいて、前記視点位置の指定回数が最大となる前記角度を算出する、
    請求項5に記載の情報処理装置。
  10. 前記学習部は、前記3次元選択位置と前記3次元設置位置と前記人物の身体方向の情報とに基づいて、3次元仮想空間における前記人物と前記ユーザとの距離および前記人物に対する前記ユーザの視点位置の角度を前記閲覧条件として算出し、前記距離および前記角度と前記視点位置の指定回数とを変数として含む回帰式を算出し、前記回帰式に基づいて、前記視点位置の指定回数が最大となる前記距離および前記角度を算出する、
    請求項1に記載の情報処理装置。
  11. ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定された場合、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件を算出し、前記閲覧条件と前記視点位置の指定回数との関係を算出することを含む、
    情報処理方法。
  12. コンピュータを、
    ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定された場合、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件を算出し、前記閲覧条件と前記視点位置の指定回数との関係を算出する学習部を備える、
    情報処理装置として機能させるためのプログラム。
  13. ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定され、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件が算出され、前記閲覧条件と前記視点位置の指定回数との関係が算出された場合、前記関係に応じた表示を制御する表示制御部を備える、
    表示制御装置。
  14. 前記表示制御部は、前記視点位置の指定回数が最大となる前記閲覧条件に応じた3次元ラインを選択し、選択した3次元ラインに対応する2次元ラインと他の3次元ラインに対応する2次元ラインとが区別可能に視認されるように、前記選択した3次元ラインに対応する2次元ラインと前記他の3次元ラインに対応する2次元ラインとのうち少なくとも一方の表示態様を変更する、
    請求項13に記載の表示制御装置。
  15. 前記表示制御部は、前記視点位置の指定回数が最大となる前記閲覧条件に応じた3次元ラインにおける視点位置を算出し、算出した前記視点位置に対応する撮像画像が表示されるように制御する、
    請求項13に記載の表示制御装置。
  16. ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定され、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件が算出され、前記閲覧条件と前記視点位置の指定回数との関係が算出された場合、前記関係に応じた表示を制御すること、
    を含む、表示制御方法。
  17. コンピュータを、
    ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定され、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件が算出され、前記閲覧条件と前記視点位置の指定回数との関係が算出された場合、前記関係に応じた表示を制御する表示制御部を備える、
    表示制御装置として機能させるためのプログラム。
  18. ユーザの指定に基づく選択位置に対応する3次元仮想空間における3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインが指定され、前記3次元ラインに対応する撮像装置が前記ユーザの視点位置として指定された場合、前記3次元選択位置と前記3次元設置位置とに基づいて、前記選択位置に存在するオブジェクトに対応する人物に対する前記ユーザの閲覧条件を算出し、前記閲覧条件と前記視点位置の指定回数との関係を算出する学習部と、
    前記関係に応じた表示を制御する表示制御部と、
    を有する、情報処理システム。
JP2017187960A 2017-09-28 2017-09-28 情報処理装置、情報処理方法、プログラム、表示制御装置、表示制御方法、プログラムおよび情報処理システム Active JP6881193B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017187960A JP6881193B2 (ja) 2017-09-28 2017-09-28 情報処理装置、情報処理方法、プログラム、表示制御装置、表示制御方法、プログラムおよび情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017187960A JP6881193B2 (ja) 2017-09-28 2017-09-28 情報処理装置、情報処理方法、プログラム、表示制御装置、表示制御方法、プログラムおよび情報処理システム

Publications (2)

Publication Number Publication Date
JP2019061629A JP2019061629A (ja) 2019-04-18
JP6881193B2 true JP6881193B2 (ja) 2021-06-02

Family

ID=66176637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017187960A Active JP6881193B2 (ja) 2017-09-28 2017-09-28 情報処理装置、情報処理方法、プログラム、表示制御装置、表示制御方法、プログラムおよび情報処理システム

Country Status (1)

Country Link
JP (1) JP6881193B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111367405A (zh) * 2020-02-17 2020-07-03 深圳岱仕科技有限公司 头戴显示设备的调整方法、装置、计算机设备及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4326406B2 (ja) * 2004-06-15 2009-09-09 シャープ株式会社 コンテンツ視聴装置、テレビジョン装置、コンテンツ視聴方法、プログラム、及び記録媒体
JP2006310936A (ja) * 2005-04-26 2006-11-09 Sharp Corp 任意視点映像生成システム
JP5176572B2 (ja) * 2008-02-05 2013-04-03 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP4547040B1 (ja) * 2009-10-27 2010-09-22 パナソニック株式会社 表示画像切替装置及び表示画像切替方法
JP5526860B2 (ja) * 2010-02-24 2014-06-18 沖電気工業株式会社 空間情報可視化システム
JP6070783B2 (ja) * 2015-07-13 2017-02-01 沖電気工業株式会社 情報処理装置、プログラム及び情報処理方法
JP2017028688A (ja) * 2015-07-16 2017-02-02 キヤノン株式会社 画像管理装置、画像管理方法及びプログラム

Also Published As

Publication number Publication date
JP2019061629A (ja) 2019-04-18

Similar Documents

Publication Publication Date Title
JP6070783B2 (ja) 情報処理装置、プログラム及び情報処理方法
JP4645090B2 (ja) 共用インタラクティブ環境で情報を交換するための方法、システム及びプログラム
US9639988B2 (en) Information processing apparatus and computer program product for processing a virtual object
CN110869900A (zh) 信息处理装置、信息处理方法及程序
JP6729193B2 (ja) 情報処理サーバ、情報処理システム、端末装置、及びプログラム
JP6618644B2 (ja) 制御装置及び制御方法、プログラム
TW201145024A (en) Communication control device, communication control method, and program
CN104272726A (zh) 显示影像形成装置及显示影像形成方法
JP6149474B2 (ja) 情報処理装置及びプログラム
JP2015225400A (ja) 通信システム、転送制御装置、通信方法およびプログラム
JP2012156793A (ja) 情報端末、データ管理方法、関連付け定義データ、およびプログラム
CN114637436A (zh) 信息分享方法、装置、计算机可读存储介质以及终端
JP6881193B2 (ja) 情報処理装置、情報処理方法、プログラム、表示制御装置、表示制御方法、プログラムおよび情報処理システム
CN104378576B (zh) 一种信息处理方法及电子设备
JP6102961B2 (ja) 情報処理装置、プログラム及び情報処理方法
JP5692204B2 (ja) 情報処理装置、プログラム及び情報処理方法
JP6575561B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6304305B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6540732B2 (ja) 情報処理装置、情報処理方法、プログラム、及び、情報処理システム
KR20130127704A (ko) 영상 통화 시스템에서의 영상 통화 중 드로잉 협업 방법
KR102082433B1 (ko) 프로젝터-카메라 기반의 로봇형 디바이스와 헤드 마운트 디스플레이를 사용하는 원격 협업 시스템 및 이를 이용한 원격 인터랙션 방법
KR101369611B1 (ko) 영상 통화 시스템에서의 뷰 포인트 원격 제어 방법
JP2018074474A (ja) 端末装置、プログラム、カメラ制御方法
JP6234223B2 (ja) 情報処理装置、情報処理装置の制御方法およびコンピュータプログラム
JP6316003B2 (ja) 情報処理装置、その制御方法およびコンピュータプログラム

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R150 Certificate of patent or registration of utility model

Ref document number: 6881193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150