JP6070783B2 - 情報処理装置、プログラム及び情報処理方法 - Google Patents

情報処理装置、プログラム及び情報処理方法 Download PDF

Info

Publication number
JP6070783B2
JP6070783B2 JP2015139338A JP2015139338A JP6070783B2 JP 6070783 B2 JP6070783 B2 JP 6070783B2 JP 2015139338 A JP2015139338 A JP 2015139338A JP 2015139338 A JP2015139338 A JP 2015139338A JP 6070783 B2 JP6070783 B2 JP 6070783B2
Authority
JP
Japan
Prior art keywords
dimensional
camera
line
captured image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015139338A
Other languages
English (en)
Other versions
JP2017022587A (ja
Inventor
伸一 深澤
伸一 深澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2015139338A priority Critical patent/JP6070783B2/ja
Priority to US15/158,674 priority patent/US9851892B2/en
Publication of JP2017022587A publication Critical patent/JP2017022587A/ja
Application granted granted Critical
Publication of JP6070783B2 publication Critical patent/JP6070783B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1822Conducting the conference, e.g. admission, detection, selection or grouping of participants, correlating users to one or more conference sessions, prioritising transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/043Real-time or near real-time messaging, e.g. instant messaging [IM] using or handling presence information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/567Multimedia conference systems

Description

本発明は、情報処理装置、プログラム及び情報処理方法に関する。
近年、従来のようにハードウェアで実装される電話機に代わって、アプリケーションソフトウェアで実装されるソフトフォンが普及してきている。ソフトフォンはソフトウェアで実装されるため、ソフトフォンへの機能追加、ソフトフォンと他のアプリケーションソフトウェアとの連携等を比較的容易に実現することができる。そのため、ソフトフォンに関する様々な応用技術が提案されている。
例えば、特許文献1には、フロアを俯瞰的に撮影する複数のカメラを備えたシステムと、そのカメラから得られた撮像画像の表示画面において当該撮像画像に写っている人物をタッチすると、顔認識により当該人物を特定し、当該人物の電話番号を取得し、当該人物への電話発信を行う技術が、開示されている。
特開2007−208863号公報
Gaver et al., One is not enough: multiple views in a media space, inProceedings of INTERCHI'93, pp.335-341.
しかし、上記特許文献1では、前記システムに複数のカメラを切り換える機能が備えられる旨は記載されているものの、そのカメラ切り換え操作のためのユーザインタフェースが具体的にどのような仕様になっているかということに関する記述が全くなされていない。
ここで、遠隔コミュニケーション支援システムにおけるカメラ切り換え機能とその操作の重要性について説明する。
遠隔地の被呼対象者に対して電話発呼を行う直前に、その遠隔地の映像が見えることで、発呼するユーザは前記被呼対象者のプレゼンス情報を知ることができる。プレゼンス情報は相手の状況を伝達するもので、その情報は量・質ともに高い方が好ましい。プレゼンス情報の質が高まると、被呼対象者が在席しているか否かのような大雑把な状況把握だけでなく、今は忙しそうか、もうすぐ離席しようとしているか等の、被呼対象者に関するさらに高度な状況把握が可能になる。その結果、発呼するユーザにとっては被呼対象者への話しかけやすさが向上し、一方、被呼対象者にとっては話しかけられたくない状況時に被呼される不都合の機会が減少する、という両者にとって有用な効果が得られる。
そして、被呼対象者が在席しているか否かではなく、上記のような高度な状況把握、すなわち「様子見」行動を遠隔環境で効果的に行うためには、相手の身体状態を多角的に観察できるシステム機能が必要となる。その機能を実現するために、前記遠隔コミュニケーション支援システムは複数のカメラを備えることが望ましいが、それだけでは十分ではない。
なぜなら、遠隔地に設置された複数のカメラの切り換え操作において、その操作ユーザが、いま自分は遠隔地のどこをどのカメラで見ているのか、見たい対象・位置を見るためには次にどのカメラを選択すればよいのかといった、複数カメラ同士の相互位置関係がわからず混乱してしまう問題(Spatial Discontinuities)の存在が従来指摘されているからである(非特許文献1)。
そこで、本発明は、前記の複数カメラ同士の相互位置関係がわからなくなる問題を解決しつつ、直感的かつ効率的な操作を行えることによって、発呼するユーザが遠隔地の被呼対象者の状況を容易かつ高度に把握することを可能にするユーザインタフェースを提供することを目的とする。
本発明によれば、実空間を撮像して得られた撮像画像においてユーザの指定に基づく選択位置を取得する位置取得部と、3次元仮想空間において前記選択位置に対応する3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインを、前記撮像画像の表示画面の対応する位置に射影した2次元ラインを表示部に表示させるライン制御部と、を備える、情報処理装置が提供される。
前記ライン制御部は、前記3次元設置位置と前記3次元選択位置とに応じた前記3次元ラインを前記表示画面の対応する位置に射影することによって前記2次元ラインを算出してよい。
前記情報処理装置は、前記2次元ラインが指定された場合、前記2次元ラインに対応する撮像装置による撮像画像を前記表示部に表示させる実空間情報提供部を備えてよい。
前記ライン制御部は、前記2次元ラインにおける位置が指定位置としてさらに指定された場合、前記2次元ラインの両端位置と前記指定位置との相対的な位置関係に基づいて、ズーム率を算出し、前記実空間情報提供部は、前記ズーム率に基づいて前記撮像画像を生成してよい。
前記ライン制御部は、前記2次元ラインに対して前記指定位置に応じた所定の変形処理を施し、前記変形処理が施された後の2次元ラインを前記表示部に表示させてよい。
前記情報処理装置は、前記3次元選択位置を前記撮像範囲に含む複数の撮像装置が存在する場合、前記撮像装置ごとの3次元ラインの評価値に基づいて3次元ラインを選別し、選別した前記3次元ラインを前記表示画面の対応する位置に射影した2次元ラインを前記表示部に表示させるライン選別部を備えてよい。
前記ライン選別部は、前記3次元ラインごとの評価値を、前記3次元選択位置と前記3次元設置位置との間の距離に基づいて算出してよい。
前記ライン選別部は、前記3次元ラインごとの評価値を、前記3次元ラインと前記3次元仮想空間における水平面とのなす角度に基づいて算出してよい。
前記ライン選別部は、前記3次元ラインごとの評価値を、前記3次元ラインに対応する前記撮像装置の撮像品質に基づいて算出してよい。
前記ライン選別部は、選別した前記3次元ラインを前記表示画面の対応する位置に射影した2次元ラインを前記表示部に表示させるとともに、前記複数の3次元ラインの総数を前記表示部に表示させてよい。
前記ライン選別部は、前記撮像装置の撮像品質を、前記撮像装置による撮像画像の解析により、または、前記撮像装置による撮像画像に埋め込まれた情報から取得してよい。
前記ライン制御部は、前記撮像装置の撮像品質に応じた表示態様によって前記撮像装置に対応する前記3次元ラインを前記表示部に表示させてよい。
前記撮像装置の前記3次元設置位置は、複数の撮像装置それぞれの撮像画像から補間的に生成される補間画像を撮像可能な位置を含んでよい。
前記ライン制御部は、前記3次元ラインのうち前記撮像画像の内部に射影されない部分が存在する場合、当該部分を前記表示画面の対応する位置に射影した結果を前記表示部に表示させなくてよい。
また、本発明によれば、コンピュータを、実空間を撮像して得られた撮像画像においてユーザの指定に基づく選択位置を取得する位置取得部と、3次元仮想空間において前記選択位置に対応する3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインを、前記撮像画像の表示画面の対応する位置に射影した2次元ラインを表示部に表示させるライン制御部と、を備える情報処理装置として機能させるためのプログラムが提供される。
また、本発明によれば、実空間を撮像して得られた撮像画像においてユーザの指定に基づく選択位置を取得することと、3次元仮想空間において前記選択位置に対応する3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインを、前記撮像画像の表示画面の対応する位置に射影した2次元ラインを表示部に表示させることと、を含む、情報処理方法が提供される。
以上説明したように本発明によれば、遠隔コミュニケーション支援システムにおける新たなユーザインタフェースが開発可能になる。それにより、ユーザが遠隔地の複数カメラ同士の相互位置関係がわからず認知的に混乱する問題を解決しつつ、直感的かつ効率的な操作を行えることによって、発呼するユーザが遠隔地の被呼対象者の状況を容易かつ高度に把握することが可能になり、より優れた遠隔コミュニケーション環境が実現される。
一実施形態に係る情報処理システムの概略的な構成の一例を示す説明図である。 一実施形態に係る端末装置のハードウェア構成の一例を示すブロック図である。 一実施形態に係る端末装置の機能構成の一例を示すブロック図である。 俯瞰モードで表示される表示画面の一例を説明するための説明図である。 近接モードで表示される表示画面の一例を説明するための説明図である。 ユーザにより指定される近接撮像画像内の位置の第1の例を説明するための説明図である。 ユーザにより指定される近接撮像画像内の位置の第2の例を説明するための説明図である。 センタオフィスに対応する3次元仮想空間の第1の例を説明するための説明図である。 図8に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。 センタオフィスに対応する3次元仮想空間の第2の例を説明するための説明図である。 図10に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。 会話モードで表示される表示画面の一例を説明するための説明図である。 表示モードの遷移の一例を説明するための遷移図である。 センタオフィスに対応する3次元仮想空間内におけるカメララインの例を説明するための説明図である。 端末装置の表示画面に表示されるカメララインの一例を説明するための説明図である。 カメラライン上の位置を指定するタッチ入力とそれに対するフィードバック表示のいくつかの例を説明するための説明図である。 図14に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。 カメララインが近傍に複数存在する場合の端末装置100の表示画面の一例を説明するための説明図である。 一実施形態に係る端末装置のソフトウェア構成の一例を示すブロック図である。 一実施形態に係る情報管理サーバのハードウェア構成の一例を示すブロック図である。 一実施形態に係る情報管理サーバの機能構成の一例を示すブロック図である。 一実施形態に係る情報処理の概略的な流れの一例を示すフローチャートである。 一実施形態に係る起動処理の概略的な流れの一例を示すフローチャートである。 図18に対して変形例1の機能を適用した表示の一例を示す図である。 撮影画像の品質の高低をカメララインの表示形態に対応させて描画した例を示す図である。
以下に添付の図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
以降、<1.情報処理システムの概略的な構成>、<2.端末装置の構成>、<3.情報管理サーバの構成>、<4.処理の流れ>という順序で本発明の実施形態を説明する。
<<1.情報処理システムの概略的な構成>>
まず、図1を参照して、本発明の実施形態に係る情報処理システムの概略的な構成を説明する。図1は、本実施形態に係る情報処理システムの概略的な構成の一例を示す説明図である。図1を参照すると、情報処理システムは、例えば、複数の拠点にわたって存在する。この例では、情報処理システムは、センタオフィス10とサテライトオフィス20(又はホームオフィスと20)にわたって存在する。センタオフィス10は、比較的大規模なオフィスであり、サテライトオフィス20(又はホームオフィスと20)は、比較的小規模なオフィスである。
情報処理システムは、センタオフィス10において、カメラ11、マイクロフォン13、センサ15、メディア配信サーバ17、情報管理サーバ200、及びLAN(Local Area Network)19を含む。また、情報処理システムは、サテライトオフィス20(又はホームオフィスと20)において、端末装置100、ディスプレイ21、及びLAN23を含む。また、情報処理システムは、さらにPBX(Private Branch eXchange)40を含む。
(カメラ11)
カメラ11は、当該カメラ11が向いている方向(即ち、撮像方向)の領域を撮像する。センタオフィス10には、複数のカメラ11が設置される。そして、設置された各カメラ11は、それぞれの設置位置からセンタオフィスの一部又は全体を撮像する。このように、情報処理システムでは、様々な位置からセンタオフィスが撮像される。カメラ11を通じて生成される撮像画像は、静止画像であってもよく、又は動画像(即ち映像)であってもよい。
また、カメラ11は、例えば、自動で向きを変えることができる。さらに、カメラ11は、例えば、ズーム機能を有する。当該ズーム機能は、光学ズーム機能であってもよく、又はデジタルズーム機能であってもよい。
また、カメラ11は、位置を変えることが可能であってもよい。一例として、カメラ11は、ドリーにより可動であってもよい。即ち、カメラ11は、レールに沿って可動であってもよい。この場合に、レールに沿って動くためのモータの制御により、カメラ11が前後に動いてもよい。これにより、1台のカメラ11であっても、異なる位置から被写体が撮像された撮像画像を生成することが可能になる。
また、カメラ11が位置を変えることが可能である場合に、上記ズーム機能は、カメラ11の位置を変えることによるズーム機能であってもよい。一例として、上記ズーム機能は、ドリーによるズーム機能であってもよい。例えば、被写体に向かってカメラ11を動かすことによりズームインを行い、カメラ11が被写体から離れる方向にカメラ11を動かすことによりズームアウトを行ってもよい。なお、ドリーによるズームは、光学ズーム又はデジタルズームのように、精緻なズームである必要はない。例えば、ズームインでは、被写体がより大きく写った撮像画像が生成されればよく、ズームアウトでは、被写体がより小さく写った撮像画像が生成されればよい。
(マイクロフォン13)
マイクロフォン13は、当該マイクロフォン13の周囲の音を集音する。センタオフィス10には、複数のマイクロフォン13が設置される。そして、設置された各マイクロフォン13は、センタオフィス内のそれぞれの設置位置の周囲の音を集音する。このように、情報処理システムでは、センタオフィス10内の様々な位置での音が集音される。
(センサ15)
センサ15は、様々な種類のセンサを含み得る。例えば、センサ15は、人物が座席にいるか否かを判定する座席センサを含む。当該座席センサは、各座席に設置され、各座席に人物が座っているか否かを判定する。座席センサは、例えば、押圧を検出可能ないずれかのセンサである。
(メディア配信サーバ17)
メディア配信サーバ17は、要求に応じて端末装置にメディア(例えば、音声、映像等)を配信する。
(情報管理サーバ200)
情報管理サーバ200は、情報処理システムにおいて用いられる様々な情報を管理する。即ち、情報管理サーバ200は、当該様々な情報を記憶し、適時に当該様々な情報を更新する。
例えば、情報管理サーバ200は、カメラ11、マイクロフォン13及びセンサ15に関するパラメータを管理する。具体的には、例えば、情報管理サーバ200は、カメラ11のパラメータとして、カメラ11の設置位置、撮像方向(例えば、カメラのレンズと垂直な方向)、ズーム率等の情報を記憶し、更新する。
また、例えば、情報管理サーバ200は、実空間に対応する3次元仮想空間のデータを管理する。当該3次元仮想空間は、例えば、センタオフィス10を模した3次元仮想空間である。また、当該3次元仮想空間には、オブジェクトが配置される。例えば、当該オブジェクトは、人物に対応する。そして、当該オブジェクトは、センタオフィス10の各座席の位置に対応する上記3次元仮想空間内の3次元仮想位置に配置される。即ち、人物が座席に座っている場合には当該人物が存在するであろう位置に対応する3次元仮想位置に、上記オブジェクトが配置される。一例として、当該オブジェクトは、円柱のオブジェクトである。3次元仮想空間については後述する。
(LAN19)
また、LAN19は、センタオフィス10内の各装置を接続するネットワークである。また、LAN19は、外部ネットワーク30を介して、センタオフィス10内の各装置とセンタオフィス10外の装置とを接続する。当該外部ネットワーク30は、例えば、インターネットを含む。
(端末装置100)
端末装置100は、ユーザにより使用される。例えば、端末装置100は、電話、メール等のコミュニケーションを行うための機能をユーザに提供する。端末装置100は、一例としてタブレット端末である。なお、端末装置100は、タブレット端末の代わりに、スマートフォン、PC(Personal Computer)、ディスプレイ付き電話機等の、表示機能及び通信機能を有する別の装置であってもよい。
(ディスプレイ21)
ディスプレイ21は、いずれかの画面を表示する。例えば、ディスプレイ21は、カメラ11を通じて生成された撮像画像を含む画面を表示する。これにより、端末装置100のユーザを含む多数の人物が、ディスプレイ21を介してセンタオフィス10の様子を見ることができる。
また、ディスプレイ21は、例えば、いずれかの音声も出力する。例えば、ディスプレイ21は、マイクロフォン13により集音される音声を出力する。これにより、端末装置100のユーザを含む多数の人物が、ディスプレイ21を介してセンタオフィス10の音を聞くことができる。
(LAN23)
また、LAN23は、サテライトオフィス20(又はホームオフィス20)内の各装置を接続するネットワークである。また、LAN23は、外部ネットワーク30を介して、サテライトオフィス20内の各装置とサテライトオフィス20外の装置とを接続する。
(PBX40)
PBX40は、外部ネットワーク30を介した装置間の通信を可能にする。PBX40は、例えば、H.323又はSIP(Session Initiation Protocol)に従って動作する。
具体的には、例えば、PBX40は、通信用の識別情報(例えば、電話番号)とIP(Internet Protocol)アドレスとを、互いに対応付けて記憶する。そして、PBX40は、要求に応じて、通信用の識別情報をIPアドレスに変換し、当該IPアドレスを要求元に提供する。
なお、PBX40は、LAN19又はLAN23に接続されてもよい。
<<2.端末装置の構成>>
続いて、図2〜図19を参照して、本実施形態に係る端末装置100の構成の一例を説明する。
<2−1.ハードウェア構成>>
まず、図2を参照して、本実施形態に係る端末装置100のハードウェア構成の一例を説明する。図2は、本実施形態に係る端末装置100のハードウェア構成の一例を示すブロック図である。図2を参照すると、端末装置100は、CPU(Central Processing Unit)801、ROM(Read Only Memory)803、RAM(Random Access Memory)805、バス807、記憶装置809、通信インターフェース811、カメラ813、マイクロフォン815、スピーカ817及びタッチパネル820を備える。
CPU801は、端末装置100における様々な処理を実行する。また、ROM803は、端末装置100における処理をCPU801に実行させるためのプログラム及びデータを記憶する。また、RAM805は、CPU801の処理の実行時に、プログラム及びデータを一時的に記憶する。
バス807は、CPU801、ROM803及びRAMを相互に接続する。バス807には、さらに、記憶装置809、通信インターフェース811、カメラ813、マイクロフォン815、スピーカ817及びタッチパネル820が接続される。バス807は、例えば、複数の種類のバスを含む。一例として、バス807は、CPU801、ROM803及びRAM805を接続する高速バスと、当該高速バスよりも低速の1つ以上の別のバスを含む。
記憶装置809は、端末装置100内で一時的又は恒久的に保存すべきデータを記憶する。記憶装置809は、例えば、ハードディスク(Hard Disk)等の磁気記憶装置であってもよく、又は、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ(flash memory)、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)及びPRAM(Phase change Random Access Memory)等の不揮発性メモリ(nonvolatile memory)であってもよい。
通信インターフェース811は、端末装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)外部装置と通信する。通信インターフェース811は、無線通信用のインターフェースであってもよく、この場合に、例えば、通信アンテナ、RF回路及びその他の通信処理用の回路を含んでもよい。また、通信インターフェース811は、有線通信用のインターフェースであってもよく、この場合に、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。
カメラ813は、被写体を撮像する。カメラ813は、例えば、光学系、撮像素子及び画像処理回路を含む。
マイクロフォン815は、周囲の音を集音する。マイクロフォン815は、周囲の音を電気信号へ変換し、当該電気信号をデジタルデータに変換する。
スピーカ817は、音声を出力する。スピーカ817は、デジタルデータを電気信号に変換し、当該電気信号を音声に変換する。
タッチパネル820は、タッチ検出面821及び表示面823を含む。
タッチ検出面821は、タッチパネル820におけるタッチ位置を検出する。より具体的には、例えば、ユーザが、タッチパネル820にタッチすると、タッチ検出面821は、当該タッチを感知し、当該タッチの位置に応じた電気信号を生成し、そして当該電気信号をタッチ位置の情報に変換する。タッチ検出面821は、例えば、静電容量方式、抵抗膜方式、光学式等の任意のタッチ検出方式に従って形成され得る。
表示面823は、端末装置100からの出力画像(即ち、表示画面)を表示する。表示面823は、例えば、液晶、有機EL(Organic Light-Emitting Diode:OLED)、CRT(Cathode Ray Tube)等を用いて実現され得る。
<2−2.機能構成>>
次に、本実施形態に係る端末装置100の機能構成の一例を説明する。図3は、本実施形態に係る端末装置100の機能構成の一例を示すブロック図である。図3を参照すると、端末装置100は、通信部110、入力部120、撮像部130、集音部140、表示部150、音声出力部160、記憶部170及び制御部180を備える。
(通信部110)
通信部110は、他の装置と通信する。例えば、通信部110は、LAN23に直接的に接続され、サテライトオフィス20内の各装置と通信する。また、通信部110は、外部ネットワーク30及びLAN19を介して、センタオフィス10内の各装置と通信する。具体的には、例えば、通信部110は、カメラ11、マイクロフォン13、センサ15、メディア配信サーバ17及び情報管理サーバ200と通信する。なお、通信部110は、例えば、通信インターフェース811により実装され得る。
(入力部120)
入力部120は、端末装置100のユーザによる入力を受け付ける。そして、入力部120は、入力結果を制御部180へ提供する。
例えば、入力部120は、表示画面においてユーザにより指定される位置を検出する。より具体的には、例えば、入力部120は、タッチ検出面821により実装され、タッチパネル820におけるタッチ位置を検出する。そして、入力部120は、検出されたタッチ位置を制御部180へ提供する。
(撮像部130)
撮像部130は、被写体を撮像する。例えば、撮像部130は、端末装置100の正面方向の領域を撮像する。この場合に、撮像部130は、端末装置100のユーザを撮像する。撮像部130は、撮像結果(即ち、撮像画像)を制御部180に提供する。なお、撮像部130は、例えば、カメラ813により実装され得る。
(集音部140)
集音部140は、端末装置100の周囲の音を集音する。例えば、集音部140は、端末装置100のユーザの声を集音する。集音部140は、集音結果(即ち、音声データ)を制御部180に提供する。なお、集音部140は、例えば、マイクロフォン815により実装され得る。
(表示部150)
表示部150は、端末装置100からの出力画像(即ち、表示画面)を表示する。表示部150は、制御部180による制御に応じて表示画面を表示する。なお、表示部150は、例えば、表示面823により実装され得る。
(音声出力部160)
音声出力部160は、端末装置100から音声を出力する。音声出力部160は、制御部180による制御に応じて音声を出力する。なお、音声出力部160は、例えば、スピーカ817により実装され得る。
(記憶部170)
記憶部170は、端末装置100の動作のためのプログラム及びデータを記憶する。なお、記憶部170は、例えば、記憶装置809により実装され得る。
例えば、記憶部170は、実空間に対応する3次元仮想空間のデータを記憶する。具体的には、例えば、情報管理サーバ200が、センタオフィス10に対応する3次元仮想空間のデータを記憶しているので、制御部180が、通信部110を介して、上記3次元仮想空間のデータを取得する。そして、記憶部170は、取得された当該3次元仮想空間のデータを記憶する。
(制御部180)
制御部180は、端末装置100の様々な機能を提供する。制御部180は、実空間情報提供部181、位置取得部183、オブジェクト選択部185、ID取得部187、電話部189、カメラライン制御部191及びカメラライン選別部193を含む。なお、制御部180は、例えば、CPU801、ROM803及びRAM805により実装され得る。
(実空間情報提供部181)
実空間情報提供部181は、実空間の情報を端末装置100のユーザに提供する。
例えば、実空間情報提供部181は、表示部150に、実空間の撮像画像の表示画面を表示させる。より具体的には、例えば、当該撮像画像は、実空間(センタオフィス10)内にあるカメラ11を通じて生成される撮像画像である。当該撮像画像は、カメラ11により生成された撮像画像であってもよく、又は、カメラ11により生成された撮像画像を加工することにより生成された撮像画像であってもよい。また、上記表示画面は、当該撮像画像を一部又は全体に含む画面である。
実空間情報提供部181は、通信部110を介して、カメラ11により生成される撮像画像を取得する。そして、実空間情報提供部181は、撮像画像を含む表示画面を生成し、表示部150に当該表示画面を表示させる。
また、例えば、上記撮像画像は、実空間内にある複数の撮像装置のうちの選択された1つの撮像装置を通じて生成された撮像画像である。より具体的には、例えば、上記撮像画像は、センタオフィス10に配置された複数のカメラ11のうちの選択された1つのカメラ11を通じて生成された撮像画像である。ユーザがカメラ11をどのように選択するかに関する具体的な手法は後述する。カメラ11を選択できるので、ユーザは所望の位置からの撮像画像を見ることができる。そして、後述するように撮像画像の位置を指定する際に、ユーザはより望ましい撮像画像で位置を指定することができる。
また、例えば、上記表示画面は、表示モードに応じた撮像画像を含む。より具体的には、例えば、上記表示画面は、第1の表示モードでは、実空間の第1の領域が撮像された第1の撮像画像を含み、第2の表示モードでは、第1の領域よりも狭い第2の領域が撮像された第2の撮像画像を含む。即ち、実空間情報提供部181は、第1の表示モードでは、上記第1の撮像画像を表示部150に表示させ、第2の表示モードでは、上記第2の撮像画像を表示部150に表示させる。
さらに具体的には、例えば、上記第1の撮像画像は、第1のズーム率に対応する撮像画像である。そして、上記第2の撮像画像は、上記第1のズーム率よりも大きい第2のズーム率に対応する撮像画像である。例えば、実空間情報提供部181は、通信部110を介して、カメラ11へのズーム(光学ズーム、デジタルズーム、又は撮像装置の位置の変更によるズーム(例えば、ドリーによるズーム))に関する要求を行うことにより、第1のズーム率に対応する撮像画像、又は第2のズーム率に対応する撮像画像を取得する。または、実空間情報提供部181は、カメラ11により生成された撮像画像に対するデジタルズームにより、第1のズーム率に対応する撮像画像、又は第2のズーム率に対応する撮像画像を生成してもよい。なお、ここでのズーム率は、1.5倍、2倍等の精緻な値である必要はなく、被写体が撮像画像に写る大きさの程度を直接的又は間接的に示すものであればよい。例えば、とりわけカメラ11の位置の変更によるズーム(例えば、ドリーによるズームイン及びズームアウト)が用いられる場合には、ズーム率は、1.5倍、2倍等の精緻な値ではなく、被写体の大きさの程度を直接的に示すもの(例えば、被写体の概ねの大きさの程度を示すパラメータ、等)、又は、被写体の大きさの程度を間接的に示すもの(例えば、レールにおけるカメラ11の位置、等)であってもよい。第1のズーム率に対応する撮像画像は、被写体がより小さく写っている撮像画像であり、第1のズーム率よりも大きい第2のズーム率に対応する撮像画像は、被写体がより大きく写っている撮像画像であればよい。
一例として、上記表示画面は、俯瞰モードでは、X倍のズーム率(例えば、X=1)での撮像でカメラ11により生成された俯瞰撮像画像を含み、近接モードでは、Y倍のズーム率(Y>X)での撮像でカメラ11により生成された近接撮像画像を含む。即ち、俯瞰撮像画像は、センタオフィス10のより広い領域が撮像された撮像画像であり、近接撮像画像は、センタオフィス10のより狭い領域が撮像された撮像画像である。以下、この点について図4及び図5を参照して具体例を説明する。
−俯瞰モードで表示される表示画面
図4は、俯瞰モードで表示される表示画面の一例を説明するための説明図である。図4を参照すると、俯瞰モードで表示される表示画面60が示されている。表示画面60は、俯瞰撮像画像61、ボタン画像63、プレゼンスアイコン65、吹き出し画像67及びマップ画像69を含む。
俯瞰撮像画像61は、例えば、X倍のズーム率での撮像でカメラ11により生成された撮像画像である。一例として、X=1である。即ち、俯瞰撮像画像61は、ズームなしの撮像でカメラ11により生成された撮像画像である。
また、例えば、ユーザが、俯瞰撮像画像61の位置を指定すると、実空間情報提供部181は、表示モードを俯瞰モードから近接モードに切り替える。より具体的には、例えば、ユーザが俯瞰撮像画像61の位置をタッチし、俯瞰撮像画像61に対応するタッチ位置が検出されると、実空間情報提供部181は、表示モードを俯瞰モードから近接モードに切り替える。
また、ボタン画像63は、別のカメラ11を選択するための画像である。例えば、ユーザが、ボタン画像63の位置を指定すると、実空間情報提供部181は、別のカメラ11により生成された俯瞰撮像画像を取得し、表示部150に当該俯瞰撮像画像を表示させる。より具体的には、例えば、ユーザがボタン画像63の位置をタッチし、ボタン画像63に対応するタッチ位置が検出されると、実空間情報提供部181は、別のカメラ11により生成された俯瞰撮像画像を取得し、表示部150に当該俯瞰撮像画像を表示させる。例えば、ボタン画像63Aの位置がユーザにより指定されると、現在のカメラ11の左側に位置するカメラ11が選択される。また、ボタン画像63Bの位置がユーザにより指定されると、現在のカメラ11の右側に位置するカメラ11が選択される。そして、実空間情報提供部181は、選択されたカメラ11により生成された俯瞰撮像画像を取得し、表示部150に、当該俯瞰撮像画像を表示させる。
また、プレゼンスアイコン65は、撮像画像61に写る人物の繁忙度を示すアイコンである。例えば、プレゼンスアイコン65は、人物の繁忙度に応じて色が変わる。一例として、プレゼンスアイコンは、赤色の場合に繁忙度が高いことを示し、黄色の場合に繁忙度が普通であることを示し、青色の倍に繁忙度が低いことを示す。後述するように、撮像画像61のうちのどこに人物が写っているはずであるかが分かるので、このようなアイコンを表示することも可能である。
例えばこのように、表示画面60は、例えば、俯瞰撮像画像61に写る人物に関連する情報(以下、「人物関連情報」と呼ぶ)を含む。そして、人物関連情報は、例えば、上記人物の状態を示す状態情報を含む。上述したように、当該状態情報は、一例としてプレゼンスアイコン65である。なお、人物関連情報は、2つ以上の時点における上記人物の状態を示す状態履歴を含んでもよい。一例として、当該状態履歴情報は、撮像画像61に写る人物の繁忙度の履歴を含んでもよい。即ち、表示画面60に、人物の繁忙度の履歴が表示されてもよい。実空間情報提供部181は、例えば、通信部110を介して、情報管理サーバ200から人物関連情報、又は人物関連情報の表示に必要な情報を取得する。
このような人物関連情報により、ユーザは、人物が置かれている状況をより的確に把握することができる。また、状態情報により、ユーザは、人物にコンタクトしてもよいかをより的確に判断することができる。また、状態履歴により、ユーザは、瞬時のユーザの状態だけではなく、ある期間でのユーザの状態を把握することができるので、ユーザは、人物にコンタクトしてもよいかをさらに的確に判断することができる。
また、吹き出し画像67は、撮像画像61に写る人物により提示される文字情報を含む画像である。吹き出し画像67も、人物関連情報の一例である。
また、マップ画像69は、センタオフィス10のマップを示す画像である。マップ画像69は、さらに、使用しているカメラ11をアイコンにより示す。なお、とりわけセンタオフィス10内に1つ又は少数のカメラ11しか設置されない場合には、マップ画像69は省略され得る。
−近接モードで表示される表示画面
図5は、近接モードで表示される表示画面の一例を説明するための説明図である。図5を参照すると、近接モードで表示される表示画面70が示されている。表示画面70は、近接撮像画像71、ボタン画像73及びマップ画像75を含む。
近接撮像画像71は、例えば、Y倍のズーム率(Y>X)での撮像でカメラ11により生成された撮像画像である。一例として、Y=1.5である。即ち、俯瞰撮像画像61は、1.5倍ズームの撮像でカメラ11により生成された撮像画像である。
また、ボタン画像73は、表示モードを近接モードから俯瞰モードに切り替えるための画像である。例えば、ユーザが、ボタン画像73の位置を指定すると、実空間情報提供部181は、表示モードを近接モードから俯瞰モードに切り替える。より具体的には、例えば、ユーザがボタン画像73の位置をタッチし、ボタン画像73に対応するタッチ位置が検出されると、実空間情報提供部181は、表示モードを近接モードから俯瞰モードに切り替える。
また、マップ画像75は、俯瞰モードにおけるマップ画像69と同様に、センタオフィス10のマップを示す画像である。マップ画像75は、さらに、使用しているカメラ11を示す。例えば、近接モードでは、ズームされたことを象徴的に示すために、マップ画像75の中の使用しているカメラのアイコンが、より前進した位置に表示される。なお、俯瞰モードにおけるマップ画像69と同様に、とりわけセンタオフィス10内に1つ又は少数のカメラ11しか設置されない場合には、マップ画像75は省略され得る。
なお、近接モードで表示される表示画面70にも、プレゼンスアイコン、吹き出し画像等の人物関連情報が含まれてもよい。
以上のように表示モードによれば、より広い領域が撮像された撮像画像が表示されることにより、ユーザは実空間の全体的な状況を見ることができ、また特定の人物を容易に見つけることができる。そして、より狭い領域が撮像された撮像画像が表示されることにより、ユーザは特定の人物の位置をより容易に指定することができる。また、表示モードを切り替えるのみなので、ユーザには容易な操作しか求められない。また、より広い領域が撮像された撮像画像とより狭い領域が撮像された撮像画像とが、ズーム率が異なる撮像画像なので、ユーザは、これらの撮像画像間の関係を直感的に容易に把握することができる。よって、ユーザは、表示モードが切り替わったとしても、特定の人物を容易に見つけ、当該特定の人物の位置を指定することができる。
−その他の実空間情報
以上のように、実空間情報提供部181は、表示部150に実空間の撮像画像の表示画面を表示させることにより、実空間の視覚的な情報を提供する。さらに、実空間情報提供部181は、実空間の聴覚的な情報も提供してもよい。即ち、実空間情報提供部181は、音声出力部160に、実空間での集音により得られた音声データの音声を出力させてもよい。
例えば、実空間情報提供部181は、選択されたカメラ11に近いマイクロフォン13を選択する。そして、実空間情報提供部181は、通信部110を介して、マイクロフォン13から、センタオフィス10での集音により得られた音声データを取得する。そして、実空間情報提供部181は、音声出力部160に、取得した音声データの音声を出力させてもよい。
(位置取得部183)
位置取得部183は、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を取得する。より具体的には、例えば、入力部120が、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を検出すると、位置取得部183は、当該位置を取得する。そして、位置取得部183は、当該撮像画像内の位置をオブジェクト選択部185に提供する。
一例として、位置取得部183は、近接撮像画像71内のいずれかの位置を取得した場合に、当該位置をオブジェクト選択部185に提供する。以下、この点について図6及び図7を参照して具体例を説明する。
図6は、ユーザにより指定される近接撮像画像内の位置の第1の例を説明するための説明図である。図6を参照すると、近接モードで表示される表示画面に含まれる近接撮像画像71、及びユーザの手3が、示されている。また、近接撮像画像71に写る人物77が示されている。そして、ユーザは、手3で人物77の位置をタッチすることにより、近接撮像画像71の人物77の位置を指定している。この場合に、入力部120は、近接撮像画像71の人物77の上記位置を検出し、位置取得部183は、当該位置を取得する。そして、入力部120は、取得した当該位置をオブジェクト選択部185に提供する。
図7は、ユーザにより指定される近接撮像画像内の位置の第2の例を説明するための説明図である。図7を参照すると、近接撮像画像71に写る人物77A及び77Bが示されている。そして、ユーザは、手3で人物77Aの位置をタッチすることにより、近接撮像画像71の人物77Aの位置を指定している。この場合に、入力部120は、近接撮像画像71の人物77Aの上記位置を検出し、位置取得部183は、当該位置を取得する。そして、入力部120は、取得した当該位置をオブジェクト選択部185に提供する。
(オブジェクト選択部185)
オブジェクト選択部185は、取得される撮像画像内の位置に基づいて、実空間に対応する3次元仮想空間に配置されたオブジェクトを選択する。例えば、位置取得部183が、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を取得すると、オブジェクト選択部185は、当該位置に基づいて、上記実空間に対応する3次元仮想空間に配置されたオブジェクトを選択する。
上記オブジェクトは、上記撮像画像内の上記位置に対応する上記3次元仮想空間内の3次元仮想位置に配置されたオブジェクトである。また、例えば、上記撮像画像は、上記第2のモード(例えば、近接モード)で表示画面に含まれる撮像画像である。
一例として、位置取得部183が、カメラ11により生成された近接撮像画像内の位置を取得すると、オブジェクト選択部185は、センタオフィス10に対応する3次元仮想空間に配置されたオブジェクトのうちの、上記位置に対応するオブジェクトを選択する。なお、オブジェクト選択部185は、例えば、センタオフィス10に対応する3次元仮想空間のデータを記憶部170から取得する。
−1つのオブジェクトが配置されている場合の例
以下、図8及び図9を参照して、3次元仮想空間に1つのオブジェクトが配置されている場合の具体例を説明する。
図8は、センタオフィス10に対応する3次元仮想空間の第1の例を説明するための説明図である。図8を参照すると、センタオフィス10に対応する3次元仮想空間90が示されている。また、当該3次元仮想空間90には、オブジェクト91が配置されている。当該オブジェクト91は、人物(例えば、A氏)に対応する。そして、当該オブジェクトは、センタオフィス10の当該人物(例えば、A氏)の座席の位置に対応する3次元仮想位置に配置される。即ち、上記人物が座席に座っている場合には上記人物が存在するであろう位置に対応する3次元仮想位置に、上記オブジェクト91が配置される。この例では、オブジェクト91は、円柱のオブジェクトである。当該円柱のオブジェクトは、半径R及び高さHを伴う円柱のオブジェクトである。半径R及び高さHは、例えば、予め定められる。なお、3次元仮想空間90のデータには、各カメラ11に関連する情報も含まれている。例えば、各カメラ11に関連する情報は、各カメラ11の設置位置に対応する3次元仮想位置、撮像方向(例えば、カメラのレンズと垂直な方向)、画角等を含む。
図9は、図8に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。図9を参照すると、容易な理解のために、3次元仮想空間90における水平面における位置関係が示されている。具体的には、3次元仮想空間90に配置されたオブジェクト91、撮像に用いられるカメラ11の設置位置に対応する3次元仮想位置(以下、「仮想カメラ位置」と呼ぶ)O、カメラ11の撮像方向(例えば、カメラのレンズと垂直な方向)に対応する軸y、及び、軸yと直交する軸xが、示されている。この例では、容易な理解のために、カメラ11は、当該カメラ11の撮像方向が水平面に平行になるように設置されているものとする。
さらに、カメラ11の画角θも示されている。また、カメラ11の撮像方向に対応する軸yに垂直であり、且つ画角θに対応する幅を有する仮想面93が示されている。また、仮想面93は、仮想カメラ位置Oから距離Iだけ離れている。そして、仮想面93は、四角形の面であり、撮像画像と同一の縦横比を有する。即ち、仮想面93は、撮像画像に対応する面である。
オブジェクト選択部185は、例えば、図6に示されるようにユーザにより指定される上記撮像画像内の位置を、3次元仮想位置Aに変換する。そして、オブジェクト選択部185は、仮想カメラ位置Oと3次元仮想位置Aとを通る直線に交わるオブジェクトを特定する。この例では、オブジェクト選択部185は、オブジェクト91を特定する。そして、オブジェクト選択部185は、オブジェクト91を選択する。
図9の例では、例えば、仮想面93のうちの3次元仮想位置Bと3次元仮想位置Dとの間にある3次元仮想位置に変換される撮像画像内の位置が、撮像画像内でユーザにより指定されると、オブジェクト91が選択される。なお、このような位置は、概ね、撮像画像においてオブジェクト91に対応する人物が写っている位置である。
なお、距離Iは、仮想カメラ位置Oとオブジェクト91との間に仮想面93が位置するように決定される。一例として、距離Iは、カメラ11の焦点距離であるが、当然ながらこれに限られない。
また、容易な説明のために、3次元仮想空間90の水平面に着目してオブジェクトを選択する手法を説明したが、当然ながら、垂直方向(例えば、z軸)を加えたとしても、撮像画像内の位置を3次元仮想位置に変換して当該3次元仮想位置からオブジェクト91を特定することが可能である。
例えば以上のように、撮像画像内の位置に対応するオブジェクトが選択される。上述した例では、撮像画像内の位置を3次元仮想位置に変換することにより、撮像画像内の位置に対応するオブジェクトが特定されたが、撮像画像内の位置に対応するオブジェクトを特定する手法は、これに限られない。
一例として、オブジェクト選択部185は、仮想カメラ位置Oを原点としてオブジェクト91を仮想面93に射影し、オブジェクト91の射影範囲を、撮像画像内の範囲に変換してもよい。そして、ユーザにより指定される上記撮像画像内の位置が、上記範囲に含まれる場合に、オブジェクト選択部185は、オブジェクト91を選択してもよい。
また、別の例として、仮想カメラ位置O、軸y及び画角θを用いて3次元仮想空間90のレンダリングを行うことにより、レンダリング画像を生成し、当該レンダリング画像のうちのオブジェクト91が写っている範囲から、オブジェクト91に対応する撮像画像内の範囲を得てもよい。そして、ユーザにより指定される上記撮像画像内の位置が、上記範囲に含まれる場合に、オブジェクト選択部185は、オブジェクト91を選択してもよい。
−状態を考慮したオブジェクトの選択
また、例えば、3次元仮想空間90に配置されるオブジェクト91は、複数の状態のうちのいずれかの状態を示す状態情報に対応する。例えば、オブジェクト91は、人物に対応する。そして、オブジェクト91は、当該人物が座席に座っているか否かを示す状態情報(以下、「存否情報」と呼ぶ)に対応する。当該存否情報は、人物が座席に座っている状態、又は人物が座席に座っていない状態を示す。オブジェクト選択部185は、例えば、オブジェクト91に対応する人物が座席に座っているか否かの判定結果を、通信部110を介してセンサ15から取得する。そして、当該判定結果が存否情報となる。
そして、例えば、オブジェクト選択部185は、上記3次元仮想空間に配置されたオブジェクトであって、上記複数の状態のうちの所定の状態を示す状態情報に対応する上記オブジェクトを、選択する。例えば、オブジェクト選択部185は、上記3次元空間に配置されたオブジェクトであって、人物が座席に座っている状態を示す状態情報に対応するオブジェクトを、選択する。即ち、オブジェクト選択部185は、センサ15により人物が座席に座っていると判定される場合には、当該人物に対応するオブジェクトを選択し得るが、センサ15により人物が座席に座っていないと判定される場合には、当該人物に対応するオブジェクトを選択しない。
このように、人物の状態に応じてオブジェクトが選択されるので、本来選択されるべきでないオブジェクトが選択されることを回避することができる。例えば、人物がいない場合に当該人物に対応するオブジェクトが選択されてしまうことを、回避することができる。
−2つのオブジェクトが配置されている場合の例
また、3次元仮想空間内に2つ以上のオブジェクトが配置され得る。以下、2つのオブジェクトが配置される具体例を、図10を参照して説明する。
図10は、センタオフィス10に対応する3次元仮想空間の第2の例を説明するための説明図である。図10を参照すると、センタオフィス10に対応する3次元仮想空間90が示されている。また、当該3次元仮想空間90には、オブジェクト91A及びオブジェクト91Bが配置されている。オブジェクト91Aは、ある人物(例えば、A氏)に対応し、センタオフィス10の当該ある人物の座席の位置に対応する3次元仮想位置に配置される。また、オブジェクト91Bは、ある人物(例えば、B氏)に対応し、センタオフィス10の当該ある人物の座席の位置に対応する3次元仮想位置に配置される。図8の例と同様に、オブジェクト91は、半径R及び高さHを伴う円柱のオブジェクトである。
このように3次元仮想空間内に2つ以上のオブジェクトが配置される場合には、複数のオブジェクトが、ユーザにより指定される撮像画像内の位置に対応し得る。例えば、図10の例において、オブジェクト91Aとオブジェクト91Bの両方が、ユーザにより指定される撮像画像内の位置に対応し得る。一例として、図7に示されるように撮像画像内に2人の人物が写り得るような場合に、ユーザが、撮像画像において当該2人の人物が重なり合う位置を指定すると、当該2人の人物に対応する2つのオブジェクトが、上記位置に対応し得る。
そこで、このような場合(即ち、複数のオブジェクトが、ユーザにより指定される撮像画像の位置に対応する場合)には、オブジェクト選択部185は、上記複数のオブジェクトのうちのいずれか1つのオブジェクトを選択する。即ち、オブジェクト選択部185は、ユーザにより指定される撮像画像内の位置に対応する3次元仮想空間内の3次元仮想位置にそれぞれ配置された複数のオブジェクトがある場合に、当該複数のオブジェクトのうちのいずれか1つのオブジェクトを選択する。
例えば、上記撮像画像は、実空間内にある撮像装置を通じて生成される。そして、オブジェクト選択部185は、上記複数のオブジェクトのうちの、上記撮像装置に対応する3次元仮想空間内の3次元仮想位置により近いオブジェクトを選択する。より具体的には、例えば、撮像画像は、センタオフィス10内にあるカメラ11を通じて生成される。そして、オブジェクト選択部185は、ユーザにより指定される撮像画像内の位置に対応する複数のオブジェクトがある場合に、カメラ11の設置位置に対応する3次元仮想位置(即ち、仮想カメラ位置O)により近いオブジェクトを選択する。以下、この点について図10及び図11を参照して具体例を説明する。
図11は、図10に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。図11を参照すると、容易な理解のために、3次元仮想空間90における水平面における位置関係が示されている。具体的には、3次元仮想空間90に配置されたオブジェクト91A及びオブジェクト91Bが示されている。また、図9と同様に、仮想カメラ位置O、軸y、軸x、画角θ及び仮想面93が、示されている。この例でも、図9と同様に、容易な理解のために、カメラ11は、当該カメラ11の撮像方向が水平面に平行になるように設置されているものとする。
例えば、図7に示されるようにユーザにより上記撮像画像内の位置が指定される。この場合に、図9を参照して説明した手法に従うと、撮像画像内の上記位置が、3次元仮想位置B’と3次元仮想位置Dとの間にある3次元仮想位置に変換される場合には、オブジェクト91A及びオブジェクト91Bの両方が、撮像画像内の上記位置に対応するオブジェクトとして特定される。そして、オブジェクト選択部185は、オブジェクト91A及びオブジェクト91Bのうちの、仮想カメラ位置Oにより近いオブジェクト91Aを選択する。
なお、ユーザにより指定される撮像画像内の位置が、3次元仮想位置Bと3次元仮想位置B’との間にある3次元仮想位置に変換される場合には、オブジェクト91Aが、上記撮像画像内の位置に対応するオブジェクトとして特定され、選択される。また、ユーザにより指定される撮像画像内の位置が、3次元仮想位置Dと3次元仮想位置D’との間にある3次元仮想位置に変換される場合には、オブジェクト91Bが、上記撮像画像内の位置に対応するオブジェクトとして特定され、選択される。
このように複数のオブジェクトから1つのオブジェクトが選択されることにより、複数のオブジェクトが選択されてその後の処理でエラー(複数の通信用IDを取得することによるエラー)が発生することを、回避することができる。また、複数のオブジェクトのうちのカメラ11に対応する仮想カメラ位置に近いオブジェクトが選択されることにより、例えば、撮像画像において人物が重なりあっているような場合でも、手前に写っている人物に対応するオブジェクトが選択される。よって、ユーザが意図した人物に対応するオブジェクトが選択される。
以上のように、オブジェクト選択部185は、オブジェクトを選択する。そして、オブジェクト選択部185は、選択したオブジェクトの識別情報(以下、「オブジェクトID」と呼ぶ)をID取得部187に提供する。当該オブジェクトIDは、選択されたオブジェクトに対応する人物の識別情報であってもよく、又は、選択されたオブジェクトに付された単なる番号であってもよい。
(ID取得部187)
ID取得部187は、選択される上記オブジェクトに対応する識別情報を取得する。例えば、当該識別情報は、選択される上記オブジェクトに対応する通信用の識別情報(以下、「通信用ID」と呼ぶ)である。当該通信用IDは、一例として電話番号である。
具体的には、例えば、オブジェクト選択部185が、オブジェクトを選択すると、ID取得部187は、選択された当該オブジェクトのオブジェクトIDを取得する。そして、オブジェクト選択部185は、通信部110を介して、オブジェクトIDを情報管理サーバ200へ送信し、オブジェクトIDに対応する通信用IDを取得する。当該通信用IDは、選択されたオブジェクトに対応する人物の通信用IDである。
例えば以上のように、ID取得部187は、選択されるオブジェクトに対応する通信用IDを取得する。当該通信用IDは、オブジェクトに対応する人物(即ち、ユーザにより指定された撮像画像の位置に写っている人物)の通信装置の通信用IDである。そして、ID取得部187は、取得した通信用IDを電話部189に提供する。
以上のように、ユーザにより撮像画像内の位置が指定されると、当該位置に対応するオブジェクトが選択され、当該オブジェクトに対応する通信用IDが取得される。これにより、ユーザは、直感的な操作で対象の人物にコンタクトすることが可能になる。また、撮像画像において人物がどのように写っているかによらず、当該人物に対応するオブジェクトが選択され、通信用IDが取得されるので、より確実に当該人物にコンタクトすることが可能になる。
(電話部189)
電話部189は、電話を行うための機能を提供する。例えば、電話部189は、ソフトフォンの機能を提供する。
例えば、電話部189は、ID取得部187により提供される通信用IDを取得すると、当該通信用IDを用いて電話発信を行う。より具体的には、例えば、電話部189は、通信用IDを取得すると、通信部110を介して、当該通信用IDをPBX40に提供し、PBX40からIPアドレスを取得する。そして、電話部189は、当該IPアドレスを有する通信装置(即ち、着信先の通信装置)との間で、セッションを確立するための一連のシーケンスを実行する。
このように、電話部189は、表示画面においてユーザにより指定された撮像画像内の位置に写る人物への電話のための電話発信を行う。即ち、電話部189は、当該人物の通信装置への電話発信を行う。
また、電話の相手先の通信装置からの音声データが、通信部110により受信されると、電話部189は、音声出力部160に、当該音声データの音声を出力させる。また、電話部189は、通信部110に、集音部140により提供される音声データを電話の相手先の通信装置へ送信させる。また、電話部189は、例えば、通信部110に、撮像部130により提供される撮像画像(例えば、端末装置100のユーザが写っている撮像画像)も電話の相手先の通信装置へ送信させる。
また、電話部189は、表示部150に、電話時の表示画面を表示させる。例えば、電話時の表示画面を表示する表示モードを、会話モードと呼ぶ。この場合に、電話部189は、ID取得部187により提供される通信用IDを取得すると、表示モードを、近接モードから会話モードへ切り替える。以下、会話モードの表示画面について図12を参照して具体例を説明する。
図12は、会話モードで表示される表示画面の一例を説明するための説明図である。図12を参照すると、会話モードで表示される表示画面80が示されている。表示画面80は、相手側撮像画像81、ボタン画像83及び自分側撮像画像85を含む。
相手側撮像画像81は、例えば、電話の相手先の通信装置から取得された撮像画像である。例えば、電話の相手先の通信装置からの撮像画像が、通信部110により受信されると、電話部189は、当該撮像画像を相手側撮像画像81として利用する。
また、ボタン画像63は、電話を終了させるための画像である。例えば、ユーザが、ボタン画像83の位置を指定すると、電話部189は、電話を終了させる。より具体的には、例えば、ユーザがボタン画像83の位置をタッチし、ボタン画像83に対応するタッチ位置が検出されると、電話部189は、セッションの切断を含む電話終了用のシーケンスを実行する。また、例えば、電話部189は、表示モードを会話モードから俯瞰モードに切り替える。
自分側撮像画像85は、撮像部130により提供される撮像画像である。
(その他:表示モードの遷移)
ここでは、俯瞰モード、近接モード及び会話モードの遷移の具体例を図13を参照して説明する。
図13は、表示モードの遷移の一例を説明するための遷移図である。図13を参照すると、例えばソフトウェアの起動時において、カメラ11、マイクロフォン13、センサ15、情報管理サーバ200等との接続処理が行われると、表示モードは、俯瞰モード301になる(ENTRY)。
俯瞰モード301では、俯瞰モード処理が実行される(DO)。そして、ユーザが、俯瞰撮像画像61の位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、俯瞰モード301から近接モード303に切り替わる。モード変更処理は、カメラ11のズーム処理を含む(ENTRY)。
近接モード303では、近接モード処理が実行される(DO)。そして、ユーザが、近接撮像画像71のうちの人物が写っている位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、近接モード303から会話モード305に切り替わる。この場合のモード変更処理は、通話のための処理を含む(ENTRY)。また、ユーザが、ボタン画像73の位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、近接モード303から俯瞰モード301に切り替わる。この場合のモード変更処理は、上述した接続処理を含む(ENTRY)。
会話モード305では、会話モード処理が実行される(DO)。また、ユーザが、ボタン画像83の位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、会話モード305から俯瞰モード301に切り替わる。この場合のモード変更処理は、上述した接続処理を含む(ENTRY)。
(その他:表示画面の別の例)
−表示モードに応じた撮像画像
上述したように、例えば、実空間情報提供部181は、第1の表示モード(例えば、俯瞰モード)では、実空間の第1の領域が撮像された第1の撮像画像(例えば、俯瞰撮像画像)を表示部150に表示させる。また、実空間情報提供部181は、第2の表示モード(例えば、近接モード)では、上記第1の領域よりも狭い第2の領域が撮像された第2の撮像画像(例えば、近接撮像画像)を表示部150に表示させる。そして、上述した例では、とりわけ、実空間の第1の領域が撮像された第1の撮像画像は、第1のズーム率に対応する撮像画像であり、上記第1の領域よりも狭い第2の領域が撮像された第2の撮像画像は、上記第1のズーム率よりも大きい第2のズーム率に対応する撮像画像である。しかしながら、上記第1の撮像画像及び上記第2の撮像画像はこれに限られない。
例えば、上記第1の撮像画像は、実空間内にある複数の撮像装置のうちの第1の撮像装置を通じて生成される撮像画像であり、上記第2の撮像画像は、上記複数の撮像装置のうちの第2の撮像装置を通じて生成される撮像画像であってもよい。この場合に、例えば、実空間情報提供部181は、俯瞰モードの際には、センタオフィス10の広い領域を撮像するカメラ11を選択し、当該カメラ11により生成された撮像画像を俯瞰撮像画像として取得する。そして、実空間情報提供部181は、近接モードの際には、センタオフィス10のより狭い領域を撮像するカメラ11(例えば、より前方にあるカメラ)を選択し、当該カメラ11により生成された撮像画像を近接撮像画像として取得する。
これにより、カメラ11の配置によっては、より容易に人物の位置を指定しやすくなる。また、カメラ11にズームを要求しなくてもよい。そのため、例えば、光学ズーム又はドリーによるズームを要求する場合のように、個別の端末装置からの要求が競合し、いずれかの端末装置に待ち状態が生じるようなこともない。また、例えば、デジタルズームを用いる場合のように、処理量が増大するようなこともない。
−より自由な条件での撮像により生成される撮像画像
また、上述した例では、表示モードが切り替えられる例を説明したが、表示画面はこれに限られない。例えば、表示モードの切り替えの代わりに、より自由な条件での撮像により撮像画像が生成され、当該撮像画像を含む表示画面が表示されてもよい。
例えば、実空間の撮像画像は、複数のズーム率のうちの選択されたズーム率に対応する撮像画像であってもよい。この場合に、例えば、実空間情報提供部181は、入力部120を介してユーザにより指定されるズーム率を、通信部110を介してカメラ11に要求する。その結果、カメラ11は、ズーム率を要求に従って変更し、変更後のズーム率での撮像により生成された撮像画像を端末装置100に提供する。そして、実空間情報提供部181は、表示部150に、提供された撮像画像を含む表示画面を表示させる。そして、ユーザは、当該撮像画像内の位置を指定すると、位置取得部183は、当該位置を取得する。そして、位置取得部183は、撮像画像内の当該位置をオブジェクト選択部185に提供する。
これにより、ユーザは、細かいズーム率を指定して、所望の撮像画像を表示することができる。よって、ユーザは、特定の人物の位置をより指定しやすくなる。
なお、上述したように、ここでのズーム率は、1.5倍、2倍等の精緻な値である必要はなく、被写体が撮像画像に写る大きさの程度を直接的又は間接的に示すものである。例えば、とりわけカメラ11の位置の変更によるズーム(例えば、ドリーによるズームイン及びズームアウト)が用いられる場合には、ズーム率は、1.5倍、2倍等の精緻な値ではなく、被写体の大きさの程度を直接的に示すもの(例えば、被写体の概ねの大きさの程度を示すパラメータ、等)、又は、被写体の大きさの程度を間接的に示すもの(例えば、レールにおけるカメラ11の位置、等)であってもよい。
(カメラライン制御部191)
カメラライン制御部191は、後述するカメララインに関連する各種パラメータの演算処理、カメララインの表示制御、及びカメララインへのユーザ入力の取得を行う。ここで、「カメラライン」とは、本発明の実施形態における造語であり、端末装置100の表示画面に表示されるユーザインタフェースの表示要素かつ入力要素を示すラインである。
より具体的には、上記したように、位置取得部183によってユーザの指定に基づく選択位置が取得されるが、カメララインは、センタオフィス10に対応する3次元仮想空間90において当該選択位置に対応する3次元選択位置と当該3次元選択位置を撮像範囲内に含むカメラ11の3次元設置位置とに応じたライン(以下、「3次元ライン」とも言う)であり得る(図14を用いて後述する)。なお、以下の説明においては、ユーザの指定に基づく選択位置の例として、ユーザにより指定された位置に対応するオブジェクトの位置を用いるが、ユーザにより指定された位置自体が用いられてもよい。
本実施形態においては、「ライン」の例としてストレートな線を用いて説明するが、「ライン」は、曲がった線であってもよい。また、例えば、3次元選択位置と3次元設置位置とに応じたラインは、選択位置と設置位置とを両端とするライン全体であってもよいし、選択位置と設置位置とを両端とするラインの一部であってもよい。また、以下の説明において、「カメラライン」は、3次元ラインを撮像画像の表示画面の対応する位置に射影したライン(2次元ライン)をも意味し得る。
なお、前述したように、3次元仮想空間90のデータには、各カメラ11に関連する情報も含まれている。例えば、各カメラ11に関連する情報は、各カメラ11の設置位置に対応する3次元仮想位置、撮像方向(例えば、光軸を含むカメラのレンズと垂直な方向)、画角(または撮像範囲域)等を含む。端末装置100は、当該情報を利用し、3次元選択位置を撮像範囲内に含むカメラ11がどれであるかを識別することができる。当該情報は、情報管理サーバ200に格納されており、端末装置100が当該情報を必要とする状況が発生した際に通信部110を介して適宜当該情報を取得するようにしてよい。
カメララインは、端末装置100の表示画面上、例えば、図4の俯瞰撮像画像61上やマップ画像69上に射影して重畳表示される(図15を用いて後述する)。端末装置100のユーザは、表示画面上に表示されたカメララインを見ることで、いま見ている撮像画像を撮像するカメラとは別の角度から3次元選択位置を撮像することが可能なカメラが存在しているか否か、存在している場合は、そのカメラといま見ている撮像画像を撮像するカメラと3次元選択位置とがどのような相対的位置関係にあるのか、を直感的に知ることができる。
図14は、センタオフィス10に対応する3次元仮想空間内におけるカメララインの例を説明するための説明図である。
図14を参照すると、センタオフィス10に対応する3次元仮想空間90が示されている。また、当該3次元仮想空間90には、オブジェクト91A及びオブジェクト91Bが配置されている。オブジェクト91Aは、ある人物(例えば、A氏)に対応し、センタオフィス10の当該ある人物の座席の位置に対応する3次元仮想位置に配置される。また、オブジェクト91Bは、ある人物(例えば、B氏)に対応し、センタオフィス10の当該ある人物の座席の位置に対応する3次元仮想位置に配置される。図8や図9の例と同様に、オブジェクト91は、半径R及び高さHを伴う円柱のオブジェクトである。また、オブジェクト91Aおよびオブジェクト91Bそれぞれの3次元重心位置92Aおよび92Bを図示している。
さらに、当該3次元仮想空間90には、仮想カメラ93C、仮想カメラ93D、仮想カメラ93Eが配置されており、それぞれに対応する仮想カメラ位置(例えば、仮想カメラのレンズの中心位置)94C、94D、94Eが存在する。そして、オブジェクト91Aの3次元重心位置92Aと仮想カメラ位置94C、94D、94Eとをそれぞれ両端とする線分、すなわち、カメラライン95C、95D、95Eを図示している。また、オブジェクト91Bの3次元重心位置92Bと仮想カメラ位置94Cとを両端とするカメラライン95Fも参考までに図示している。この例では、オブジェクト91Bは仮想カメラ93Cと93Eの撮像範囲内には含まれておらず、仮想カメラ93Dの撮像範囲内にのみ含まれているため、オブジェクト91Bに対するカメララインは1本だけしか存在していない。
図15は、端末装置100の表示画面に表示されるカメララインの一例を説明するための説明図である。
図15を参照すると、俯瞰モードまたは近接モードで表示される表示画面80が示されている。表示画面80は、撮像画像81、マップ画像84、射影して重畳表示されたカメラライン87C、87D、87E、86C、86D、86E、を含む。なお、撮像画像81で指定された位置に応じたオブジェクトに対応する人物映像の付近に円環上の印が重畳描画されているが、この印は、指定された位置に応じたオブジェクトが画面上のどれであるかについて操作しているユーザにフィードバック表示された結果である。
撮像画像81は、俯瞰撮像画像61または近接撮像画像71と同類の画像である。また、マップ画像84は、マップ画像69またはマップ画像75と同類の画像である。すなわち、カメララインの表示は、俯瞰モードおよび近接モードのいずれのモードにおいても同様に実現可能である。
カメラライン87は、ユーザが撮像画像81内のオブジェクトの画像を指定する操作(例えば、当該オブジェクトの位置をタッチする操作)によって、オブジェクトの画像の近傍に重畳表示される。なお、マップ画像84上でオブジェクトが指定された場合には、カメラライン86が重畳表示される。このとき、表示画面80上に描画されるカメララインは、センタオフィス10に対応する3次元仮想空間90内のカメララインが撮像画像81またはマップ画像84の2次元平面へ射影されたラインであり、撮像画像81内に映っているオブジェクトとカメラとを両端とする2次元の線分が描画要素となる。
なお、カメラおよびオブジェクトの少なくともいずれか一方は、必ずしも撮像画像81の内部に射影されなくてもよい。このとき、3次元ラインのうち撮像画像81の内部に射影されない部分は、撮像画像81をはみ出すようにして描画されてもよいし、描画されなくてもよい。ユーザは、3次元ラインのうち撮像画像81の内部に射影されない部分が描画されなくても、撮像画像81の内部に描画された線分の伸展先を推測することで、そのカメララインに対応したカメラまたはオブジェクトの位置を大まかに把握することができる。
また、カメラおよびオブジェクトの少なくともいずれか一方は、必ずしも表示画面80の内部に射影されなくてもよい。このとき、3次元ラインのうち表示画面80の内部に射影されない部分は、描画されなくてよい。ユーザは、3次元ラインのうち表示画面80の内部に射影されない部分が描画されなくても、表示画面80の内部に描画された線分の伸展先を推測することで、そのカメララインに対応したカメラまたはオブジェクトの位置を大まかに把握することができる。
さらに、カメララインは、表示要素だけでなく入力要素でもあり得る。そのため、ユーザは、カメララインの任意の1つをタッチして指定操作することで、指定入力されたカメララインに対応する実空間内のカメラ11を指定することができる。このとき、撮像画像81は、当該指定操作に対応して、指定されたカメラ11により生成された俯瞰撮像画像に切り換わる。これは、実空間情報提供部181が、指定されたカメラ11により生成された俯瞰撮像画像を取得し、表示部150に当該俯瞰撮像画像を表示させることによって実現される。
ユーザは、指定したオブジェクトと切り換え先のカメラとの相対的な位置関係をカメララインによってカメラ切り換え操作前に直感的に知ることができる。また、そのカメラライン自身が入力操作のコントローラとして機能することによって、直感的で容易なカメラ切り換え操作の入力方式が実現される。
例えば、端末装置100にカメラ切り換えボタンが備えられており、当該ボタンを押下すると、カメラ11がシステムの指定する順番に切り換わっていくような従来のカメラ切り換え操作の入力方式を想定する。係る入力方式を用いた場合には、ユーザはカメラ切り換え後の俯瞰撮像画像を見るまで、どのカメラに切り換わったかを知ることができず、前述した複数カメラ同士の相互位置関係がわからず認知的に混乱してしまう問題(Spatial Discontinuities)が発生しやすい。カメララインを利用した本実施形態に係る入力方式によれば、そのような従来のカメラ切り換え入力方式が有する課題を解決することが可能である。
さらに、カメララインは、上記した利点以外にも操作入力上の利点も備える。例えば、ユーザは、オブジェクトの指定入力後に表示されるカメララインの任意の1つをタッチして指定操作した後、指定したカメラライン上の任意の位置をさらにタッチして指定操作することで、カメラ切り換え後のズーム率を指定入力することができる。
例えば、カメララインの中点のあたりをタッチして指定すれば、カメララインの線分の両端となるオブジェクトとカメラとの中間地点の位置から当該オブジェクトを見るような視点位置指定がなされたものとみなし、指定されたカメララインに対応するカメラに切り換わるだけでなく、ズーム率が2倍の近接撮像画像として撮像画像81に表示される。また、同様に、カメラライン上でオブジェクト側端点から3分の1程度の位置をタッチして指定すれば、当該カメララインに対応したカメラでズーム率が3倍の近接撮像画像が撮像画像81に表示される。
なお、上記したように、カメラおよびオブジェクトの少なくともいずれか一方は、必ずしも撮像画像81の内部に射影されなくてもよい。このとき、カメララインにおけるカメラ側端点およびオブジェクト側端点のうち、撮像画像81の外部に射影された端点の位置は、ズーム率の算出にそのまま利用されてもよいし、撮像画像81の端部(例えば、撮像画像におけるカメララインと撮像画像の端部との交点)に補正されてからズーム率の算出に利用されてもよい。
また、カメラおよびオブジェクトの少なくともいずれか一方は、必ずしも表示画面80の内部に射影されなくてもよい。このとき、カメララインにおけるカメラ側端点およびオブジェクト側端点のうち、表示画面80の外部に射影された端点の位置は、ズーム率の算出にそのまま利用されてもよいし、表示画面80の端部(例えば、表示画面80におけるカメララインと表示画面80の端部との交点)に補正されてからズーム率の算出に利用されてもよい。
上記のカメララインへの2種類の入力方法、すなわち、複数のカメララインから切り換え先のカメラを選択指定するためのタッチ入力と、選択されたひとつのカメララインに対してズーム率を指定するためのタッチ入力とは、複数回のタッチ入力ではなく、1回のタッチ入力に統合して効率的に行うことも可能である。
例えば、ユーザがまず撮像画像81内のオブジェクトの画像領域を指で押下すると、そのオブジェクトを撮像できるカメラ11に対応するカメララインが表示画面80上に重畳表示される。このとき、ユーザは、表示画面すなわちタッチパネル820から指を離さずに、画面上のオブジェクトの位置から所望するカメラライン上の位置に指をドラッグしてから、タッチパネル820から指を離すことで、1回のタッチ入力(ドラッグ)で見たい撮像画像を撮像するカメラの指定入力と倍率のシステムへの指定入力とを行うことができる。
オブジェクト指定、切り換え希望先のカメラ指定、及び当該カメラのズーム倍率指定という、従来は3段階の指定入力操作が必要であった入力を、本実施形態に係る方式を導入することによって、このように1回のタッチ入力で行えることは、効率(efficiency)の観点からも、複数カメラ切り換え機能を有する遠隔映像伝送アプリケーションを使用するユーザへの大きなユーザビリティの向上をもたらすものである。
図16は、カメラライン上の位置を指定するタッチ入力とそれに対するフィードバック表示のいくつかの例を説明するための説明図である。図16には、表示画面80に表示されるカメララインとそれへのタッチ入力を行っているユーザの手が示されている。
図16(a)に示される例では、ユーザがカメラライン上の位置をタップやドラッグ入力で指定すると、当該カメラライン上の位置に対応する部分的な領域の色や濃度が変わることによって、ユーザへ指定された入力位置に関するフィードバック情報を返す。
図16(b)に示される例では、ユーザがカメララインの端点を移動させる入力操作を行うことによって(ユーザがカメララインの長さを変更する入力操作を行うことによって)、端点によりカメラライン上の位置を指定する。この際のタッチ入力方式は、ドラッグが望ましい。なお、カメララインで指定できる最大長をあらかじめ表示しておいても構わない。
図16(c)に示される例では、ユーザがカメララインの長さを変更する入力操作を行うことによって、カメラライン上の位置を指定する点においては、図16(b)と同様である。しかし、図16(c)に示される例では、カメララインの端点をドラッグしてカメララインの長さを調節するのではなく、カメラライン上をプレスアンドホールド(長押し)することで、押している時間の長さに応じて端点が移動される。なお、押している時間の長さに応じて、図16(a)のように部分的な領域の位置が変更されていくフィードバック表示がなされてもよい。
図17は、図14に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。図17を参照すると、容易な理解のために、3次元仮想空間90における水平面における位置関係が示されている。具体的には、3次元仮想空間90に配置されたオブジェクト91A、現在撮像に用いられているカメラ11Aの仮想カメラ位置O、切り換え先のカメラとなるカメラ11Bに対応する仮想カメラ93Eの仮想カメラ位置94E、カメラ11Bのカメラライン95Eが示されている。また、図9と同様に、軸y、軸x、画角θ及び仮想面93が示されている。この例でも、図9と同様に、容易な理解のために、カメラ11は、当該カメラ11の撮像方向が水平面に平行になるように設置されているものとする。
例えば、図7に示されるようにユーザにより上記撮像画像内の位置が指定される。この場合に、図9を参照して説明した手法に従うと、カメラライン制御部191は、撮像画像内の上記位置に対応するカメラライン(この例ではカメラライン95E)を仮想面93上のA‐Eへ射影変換処理し、表示部150にカメララインを表示させる。また、ユーザが前記A‐E領域をタッチ入力した場合、カメラライン制御部191は、タッチ指定に対応するカメララインと当該カメラライン上の2次元の指定位置の情報とを、入力部120を介して取得し、その2次元の指定位置に対応する3次元仮想位置を変換により求める。
求めた3次元仮想位置は、ユーザの所望する3次元仮想空間90内のユーザ視点位置に関する情報となり、前述のように、当該ユーザ視点位置に対応したカメラ11への切り換え処理および当該カメラ11の倍率指定ズーム処理が行われ、表示部150上の撮像画像81に対応する近接撮像画像の表示や、当該近接撮像画像における新たなカメララインの表示処理が、カメラライン制御部191を含む端末装置100によって行われる。
以上に説明したように、カメラライン制御部191は、カメララインに関連する各種パラメータの演算処理、カメララインの表示制御、及びカメララインへのユーザ入力の取得を行うことが可能である。
(カメラライン選別部193)
カメラライン選別部193は、カメララインが複数存在する場合に(例えば、複数のカメラライン同士が近傍に存在する場合に)、表示画面80上に描画されたカメララインの指定入力誤りが発生したり、指定入力しにくかったりする問題を解決するために、(近傍にある)複数のカメララインの中から条件に最適なひとつのカメララインに絞り込んでユーザに提示する処理を行う。
図18は、カメララインが近傍に複数存在する場合の端末装置100の表示画面の一例を説明するための説明図である。なお、以下では、カメラライン同士が近傍に存在する場合に行われる処理を例として説明するが、複数のカメラライン同士が近傍に存在するか否かを問わず、複数のカメララインが存在する場合に、一律的に同様の処理が行われてもよい。
図18を参照すると、俯瞰モードまたは近接モードで表示される撮像画像81が示されている。ユーザにより指定された位置に対応するオブジェクトとそれに対応するカメララインが3つ重畳表示されているが、当該3つのお互いが非常に近い表示位置に存在するため、ユーザはその内の所望のひとつのカメララインを選択してタッチ入力を行うのは困難であり、場合によっては意図しないカメララインを誤って選択入力してしまう恐れがある。また、入力以前に、カメララインが近傍に複数存在すると表示された各カメララインの視認性を損なうという問題もある。カメラライン選別部193は上記のような課題を解決する情報処理を行う。
具体的には、カメラライン選別部193は、後述するカメラライン評価条件にしたがって近傍に存在する複数のカメラライン間の比較を行い、最も評価の高かったカメララインを最適なカメララインとしてひとつ選別し、そのひとつのカメララインのみを表示画面80上に表示させる処理を行う。
以下、前記カメラライン評価条件と対応する比較処理の例をいくつか示す。
一つ目のカメラライン評価条件は、ユーザにより指定された位置に対応するオブジェクトとカメラ11との間の「距離」である。当該距離は、カメララインの全長と同義であり、図14でいえば、カメラライン95C(または95D、95E)の全長、すなわち、3次元位置92Aと94C(または94D、95E)との2点間の距離を演算することにより求められる。比較評価の高低基準としては、例えば、距離の値が大きいカメララインほど評価は高くされるとよい。その理由は、カメラ11の性能が同じであれば、距離が大きいほど撮像画像81の視野角が広くなりユーザにより指定された位置・オブジェクトの周囲の状況までより広く把握できる、また、距離が大きいほどユーザが指定できるズーム率の範囲が広くなりユーザが視点決定できる自由度が大きくなる、などユーザによって享受される効果がより優れていると考えられるためである。
二つ目のカメラライン評価条件は、センタオフィス10に対応する3次元仮想空間90におけるカメララインと水平面(床面)との成す「角度」である。当該角度は、図14でいえば、3次元位置92Aと94C、そして94Cを3次元仮想空間90の水平面(床面)上に垂直に正射影した点94C’の3点94C‐92A‐94C’の角度を余弦定理等で演算することにより求められる。比較評価の高低基準としては、例えば、角度の値が小さく0に近いカメララインほど評価は高くされるとよい。その理由は、床の水平面との角度が小さいほど、カメララインの光線も水平に近くなりユーザにより指定された対象人物の見え方が対人的視点で自然になり(他方、高角度で上から撮ると監視カメラ的になる)、ズーム表現もあたかも歩いて近づくかのような自然な演出になる(他方、高角度で上からズームすると空を滑空するような不自然な感覚になる)、などユーザによって享受される効果がより優れていると考えられるためである。
三つ目のカメラライン評価条件は、各カメララインに対応するカメラ11の「性能」であり、複数のカメラ11がそれぞれ異なる機種や性質を持っている場合に有効になる。性能とは、例えば、カメラのハードウェア性能であり、比較評価の高低基準例と併せていくつか例を記すと、撮像素子の画素数(多い方が高評価)、撮像素子の面積(大きい方が高評価)、レンズの画角(広い方が高評価)、レンズのF値(小さい方が高評価)、シャッタースピード(範囲が広い方が高評価)、最大フレームレート(大きい方が高評価)、最大ISO感度(大きい方が高評価)、光学ズーム機構の有無(有る方が高評価)、撮影可能距離(距離範囲が広い方が高評価)等になる。比較評価の高低基準の理由は、高評価のカメラほど高画質の撮像画像をユーザに提供できる可能性が高いと考えられるためである。
また、カメラライン選別部193は、カメラライン制御部191により求められた複数のカメララインが近傍に存在し前述の選別処理を行うべきか否かの判定を行う。前記近傍に存在しているか否かの判定は、例えば、表示画面80上に描画された複数のカメララインの表示領域に重複が見られたり、前記複数のカメララインの表示領域間の距離が所定の2次元距離以下であったりした場合に(例えば、前記距離が7ミリメートルや44ピクセル以下であった場合に)、該当するカメラライン群が近傍位置関係にあり前述の選別処理を行うべきであると判定してもよい。また、3次元仮想空間90内における複数のカメラライン間の成す角度が所定以下であった場合に(例えば、10度未満であった場合に)、該当するカメラライン群が近傍位置関係にあり前述の選別処理を行うべきであると判定してもよい。
以上に説明したように、カメラライン選別部193は、後述するカメラライン評価条件にしたがって近傍に存在する複数のカメラライン間の比較を行い、最も評価の高かったものを最適なカメララインとしてひとつ選別する処理を行うことが可能である。そして、カメラライン選別部193は、そのひとつのカメララインのみを表示画面80上に表示させる処理を行うことが可能である。
<2−3.ソフトウェア構成>
次に、本実施形態に係る端末装置100のソフトウェア構成の一例を説明する。図19は、本実施形態に係る端末装置100のソフトウェア構成の一例を示すブロック図である。図19を参照すると、端末装置100は、OS(Operating System)840及びアプリケーションソフトウェアを備える。そして、端末装置100は、アプリケーションソフトウェアとして、ソフトフォン851、超臨場感クライアント853及び電話発信制御機能855を含む。
OS840は、端末装置100を動作させるための基本的な機能を提供するソフトウェアである。OS840は、各アプリケーションソフトウェアを実行する。
ソフトフォン851は、端末装置100を用いて電話を行うためのアプリケーションソフトウェアである。電話部189は、例えば、ソフトフォン851により実装され得る。
超臨場感クライアント853は、実空間の情報を端末装置100に提供するためのアプリケーションソフトウェアである。実空間情報提供部181は、例えば、超臨場感クライアント853により実装され得る。
なお、超臨場感クライアント853は、実空間(例えば、センタオフィス10)にいる人物の状態を示す状態情報を取得し、OSを介してソフトフォン851に提供してもよい。そして、ソフトフォン851は、当該状態情報に基づいて、電話発信を制御してもよい。
また、電話発信制御機能855は、表示画面内の撮像画像に写っている人物の通信装置の通信用IDを取得するアプリケーションソフトウェアである。位置取得部183、オブジェクト選択部185及びID取得部187は、電話発信制御機能855により実装され得る。
なお、電話発信制御機能855は、通信用IDを取得すると、OSを介してソフトフォン851に提供する。そして、ソフトフォン851は、当該通信用IDを用いて、電話発信を行う。
<<3.情報管理サーバの構成>>
続いて、図20及び図21を参照して、本実施形態に係る情報管理サーバ200の構成の一例を説明する。
<3−1.ハードウェア構成>>
まず、図20を参照して、本実施形態に係る情報管理サーバ200のハードウェア構成の一例を説明する。図20は、本実施形態に係る情報管理サーバ200のハードウェア構成の一例を示すブロック図である。図20を参照すると、情報管理サーバ200は、CPU901、ROM903、RAM905、バス907、記憶装置909及び通信インターフェース911を備える。
CPU901は、情報管理サーバ200における様々な処理を実行する。また、ROM903は、情報管理サーバ200における処理をCPU901に実行させるためのプログラム及びデータを記憶する。また、RAM905は、CPU901の処理の実行時に、プログラム及びデータを一時的に記憶する。
バス907は、CPU901、ROM903及びRAMを相互に接続する。バス907には、さらに、記憶装置909及び通信インターフェース911が接続される。バス907は、例えば、複数の種類のバスを含む。一例として、バス907は、CPU901、ROM903及びRAM905を接続する高速バスと、当該高速バスよりも低速の1つ以上の別のバスを含む。
記憶装置909は、情報管理サーバ200内で一時的又は恒久的に保存すべきデータを記憶する。記憶装置909は、例えば、ハードディスク等の磁気記憶装置であってもよく、又は、EEPROM、フラッシュメモリ、MRAM、FeRAM及びPRAM等の不揮発性メモリであってもよい。
通信インターフェース911は、情報管理サーバ200が備える通信手段であり、ネットワークを介して(あるいは、直接的に)外部装置と通信する。通信インターフェース911は、無線通信用のインターフェースであってもよく、この場合に、例えば、通信アンテナ、RF回路及びその他の通信処理用の回路を含んでもよい。また、通信インターフェース911は、有線通信用のインターフェースであってもよく、この場合に、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。
<3−2.機能構成>>
次に、本実施形態に係る情報管理サーバ200の機能構成の一例を説明する。図21は、本実施形態に係る情報管理サーバ200の機能構成の一例を示すブロック図である。図21を参照すると、情報管理サーバ200は、通信部210、記憶部220及び制御部230を備える。
(通信部210)
通信部210は、他の装置と通信する。例えば、通信部210は、LAN19に直接的に接続され、センタオフィス10内の各装置と通信する。具体的には、例えば、通信部210は、カメラ11、マイクロフォン13、センサ15及びメディア配信サーバ17と通信する。また、通信部210は、外部ネットワーク30及びLAN23を介して、サテライトオフィス20内の各装置と通信する。具体的には、例えば、通信部210は、端末装置100及びディスプレイ21と通信する。なお、通信部210は、例えば、通信インターフェース911により実装され得る。
(記憶部220)
記憶部220は、情報管理サーバ200の動作のためのプログラム及びデータを記憶する。
とりわけ本実施形態では、記憶部220は、情報処理システムにおいて用いられる様々な情報を記憶する。
第1の例として、記憶部220は、カメラ11、マイクロフォン13及びセンサ15に関するパラメータを記憶する。当該パラメータの具体的な内容は、上述したとおりである。
第2の例として、記憶部220は、実空間に対応する3次元仮想空間のデータを記憶する。当該3次元仮想空間は、例えば、センタオフィス10を模した3次元仮想空間である。当該3次元仮想空間の具体的な内容は、上述したとおりである。
第3の例として、記憶部220は、人物関連情報を記憶する。当該人物関連情報は、例えば、センタオフィス10にいる人物の人物関連情報である。当該人物関連情報の具体的な内容は、上述したとおりである。
第4の例として、記憶部220は、3次元仮想空間に配置されるオブジェクトのオブジェクトIDと通信用IDとを、互いに対応付けて記憶する。当該オブジェクトID及び通信用IDの具体的な内容は、上述したとおりである。
(制御部230)
制御部230は、情報管理サーバ200の様々な機能を提供する。
例えば、制御部230は、要求に応じて、情報処理システムにおいて用いられる様々な情報を提供する。例えば、制御部230は、端末装置100による要求に応じて、3次元仮想空間のデータ、人物関連情報、オブジェクトIDに対応する通信用ID、並びに、カメラ11、マイクロフォン13及びセンサ15に関するパラメータ等を提供する。
また、例えば、制御部230は、情報処理システムにおいて用いられる様々な情報を適宜更新する。制御部230は、自動で、又は手動による指示に応じて、当該情報を更新する。
<<4.処理の流れ>>
続いて、図22を参照して、本実施形態に係る情報処理の例を説明する。図22は、本実施形態に係る情報処理の概略的な流れの一例を示すフローチャートである。
ステップS401で、位置取得部183は、実空間の撮像画像の表示画面において当該撮像画像内の位置がユーザにより指定されたかを判定する。より具体的には、例えば、位置取得部183は、近接撮像画像内の位置をユーザにより指定されたかを判定する。上記位置が指定されていれば、処理はステップS403へ進む。そうでなければ、処理はステップS401を繰り返す。
ステップS403で、位置取得部183は、ユーザにより指定される上記撮像画像内の位置を取得する。
ステップS405で、オブジェクト選択部185は、実空間に対応する3次元仮想空間のデータを記憶部170から取得する。
ステップS407で、取得された上記撮像画像内の上記位置に基づいて、上記3次元仮想空間に配置されたオブジェクトを選択する。
ステップS409で、カメラライン制御部191は、取得された上記位置またはその位置に対応するオブジェクトを撮像範囲に含むカメラ11の情報を取得する。
ステップS411で、カメラライン制御部191は、取得された上記位置またはその位置に対応するオブジェクトを撮像範囲に含むカメラ11の情報から、当該カメラ11に対応するカメララインを構成するパラメータを演算により求める。
ステップS413で、カメラライン選別部193は、カメララインが近傍に複数存在しているか否かを判定する。カメララインが近傍に複数存在していれば、処理はステップS415へ進む。そうでなければ、処理はステップS417へ進む。
ステップS415で、カメラライン選別部193は、前述したカメラライン評価条件にしたがって近傍に存在する複数のカメラライン間の比較を行い、最も評価の高かったものを最適なカメララインとしてひとつ選別する。
ステップS417で、カメラライン制御部191は、取得された上記位置またはその位置に対応するオブジェクトに対応するカメララインを、表示画面80上に表示させる。
ステップS419で、カメラライン制御部191は、カメララインの内のひとつまたはそのカメラライン上の位置がユーザにより指定されたかを判定する。上記カメララインまたは位置が指定されていれば、処理はステップS423へ進む。そうでなければ、処理はステップS401を繰り返す。
ステップS421で、カメラライン制御部191は、指定されたカメララインに対応するカメラの撮像画像を取得し、指定されたズーム率で、現在のカメラの撮像画像と表示切り換えを行う形で表示画面80上に表示させ、処理は終了する。なお、カメラ切り換え後の表示画面上に、対応するカメララインを自動的に再演算し再描画しても構わない。その場合はS409から処理を再開すればよい。
以上のように、本実施形態に係る情報処理が実行される。さらに、当該情報処理の開始前に行われる起動処理の一例を、図23を参照して説明する。
図23は、本実施形態に係る起動処理の概略的な流れの一例を示すフローチャートである。
ステップS501で、ソフトフォン851の起動処理が実行される。これにより、ソフトフォン851が起動する。
ステップS503で、ソフトフォン851に関する登録処理が実行される。例えば、ソフトフォン851の登録処理の1つとして、PBX40での登録(例えば、SIP REGISTRATION)が行われる。
ステップS505で、超臨場感クライアントの起動処理が実行される。例えば、超臨場感クライアントにおいて利用されるカメラ11、マイクロフォン13、センサ15、メディア配信サーバ17、情報管理サーバ200等が特定される。
ステップS507で、超臨場感クライアントの俯瞰モード処理が実行される。そして、一連の起動処理は終了する。
以上、添付図面を参照しながら本発明の好適な実施形態を説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
例えば、実空間に対応する3次元仮想空間として、センタオフィスの3次元仮想空間が用意される例を説明したが、本発明はこれに限定されない。例えば、複数の3次元空間が用意されてもよい。一例として、実空間に対応する3次元仮想空間は、複数のオフィスの各々について用意されてもよい。例えば、サテライトオフィス、ホームオフィス、他のセンタオフィス等についての3次元仮想空間も用意されてもよい。この場合に、各オフィスの3次元仮想空間は、各オフィスの大きさに応じた大きさの3次元仮想空間であってもよい。また、端末装置のオブジェクト選択部は、複数の3次元仮想空間のうちの所望の3次元仮想空間のデータを取得してもよい。また、オフィス以外の3次元仮想空間が用意されてもよい。
また、人物が座席に座っている場合に限り当該人物に対応するオブジェクトが選択される例を説明したが、本発明はこれに限定されない。例えば、人物が座席に座っていない場合にもオブジェクトが選択されてもよい。一例として、人物が座席に座っている場合には、当該座席に設置された通信装置の通信用IDが取得され、人物が座席に座っていない場合には、当該人物の携帯端末の通信用IDが取得されてもよい。
また、通信用IDが電話番号である例を説明したが、本発明はこれに限定されない。通信用IDは、電話番号以外のIDであってもよい。一例として、通信用IDは、電話番号以外のソフトフォン用IDであってもよい。また、別の例として、通信用IDは、電話以外の通信のためのIDであってもよい。例えば、通信用IDは、メールアドレスであってもよく、又はショートメッセージ用のIDであってもよい。この場合に、通信用IDを用いて、メールが送信され、又はショートメッセージが送信されてもよい。
また、オブジェクトが選択された場合に当該オブジェクトに対応する通信用IDが取得される例を説明したが、本発明はこれに限定されない。例えば、オブジェクトが選択された場合に当該オブジェクトに対応するいずれかの識別情報が取得されてもよい。一例として、オブジェクトが選択された場合にオブジェクトに対応する人物のいずれかの識別情報が取得されてもよい。そして、例えば、この識別情報から、通信用IDが取得されてもよい。
また、実空間に対応する3次元仮想空間に配置されるオブジェクト(オブジェクト選択部により選択されるオブジェクト)が人物に対応し且つ円柱のオブジェクトである例を説明したが、本発明はこれに限定されない。例えば、オブジェクトは、円柱のオブジェクトではなく、別の形状のオブジェクトであってもよい。また、例えば、オブジェクトは、人物以外のものに対応してもよい。一例として、オブジェクトは、実空間の領域に対応してもよい。具体的には、例えば、オブジェクトは、座席に対応し、当該座席の位置に対応する3次元仮想位置に配置されてもよい。そして、当該座席に設置された通信装置の通信用IDと上記オブジェクトとが対応し、当該オブジェクトが選択されると、当該通信用IDが取得されてもよい。また、オブジェクトは、座席よりも広い領域に対応し、当該領域の範囲に対応する3次元仮想範囲に渡って存在してもよい。そして、当該領域内に設置された通信装置の通信用IDと上記オブジェクトとが対応し、当該オブジェクトが選択されると、当該通信用IDが取得されてもよい。
また、表示画面において撮像画像の位置がユーザによるタッチで指定される例を説明したが、本発明はこれに限定されない。例えば、撮像画像の位置は、タッチパネル以外の入力手段を用いてユーザにより指定されてもよい。例えば、撮像画像の位置は、マウスによるクリックで指定されてもよく、ボタン、キーボード等の別の入力手段を用いて指定されてもよい。
また、カメラにより生成される撮像画像、マイクロフォンにより生成される音声データ、及び、センサによる判定結果が、それぞれ、カメラ、マイクロフォン及びセンサにより、端末装置に直接提供される例を説明したが、本発明はこれに限定されない。例えば、別の装置によりこれらのデータが提供されてもよい。一例として、いずれかのサーバ(例えば、メディア配信サーバ)が、これらのデータを取得し、これらのデータを端末装置に提供してもよい。
また、位置取得部、オブジェクト選択部及びID取得部等の機能が端末装置により備えられる例を説明したが、本発明はこれに限定されない。例えば、これらの機能は、端末装置以外の装置により備えられてもよい。一例として、これらの機能はいずれかのサーバにより備えられてもよい。
また、実空間の撮像画像の表示画面が端末装置により表示される例を説明したが、本発明はこれに限定されない。例えば、当該表示画面は別の装置により表示されてもよい。一例として、上記表示画面はサテライトオフィスに設置されたディスプレイにより表示されてもよい。そして、ユーザが、当該ディスプレイにおいて、表示画像に含まれる撮像画像の位置を指定してもよい。
また、本明細書の情報処理における処理ステップは、必ずしもフローチャートに記載された順序に沿って時系列に実行されなくてよい。例えば、情報処理における処理ステップは、フローチャートとして記載した順序と異なる順序で実行されても、並列的に実行されてもよい。
また、情報処理装置(例えば、端末装置)に内蔵されるCPU、ROM及びRAM等のハードウェアに、上記情報処理装置の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させた記憶媒体も提供される。
<<5.変形例>>
<5−1.変形例1:カメラライン選別処理実施の通知機能>
変形例1として、カメラライン選別部193は、複数のカメラライン候補から最適なひとつのカメララインを選別し、当該最適なひとつのカメララインだけを表示する場合に、当該最適なひとつのカメララインの周囲に前記複数のカメラライン候補の総数を表示する機能を有していてもよい。図24に、図18に対して当変形例1の機能を適用した表示の一例を示す。例えば、カメラライン選別部193は、3つのカメララインが近傍に存在すると判定され、最適なひとつのカメララインへの選別処理がなされた場合、図24に示すように、当該最適なひとつのカメララインの表示画面80への表示に併せて、「3」という数字を表示画面80上の当該最適なひとつのカメララインの付近に表示させてもよい。
この機能により、ユーザは表示画面80上に表示されたカメララインが選別処理がなされたカメララインであるか否かを感覚的に知ることができる(逆に、当通知機能がない場合は、ユーザは各カメララインに選別処理がなされたのか否かを知ることができない)。さらに、前記複数のカメラライン候補の総数の表示部分をタッチすると、前記選別処理が解除され、前記複数のカメラライン候補がすべて表示されるようにモード切り替えができるようにしてもよい。
<5−2.変形例2:カメラライン評価条件における性能情報の取得管理機能>
変形例2として、カメラライン選別部193は、前述したカメラライン評価条件がカメラ11の「性能」である場合に、当該性能を評価し、評価の結果得られた性能情報を管理する機能を有していてもよい。例えば、カメラライン選別部193は、本実施形態に係るシステムに含まれるすべてのカメラ11に短時間の試撮影を行わせてその画像を取得し、得られた各画像のデータを自動解析して、各カメラ11の性能情報を推定してもよい。あるいは、カメラライン選別部193は、画像解析処理まで行わなくとも、各カメラ11の撮影画像に埋め込まれたExif(Exchangeable image file format)のデータから性能に関する情報を取得してもよい。
また、カメラライン選別部193は、Webページの自動巡回と情報収集を行うクローラプログラムの機能を有しており、カメラのスペック等、各カメラ11の性能に関する情報をWebから収集する機能を有していてもよい。さらに、上記のように取得された性能情報のデータを情報管理サーバ200と連携して記憶・管理してもよい。この機能により、カメラライン評価条件がカメラ11の性能である場合に、ユーザが各カメラ11の性能情報を本実施形態に係るシステムへ手入力し登録する作業負荷が軽減される。
<5−3.変形例3:カメララインへの画像品質関連情報の付与表示機能>
変形例3として、カメラライン制御部191は、各カメラ11の撮像画像の品質に応じて、対応するカメララインの表示に変更を加える機能を有していてもよい。例えば、図15において、撮像画像81内のカメラライン87C、カメラライン87D、カメラライン87Eにそれぞれ対応するカメラ11Cの撮影画素数が320×240ピクセル、カメラ11Dの撮影画素数が1920×1200ピクセル、カメラ11Eの撮影画素数が640×480ピクセルであった場合に、撮影画像の品質の高低比較は、カメラ11D>カメラ11E>カメラ11Cとなる。
しかし、カメラ切り換え処理が行われる前には、そのような画像品質の差異をユーザは予測できない。そこで、図25に示すように、撮影画像の品質の高低をカメララインの表示形態に対応させて描画することで、ユーザはカメラ切り換え処理前のカメララインを選択する段階で、切り換え先のカメラから得られる撮影画像の品質を直感的に把握することができ、より高い品質の撮影画像を得られるカメラを選択して切り換え操作を行うことができるようになる。なお、図25に示した例では、カメララインの太さで撮影画像品質の高低を表現したが、例えば、カメララインの色や表示透過度等で撮影画像品質の高低を表現しても構わない。
<5−4.変形例4:自由視点映像の映像補間視点における本発明技術適用>
本実施形態における切り換え対象のカメラとしては、主にハードウェアの実体を有する撮像装置を想定しているが、変形例4として、本実施形態は、自由視点映像技術において生成される任意の映像補間視点に対応する仮想的な撮像視点位置もカメラ11のひとつとみなしても構わない。これにより、視点切り換えを離散的ではなく連続的に行えるような自由視点映像技術を有する遠隔映像伝送アプリケーションシステムに対しても、本実施形態を適用し得る。
なお、完全な自由視点映像技術においては前記カメララインも任意に生成され得るが、その場合にも、本実施形態のカメラライン選別部193による前述の選別処理が有効にされてよい。例えば、当該選別処理を所定の空間範囲ごとに適用し、当該空間範囲に最適なカメララインが求められることで、任意のカメララインが質の高い視点候補に対応するカメララインに絞り込まれ、視点選択操作の可能性が無限にあるケースよりも操作性の高い視点選択入力方法を実現できる可能性がある。
11 カメラ
13 マイクロフォン
15 センサ
17 メディア配信サーバ
19、23 LAN(Local Area Network)
21 ディスプレイ
30 外部ネットワーク
40 PBX(Private Branch eXchange)
60 表示画面(俯瞰モード)
61 俯瞰撮像画像
63、73、83 ボタン画像
70 表示画面(近接モード)
71 近接撮像画像
80 表示画面(会話モード)
81 相手側撮像画像
85 自分側撮像画像
90 3次元仮想空間
91 オブジェクト
93 仮想面
100 端末装置
180 制御部
181 実空間情報提供部
183 位置取得部
185 オブジェクト選択部
187 ID取得部
189 電話部
191 カメラライン制御部(ライン制御部)
193 カメラライン選別部(ライン選別部)

Claims (16)

  1. 実空間を撮像して得られた撮像画像においてユーザの指定に基づく選択位置を取得する位置取得部と、
    3次元仮想空間において前記選択位置に対応する3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインを、前記撮像画像の表示画面の対応する位置に射影した2次元ラインを、前記選択位置に対応する位置に、表示部に表示させるライン制御部と、
    を備える、情報処理装置。
  2. 前記ライン制御部は、前記3次元設置位置と前記3次元選択位置とに応じた前記3次元ラインを前記表示画面の対応する位置に射影することによって前記2次元ラインを算出する、
    請求項1に記載の情報処理装置。
  3. 前記情報処理装置は、前記2次元ラインが指定された場合、前記2次元ラインに対応する撮像装置による撮像画像を前記表示部に表示させる実空間情報提供部を備える、
    請求項1に記載の情報処理装置。
  4. 前記ライン制御部は、前記2次元ラインにおける位置が指定位置としてさらに指定された場合、前記2次元ラインの両端位置と前記指定位置との相対的な位置関係に基づいて、ズーム率を算出し、
    前記実空間情報提供部は、前記ズーム率に基づいて前記撮像画像を生成する、
    請求項3に記載の情報処理装置。
  5. 前記ライン制御部は、前記2次元ラインに対して前記指定位置に応じた所定の変形処理を施し、前記変形処理が施された後の2次元ラインを前記表示部に表示させる、
    請求項4に記載の情報処理装置。
  6. 前記情報処理装置は、
    前記3次元選択位置を前記撮像範囲に含む複数の撮像装置が存在する場合、前記撮像装置ごとの3次元ラインの評価値に基づいて3次元ラインを選別し、選別した前記3次元ラインを前記表示画面の対応する位置に射影した2次元ラインを前記表示部に表示させるライン選別部を備える、
    請求項1に記載の情報処理装置。
  7. 前記ライン選別部は、前記3次元ラインごとの評価値を、前記3次元選択位置と前記3次元設置位置との間の距離に基づいて算出する、
    請求項6に記載の情報処理装置。
  8. 前記ライン選別部は、前記3次元ラインごとの評価値を、前記3次元ラインと前記3次元仮想空間における水平面とのなす角度に基づいて算出する、
    請求項6に記載の情報処理装置。
  9. 前記ライン選別部は、前記3次元ラインごとの評価値を、前記3次元ラインに対応する前記撮像装置の撮像品質に基づいて算出する、
    請求項6に記載の情報処理装置。
  10. 前記ライン選別部は、選別した前記3次元ラインを前記表示画面の対応する位置に射影した2次元ラインを前記表示部に表示させるとともに、前記複数の3次元ラインの総数を前記表示部に表示させる、
    請求項6に記載の情報処理装置。
  11. 前記ライン選別部は、前記撮像装置の撮像品質を、前記撮像装置による撮像画像の解析により、または、前記撮像装置による撮像画像に埋め込まれた情報から取得する、
    請求項9に記載の情報処理装置。
  12. 前記ライン制御部は、前記撮像装置の撮像品質に応じた表示態様によって前記撮像装置に対応する前記3次元ラインを前記表示部に表示させる、
    請求項1に記載の情報処理装置。
  13. 前記撮像装置の前記3次元設置位置は、複数の撮像装置それぞれの撮像画像から補間的に生成される補間画像を撮像可能な位置を含む、
    請求項1に記載の情報処理装置。
  14. 前記ライン制御部は、前記3次元ラインのうち前記撮像画像の内部に射影されない部分が存在する場合、当該部分を前記表示画面の対応する位置に射影した結果を前記表示部に表示させない、
    請求項1に記載の情報処理装置。
  15. コンピュータを、
    実空間を撮像して得られた撮像画像においてユーザの指定に基づく選択位置を取得する位置取得部と、
    3次元仮想空間において前記選択位置に対応する3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインを、前記撮像画像の表示画面の対応する位置に射影した2次元ラインを、前記選択位置に対応する位置に、表示部に表示させるライン制御部と、
    を備える情報処理装置として機能させるためのプログラム。
  16. 実空間を撮像して得られた撮像画像においてユーザの指定に基づく選択位置を取得することと、
    3次元仮想空間において前記選択位置に対応する3次元選択位置と前記3次元選択位置を撮像範囲に含む撮像装置の3次元設置位置とに応じた3次元ラインを、前記撮像画像の表示画面の対応する位置に射影した2次元ラインを、前記選択位置に対応する位置に、表示部に表示させることと、
    を含む、情報処理方法。
JP2015139338A 2015-07-13 2015-07-13 情報処理装置、プログラム及び情報処理方法 Active JP6070783B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015139338A JP6070783B2 (ja) 2015-07-13 2015-07-13 情報処理装置、プログラム及び情報処理方法
US15/158,674 US9851892B2 (en) 2015-07-13 2016-05-19 Information processing device, recording medium, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015139338A JP6070783B2 (ja) 2015-07-13 2015-07-13 情報処理装置、プログラム及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2017022587A JP2017022587A (ja) 2017-01-26
JP6070783B2 true JP6070783B2 (ja) 2017-02-01

Family

ID=57775287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015139338A Active JP6070783B2 (ja) 2015-07-13 2015-07-13 情報処理装置、プログラム及び情報処理方法

Country Status (2)

Country Link
US (1) US9851892B2 (ja)
JP (1) JP6070783B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10780338B1 (en) 2016-07-20 2020-09-22 Riddell, Inc. System and methods for designing and manufacturing bespoke protective sports equipment
US10970915B2 (en) * 2017-01-06 2021-04-06 Canon Kabushiki Kaisha Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium
JP6575561B2 (ja) * 2017-05-25 2019-09-18 沖電気工業株式会社 情報処理装置、情報処理方法およびプログラム
JP6881193B2 (ja) * 2017-09-28 2021-06-02 沖電気工業株式会社 情報処理装置、情報処理方法、プログラム、表示制御装置、表示制御方法、プログラムおよび情報処理システム
JP7085865B2 (ja) * 2018-03-09 2022-06-17 キヤノン株式会社 画像処理装置、画像処理方法
US10554883B2 (en) 2018-03-30 2020-02-04 Ricoh Company, Ltd. VR system, communication method, and non-transitory computer-readable medium
WO2020037279A1 (en) 2018-08-16 2020-02-20 Riddell, Inc. System and method for designing and manufacturing a protective helmet
CA3120841A1 (en) 2018-11-21 2020-05-28 Riddell, Inc. Protective recreational sports helmet with components additively manufactured to manage impact forces
JP2021189637A (ja) * 2020-05-28 2021-12-13 富士フイルムビジネスイノベーション株式会社 情報処理装置、及びコンピュータプログラム
JP2022040434A (ja) 2020-08-31 2022-03-11 株式会社リコー 通信端末、画像通信システム、画像表示方法およびプログラム
JP2022050979A (ja) 2020-09-18 2022-03-31 株式会社リコー 通信端末、画像通信システム、画像表示方法およびプログラム
JP2022057771A (ja) 2020-09-30 2022-04-11 株式会社リコー 通信管理装置、画像通信システム、通信管理方法及びプログラム
JP2022057800A (ja) 2020-09-30 2022-04-11 株式会社リコー 画像通信システム、通信管理装置、通信管理方法及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261794A (ja) * 1999-03-10 2000-09-22 Toshiba Corp 動画像表示システム及びこの表示方法
JP2004165790A (ja) * 2002-11-11 2004-06-10 Yokogawa Bridge Corp カメラ制御システム
US7590941B2 (en) * 2003-10-09 2009-09-15 Hewlett-Packard Development Company, L.P. Communication and collaboration system using rich media environments
JP4555237B2 (ja) 2006-02-06 2010-09-29 Necインフロンティア株式会社 ボタン電話装置
JP4960659B2 (ja) * 2006-06-20 2012-06-27 クボテック株式会社 3次元仮想空間を利用したビデオカメラ撮影制御装置およびビデオカメラ撮影制御方法
JP2008146113A (ja) * 2006-12-06 2008-06-26 Oki Electric Ind Co Ltd 建物用cadシステム
JP5692204B2 (ja) * 2012-11-14 2015-04-01 沖電気工業株式会社 情報処理装置、プログラム及び情報処理方法
JP6149474B2 (ja) * 2013-04-10 2017-06-21 沖電気工業株式会社 情報処理装置及びプログラム

Also Published As

Publication number Publication date
US9851892B2 (en) 2017-12-26
JP2017022587A (ja) 2017-01-26
US20170019629A1 (en) 2017-01-19

Similar Documents

Publication Publication Date Title
JP6070783B2 (ja) 情報処理装置、プログラム及び情報処理方法
JP4645090B2 (ja) 共用インタラクティブ環境で情報を交換するための方法、システム及びプログラム
JP6171263B2 (ja) 遠隔会議システム及び遠隔会議端末
US10009543B2 (en) Method and apparatus for displaying self-taken images
US20200053318A1 (en) Communication processing method, terminal, and storage medium
JP2011205573A (ja) 制御装置、カメラシステム及びプログラム
KR20190031504A (ko) 파노라마 비디오의 상호작용적 전송을 위한 방법 및 시스템
JP6618644B2 (ja) 制御装置及び制御方法、プログラム
GB2440376A (en) Wide angle video conference imaging
JP2016144089A (ja) 画像処理装置およびその制御方法
CN106254784A (zh) 一种视频处理的方法及装置
JP2014042160A (ja) 表示端末、動体検知の対象領域の設定方法及びプログラム
JP2017208702A (ja) 情報処理装置及びその制御方法、撮影システム
EP2950503A1 (en) Communication system, transfer control device, communication method, and computer program product
JP6149474B2 (ja) 情報処理装置及びプログラム
JP6881193B2 (ja) 情報処理装置、情報処理方法、プログラム、表示制御装置、表示制御方法、プログラムおよび情報処理システム
JP6102961B2 (ja) 情報処理装置、プログラム及び情報処理方法
JP5692204B2 (ja) 情報処理装置、プログラム及び情報処理方法
JP6540732B2 (ja) 情報処理装置、情報処理方法、プログラム、及び、情報処理システム
JP6575561B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN108563410A (zh) 一种显示控制方法及电子设备
JP2020136821A (ja) 情報処理装置及びその制御方法、プログラム
TWI807598B (zh) 會議影像的產生方法及影像會議系統
CN108156501A (zh) 用于对视频数据进行动态合成的方法、系统以及移动终端
JP2023173764A (ja) 情報処理装置、情報処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161219

R150 Certificate of patent or registration of utility model

Ref document number: 6070783

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150