JP2017107597A - Information processing device, information processing method, program, and information processing system - Google Patents

Information processing device, information processing method, program, and information processing system Download PDF

Info

Publication number
JP2017107597A
JP2017107597A JP2017037192A JP2017037192A JP2017107597A JP 2017107597 A JP2017107597 A JP 2017107597A JP 2017037192 A JP2017037192 A JP 2017037192A JP 2017037192 A JP2017037192 A JP 2017037192A JP 2017107597 A JP2017107597 A JP 2017107597A
Authority
JP
Japan
Prior art keywords
captured image
display
unit
real space
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017037192A
Other languages
Japanese (ja)
Other versions
JP6540732B2 (en
Inventor
利文 金丸
Toshifumi Kanamaru
利文 金丸
博 永井
Hiroshi Nagai
博 永井
吉田 敏之
Toshiyuki Yoshida
敏之 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2017037192A priority Critical patent/JP6540732B2/en
Publication of JP2017107597A publication Critical patent/JP2017107597A/en
Application granted granted Critical
Publication of JP6540732B2 publication Critical patent/JP6540732B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable the display of a picked-up image obtained by imaging a wider area or a picked-up image obtained by imaging a narrower area by switching the picked-up images.SOLUTION: An information processing device includes a real space information providing part for displaying a display screen of a first display mode for displaying a first picked-up image related to a first area of a real space in a display part. The real space information providing part switches the display screen of the first display mode to a display screen of a second display mode for displaying a second picked-up image related to a second area of the real space narrower than the first area to display the display screen in the display part in accordance with a designation of a position in the first picked-up image by a user in the display screen of the first display mode.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法、プログラム、及び、情報処理システムに関する。   The present invention relates to an information processing apparatus, an information processing method, a program, and an information processing system.

近年、従来のようにハードウェアで実装される電話機に代わって、アプリケーションソフトウェアで実装されるソフトフォンが普及してきている。ソフトフォンはソフトウェアで実装されるため、ソフトフォンへの機能追加、ソフトフォンと他のアプリケーションソフトウェアとの連携等を比較的容易に実現することができる。そのため、ソフトフォンに関する様々な応用技術が提案されている。   In recent years, softphones implemented with application software have become popular in place of telephones implemented with hardware as in the past. Since the softphone is implemented by software, it is possible to relatively easily realize addition of functions to the softphone, cooperation between the softphone and other application software, and the like. Therefore, various applied technologies related to softphones have been proposed.

例えば、特許文献1には、カメラから得られた撮像画像の表示画面において当該撮像画像に写っている人物をタッチすると、顔認識により当該人物を特定し、当該人物の電話番号を取得し、当該人物への電話発信を行う技術が、開示されている。   For example, in Patent Document 1, when a person who appears in the captured image is touched on the display screen of the captured image obtained from the camera, the person is identified by face recognition, the telephone number of the person is acquired, A technique for making a telephone call to a person has been disclosed.

特開2007−208863号公報JP 2007-208863 A

しかし、上記特許文献1では、より広い領域が撮像された撮像画像とより狭い領域が撮像された撮像画像とを切り替えて表示することは開示されていない。   However, Patent Document 1 does not disclose switching between a captured image obtained by imaging a wider area and a captured image obtained by imaging a narrower area.

そこで、本発明は、より広い領域が撮像された撮像画像とより狭い領域が撮像された撮像画像とを切り替えて表示させることが可能な、新規かつ改良された情報処理装置、情報処理方法、プログラム、及び、情報処理システムを提供しようとするものである。   Therefore, the present invention provides a new and improved information processing apparatus, information processing method, and program capable of switching and displaying a captured image obtained by capturing a wider area and a captured image obtained by capturing a narrower area. And an information processing system.

本発明によれば、実空間の第1領域に係わる第1撮像画像を表示する第1表示モードの表示画面を表示部に表示させる実空間情報提供部、を備え、前記実空間情報提供部は、前記第1表示モードの表示画面における、ユーザによる前記第1撮像画像内の位置の指定に応じて、前記第1領域よりも狭い前記実空間の第2領域に係わる第2撮像画像を表示する第2表示モードの表示画面へ前記第1表示モードの表示画面を切り替えて前記表示部に表示させる、情報処理装置が提供される。   According to the present invention, the real space information providing unit includes a real space information providing unit that causes the display unit to display a display screen in the first display mode for displaying the first captured image related to the first region of the real space. The second captured image related to the second area of the real space that is narrower than the first area is displayed according to the designation of the position in the first captured image by the user on the display screen in the first display mode. An information processing apparatus is provided that switches the display screen of the first display mode to the display screen of the second display mode and displays the display screen on the display unit.

前記第2領域は、前記ユーザにより指定された前記第1撮像画像内の位置に対応する前記実空間内の位置を含む領域であってもよい。   The second area may be an area including a position in the real space corresponding to a position in the first captured image designated by the user.

前記第2領域は、前記ユーザにより指定された前記第1撮像画像内の位置に対応する前記実空間内の位置を中心とする領域であってもよい。   The second area may be an area centered on a position in the real space corresponding to a position in the first captured image designated by the user.

少なくとも前記第1撮像画像は、前記第1領域の一部又は全体の撮像画像であってもよい。   At least the first captured image may be a captured image of a part or the whole of the first region.

少なくとも前記第2撮像画像は、撮像動画像であってもよい。   At least the second captured image may be a captured moving image.

前記第2表示モードの表示画面は、表示モードを前記第2表示モードから前記第1表示モードへ切り替えるためのボタン表示を含んでもよい。   The display screen in the second display mode may include a button display for switching the display mode from the second display mode to the first display mode.

前記第2表示モードの表示画面において、前記ボタン表示は、前記第2撮像画像に重畳せず、かつ、前記第2撮像画像の近傍に表示されてもよい。   On the display screen in the second display mode, the button display may be displayed in the vicinity of the second captured image without being superimposed on the second captured image.

前記第1撮像画像および前記第2撮像画像は、前記実空間内に配置された1つの撮像装置による撮像に基づき生成された撮像画像であってもよい。   The first captured image and the second captured image may be a captured image generated based on an image captured by a single imaging device arranged in the real space.

前記情報処理装置は、ネットワークに接続する通信部をさらに備え、前記通信部は、前記ネットワークを介して前記第1撮像画像および前記第2撮像画像を取得してもよい。   The information processing apparatus may further include a communication unit connected to a network, and the communication unit may acquire the first captured image and the second captured image via the network.

前記通信部は、前記ネットワークに接続されているサーバから前記第1撮像画像および前記第2撮像画像を前記ネットワークを介して取得してもよい。   The communication unit may acquire the first captured image and the second captured image from a server connected to the network via the network.

前記実空間情報提供部は、前記ユーザによる前記第1撮像画像内の位置の指定に応じて、前記第2領域を撮像可能なように前記撮像装置の向きを変更させる要求を前記サーバへ前記通信部に送信させてもよい。   The real space information providing unit sends a request to the server to change the orientation of the imaging device so that the second area can be imaged in accordance with the designation of the position in the first captured image by the user. You may make it transmit to a part.

前記ネットワークは、LANおよび/またはインターネットであってもよい。   The network may be a LAN and / or the Internet.

前記情報処理装置は、前記表示部をさらに備え、前記第1撮像画像内の位置は、前記表示部に対する前記ユーザのタッチ操作により指定されてもよい。   The information processing apparatus may further include the display unit, and a position in the first captured image may be designated by a user's touch operation on the display unit.

前記第1表示モードは俯瞰モードであり、前記第2表示モードは近接モードであってもよい。   The first display mode may be an overhead mode, and the second display mode may be a proximity mode.

前記実空間情報提供部は、前記表示部に対するユーザのズーム率の指定操作に応じて、前記撮像装置の光学ズームまたはデジタルズームのズーム率を、指定されたズーム率に変更させる要求を前記サーバへ前記通信部に送信させ、前記通信部が前記ネットワークを介して前記指定されたズーム率に変更後の前記撮像装置による撮像に基づき生成される前記第2撮像画像を取得すると、前記実空間情報提供部は、前記指定されたズーム率に変更後の前記第2撮像画像を表示する前記第2表示モードの表示画面を前記表示部に表示させてもよい。   The real space information providing unit requests the server to change the optical zoom or digital zoom zoom rate of the imaging device to a specified zoom rate in response to a user's zoom rate specifying operation on the display unit. When the communication unit transmits the second captured image generated based on imaging by the imaging device after the change to the designated zoom rate via the network, the real space information providing unit May display a display screen in the second display mode for displaying the second captured image after the change to the designated zoom ratio on the display unit.

また、本発明によれば、実空間の第1領域に係わる第1撮像画像を表示する第1表示モードの表示画面を表示部に表示させるステップと、前記第1表示モードの表示画面における、ユーザによる前記第1撮像画像内の位置の指定に応じて、前記第1領域よりも狭い前記実空間の第2領域に係わる第2撮像画像を表示する第2表示モードの表示画面へ前記第1表示モードの表示画面を切り替えて前記表示部に表示させるステップと、を含む、情報処理方法が提供される。   In addition, according to the present invention, the step of causing the display unit to display a display screen in the first display mode for displaying the first captured image relating to the first region of the real space, and the user in the display screen in the first display mode. The first display to the display screen in the second display mode for displaying the second captured image related to the second region of the real space narrower than the first region in accordance with the designation of the position in the first captured image by And switching the mode display screen to display on the display unit.

また、本発明によれば、コンピュータを、実空間の第1領域に係わる第1撮像画像を表示する第1表示モードの表示画面を表示部に表示させる実空間情報提供部、として機能させるための、プログラムであって、前記実空間情報提供部は、前記第1表示モードの表示画面における、ユーザによる前記第1撮像画像内の位置の指定に応じて、前記第1領域よりも狭い前記実空間の第2領域に係わる第2撮像画像を表示する第2表示モードの表示画面へ前記第1表示モードの表示画面を切り替えて前記表示部に表示させる、プログラムが提供される。   In addition, according to the present invention, it is possible to cause a computer to function as a real space information providing unit that causes a display unit to display a display screen in a first display mode that displays a first captured image related to the first region of the real space. The real space information providing unit is the real space that is narrower than the first region in accordance with the designation of the position in the first captured image by the user on the display screen in the first display mode. There is provided a program for switching the display screen in the first display mode to the display screen in the second display mode for displaying the second captured image related to the second area, and displaying the first display mode on the display unit.

また、本発明によれば、実空間の第1領域に係わる第1撮像画像を表示する第1表示モードの表示画面を表示部に表示させる実空間情報提供部、を備え、前記実空間情報提供部は、前記第1表示モードの表示画面における、ユーザによる前記第1撮像画像内の位置の指定に応じて、前記第1領域よりも狭い前記実空間の第2領域に係わる第2撮像画像を表示する第2表示モードの表示画面へ前記第1表示モードの表示画面を切り替えて前記表示部に表示させる、情報処理システムが提供される。   In addition, according to the present invention, the real space information provision unit includes a real space information provision unit that causes the display unit to display a display screen in the first display mode for displaying the first captured image related to the first region of the real space. The unit displays a second captured image related to the second region of the real space that is narrower than the first region in response to the designation of the position in the first captured image by the user on the display screen in the first display mode. An information processing system is provided in which the display screen of the first display mode is switched to the display screen of the second display mode to be displayed and displayed on the display unit.

以上説明したように本発明によれば、より広い領域が撮像された撮像画像とより狭い領域が撮像された撮像画像とを切り替えて表示させることが可能となる。   As described above, according to the present invention, it is possible to switch and display a captured image obtained by capturing a wider area and a captured image obtained by capturing a narrower area.

一実施形態に係る情報処理システムの概略的な構成の一例を示す説明図である。It is explanatory drawing which shows an example of a schematic structure of the information processing system which concerns on one Embodiment. 一実施形態に係る端末装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the terminal device which concerns on one Embodiment. 一実施形態に係る端末装置の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of the terminal device which concerns on one Embodiment. 俯瞰モードで表示される表示画面の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the display screen displayed in bird's-eye view mode. 近接モードで表示される表示画面の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the display screen displayed in proximity | contact mode. ユーザにより指定される近接撮像画像内の位置の第1の例を説明するための説明図である。It is explanatory drawing for demonstrating the 1st example of the position in the close proximity captured image designated by the user. ユーザにより指定される近接撮像画像内の位置の第2の例を説明するための説明図である。It is explanatory drawing for demonstrating the 2nd example of the position in the close proximity captured image designated by the user. センタオフィスに対応する3次元仮想空間の第1の例を説明するための説明図である。It is explanatory drawing for demonstrating the 1st example of the three-dimensional virtual space corresponding to a center office. 図8に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of selection of the object arrange | positioned in the three-dimensional virtual space shown by FIG. センタオフィスに対応する3次元仮想空間の第2の例を説明するための説明図である。It is explanatory drawing for demonstrating the 2nd example of the three-dimensional virtual space corresponding to a center office. 図10に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of selection of the object arrange | positioned in the three-dimensional virtual space shown by FIG. 会話モードで表示される表示画面の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the display screen displayed in conversation mode. 表示モードの遷移の一例を説明するための遷移図である。It is a transition diagram for demonstrating an example of transition of a display mode. 一実施形態に係る端末装置100のソフトウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the software structure of the terminal device 100 which concerns on one Embodiment. 一実施形態に係る情報管理サーバのハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the information management server which concerns on one Embodiment. 一実施形態に係る情報管理サーバの機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of the information management server which concerns on one Embodiment. 一実施形態に係る情報処理の概略的な流れの一例を示すフローチャートである。It is a flowchart which shows an example of the schematic flow of the information processing which concerns on one Embodiment. 一実施形態に係る起動処理の概略的な流れの一例を示すフローチャートである。It is a flowchart which shows an example of the schematic flow of the starting process which concerns on one Embodiment.

以下に添付の図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

以降、<1.情報処理システムの概略的な構成>、<2.端末装置の構成>、<3.情報管理サーバの構成>、<4.処理の流れ>という順序で本発明の実施形態を説明する。   Thereafter, <1. Schematic configuration of information processing system>, <2. Configuration of terminal device>, <3. Configuration of information management server>, <4. Embodiments of the present invention will be described in the order of processing flow>.

<<1.情報処理システムの概略的な構成>>
まず、図1を参照して、本発明の実施形態に係る情報処理システムの概略的な構成を説明する。図1は、本実施形態に係る情報処理システムの概略的な構成の一例を示す説明図である。図1を参照すると、情報処理システムは、例えば、複数の拠点にわたって存在する。この例では、情報処理システムは、センタオフィス10とサテライトオフィス20(又はホームオフィスと20)にわたって存在する。センタオフィス10は、比較的大規模なオフィスであり、サテライトオフィス20(又はホームオフィスと20)は、比較的小規模なオフィスである。
<< 1. Schematic configuration of information processing system >>
First, a schematic configuration of an information processing system according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is an explanatory diagram illustrating an example of a schematic configuration of an information processing system according to the present embodiment. Referring to FIG. 1, the information processing system exists over a plurality of locations, for example. In this example, the information processing system exists over the center office 10 and the satellite office 20 (or the home office 20). The center office 10 is a relatively large office, and the satellite office 20 (or the home office and 20) is a relatively small office.

情報処理システムは、センタオフィス10において、カメラ11、マイクロフォン13、センサ15、メディア配信サーバ17、情報管理サーバ200、及びLAN(Local Area Network)19を含む。また、情報処理システムは、サテライトオフィス20(又はホームオフィスと20)において、端末装置100、ディスプレイ21、及びLAN23を含む。また、情報処理システムは、さらにPBX(Private Branch eXchange)40を含む。   In the center office 10, the information processing system includes a camera 11, a microphone 13, a sensor 15, a media distribution server 17, an information management server 200, and a LAN (Local Area Network) 19. The information processing system includes a terminal device 100, a display 21, and a LAN 23 in the satellite office 20 (or the home office 20). The information processing system further includes a PBX (Private Branch eXchange) 40.

(カメラ11)
カメラ11は、当該カメラ11が向いている方向(即ち、撮像方向)の領域を撮像する。センタオフィス10には、複数のカメラ11が設置される。そして、設置された各カメラ11は、それぞれの設置位置からセンタオフィスの一部又は全体を撮像する。このように、情報処理システムでは、様々な位置からセンタオフィスが撮像される。カメラ11を通じて生成される撮像画像は、静止画像であってもよく、又は動画像(即ち映像)であってもよい。
(Camera 11)
The camera 11 captures an area in the direction in which the camera 11 is facing (that is, the imaging direction). A plurality of cameras 11 are installed in the center office 10. Then, each installed camera 11 images a part or the whole of the center office from each installation position. Thus, in the information processing system, the center office is imaged from various positions. The captured image generated through the camera 11 may be a still image or a moving image (that is, a video).

また、カメラ11は、例えば、自動で向きを変えることができる。さらに、カメラ11は、例えば、ズーム機能を有する。当該ズーム機能は、光学ズーム機能であってもよく、又はデジタルズーム機能であってもよい。   Moreover, the camera 11 can change direction automatically, for example. Furthermore, the camera 11 has a zoom function, for example. The zoom function may be an optical zoom function or a digital zoom function.

また、カメラ11は、位置を変えることが可能であってもよい。一例として、カメラ11は、ドリーにより可動であってもよい。即ち、カメラ11は、レールに沿って可動であってもよい。この場合に、レールに沿って動くためのモータの制御により、カメラ11が前後に動いてもよい。これにより、1台のカメラ11であっても、異なる位置から被写体が撮像された撮像画像を生成することが可能になる。   Further, the camera 11 may be capable of changing the position. As an example, the camera 11 may be movable by a dolly. That is, the camera 11 may be movable along the rail. In this case, the camera 11 may move back and forth by controlling the motor for moving along the rail. As a result, even one camera 11 can generate a captured image in which the subject is captured from different positions.

また、カメラ11が位置を変えることが可能である場合に、上記ズーム機能は、カメラ11の位置を変えることによるズーム機能であってもよい。一例として、上記ズーム機能は、ドリーによるズーム機能であってもよい。例えば、被写体に向かってカメラ11を動かすことによりズームインを行い、カメラ11が被写体から離れる方向にカメラ11を動かすことによりズームアウトを行ってもよい。なお、ドリーによるズームは、光学ズーム又はデジタルズームのように、精緻なズームである必要はない。例えば、ズームインでは、被写体がより大きく写った撮像画像が生成されればよく、ズームアウトでは、被写体がより小さく写った撮像画像が生成されればよい。   Further, when the camera 11 can change the position, the zoom function may be a zoom function by changing the position of the camera 11. As an example, the zoom function may be a dolly zoom function. For example, zooming in may be performed by moving the camera 11 toward the subject, and zooming out by moving the camera 11 in a direction away from the subject. Note that the zoom by dolly does not need to be a precise zoom like the optical zoom or the digital zoom. For example, in zooming in, it is only necessary to generate a captured image that shows a larger subject, and in zooming out, it is only necessary to generate a captured image that shows a smaller subject.

(マイクロフォン13)
マイクロフォン13は、当該マイクロフォン13の周囲の音を集音する。センタオフィス10には、複数のマイクロフォン13が設置される。そして、設置された各マイクロフォン13は、センタオフィス内のそれぞれの設置位置の周囲の音を集音する。このように、情報処理システムでは、センタオフィス10内の様々な位置での音が集音される。
(Microphone 13)
The microphone 13 collects sound around the microphone 13. A plurality of microphones 13 are installed in the center office 10. And each installed microphone 13 collects the sound around each installation position in the center office. In this way, in the information processing system, sounds at various positions in the center office 10 are collected.

(センサ15)
センサ15は、様々な種類のセンサを含み得る。例えば、センサ15は、人物が座席にいるか否かを判定する座席センサを含む。当該座席センサは、各座席に設置され、各座席に人物が座っているか否かを判定する。座席センサは、例えば、押圧を検出可能ないずれかのセンサである。
(Sensor 15)
The sensor 15 can include various types of sensors. For example, the sensor 15 includes a seat sensor that determines whether a person is in the seat. The seat sensor is installed in each seat and determines whether a person is sitting in each seat. The seat sensor is, for example, any sensor that can detect pressing.

(メディア配信サーバ17)
メディア配信サーバ17は、要求に応じて端末装置にメディア(例えば、音声、映像等)を配信する。
(Media distribution server 17)
The media distribution server 17 distributes media (for example, audio, video, etc.) to the terminal device in response to a request.

(情報管理サーバ200)
情報管理サーバ200は、情報処理システムにおいて用いられる様々な情報を管理する。即ち、情報管理サーバ200は、当該様々な情報を記憶し、適時に当該様々な情報を更新する。
(Information management server 200)
The information management server 200 manages various information used in the information processing system. That is, the information management server 200 stores the various information and updates the various information in a timely manner.

例えば、情報管理サーバ200は、カメラ11、マイクロフォン13及びセンサ15に関するパラメータを管理する。具体的には、例えば、情報管理サーバ200は、カメラ11のパラメータとして、カメラ11の設置位置、撮像方向(例えば、カメラのレンズと垂直な方向)、ズーム率等の情報を記憶し、更新する。   For example, the information management server 200 manages parameters regarding the camera 11, the microphone 13, and the sensor 15. Specifically, for example, the information management server 200 stores and updates information such as an installation position of the camera 11, an imaging direction (for example, a direction perpendicular to the camera lens), a zoom ratio, and the like as parameters of the camera 11. .

また、例えば、情報管理サーバ200は、実空間に対応する3次元仮想空間のデータを管理する。当該3次元仮想空間は、例えば、センタオフィス10を模した3次元仮想空間である。また、当該3次元仮想空間には、オブジェクトが配置される。例えば、当該オブジェクトは、人物に対応する。そして、当該オブジェクトは、センタオフィス10の各座席の位置に対応する上記3次元仮想空間内の3次元仮想位置に配置される。即ち、人物が座席に座っている場合には当該人物が存在するであろう位置に対応する3次元仮想位置に、上記オブジェクトが配置される。一例として、当該オブジェクトは、円柱のオブジェクトである。3次元仮想空間については後述する。   For example, the information management server 200 manages data in a three-dimensional virtual space corresponding to the real space. The three-dimensional virtual space is, for example, a three-dimensional virtual space that simulates the center office 10. An object is arranged in the three-dimensional virtual space. For example, the object corresponds to a person. Then, the object is arranged at a three-dimensional virtual position in the three-dimensional virtual space corresponding to the position of each seat of the center office 10. That is, when a person is sitting on the seat, the object is arranged at a three-dimensional virtual position corresponding to a position where the person will be present. As an example, the object is a cylindrical object. The three-dimensional virtual space will be described later.

(LAN19)
また、LAN19は、センタオフィス10内の各装置を接続するネットワークである。また、LAN19は、外部ネットワーク30を介して、センタオフィス10内の各装置とセンタオフィス10外の装置とを接続する。当該外部ネットワーク30は、例えば、インターネットを含む。
(LAN19)
The LAN 19 is a network that connects each device in the center office 10. The LAN 19 connects each device in the center office 10 and a device outside the center office 10 via the external network 30. The external network 30 includes the Internet, for example.

(端末装置100)
端末装置100は、ユーザにより使用される。例えば、端末装置100は、電話、メール等のコミュニケーションを行うための機能をユーザに提供する。端末装置100は、一例としてタブレット端末である。なお、端末装置100は、タブレット端末の代わりに、スマートフォン、PC(Personal Computer)、ディスプレイ付き電話機等の、表示機能及び通信機能を有する別の装置であってもよい。
(Terminal device 100)
The terminal device 100 is used by a user. For example, the terminal device 100 provides a user with a function for performing communication such as telephone and e-mail. The terminal device 100 is a tablet terminal as an example. Note that the terminal device 100 may be another device having a display function and a communication function, such as a smartphone, a PC (Personal Computer), and a display-equipped telephone, instead of the tablet terminal.

(ディスプレイ21)
ディスプレイ21は、いずれかの画面を表示する。例えば、ディスプレイ21は、カメラ11を通じて生成された撮像画像を含む画面を表示する。これにより、端末装置100のユーザを含む多数の人物が、ディスプレイ21を介してセンタオフィス10の様子を見ることができる。
(Display 21)
The display 21 displays one of the screens. For example, the display 21 displays a screen including a captured image generated through the camera 11. Thereby, many persons including the user of the terminal device 100 can see the state of the center office 10 via the display 21.

また、ディスプレイ21は、例えば、いずれかの音声も出力する。例えば、ディスプレイ21は、マイクロフォン13により集音される音声を出力する。これにより、端末装置100のユーザを含む多数の人物が、ディスプレイ21を介してセンタオフィス10の音を聞くことができる。   Further, the display 21 outputs any sound, for example. For example, the display 21 outputs sound collected by the microphone 13. Thereby, many persons including the user of the terminal device 100 can hear the sound of the center office 10 via the display 21.

(LAN23)
また、LAN23は、サテライトオフィス20(又はホームオフィス20)内の各装置を接続するネットワークである。また、LAN23は、外部ネットワーク30を介して、サテライトオフィス20内の各装置とサテライトオフィス20外の装置とを接続する。
(LAN23)
The LAN 23 is a network that connects devices in the satellite office 20 (or the home office 20). The LAN 23 connects each device in the satellite office 20 to a device outside the satellite office 20 via the external network 30.

(PBX40)
PBX40は、外部ネットワーク30を介した装置間の通信を可能にする。PBX40は、例えば、H.323又はSIP(Session Initiation Protocol)に従って動作する。
(PBX40)
The PBX 40 enables communication between devices via the external network 30. PBX40 is, for example, H.264. It operates according to H.323 or SIP (Session Initiation Protocol).

具体的には、例えば、PBX40は、通信用の識別情報(例えば、電話番号)とIP(Internet Protocol)アドレスとを、互いに対応付けて記憶する。そして、PBX40は、要求に応じて、通信用の識別情報をIPアドレスに変換し、当該IPアドレスを要求元に提供する。   Specifically, for example, the PBX 40 stores identification information for communication (for example, a telephone number) and an IP (Internet Protocol) address in association with each other. In response to the request, the PBX 40 converts the communication identification information into an IP address, and provides the IP address to the request source.

なお、PBX40は、LAN19又はLAN23に接続されてもよい。   The PBX 40 may be connected to the LAN 19 or the LAN 23.

<<2.端末装置の構成>>
続いて、図2〜図14を参照して、本実施形態に係る端末装置100の構成の一例を説明する。
<< 2. Terminal device configuration >>
Next, an example of the configuration of the terminal device 100 according to the present embodiment will be described with reference to FIGS.

<2−1.ハードウェア構成>>
まず、図2を参照して、本実施形態に係る端末装置100のハードウェア構成の一例を説明する。図2は、本実施形態に係る端末装置100のハードウェア構成の一例を示すブロック図である。図2を参照すると、端末装置100は、CPU(Central Processing Unit)801、ROM(Read Only Memory)803、RAM(Random Access Memory)805、バス807、記憶装置809、通信インターフェース811、カメラ813、マイクロフォン815、スピーカ817及びタッチパネル820を備える。
<2-1. Hardware configuration >>
First, an example of the hardware configuration of the terminal device 100 according to the present embodiment will be described with reference to FIG. FIG. 2 is a block diagram illustrating an example of a hardware configuration of the terminal device 100 according to the present embodiment. Referring to FIG. 2, the terminal device 100 includes a CPU (Central Processing Unit) 801, a ROM (Read Only Memory) 803, a RAM (Random Access Memory) 805, a bus 807, a storage device 809, a communication interface 811, a camera 813, a microphone. 815, a speaker 817, and a touch panel 820.

CPU801は、端末装置100における様々な処理を実行する。また、ROM803は、端末装置100における処理をCPU801に実行させるためのプログラム及びデータを記憶する。また、RAM805は、CPU801の処理の実行時に、プログラム及びデータを一時的に記憶する。   The CPU 801 executes various processes in the terminal device 100. The ROM 803 stores a program and data for causing the CPU 801 to execute processing in the terminal device 100. The RAM 805 temporarily stores programs and data when the CPU 801 executes processing.

バス807は、CPU801、ROM803及びRAMを相互に接続する。バス807には、さらに、記憶装置809、通信インターフェース811、カメラ813、マイクロフォン815、スピーカ817及びタッチパネル820が接続される。バス807は、例えば、複数の種類のバスを含む。一例として、バス807は、CPU801、ROM803及びRAM805を接続する高速バスと、当該高速バスよりも低速の1つ以上の別のバスを含む。   A bus 807 connects the CPU 801, the ROM 803, and the RAM to each other. A storage device 809, a communication interface 811, a camera 813, a microphone 815, a speaker 817, and a touch panel 820 are further connected to the bus 807. The bus 807 includes, for example, a plurality of types of buses. As an example, the bus 807 includes a high-speed bus that connects the CPU 801, the ROM 803, and the RAM 805, and one or more other buses that are slower than the high-speed bus.

記憶装置809は、端末装置100内で一時的又は恒久的に保存すべきデータを記憶する。記憶装置809は、例えば、ハードディスク(Hard Disk)等の磁気記憶装置であってもよく、又は、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ(flash memory)、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)及びPRAM(Phase change Random Access Memory)等の不揮発性メモリ(nonvolatile memory)であってもよい。   The storage device 809 stores data to be temporarily or permanently stored in the terminal device 100. The storage device 809 may be, for example, a magnetic storage device such as a hard disk, or an EEPROM (Electrically Erasable and Programmable Read Only Memory), a flash memory, an MRAM (Magnetoresistive Random Access Memory). Further, non-volatile memories such as FeRAM (Ferroelectric Random Access Memory) and PRAM (Phase change Random Access Memory) may be used.

通信インターフェース811は、端末装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)外部装置と通信する。通信インターフェース811は、無線通信用のインターフェースであってもよく、この場合に、例えば、通信アンテナ、RF回路及びその他の通信処理用の回路を含んでもよい。また、通信インターフェース811は、有線通信用のインターフェースであってもよく、この場合に、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。   The communication interface 811 is a communication unit included in the terminal device 100 and communicates with an external device via a network (or directly). The communication interface 811 may be an interface for wireless communication. In this case, for example, a communication antenna, an RF circuit, and other communication processing circuits may be included. The communication interface 811 may be an interface for wired communication. In this case, for example, a LAN terminal, a transmission circuit, and other communication processing circuits may be included.

カメラ813は、被写体を撮像する。カメラ813は、例えば、光学系、撮像素子及び画像処理回路を含む。   The camera 813 images a subject. The camera 813 includes, for example, an optical system, an image sensor, and an image processing circuit.

マイクロフォン815は、周囲の音を集音する。マイクロフォン815は、周囲の音を電気信号へ変換し、当該電気信号をデジタルデータに変換する。   The microphone 815 collects ambient sounds. The microphone 815 converts ambient sound into an electric signal, and converts the electric signal into digital data.

スピーカ817は、音声を出力する。スピーカ817は、デジタルデータを電気信号に変換し、当該電気信号を音声に変換する。   The speaker 817 outputs sound. The speaker 817 converts digital data into an electric signal, and converts the electric signal into sound.

タッチパネル820は、タッチ検出面821及び表示面823を含む。   The touch panel 820 includes a touch detection surface 821 and a display surface 823.

タッチ検出面821は、タッチパネル820におけるタッチ位置を検出する。より具体的には、例えば、ユーザが、タッチパネル820にタッチすると、タッチ検出面821は、当該タッチを感知し、当該タッチの位置に応じた電気信号を生成し、そして当該電気信号をタッチ位置の情報に変換する。タッチ検出面821は、例えば、静電容量方式、抵抗膜方式、光学式等の任意のタッチ検出方式に従って形成され得る。   Touch detection surface 821 detects a touch position on touch panel 820. More specifically, for example, when the user touches the touch panel 820, the touch detection surface 821 senses the touch, generates an electrical signal corresponding to the position of the touch, and converts the electrical signal to the touch position. Convert to information. The touch detection surface 821 can be formed according to an arbitrary touch detection method such as a capacitance method, a resistance film method, and an optical method, for example.

表示面823は、端末装置100からの出力画像(即ち、表示画面)を表示する。表示面823は、例えば、液晶、有機EL(Organic Light-Emitting Diode:OLED)、CRT(Cathode Ray Tube)等を用いて実現され得る。   The display surface 823 displays an output image (that is, a display screen) from the terminal device 100. The display surface 823 can be realized using, for example, a liquid crystal, an organic EL (Organic Light-Emitting Diode: OLED), a CRT (Cathode Ray Tube), or the like.

<2−2.機能構成>>
次に、本実施形態に係る端末装置100の機能構成の一例を説明する。図3は、本実施形態に係る端末装置100の機能構成の一例を示すブロック図である。図3を参照すると、端末装置100は、通信部110、入力部120、撮像部130、集音部140、表示部150、音声出力部160、記憶部170及び制御部180を備える。
<2-2. Functional configuration >>
Next, an example of a functional configuration of the terminal device 100 according to the present embodiment will be described. FIG. 3 is a block diagram illustrating an example of a functional configuration of the terminal device 100 according to the present embodiment. Referring to FIG. 3, the terminal device 100 includes a communication unit 110, an input unit 120, an imaging unit 130, a sound collection unit 140, a display unit 150, an audio output unit 160, a storage unit 170, and a control unit 180.

(通信部110)
通信部110は、他の装置と通信する。例えば、通信部110は、LAN23に直接的に接続され、サテライトオフィス20内の各装置と通信する。また、通信部110は、外部ネットワーク30及びLAN19を介して、センタオフィス10内の各装置と通信する。具体的には、例えば、通信部110は、カメラ11、マイクロフォン13、センサ15、メディア配信サーバ17及び情報管理サーバ200と通信する。なお、通信部110は、例えば、通信インターフェース811により実装され得る。
(Communication unit 110)
The communication unit 110 communicates with other devices. For example, the communication unit 110 is directly connected to the LAN 23 and communicates with each device in the satellite office 20. The communication unit 110 communicates with each device in the center office 10 via the external network 30 and the LAN 19. Specifically, for example, the communication unit 110 communicates with the camera 11, the microphone 13, the sensor 15, the media distribution server 17, and the information management server 200. Note that the communication unit 110 can be implemented by the communication interface 811, for example.

(入力部120)
入力部120は、端末装置100のユーザによる入力を受け付ける。そして、入力部120は、入力結果を制御部180へ提供する。
(Input unit 120)
The input unit 120 receives input from the user of the terminal device 100. The input unit 120 provides the input result to the control unit 180.

例えば、入力部120は、表示画面においてユーザにより指定される位置を検出する。より具体的には、例えば、入力部120は、タッチ検出面821により実装され、タッチパネル820におけるタッチ位置を検出する。そして、入力部120は、検出されたタッチ位置を制御部820へ提供する。   For example, the input unit 120 detects a position designated by the user on the display screen. More specifically, for example, the input unit 120 is mounted by a touch detection surface 821 and detects a touch position on the touch panel 820. Then, the input unit 120 provides the detected touch position to the control unit 820.

(撮像部130)
撮像部130は、被写体を撮像する。例えば、撮像部130は、端末装置100の正面方向の領域を撮像する。この場合に、撮像部130は、端末装置100のユーザを撮像する。撮像部130は、撮像結果(即ち、撮像画像)を制御部180に提供する。なお、撮像部130は、例えば、カメラ813により実装され得る。
(Imaging unit 130)
The imaging unit 130 images a subject. For example, the imaging unit 130 captures an area in the front direction of the terminal device 100. In this case, the imaging unit 130 images the user of the terminal device 100. The imaging unit 130 provides the imaging result (that is, the captured image) to the control unit 180. Note that the imaging unit 130 may be implemented by a camera 813, for example.

(集音部140)
集音部140は、端末装置100の周囲の音を集音する。例えば、集音部140は、端末装置100のユーザの声を集音する。集音部140は、集音結果(即ち、音声データ)を制御部180に提供する。なお、集音部140は、例えば、マイクロフォン815により実装され得る。
(Sound collector 140)
The sound collection unit 140 collects sounds around the terminal device 100. For example, the sound collection unit 140 collects the voice of the user of the terminal device 100. The sound collection unit 140 provides a sound collection result (that is, sound data) to the control unit 180. Note that the sound collection unit 140 can be implemented by a microphone 815, for example.

(表示部150)
表示部150は、端末装置100からの出力画像(即ち、表示画面)を表示する。表示部150は、制御部180による制御に応じて表示画面を表示する。なお、表示部150は、例えば、表示面823により実装され得る。
(Display unit 150)
The display unit 150 displays an output image (that is, a display screen) from the terminal device 100. The display unit 150 displays a display screen according to control by the control unit 180. Note that the display unit 150 can be implemented by the display surface 823, for example.

(音声出力部160)
音声出力部160は、端末装置100から音声を出力する。音声出力部160は、制御部180による制御に応じて音声を出力する。なお、音声出力部160は、例えば、スピーカ817により実装され得る。
(Audio output unit 160)
The audio output unit 160 outputs audio from the terminal device 100. The sound output unit 160 outputs sound in accordance with control by the control unit 180. Note that the audio output unit 160 can be implemented by a speaker 817, for example.

(記憶部170)
記憶部170は、端末装置100の動作のためのプログラム及びデータを記憶する。なお、記憶部170は、例えば、記憶装置809により実装され得る。
(Storage unit 170)
The storage unit 170 stores a program and data for the operation of the terminal device 100. Note that the storage unit 170 may be implemented by the storage device 809, for example.

例えば、記憶部170は、実空間に対応する3次元仮想空間のデータを記憶する。具体的には、例えば、情報管理サーバ200が、センタオフィス10に対応する3次元仮想空間のデータを記憶しているので、制御部180が、通信部110を介して、上記3次元仮想空間のデータを取得する。そして、記憶部170は、取得された当該3次元仮想空間のデータを記憶する。   For example, the storage unit 170 stores data in a three-dimensional virtual space corresponding to the real space. Specifically, for example, since the information management server 200 stores the data of the three-dimensional virtual space corresponding to the center office 10, the control unit 180 transmits the data of the three-dimensional virtual space via the communication unit 110. Get the data. Then, the storage unit 170 stores the acquired data of the three-dimensional virtual space.

(制御部180)
制御部180は、端末装置100の様々な機能を提供する。制御部180は、実空間情報提供部181、位置取得部183、オブジェクト選択部185、ID取得部187及び電話部189を含む。なお、制御部180は、例えば、CPU801、ROM803及びRAM805により実装され得る。
(Control unit 180)
The control unit 180 provides various functions of the terminal device 100. The control unit 180 includes a real space information providing unit 181, a position acquisition unit 183, an object selection unit 185, an ID acquisition unit 187, and a telephone unit 189. The control unit 180 can be implemented by, for example, the CPU 801, the ROM 803, and the RAM 805.

(実空間情報提供部181)
実空間情報提供部181は、実空間の情報を端末装置100のユーザに提供する。
(Real space information provider 181)
The real space information providing unit 181 provides real space information to the user of the terminal device 100.

例えば、実空間情報提供部181は、表示部150に、実空間の撮像画像の表示画面を表示させる。より具体的には、例えば、当該撮像画像は、実空間(センタオフィス10)内にあるカメラ11を通じて生成される撮像画像である。当該撮像画像は、カメラ11により生成された撮像画像であってもよく、又は、カメラ11により生成された撮像画像を加工することにより生成された撮像画像であってもよい。また、上記表示画面は、当該撮像画像を一部又は全体に含む画面である。   For example, the real space information providing unit 181 causes the display unit 150 to display a display screen of the captured image of the real space. More specifically, for example, the captured image is a captured image generated through the camera 11 in the real space (center office 10). The captured image may be a captured image generated by the camera 11, or may be a captured image generated by processing the captured image generated by the camera 11. The display screen is a screen that includes the captured image in part or in whole.

実空間情報提供部181は、通信部110を介して、カメラ11により生成される撮像画像を取得する。そして、実空間情報提供部181は、撮像画像を含む表示画面を生成し、表示部150に当該表示画面を表示させる。   The real space information providing unit 181 acquires a captured image generated by the camera 11 via the communication unit 110. Then, the real space information providing unit 181 generates a display screen including the captured image and causes the display unit 150 to display the display screen.

また、例えば、上記撮像画像は、実空間内にある複数の撮像装置のうちの選択された1つの撮像装置を通じて生成された撮像画像である。より具体的には、例えば、上記撮像画像は、センタオフィス10に配置された複数のカメラ11のうちの選択された1つのカメラ11を通じて生成された撮像画像である。ユーザがカメラ11をどのように選択する具体的な手法は後述する。カメラ11を選択できるので、ユーザは所望の位置からの撮像画像を見ることができる。そして、後述するように撮像画像の位置を指定する際に、ユーザはより望ましい撮像画像で位置を指定することができる。   Further, for example, the captured image is a captured image generated through one selected imaging device among a plurality of imaging devices in real space. More specifically, for example, the captured image is a captured image generated through one selected camera 11 among a plurality of cameras 11 arranged in the center office 10. A specific method for the user to select the camera 11 will be described later. Since the camera 11 can be selected, the user can see a captured image from a desired position. Then, when specifying the position of the captured image as described later, the user can specify the position with a more desirable captured image.

また、例えば、上記表示画面は、表示モードに応じた撮像画像を含む。より具体的には、例えば、上記表示画面は、第1の表示モードでは、実空間の第1の領域が撮像された第1の撮像画像を含み、第2の表示モードでは、第1の領域よりも狭い第2の領域が撮像された第2の撮像画像を含む。即ち、実空間情報提供部181は、第1の表示モードでは、上記第1の撮像画像を表示部150に表示させ、第2の表示モードでは、上記第2の撮像画像を表示部150に表示させる。   For example, the display screen includes a captured image corresponding to a display mode. More specifically, for example, the display screen includes a first captured image in which a first area of real space is captured in the first display mode, and the first area in the second display mode. A second captured image in which a narrower second region is captured is included. That is, the real space information providing unit 181 displays the first captured image on the display unit 150 in the first display mode, and displays the second captured image on the display unit 150 in the second display mode. Let

さらに具体的には、例えば、上記第1の撮像画像は、第1のズーム率に対応する撮像画像である。そして、上記第2の撮像画像は、上記第1のズーム率よりも大きい第2のズーム率に対応する撮像画像である。例えば、実空間情報提供部181は、通信部110を介して、カメラ11へのズーム(光学ズーム、デジタルズーム、又は撮像装置の位置の変更によるズーム(例えば、ドリーによるズーム))に関する要求を行うことにより、第1のズーム率に対応する撮像画像、又は第2のズーム率に対応する撮像画像を取得する。または、実空間情報提供部181は、カメラ11により生成された撮像画像に対するデジタルズームにより、第1のズーム率に対応する撮像画像、又は第2のズーム率に対応する撮像画像を生成してもよい。なお、ここでのズーム率は、1.5倍、2倍等の精緻な値である必要はなく、被写体が撮像画像に写る大きさの程度を直接的又は間接的に示すものであればよい。例えば、とりわけカメラ11の位置の変更によるズーム(例えば、ドリーによるズームイン及びズームアウト)が用いられる場合には、ズーム率は、1.5倍、2倍等の精緻な値ではなく、被写体の大きさの程度を直接的に示すもの(例えば、被写体の概ねの大きさの程度を示すパラメータ、等)、又は、被写体の大きさの程度を間接的に示すもの(例えば、レールにおけるカメラ11の位置、等)であってもよい。第1のズーム率に対応する撮像画像は、被写体がより小さく写っている撮像画像であり、第1のズーム率よりも大きい第2のズーム率に対応する撮像画像は、被写体がより大きく写っている撮像画像であればよい。   More specifically, for example, the first captured image is a captured image corresponding to the first zoom rate. The second captured image is a captured image corresponding to a second zoom factor that is larger than the first zoom factor. For example, the real space information providing unit 181 makes a request regarding the zoom (optical zoom, digital zoom, or zoom by changing the position of the imaging device (for example, zoom by dolly)) to the camera 11 via the communication unit 110. Thus, a captured image corresponding to the first zoom factor or a captured image corresponding to the second zoom factor is acquired. Alternatively, the real space information providing unit 181 may generate a captured image corresponding to the first zoom rate or a captured image corresponding to the second zoom rate by digital zooming on the captured image generated by the camera 11. . Note that the zoom rate here does not need to be a precise value such as 1.5 times or 2 times, and may be any value that directly or indirectly indicates the size of the subject in the captured image. . For example, in particular, when zooming by changing the position of the camera 11 (for example, zooming in and out by dolly) is used, the zoom rate is not a precise value such as 1.5 times or 2 times, but the size of the subject. Directly indicating the degree of the subject (for example, a parameter indicating the degree of the approximate size of the subject) or indirectly indicating the degree of the subject (eg, the position of the camera 11 on the rail) , Etc.). The captured image corresponding to the first zoom factor is a captured image in which the subject is smaller, and the captured image corresponding to the second zoom factor that is larger than the first zoom factor is larger in the subject. Any captured image may be used.

一例として、上記表示画面は、俯瞰モードでは、X倍のズーム率(例えば、X=1)での撮像でカメラ11により生成された俯瞰撮像画像を含み、近接モードでは、Y倍のズーム率(Y>X)での撮像でカメラ11により生成された近接撮像画像を含む。即ち、俯瞰撮像画像は、センタオフィス10のより広い領域が撮像された撮像画像であり、近接撮像画像は、センタオフィス10のより狭い領域が撮像された撮像画像である。以下、この点について図4及び図5を参照して具体例を説明する。   As an example, the above-described display screen includes a bird's-eye shot image generated by the camera 11 by shooting at a zoom factor of X (for example, X = 1) in the bird's-eye view mode. It includes a close-up captured image generated by the camera 11 during imaging with Y> X). That is, the bird's-eye-view captured image is a captured image in which a wider area of the center office 10 is captured, and the close-up captured image is a captured image in which a narrower area of the center office 10 is captured. Hereinafter, a specific example of this point will be described with reference to FIGS.

−俯瞰モードで表示される表示画面
図4は、俯瞰モードで表示される表示画面の一例を説明するための説明図である。図4を参照すると、俯瞰モードで表示される表示画面60が示されている。表示画面60は、俯瞰撮像画像61、ボタン画像63、プレゼンスアイコン65、吹き出し画像67及びマップ画像69を含む。
—Display Screen Displayed in Overhead Mode FIG. 4 is an explanatory diagram for explaining an example of a display screen displayed in the overhead view mode. Referring to FIG. 4, a display screen 60 displayed in the overhead view mode is shown. The display screen 60 includes a bird's-eye image 61, a button image 63, a presence icon 65, a balloon image 67, and a map image 69.

俯瞰撮像画像61は、例えば、X倍のズーム率での撮像でカメラ11により生成された撮像画像である。一例として、X=1である。即ち、俯瞰撮像画像61は、ズームなしの撮像でカメラ11により生成された撮像画像である。   The overhead view captured image 61 is, for example, a captured image generated by the camera 11 by imaging at a zoom factor of X times. As an example, X = 1. In other words, the overhead view captured image 61 is a captured image generated by the camera 11 with imaging without zooming.

また、例えば、ユーザが、俯瞰撮像画像61の位置を指定すると、実空間情報提供部181は、表示モードを俯瞰モードから近接モードに切り替える。より具体的には、例えば、ユーザが俯瞰撮像画像61の位置をタッチし、俯瞰撮像画像61に対応するタッチ位置が検出されると、実空間情報提供部181は、表示モードを俯瞰モードから近接モードに切り替える。   For example, when the user designates the position of the overhead view captured image 61, the real space information providing unit 181 switches the display mode from the overhead view mode to the proximity mode. More specifically, for example, when the user touches the position of the overhead view captured image 61 and a touch position corresponding to the overhead view captured image 61 is detected, the real space information providing unit 181 changes the display mode from the overhead view mode. Switch to mode.

また、ボタン画像63は、別のカメラ11を選択するための画像である。例えば、ユーザが、ボタン画像63の位置を指定すると、実空間情報提供部181は、別のカメラ11により生成された俯瞰撮像画像を取得し、表示部150に当該俯瞰撮像画像を表示させる。より具体的には、例えば、ユーザがボタン画像63の位置をタッチし、ボタン画像63に対応するタッチ位置が検出されると、実空間情報提供部181は、別のカメラ11により生成された俯瞰撮像画像を取得し、表示部150に当該俯瞰撮像画像を表示させる。例えば、ボタン画像63Aの位置がユーザにより指定されると、現在のカメラ11の左側に位置するカメラ11が選択される。また、ボタン画像63Bの位置がユーザにより指定されると、現在のカメラ11の右側に位置するカメラ11が選択される。そして、実空間情報提供部181は、選択されたカメラ11により生成された俯瞰撮像画像を取得し、表示部150に、当該俯瞰撮像画像を表示させる。   The button image 63 is an image for selecting another camera 11. For example, when the user designates the position of the button image 63, the real space information providing unit 181 acquires an overhead view captured image generated by another camera 11 and causes the display unit 150 to display the overhead view captured image. More specifically, for example, when the user touches the position of the button image 63 and a touch position corresponding to the button image 63 is detected, the real space information providing unit 181 has an overhead view generated by another camera 11. A captured image is acquired, and the overhead image captured image is displayed on the display unit 150. For example, when the position of the button image 63A is designated by the user, the camera 11 located on the left side of the current camera 11 is selected. When the position of the button image 63B is designated by the user, the camera 11 positioned on the right side of the current camera 11 is selected. Then, the real space information provision unit 181 acquires the overhead view captured image generated by the selected camera 11 and causes the display unit 150 to display the overhead view captured image.

また、プレゼンスアイコン65は、撮像画像61に写る人物の繁忙度を示すアイコンである。例えば、プレゼンスアイコン65は、人物の繁忙度に応じて色が変わる。一例として、プレゼンスアイコンは、赤色の場合に繁忙度が高いことを示し、黄色の場合に繁忙度が普通であることを示し、青色の倍に繁忙度が低いことを示す。後述するように、撮像画像61のうちのどこに人物が写っているはずであるかが分かるので、このようなアイコンを表示することも可能である。   The presence icon 65 is an icon indicating the busyness of the person shown in the captured image 61. For example, the presence icon 65 changes color according to the busyness of the person. As an example, the presence icon indicates that the busyness is high when it is red, indicates that the busyness is normal when it is yellow, and indicates that the busyness is low twice that of blue. As will be described later, since it can be seen where the person should be in the captured image 61, such an icon can also be displayed.

例えばこのように、表示画面60は、例えば、俯瞰撮像画像61に写る人物に関連する情報(以下、「人物関連情報」と呼ぶ)を含む。そして、人物関連情報は、例えば、上記人物の状態を示す状態情報を含む。上述したように、当該状態情報は、一例としてプレゼンスアイコン65である。なお、人物関連情報は、2つ以上の時点における上記人物の状態を示す状態履歴を含んでもよい。一例として、当該状態履歴情報は、撮像画像61に写る人物の繁忙度の履歴を含んでもよい。即ち、表示画面60に、人物の繁忙度の履歴が表示されてもよい。実空間情報提供部181は、例えば、通信部110を介して、情報管理サーバ200から人物関連情報、又は人物関連情報の表示に必要な情報を取得する。   For example, the display screen 60 includes, for example, information related to a person shown in the overhead view captured image 61 (hereinafter referred to as “person related information”). The person related information includes, for example, state information indicating the state of the person. As described above, the state information is the presence icon 65 as an example. The person-related information may include a state history indicating the state of the person at two or more points in time. As an example, the state history information may include a history of busyness of a person shown in the captured image 61. That is, the history of the busyness of the person may be displayed on the display screen 60. For example, the real space information providing unit 181 acquires person-related information or information necessary for displaying the person-related information from the information management server 200 via the communication unit 110.

このような人物関連情報により、ユーザは、人物が置かれている状況をより的確に把握することができる。また、状態情報により、ユーザは、人物にコンタクトしてもよいかをより的確に判断することができる。また、状態履歴により、ユーザは、瞬時のユーザの状態だけではなく、ある期間でのユーザの状態を把握することができるので、ユーザは、人物にコンタクトしてもよいかをさらに的確に判断することができる。   With such person-related information, the user can more accurately grasp the situation where the person is placed. In addition, the status information allows the user to more accurately determine whether or not to contact a person. Moreover, since the user can grasp not only the instantaneous user state but also the user state in a certain period from the state history, the user can more accurately determine whether or not to contact a person. be able to.

また、吹き出し画像67は、撮像画像61に写る人物により提示される文字情報を含む画像である。吹き出し画像67も、人物関連情報の一例である。   The balloon image 67 is an image including character information presented by a person shown in the captured image 61. The balloon image 67 is also an example of person related information.

また、マップ画像69は、センタオフェス10のマップを示す画像である。マップ画像69は、さらに、使用しているカメラ11をアイコンにより示す。なお、とりわけセンタオフィス10内に1つ又は少数のカメラ11しか設置されない場合には、マップ画像69は省略され得る。   The map image 69 is an image showing a map of the center office 10. The map image 69 further indicates the camera 11 being used by an icon. The map image 69 may be omitted particularly when only one or a few cameras 11 are installed in the center office 10.

−近接モードで表示される表示画面
図5は、近接モードで表示される表示画面の一例を説明するための説明図である。図5を参照すると、近接モードで表示される表示画面70が示されている。表示画面70は、近接撮像画像71、ボタン画像73及びマップ画像75を含む。
—Display Screen Displayed in Proximity Mode FIG. 5 is an explanatory diagram for explaining an example of a display screen displayed in the proximity mode. Referring to FIG. 5, a display screen 70 displayed in the proximity mode is shown. The display screen 70 includes a close-up captured image 71, a button image 73, and a map image 75.

近接撮像画像71は、例えば、Y倍のズーム率(Y>X)での撮像でカメラ11により生成された撮像画像である。一例として、Y=1.5である。即ち、俯瞰撮像画像61は、1.5倍ズームの撮像でカメラ11により生成された撮像画像である。   The close-up captured image 71 is, for example, a captured image generated by the camera 11 by capturing at a zoom factor (Y> X) of Y times. As an example, Y = 1.5. That is, the overhead view captured image 61 is a captured image generated by the camera 11 with 1.5 × zoom imaging.

また、ボタン画像73は、表示モードを近接モードから俯瞰モードに切り替えるための画像である。例えば、ユーザが、ボタン画像73の位置を指定すると、実空間情報提供部181は、表示モードを近接モードから俯瞰モードに切り替える。より具体的には、例えば、ユーザがボタン画像73の位置をタッチし、ボタン画像73に対応するタッチ位置が検出されると、実空間情報提供部181は、表示モードを近接モードから俯瞰モードに切り替える。   The button image 73 is an image for switching the display mode from the proximity mode to the overhead view mode. For example, when the user designates the position of the button image 73, the real space information providing unit 181 switches the display mode from the proximity mode to the overhead mode. More specifically, for example, when the user touches the position of the button image 73 and a touch position corresponding to the button image 73 is detected, the real space information providing unit 181 changes the display mode from the proximity mode to the overhead view mode. Switch.

また、マップ画像75は、俯瞰モードにおけるマップ画像69と同様に、センタオフェス10のマップを示す画像である。マップ画像75は、さらに、使用しているカメラ11を示す。例えば、近接モードでは、ズームされたことを象徴的に示すために、マップ画像75の中の使用しているカメラのアイコンが、より前進した位置に表示される。なお、俯瞰モードにおけるマップ画像69と同様に、とりわけセンタオフィス10内に1つ又は少数のカメラ11しか設置されない場合には、マップ画像75は省略され得る。   Further, the map image 75 is an image showing a map of the center office 10 in the same manner as the map image 69 in the overhead view mode. The map image 75 further shows the camera 11 being used. For example, in the proximity mode, the icon of the camera used in the map image 75 is displayed at a more advanced position in order to symbolically indicate that the zoom has been performed. Similar to the map image 69 in the overhead view mode, the map image 75 can be omitted particularly when only one or a few cameras 11 are installed in the center office 10.

なお、近接モードで表示される表示画面70にも、プレゼンスアイコン、吹き出し画像等の人物関連情報が含まれてもよい。   Note that the display screen 70 displayed in the proximity mode may also include person-related information such as a presence icon and a balloon image.

以上のように表示モードによれば、より広い領域が撮像された撮像画像が表示されることにより、ユーザは実空間の全体的な状況を見ることができ、また特定の人物を容易に見つけることができる。そして、より狭い領域が撮像された撮像画像が表示されることにより、ユーザは特定の人物の位置をより容易に指定することができる。また、表示モードを切り替えるのみなので、ユーザには容易な操作しか求められない。また、より広い領域が撮像された撮像画像とより狭い領域が撮像された撮像画像とが、ズーム率が異なる撮像画像なので、ユーザは、これらの撮像画像間の関係を直感的に容易に把握することができる。よって、ユーザは、表示モードが切り替わったとしても、特定の人物を容易に見つけ、当該特定の人物の位置を指定することができる。   As described above, according to the display mode, a captured image obtained by capturing a wider area is displayed, so that the user can see the overall situation of the real space and easily find a specific person. Can do. Then, by displaying a captured image obtained by capturing a narrower region, the user can more easily designate the position of a specific person. Further, since only the display mode is switched, the user is only required to perform an easy operation. In addition, since the captured image obtained by capturing a wider area and the captured image obtained by capturing a narrower area are captured images having different zoom rates, the user easily grasps the relationship between these captured images intuitively. be able to. Therefore, even if the display mode is switched, the user can easily find a specific person and specify the position of the specific person.

−その他の実空間情報
以上のように、実空間情報提供部181は、表示部150に実空間の撮像画像の表示画面を表示させることにより、実空間の視覚的な情報を提供する。さらに、実空間情報提供部181は、実空間の聴覚的な情報も提供してもよい。即ち、実空間情報提供部181は、音声出力部160に、実空間での集音により得られた音声データの音声を出力させてもよい。
-Other real space information As mentioned above, the real space information provision part 181 provides the visual information of real space by making the display part 150 display the display screen of the captured image of real space. Further, the real space information providing unit 181 may also provide auditory information on the real space. That is, the real space information providing unit 181 may cause the audio output unit 160 to output the audio of the audio data obtained by collecting the sound in the real space.

例えば、実空間情報提供部181は、選択されたカメラ11に近いマイクロフォン13を選択する。そして、実空間情報提供部181は、通信部110を介して、マイクロフォン13から、センタオフィス10での集音により得られた音声データを取得する。そして、実空間情報提供部181は、音声出力部160に、取得した音声データの音声を出力させてもよい。   For example, the real space information providing unit 181 selects the microphone 13 close to the selected camera 11. Then, the real space information providing unit 181 acquires voice data obtained by sound collection at the center office 10 from the microphone 13 via the communication unit 110. And the real space information provision part 181 may make the audio | voice output part 160 output the audio | voice of the acquired audio | voice data.

(位置取得部183)
位置取得部183は、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を取得する。より具体的には、例えば、入力部120が、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を検出すると、位置取得部183は、当該位置を取得する。そして、位置取得部183は、当該撮像画像内の位置をオブジェクト選択部185に提供する。
(Position acquisition unit 183)
The position acquisition unit 183 acquires a position in the captured image specified by the user on the display screen of the captured image in real space. More specifically, for example, when the input unit 120 detects a position in the captured image specified by the user on the display screen of the captured image of the real space, the position acquisition unit 183 acquires the position. Then, the position acquisition unit 183 provides the position in the captured image to the object selection unit 185.

一例として、位置取得部183は、近接撮像画像71内のいずれかの位置を取得した場合に、当該位置をオブジェクト選択部185に提供する。以下、この点について図6及び図7を参照して具体例を説明する。   As an example, when the position acquisition unit 183 acquires any position in the close-up captured image 71, the position acquisition unit 183 provides the position to the object selection unit 185. Hereinafter, a specific example of this point will be described with reference to FIGS.

図6は、ユーザにより指定される近接撮像画像内の位置の第1の例を説明するための説明図である。図6を参照すると、近接モードで表示される表示画面に含まれる近接撮像画像71、及びユーザの手3が、示されている。また、近接撮像画像71に写る人物77が示されている。そして、ユーザは、手3で人物77の位置をタッチすることにより、近接撮像画像71の人物77の位置を指定している。この場合に、入力部120は、近接撮像画像71の人物77の上記位置を検出し、位置取得部183は、当該位置を取得する。そして、入力部120は、取得した当該位置をオブジェクト選択部185に提供する。   FIG. 6 is an explanatory diagram for describing a first example of a position in the close-up captured image designated by the user. Referring to FIG. 6, a close-up captured image 71 and a user's hand 3 included in a display screen displayed in the close-up mode are shown. A person 77 shown in the close-up captured image 71 is also shown. Then, the user designates the position of the person 77 in the close-up captured image 71 by touching the position of the person 77 with the hand 3. In this case, the input unit 120 detects the position of the person 77 in the close-up captured image 71, and the position acquisition unit 183 acquires the position. Then, the input unit 120 provides the acquired position to the object selection unit 185.

図7は、ユーザにより指定される近接撮像画像内の位置の第2の例を説明するための説明図である。図7を参照すると、近接撮像画像71に写る人物77A及び77Bが示されている。そして、ユーザは、手3で人物77Aの位置をタッチすることにより、近接撮像画像71の人物77Aの位置を指定している。この場合に、入力部120は、近接撮像画像71の人物77Aの上記位置を検出し、位置取得部183は、当該位置を取得する。そして、入力部120は、取得した当該位置をオブジェクト選択部185に提供する。   FIG. 7 is an explanatory diagram for describing a second example of the position in the close-up captured image designated by the user. Referring to FIG. 7, people 77A and 77B appearing in the close-up captured image 71 are shown. Then, the user designates the position of the person 77 </ b> A in the close-up captured image 71 by touching the position of the person 77 </ b> A with the hand 3. In this case, the input unit 120 detects the position of the person 77A in the close-up captured image 71, and the position acquisition unit 183 acquires the position. Then, the input unit 120 provides the acquired position to the object selection unit 185.

(オブジェクト選択部185)
オブジェクト選択部185は、取得される撮像画像内の位置に基づいて、実空間に対応する3次元仮想空間に配置されたオブジェクトを選択する。例えば、位置取得部183が、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の位置を取得すると、オブジェクト選択部185は、当該位置に基づいて、上記実空間に対応する3次元仮想空間に配置されたオブジェクトを選択する。
(Object selection unit 185)
The object selection unit 185 selects an object arranged in the three-dimensional virtual space corresponding to the real space based on the position in the acquired captured image. For example, when the position acquisition unit 183 acquires a position in the captured image specified by the user on the display screen of the captured image in the real space, the object selection unit 185 corresponds to the real space based on the position. Select an object placed in the three-dimensional virtual space.

上記オブジェクトは、上記撮像画像内の上記位置に対応する上記3次元仮想空間内の3次元仮想位置に配置されたオブジェクトである。また、例えば、上記撮像画像は、上記第2のモード(例えば、近接モード)で表示画面に含まれる撮像画像である。   The object is an object arranged at a three-dimensional virtual position in the three-dimensional virtual space corresponding to the position in the captured image. Further, for example, the captured image is a captured image included in the display screen in the second mode (for example, the proximity mode).

一例として、位置取得部183が、カメラ11により生成された近接撮像画像内の位置を取得すると、オブジェクト選択部185は、センタオフィス10に対応する3次元仮想空間に配置されたオブジェクトのうちの、上記位置に対応するオブジェクトを選択する。なお、オブジェクト選択部185は、例えば、センタオフィス10に対応する3次元仮想空間のデータを記憶部170から取得する。   As an example, when the position acquisition unit 183 acquires a position in the close-up captured image generated by the camera 11, the object selection unit 185 includes, among the objects arranged in the three-dimensional virtual space corresponding to the center office 10. The object corresponding to the position is selected. Note that the object selection unit 185 acquires, for example, data of the three-dimensional virtual space corresponding to the center office 10 from the storage unit 170.

−1つのオブジェクトが配置されている場合の例
以下、図8及び図9を参照して、3次元仮想空間に1つのオブジェクトが配置されている場合の具体例を説明する。
-Example in which one object is arranged Hereinafter, a specific example in the case where one object is arranged in the three-dimensional virtual space will be described with reference to FIGS. 8 and 9.

図8は、センタオフィス10に対応する3次元仮想空間の第1の例を説明するための説明図である。図8を参照すると、センタオフィス10に対応する3次元仮想空間90が示されている。また、当該3次元仮想空間90には、オブジェクト91が配置されている。当該オブジェクト91は、人物(例えば、A氏)に対応する。そして、当該オブジェクトは、センタオフィス10の当該人物(例えば、A氏)の座席の位置に対応する3次元仮想位置に配置される。即ち、上記人物が座席に座っている場合には上記人物が存在するであろう位置に対応する3次元仮想位置に、上記オブジェクト91が配置される。この例では、オブジェクト91は、円柱のオブジェクトである。当該円柱のオブジェクトは、半径R及び高さHを伴う円柱のオブジェクトである。半径R及び高さHは、例えば、予め定められる。なお、3次元仮想空間90のデータには、各カメラ11に関連する情報も含まれている。例えば、各カメラ11に関連する情報は、各カメラ11の設置位置に対応する3次元仮想位置、撮像方向(例えば、カメラのレンズと垂直な方向)、画角等を含む。   FIG. 8 is an explanatory diagram for describing a first example of a three-dimensional virtual space corresponding to the center office 10. Referring to FIG. 8, a three-dimensional virtual space 90 corresponding to the center office 10 is shown. An object 91 is arranged in the three-dimensional virtual space 90. The object 91 corresponds to a person (for example, Mr. A). Then, the object is arranged at a three-dimensional virtual position corresponding to the position of the seat of the person (for example, Mr. A) in the center office 10. That is, when the person is sitting on the seat, the object 91 is arranged at a three-dimensional virtual position corresponding to a position where the person will be present. In this example, the object 91 is a cylindrical object. The cylinder object is a cylinder object with a radius R and a height H. The radius R and the height H are determined in advance, for example. The data in the three-dimensional virtual space 90 includes information related to each camera 11. For example, the information related to each camera 11 includes a three-dimensional virtual position corresponding to the installation position of each camera 11, an imaging direction (for example, a direction perpendicular to the camera lens), an angle of view, and the like.

図9は、図8に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。図9を参照すると、容易な理解のために、3次元仮想空間90における水平面における位置関係が示されている。具体的には、3次元仮想空間90に配置されたオブジェクト91、撮像に用いられるカメラ11の設置位置に対応する3次元仮想位置(以下、「仮想カメラ位置」と呼ぶ)O、カメラ11の撮像方向(例えば、カメラのレンズと垂直な方向)に対応する軸y、及び、軸yと直交する軸xが、示されている。この例では、容易な理解のために、カメラ11は、当該カメラ11の撮像方向が水平面に平行になるように設置されているものとする。   FIG. 9 is an explanatory diagram for explaining an example of selection of objects arranged in the three-dimensional virtual space shown in FIG. Referring to FIG. 9, for easy understanding, the positional relationship in the horizontal plane in the three-dimensional virtual space 90 is shown. Specifically, the object 91 arranged in the three-dimensional virtual space 90, the three-dimensional virtual position (hereinafter referred to as “virtual camera position”) O corresponding to the installation position of the camera 11 used for imaging, and the imaging of the camera 11 An axis y corresponding to a direction (eg, a direction perpendicular to the camera lens) and an axis x orthogonal to the axis y are shown. In this example, for easy understanding, it is assumed that the camera 11 is installed so that the imaging direction of the camera 11 is parallel to the horizontal plane.

さらに、カメラ11の画角θも示されている。また、カメラ11の撮像方向に対応する軸yに垂直であり、且つ画角θに対応する幅を有する仮想面93が示されている。また、仮想面93は、仮想カメラ位置Oから距離Iだけ離れている。そして、仮想面93は、四角形の面であり、撮像画像と同一の縦横比を有する。即ち、仮想面93は、撮像画像に対応する面である。   Further, the angle of view θ of the camera 11 is also shown. In addition, a virtual plane 93 that is perpendicular to the axis y corresponding to the imaging direction of the camera 11 and has a width corresponding to the angle of view θ is shown. Further, the virtual plane 93 is separated from the virtual camera position O by a distance I. The virtual surface 93 is a quadrangular surface and has the same aspect ratio as the captured image. That is, the virtual surface 93 is a surface corresponding to the captured image.

オブジェクト選択部185は、例えば、図6に示されるようにユーザにより指定される上記撮像画像内の位置を、3次元仮想位置Aに変換する。そして、オブジェクト選択部185は、仮想カメラ位置Oと3次元仮想位置Aとを通る直線に交わるオブジェクトを特定する。この例では、オブジェクト選択部185は、オブジェクト91を特定する。そして、オブジェクト選択部185は、オブジェクト91を選択する。   For example, the object selection unit 185 converts the position in the captured image designated by the user into a three-dimensional virtual position A as shown in FIG. Then, the object selection unit 185 identifies an object that intersects a straight line passing through the virtual camera position O and the three-dimensional virtual position A. In this example, the object selection unit 185 specifies the object 91. Then, the object selection unit 185 selects the object 91.

図9の例では、例えば、仮想面93のうちの3次元仮想位置Bと3次元仮想位置Dとの間にある3次元仮想位置に変換される撮像画像内の位置が、撮像画像内でユーザにより指定されると、オブジェクト91が選択される。なお、このような位置は、概ね、撮像画像においてオブジェクト91に対応する人物が写っている位置である。   In the example of FIG. 9, for example, the position in the captured image that is converted to the three-dimensional virtual position between the three-dimensional virtual position B and the three-dimensional virtual position D in the virtual surface 93 is the user in the captured image. The object 91 is selected. Note that such a position is generally a position where a person corresponding to the object 91 is captured in the captured image.

なお、距離Iは、仮想カメラ位置Oとオブジェクト91との間に仮想面93が位置するように決定される。一例として、距離Iは、カメラ11の焦点距離であるが、当然ながらこれに限られない。   The distance I is determined so that the virtual plane 93 is positioned between the virtual camera position O and the object 91. As an example, the distance I is the focal length of the camera 11, but is not limited to this.

また、容易な説明のために、3次元仮想空間90の水平面に着目してオブジェクトを選択する手法を説明したが、当然ながら、垂直方向(例えば、z軸)を加えたとしても、撮像画像内の位置を3次元仮想位置に変換して当該3次元仮想位置からオブジェクト91を特定することが可能である。   Further, for the sake of easy explanation, the method of selecting an object by focusing on the horizontal plane of the three-dimensional virtual space 90 has been described, but of course, even if a vertical direction (for example, the z-axis) is added, Can be converted into a three-dimensional virtual position, and the object 91 can be specified from the three-dimensional virtual position.

例えば以上のように、撮像画像内の位置に対応するオブジェクトが選択される。上述した例では、撮像画像内の位置を3次元仮想位置に変換することにより、撮像画像内の位置に対応するオブジェクトが特定されたが、撮像画像内の位置に対応するオブジェクトを特定する手法は、これに限られない。   For example, as described above, the object corresponding to the position in the captured image is selected. In the above-described example, the object corresponding to the position in the captured image is identified by converting the position in the captured image to the three-dimensional virtual position. However, the method for identifying the object corresponding to the position in the captured image is as follows. Not limited to this.

一例として、オブジェクト選択部185は、仮想カメラ位置Oを原点としてオブジェクト91を仮想面93に射影し、オブジェクト91の射影範囲を、撮像画像内の範囲に変換してもよい。そして、ユーザにより指定される上記撮像画像内の位置が、上記範囲に含まれる場合に、オブジェクト選択部185は、オブジェクト91を選択してもよい。   As an example, the object selection unit 185 may project the object 91 onto the virtual plane 93 with the virtual camera position O as the origin, and convert the projection range of the object 91 into a range in the captured image. Then, when the position in the captured image specified by the user is included in the range, the object selection unit 185 may select the object 91.

また、別の例として、仮想カメラ位置O、軸y及び画角θを用いて3次元仮想空間90のレンダリングを行うことにより、レンダリング画像を生成し、当該レンダリング画像のうちのオブジェクト91が写っている範囲から、オブジェクト91に対応する撮像画像内の範囲を得てもよい。そして、ユーザにより指定される上記撮像画像内の位置が、上記範囲に含まれる場合に、オブジェクト選択部185は、オブジェクト91を選択してもよい。   As another example, a rendering image is generated by rendering the three-dimensional virtual space 90 using the virtual camera position O, the axis y, and the angle of view θ, and the object 91 in the rendering image is captured. The range in the captured image corresponding to the object 91 may be obtained from the existing range. Then, when the position in the captured image specified by the user is included in the range, the object selection unit 185 may select the object 91.

−状態を考慮したオブジェクトの選択
また、例えば、3次元仮想空間90に配置されるオブジェクト91は、複数の状態のうちのいずれかの状態を示す状態情報に対応する。例えば、オブジェクト91は、人物に対応する。そして、オブジェクト91は、当該人物が座席に座っているか否かを示す状態情報(以下、「存否情報」と呼ぶ)に対応する。当該存否情報は、人物が座席に座っている状態、又は人物が座席に座っていない状態を示す。オブジェクト選択部185は、例えば、オブジェクト91に対応する人物が座席に座っているか否かの判定結果を、通信部110を介してセンサ15から取得する。そして、当該判定結果が存否情報となる。
-Selection of object in consideration of state For example, the object 91 arranged in the three-dimensional virtual space 90 corresponds to state information indicating one of a plurality of states. For example, the object 91 corresponds to a person. The object 91 corresponds to state information (hereinafter referred to as “existence information”) indicating whether or not the person is sitting on the seat. The presence / absence information indicates a state where the person is sitting on the seat or a state where the person is not sitting on the seat. For example, the object selection unit 185 acquires a determination result as to whether or not the person corresponding to the object 91 is sitting on the seat from the sensor 15 via the communication unit 110. Then, the determination result becomes presence / absence information.

そして、例えば、オブジェクト選択部185は、上記3次元仮想空間に配置されたオブジェクトであって、上記複数の状態のうちの所定の状態を示す状態情報に対応する上記オブジェクトを、選択する。例えば、オブジェクト選択部185は、上記3次元空間に配置されたオブジェクトであって、人物が座席に座っている状態を示す状態情報に対応するオブジェクトを、選択する。即ち、オブジェクト選択部185は、センサ15により人物が座席に座っていると判定される場合には、当該人物に対応するオブジェクトを選択し得るが、センサ15により人物が座席に座っていないと判定される場合には、当該人物に対応するオブジェクトを選択しない。   For example, the object selection unit 185 selects an object that is arranged in the three-dimensional virtual space and that corresponds to state information indicating a predetermined state among the plurality of states. For example, the object selection unit 185 selects an object that is arranged in the three-dimensional space and corresponds to state information indicating a state where a person is sitting on a seat. That is, when the sensor 15 determines that the person is sitting on the seat, the object selection unit 185 can select the object corresponding to the person, but the sensor 15 determines that the person is not sitting on the seat. If it is, the object corresponding to the person is not selected.

このように、人物の状態に応じてオブジェクトが選択されるので、本来選択されるべきでないオブジェクトが選択されることを回避することができる。例えば、人物がいない場合に当該人物に対応するオブジェクトが選択されてしまうことを、回避することができる。   Thus, since an object is selected according to a person's state, it can avoid selecting the object which should not be selected originally. For example, it can be avoided that an object corresponding to a person is selected when there is no person.

−2つのオブジェクトが配置されている場合の例
また、3次元仮想空間内に2つ以上のオブジェクトが配置され得る。以下、2つのオブジェクトが配置される具体例を、図10を参照して説明する。
-Example in which two objects are arranged Two or more objects may be arranged in the three-dimensional virtual space. Hereinafter, a specific example in which two objects are arranged will be described with reference to FIG.

図10は、センタオフィス10に対応する3次元仮想空間の第2の例を説明するための説明図である。図10を参照すると、センタオフィス10に対応する3次元仮想空間90が示されている。また、当該3次元仮想空間90には、オブジェクト91A及びオブジェクト91Bが配置されている。オブジェクト91Aは、ある人物(例えば、A氏)に対応し、センタオフィス10の当該ある人物の座席の位置に対応する3次元仮想位置に配置される。また、オブジェクト91Bは、ある人物(例えば、B氏)に対応し、センタオフィス10の当該ある人物の座席の位置に対応する3次元仮想位置に配置される。図8の例と同様に、オブジェクト91は、半径R及び高さHを伴う円柱のオブジェクトである。   FIG. 10 is an explanatory diagram for describing a second example of the three-dimensional virtual space corresponding to the center office 10. Referring to FIG. 10, a three-dimensional virtual space 90 corresponding to the center office 10 is shown. In the three-dimensional virtual space 90, an object 91A and an object 91B are arranged. The object 91A corresponds to a certain person (for example, Mr. A) and is arranged at a three-dimensional virtual position corresponding to the position of the seat of the certain person in the center office 10. The object 91 </ b> B corresponds to a certain person (for example, Mr. B) and is arranged at a three-dimensional virtual position corresponding to the position of the seat of the certain person in the center office 10. Similar to the example of FIG. 8, the object 91 is a cylindrical object with a radius R and a height H.

このように3次元仮想空間内に2つ以上のオブジェクトが配置される場合には、複数のオブジェクトが、ユーザにより指定される撮像画像内の位置に対応し得る。例えば、図10の例において、オブジェクト91Aとオブジェクト91Bの両方が、ユーザにより指定される撮像画像内の位置に対応し得る。一例として、図7に示されるように撮像画像内に2人の人物が写り得るような場合に、ユーザが、撮像画像において当該2人の人物が重なり合う位置を指定すると、当該2人の人物に対応する2つのオブジェクトが、上記位置に対応し得る。   As described above, when two or more objects are arranged in the three-dimensional virtual space, the plurality of objects may correspond to the positions in the captured image designated by the user. For example, in the example of FIG. 10, both the object 91A and the object 91B can correspond to positions in the captured image specified by the user. As an example, in the case where two persons can be captured in the captured image as shown in FIG. 7, if the user specifies a position where the two persons overlap in the captured image, the two persons are Two corresponding objects may correspond to the position.

そこで、このような場合(即ち、複数のオブジェクトが、ユーザにより指定される撮像画像の位置に対応する場合)には、オブジェクト選択部185は、上記複数のオブジェクトのうちのいずれか1つのオブジェクトを選択する。即ち、オブジェクト選択部185は、ユーザにより指定される撮像画像内の位置に対応する3次元仮想空間内の3次元仮想位置にそれぞれ配置された複数のオブジェクトがある場合に、当該複数のオブジェクトのうちのいずれか1つのオブジェクトを選択する。   Therefore, in such a case (that is, when a plurality of objects correspond to the positions of the captured images specified by the user), the object selection unit 185 selects any one of the plurality of objects. select. That is, when there are a plurality of objects respectively arranged at the three-dimensional virtual position in the three-dimensional virtual space corresponding to the position in the captured image designated by the user, the object selection unit 185 Any one of the objects is selected.

例えば、上記撮像画像は、実空間内にある撮像装置を通じて生成される。そして、オブジェクト選択部185は、上記複数のオブジェクトのうちの、上記撮像装置に対応する3次元仮想空間内の3次元仮想位置により近いオブジェクトを選択する。より具体的には、例えば、撮像画像は、センタオフィス10内にあるカメラ11を通じて生成される。そして、オブジェクト選択部185は、ユーザにより指定される撮像画像内の位置に対応する複数のオブジェクトがある場合に、カメラ11の設置位置に対応する3次元仮想位置(即ち、仮想カメラ位置O)により近いオブジェクトを選択する。以下、この点について図10及び図11を参照して具体例を説明する。   For example, the captured image is generated through an imaging device in real space. Then, the object selection unit 185 selects an object closer to the three-dimensional virtual position in the three-dimensional virtual space corresponding to the imaging device among the plurality of objects. More specifically, for example, the captured image is generated through the camera 11 in the center office 10. Then, when there are a plurality of objects corresponding to the positions in the captured image designated by the user, the object selection unit 185 uses the three-dimensional virtual position corresponding to the installation position of the camera 11 (that is, the virtual camera position O). Select a close object. Hereinafter, a specific example of this point will be described with reference to FIGS. 10 and 11.

図11は、図10に示される3次元仮想空間に配置されたオブジェクトの選択の例を説明するための説明図である。図11を参照すると、容易な理解のために、3次元仮想空間90における水平面における位置関係が示されている。具体的には、3次元仮想空間90に配置されたオブジェクト91A及びオブジェクト91Bが示されている。また、図9と同様に、仮想カメラ位置O、軸y、軸x、画角θ及び仮想面93が、示されている。この例でも、図9と同様に、容易な理解のために、カメラ11は、当該カメラ11の撮像方向が水平面に並行になるように設置されているものとする。   FIG. 11 is an explanatory diagram for explaining an example of selection of objects arranged in the three-dimensional virtual space shown in FIG. Referring to FIG. 11, for easy understanding, the positional relationship in the horizontal plane in the three-dimensional virtual space 90 is shown. Specifically, an object 91A and an object 91B arranged in the three-dimensional virtual space 90 are shown. Similarly to FIG. 9, the virtual camera position O, the axis y, the axis x, the angle of view θ, and the virtual plane 93 are shown. Also in this example, as in FIG. 9, it is assumed that the camera 11 is installed so that the imaging direction of the camera 11 is parallel to the horizontal plane for easy understanding.

例えば、図7に示されるようにユーザにより上記撮像画像内の位置が指定される。この場合に、図9を参照して説明した手法に従うと、撮像画像内の上記位置が、3次元仮想位置B’と3次元仮想位置Dとの間にある3次元仮想位置に変換される場合には、オブジェクト91A及びオブジェクト91Bの両方が、撮像画像内の上記位置に対応するオブジェクトとして特定される。そして、オブジェクト選択部185は、オブジェクト91A及びオブジェクト91Bのうちの、仮想カメラ位置Oにより近いオブジェクト91Aを選択する。   For example, as shown in FIG. 7, the position in the captured image is designated by the user. In this case, according to the method described with reference to FIG. 9, the position in the captured image is converted into a three-dimensional virtual position between the three-dimensional virtual position B ′ and the three-dimensional virtual position D. In this case, both the object 91A and the object 91B are specified as objects corresponding to the position in the captured image. Then, the object selection unit 185 selects an object 91A that is closer to the virtual camera position O among the objects 91A and 91B.

なお、ユーザにより指定される撮像画像内の位置が、3次元仮想位置Bと3次元仮想位置B’との間にある3次元仮想位置に変換される場合には、オブジェクト91Aが、上記撮像画像内の位置に対応するオブジェクトとして特定され、選択される。また、ユーザにより指定される撮像画像内の位置が、3次元仮想位置Dと3次元仮想位置D’との間にある3次元仮想位置に変換される場合には、オブジェクト91Bが、上記撮像画像内の位置に対応するオブジェクトとして特定され、選択される。   In addition, when the position in the captured image designated by the user is converted into a three-dimensional virtual position between the three-dimensional virtual position B and the three-dimensional virtual position B ′, the object 91A is the above-described captured image. It is specified and selected as an object corresponding to the position within. In addition, when the position in the captured image designated by the user is converted into a three-dimensional virtual position between the three-dimensional virtual position D and the three-dimensional virtual position D ′, the object 91B is converted into the captured image. It is specified and selected as an object corresponding to the position within.

このように複数のオブジェクトから1つのオブジェクトが選択されることにより、複数のオブジェクトが選択されてその後の処理でエラー(複数の通信用IDを取得することによるエラー)が発生することを、回避することができる。また、複数のオブジェクトのうちのカメラ11に対応する仮想カメラ位置に近いオブジェクトが選択されることにより、例えば、撮像画像において人物が重なりあっているような場合でも、手前に写っている人物に対応するオブジェクトが選択される。よって、ユーザが意図した人物に対応するオブジェクトが選択される。   By selecting one object from a plurality of objects in this way, it is avoided that an error (an error caused by acquiring a plurality of communication IDs) occurs after the selection of a plurality of objects. be able to. In addition, by selecting an object close to the virtual camera position corresponding to the camera 11 from among a plurality of objects, for example, even when people are overlapped in the captured image, it corresponds to the person in the foreground The object to be selected is selected. Therefore, an object corresponding to the person intended by the user is selected.

以上のように、オブジェクト選択部185は、オブジェクトを選択する。そして、オブジェクト選択部185は、選択したオブジェクトの識別情報(以下、「オブジェクトID」と呼ぶ)をID取得部187に提供する。当該オブジェクトIDは、選択されたオブジェクトに対応する人物の識別情報であってもよく、又は、選択されたオブジェクトに付された単なる番号であってもよい。   As described above, the object selection unit 185 selects an object. Then, the object selection unit 185 provides identification information (hereinafter referred to as “object ID”) of the selected object to the ID acquisition unit 187. The object ID may be identification information of a person corresponding to the selected object, or may be a mere number assigned to the selected object.

(ID取得部187)
ID取得部187は、選択される上記オブジェクトに対応する識別情報を取得する。例えば、当該識別情報は、選択される上記オブジェクトに対応する通信用の識別情報(以下、「通信用ID」と呼ぶ)である。当該通信用IDは、一例として電話番号である。
(ID acquisition unit 187)
The ID acquisition unit 187 acquires identification information corresponding to the selected object. For example, the identification information is identification information for communication corresponding to the selected object (hereinafter referred to as “communication ID”). The communication ID is a telephone number as an example.

具体的には、例えば、オブジェクト選択部185が、オブジェクトを選択すると、ID取得部187は、選択された当該オブジェクトのオブジェクトIDを取得する。そして、オブジェクト選択部185は、通信部110を介して、オブジェクトIDを情報管理サーバ200へ送信し、オブジェクトIDに対応する通信用IDを取得する。当該通信用IDは、選択されたオブジェクトに対応する人物の通信用IDである。   Specifically, for example, when the object selection unit 185 selects an object, the ID acquisition unit 187 acquires the object ID of the selected object. Then, the object selection unit 185 transmits the object ID to the information management server 200 via the communication unit 110, and acquires the communication ID corresponding to the object ID. The communication ID is a communication ID of a person corresponding to the selected object.

例えば以上のように、ID取得部187は、選択されるオブジェクトに対応する通信用IDを取得する。当該通信用IDは、オブジェクトに対応する人物(即ち、ユーザにより指定された撮像画像の位置に写っている人物)の通信装置の通信用IDである。そして、ID取得部187は、取得した通信用IDを電話部189に提供する。   For example, as described above, the ID acquisition unit 187 acquires the communication ID corresponding to the selected object. The communication ID is a communication ID of the communication device of the person corresponding to the object (that is, the person shown in the position of the captured image designated by the user). Then, the ID acquisition unit 187 provides the acquired communication ID to the telephone unit 189.

以上のように、ユーザにより撮像画像内の位置が指定されると、当該位置に対応するオブジェクトが選択され、当該オブジェクトに対応する通信用IDが取得される。これにより、ユーザは、直感的な操作で対象の人物にコンタクトすることが可能になる。また、撮像画像において人物がどのように写っているかによらず、当該人物に対応するオブジェクトが選択され、通信用IDが取得されるので、より確実に当該人物にコンタクトすることが可能になる。   As described above, when a position in the captured image is designated by the user, an object corresponding to the position is selected, and a communication ID corresponding to the object is acquired. Thereby, the user can contact the target person with an intuitive operation. In addition, an object corresponding to the person is selected and a communication ID is acquired regardless of how the person appears in the captured image, so that the person can be contacted more reliably.

(電話部189)
電話部189は、電話を行うための機能を提供する。例えば、電話部189は、ソフトフォンの機能を提供する。
(Telephone part 189)
The telephone unit 189 provides a function for making a call. For example, the telephone unit 189 provides a softphone function.

例えば、電話部189は、ID取得部187により提供される通信用IDを取得すると、当該通信用IDを用いて電話発信を行う。より具体的には、例えば、電話部189は、通信用IDを取得すると、通信部110を介して、当該通信用IDをPBX40に提供し、PBX40からIPアドレスを取得する。そして、電話部189は、当該IPアドレスを有する通信装置(即ち、着信先の通信装置)との間で、セッションを確立するための一連のシーケンスを実行する。   For example, when the telephone unit 189 acquires the communication ID provided by the ID acquisition unit 187, the telephone unit 189 performs a telephone call using the communication ID. More specifically, for example, when the telephone unit 189 acquires the communication ID, the telephone unit 189 provides the communication ID to the PBX 40 via the communication unit 110 and acquires the IP address from the PBX 40. Then, the telephone unit 189 executes a series of sequences for establishing a session with a communication device having the IP address (that is, a communication device that is a destination).

このように、電話部189は、表示画面においてユーザにより指定された撮像画像内の位置に写る人物への電話のための電話発信を行う。即ち、電話部189は、当該人物の通信装置への電話発信を行う。   As described above, the telephone unit 189 performs a telephone call for a telephone call to a person shown at a position in the captured image designated by the user on the display screen. That is, the telephone unit 189 makes a telephone call to the communication device of the person.

また、電話の相手先の通信装置からの音声データが、通信部110により受信されると、電話部189は、音声出力部160に、当該音声データの音声を出力させる。また、電話部189は、通信部110に、集音部140により提供される音声データを電話の相手先の通信装置へ送信させる。また、電話部189は、例えば、通信部110に、撮像部130により提供される撮像画像(例えば、端末装置100のユーザが写っている撮像画像)も電話の相手先の通信装置へ送信させる。   When the voice data from the communication device of the other party of the telephone is received by the communication unit 110, the telephone unit 189 causes the voice output unit 160 to output the voice of the voice data. Further, the telephone unit 189 causes the communication unit 110 to transmit the voice data provided by the sound collection unit 140 to the communication device of the other party of the telephone. In addition, for example, the telephone unit 189 causes the communication unit 110 to transmit a captured image provided by the imaging unit 130 (for example, a captured image in which the user of the terminal device 100 is captured) to the communication apparatus of the other party of the telephone.

また、電話部189は、表示部150に、電話時の表示画面を表示させる。例えば、電話時の表示画面を表示する表示モードを、会話モードと呼ぶ。この場合に、電話部189は、ID取得部187により提供される通信用IDを取得すると、表示モードを、近接モードから会話モードへ切り替える。以下、会話モードの表示画面について図12を参照して具体例を説明する。   Further, the telephone unit 189 causes the display unit 150 to display a display screen during a telephone call. For example, a display mode that displays a display screen during a call is called a conversation mode. In this case, when the telephone unit 189 acquires the communication ID provided by the ID acquisition unit 187, the telephone unit 189 switches the display mode from the proximity mode to the conversation mode. Hereinafter, a specific example of the conversation mode display screen will be described with reference to FIG.

図12は、会話モードで表示される表示画面の一例を説明するための説明図である。図12を参照すると、会話モードで表示される表示画面80が示されている。表示画面60は、相手側撮像画像81、ボタン画像83及び自分側撮像画像85を含む。   FIG. 12 is an explanatory diagram for explaining an example of a display screen displayed in the conversation mode. Referring to FIG. 12, a display screen 80 displayed in the conversation mode is shown. The display screen 60 includes a partner-side captured image 81, a button image 83, and a self-side captured image 85.

相手側撮像画像81は、例えば、電話の相手先の通信装置から取得された撮像画像である。例えば、電話の相手先の通信装置からの撮像画像が、通信部110により受信されると、電話部189は、当該撮像画像を相手側撮像画像81として利用する。   The partner-side captured image 81 is, for example, a captured image acquired from a communication device of a telephone partner. For example, when the communication unit 110 receives a captured image from a communication apparatus that is the other party of the telephone, the telephone unit 189 uses the captured image as the partner-side captured image 81.

また、ボタン画像63は、電話を終了させるための画像である。例えば、ユーザが、ボタン画像83の位置を指定すると、電話部189は、電話を終了させる。より具体的には、例えば、ユーザがボタン画像83の位置をタッチし、ボタン画像83に対応するタッチ位置が検出されると、電話部189は、セッションの切断を含む電話終了用のシーケンスを実行する。また、例えば、電話部189は、表示モードを会話モードから俯瞰モードに切り替える。   The button image 63 is an image for ending the call. For example, when the user designates the position of the button image 83, the telephone unit 189 ends the telephone call. More specifically, for example, when the user touches the position of the button image 83 and a touch position corresponding to the button image 83 is detected, the telephone unit 189 executes a sequence for ending the call including disconnection of the session. To do. For example, the telephone unit 189 switches the display mode from the conversation mode to the overhead mode.

自分側撮像画像85は、撮像部130により提供される撮像画像である。   The own side captured image 85 is a captured image provided by the imaging unit 130.

(その他:表示モードの遷移)
ここでは、俯瞰モード、近接モード及び会話モードの遷移の具体例を図13を参照して説明する。
(Other: Display mode transition)
Here, a specific example of the transition between the overhead view mode, the proximity mode, and the conversation mode will be described with reference to FIG.

図13は、表示モードの遷移の一例を説明するための遷移図である。図13を参照すると、例えばソフトウェアの起動時において、カメラ11、マイクロフォン13、センサ15、情報管理サーバ200等との接続処理が行われると、表示モードは、俯瞰モード301になる(ENTRY)。   FIG. 13 is a transition diagram for explaining an example of the transition of the display mode. Referring to FIG. 13, for example, when connection processing with the camera 11, the microphone 13, the sensor 15, the information management server 200, and the like is performed at the time of starting up the software, the display mode becomes the overhead mode 301 (ENTRY).

俯瞰モード301では、俯瞰モード処理が実行される(DO)。そして、ユーザが、俯瞰撮像画像61の位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、俯瞰モード301から近接モード303に切り替わる。モード変更処理は、カメラ11のズーム処理を含む(ENTRY)。   In the overhead view mode 301, the overhead view mode process is executed (DO). When the user designates the position of the overhead view captured image 61, a mode change process is performed (EXIT), and the display mode is switched from the overhead view mode 301 to the proximity mode 303. The mode change process includes a zoom process of the camera 11 (ENTRY).

近接モード303では、近接モード処理が実行される(DO)。そして、ユーザが、近接撮像画像71のうちの人物が写っている位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、近接モード303から会話モード305に切り替わる。この場合のモード変更処理は、通話のための処理を含む(ENTRY)。また、ユーザが、ボタン画像73の位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、近接モード303から俯瞰モード301に切り替わる。この場合のモード変更処理は、上述した接続処理を含む(ENTRY)。   In the proximity mode 303, proximity mode processing is executed (DO). When the user designates a position in the close-up captured image 71 where a person is shown, a mode change process is performed (EXIT), and the display mode is switched from the close-up mode 303 to the conversation mode 305. The mode change process in this case includes a process for a call (ENTRY). When the user designates the position of the button image 73, a mode change process is performed (EXIT), and the display mode is switched from the proximity mode 303 to the overhead mode 301. The mode change process in this case includes the connection process described above (ENTRY).

会話モード305では、会話モード処理が実行される(DO)。また、ユーザが、ボタン画像83の位置を指定すると、モード変更処理が行われ(EXIT)、表示モードは、会話モード305から俯瞰モード301に切り替わる。この場合のモード変更処理は、上述した接続処理を含む(ENTRY)。   In conversation mode 305, conversation mode processing is executed (DO). When the user designates the position of the button image 83, a mode change process is performed (EXIT), and the display mode is switched from the conversation mode 305 to the overhead mode 301. The mode change process in this case includes the connection process described above (ENTRY).

(その他:表示画面の別の例)
−表示モードに応じた撮像画像
上述したように、例えば、実空間情報提供部181は、第1の表示モード(例えば、俯瞰モード)では、実空間の第1の領域が撮像された第1の撮像画像(例えば、俯瞰撮像画像)を表示部150に表示させる。また、実空間情報提供部181は、第2の表示モード(例えば、近接モード)では、上記第1の領域よりも狭い第2の領域が撮像された第2の撮像画像(例えば、近接撮像画像)を表示部150に表示させる。そして、上述した例では、とりわけ、実空間の第1の領域が撮像された第1の撮像画像は、第1のズーム率に対応する撮像画像であり、上記第1の領域よりも狭い第2の領域が撮像された第2の撮像画像は、上記第1のズーム率よりも大きい第2のズーム率に対応する撮像画像である。しかしながら、上記第1の撮像画像及び上記第2の撮像画像はこれに限られない。
(Other: Another example of display screen)
-Captured image according to display mode As described above, for example, in the first display mode (for example, the bird's-eye view mode), the real space information providing unit 181 captures the first region in which the first area of the real space is captured. A captured image (for example, an overhead image captured image) is displayed on the display unit 150. In addition, the real space information providing unit 181 is configured such that, in the second display mode (for example, the proximity mode), the second captured image (for example, the proximity captured image) in which the second region narrower than the first region is captured. ) Is displayed on the display unit 150. In the above-described example, the first captured image obtained by capturing the first area in the real space is a captured image corresponding to the first zoom rate, and is narrower than the first area. The second captured image in which the region is captured is a captured image corresponding to a second zoom factor that is larger than the first zoom factor. However, the first captured image and the second captured image are not limited to this.

例えば、上記第1の撮像画像は、実空間内にある複数の撮像装置のうちの第1の撮像装置を通じて生成される撮像画像であり、上記第2の撮像画像は、上記複数の撮像装置のうちの第2の撮像装置を通じて生成される撮像画像であってもよい。この場合に、例えば、実空間情報提供部181は、俯瞰モードの際には、センタオフィス10の広い領域を撮像するカメラ11を選択し、当該カメラ11により生成された撮像画像を俯瞰撮像画像として取得する。そして、実空間情報提供部181は、近接モードの際には、センタオフィス10のより狭い領域を撮像するカメラ11(例えば、より前方にあるカメラ)を選択し、当該カメラ11により生成された撮像画像を近接撮像画像として取得する。   For example, the first captured image is a captured image generated through a first image capturing device among a plurality of image capturing devices in real space, and the second captured image is the image of the plurality of image capturing devices. It may be a captured image generated through the second imaging device. In this case, for example, in the overhead mode, the real space information providing unit 181 selects the camera 11 that captures a wide area of the center office 10 and uses the captured image generated by the camera 11 as the overhead image. get. Then, in the proximity mode, the real space information providing unit 181 selects a camera 11 (for example, a camera in front of the center office 10) that captures a narrower area of the center office 10, and the imaging generated by the camera 11 is selected. An image is acquired as a close-up image.

これにより、カメラ11の配置によっては、より容易に人物の位置を指定しやすくなる。また、カメラ11にズームを要求しなくてもよい。そのため、例えば、光学ズーム又はドリーによるズームを要求する場合のように、個別の端末装置からの要求が競合し、いずれかの端末装置に待ち状態が生じるようなこともない。また、例えば、デジタルズームを用いる場合のように、処理量が増大するようなこともない。   This makes it easier to specify the position of the person depending on the arrangement of the camera 11. Further, it is not necessary to request the camera 11 to zoom. Therefore, for example, as in the case of requesting optical zoom or zoom by dolly, requests from individual terminal devices do not compete and a waiting state does not occur in any terminal device. Further, for example, the processing amount does not increase as in the case of using digital zoom.

−より自由な条件での撮像により生成される撮像画像
また、上述した例では、表示モードが切り替えられる例を説明したが、表示画面はこれに限られない。例えば、表示モードの切り替えの代わりに、より自由な条件での撮像により撮像画像が生成され、当該撮像画像を含む表示画面が表示されてもよい。
-Captured image generated by imaging under more free conditions In the above-described example, the example in which the display mode is switched has been described, but the display screen is not limited thereto. For example, instead of switching the display mode, a captured image may be generated by imaging under more free conditions, and a display screen including the captured image may be displayed.

例えば、実空間の撮像画像は、複数のズーム率のうちの選択されたズーム率に対応する撮像画像であってもよい。この場合に、例えば、実空間情報提供部181は、入力部120を介してユーザにより指定されるズーム率を、通信部120を介してカメラ11に要求する。その結果、カメラ11は、ズーム率を要求に従って変更し、変更後のズーム率での撮像により生成された撮像画像を端末装置100に提供する。そして、実空間情報提供部181は、表示部150に、提供された撮像画像を含む表示画面を表示させる。そして、ユーザは、当該撮像画像内の位置を指定すると、位置取得部183は、当該位置を取得する。そして、位置取得部183は、撮像画像内の当該位置をオブジェクト選択部185に提供する。   For example, the captured image in the real space may be a captured image corresponding to a zoom rate selected from a plurality of zoom factors. In this case, for example, the real space information providing unit 181 requests the camera 11 via the communication unit 120 for a zoom rate specified by the user via the input unit 120. As a result, the camera 11 changes the zoom rate according to the request, and provides the terminal device 100 with a captured image generated by imaging at the changed zoom rate. Then, the real space information providing unit 181 causes the display unit 150 to display a display screen including the provided captured image. Then, when the user designates a position in the captured image, the position acquisition unit 183 acquires the position. Then, the position acquisition unit 183 provides the object selection unit 185 with the position in the captured image.

これにより、ユーザは、細かいズーム率を指定して、所望の撮像画像を表示することができる。よって、ユーザは、特定の人物の位置をより指定しやすくなる。   Thereby, the user can designate a fine zoom ratio and display a desired captured image. Therefore, it becomes easier for the user to specify the position of a specific person.

なお、上述したように、ここでのズーム率は、1.5倍、2倍等の精緻な値である必要はなく、被写体が撮像画像に写る大きさの程度を直接的又は間接的に示すものである。例えば、とりわけカメラ11の位置の変更によるズーム(例えば、ドリーによるズームイン及びズームアウト)が用いられる場合には、ズーム率は、1.5倍、2倍等の精緻な値ではなく、被写体の大きさの程度を直接的に示すもの(例えば、被写体の概ねの大きさの程度を示すパラメータ、等)、又は、被写体の大きさの程度を間接的に示すもの(例えば、レールにおけるカメラ11の位置、等)であってもよい。   As described above, the zoom rate here does not need to be a precise value such as 1.5 times or 2 times, and directly or indirectly indicates the size of the size of the subject in the captured image. Is. For example, in particular, when zooming by changing the position of the camera 11 (for example, zooming in and out by dolly) is used, the zoom rate is not a precise value such as 1.5 times or 2 times, but the size of the subject. Directly indicating the degree of the subject (for example, a parameter indicating the degree of the approximate size of the subject) or indirectly indicating the degree of the subject (eg, the position of the camera 11 on the rail) , Etc.).

<2−3.ソフトウェア構成>
次に、本実施形態に係る端末装置100のソフトウェア構成の一例を説明する。図14は、本実施形態に係る端末装置100のソフトウェア構成の一例を示すブロック図である。図14を参照すると、端末装置100は、OS(Operating System)840及びアプリケーションソフトウェアを備える。そして、端末装置100は、アプリケーションソフトウェアとして、ソフトフォン851、超臨場感クライアント853及び電話発信制御機能855を含む。
<2-3. Software configuration>
Next, an example of a software configuration of the terminal device 100 according to the present embodiment will be described. FIG. 14 is a block diagram illustrating an example of a software configuration of the terminal device 100 according to the present embodiment. Referring to FIG. 14, the terminal device 100 includes an OS (Operating System) 840 and application software. The terminal device 100 includes a soft phone 851, a super-realistic client 853, and a telephone call control function 855 as application software.

OS840は、端末装置100を動作させるための基本的な機能を提供するソフトウェアである。OS840は、各アプリケーションソフトウェアを実行する。   The OS 840 is software that provides basic functions for operating the terminal device 100. The OS 840 executes each application software.

ソフトフォン851は、端末装置100を用いて電話を行うためのアプリケーションソフトウェアである。電話部189は、例えば、ソフトフォン851により実装され得る。   The soft phone 851 is application software for making a phone call using the terminal device 100. The telephone unit 189 can be implemented by, for example, a soft phone 851.

超臨場感クライアント853は、実空間の情報を端末装置100に提供するためのアプリケーションソフトウェアである。実空間情報提供部181は、例えば、超臨場感クライアント853により実装され得る。   The ultra-realistic client 853 is application software for providing real space information to the terminal device 100. The real space information providing unit 181 can be implemented by, for example, a super-realistic client 853.

なお、超臨場感クライアント853は、実空間(例えば、センタオフィス10)にいる人物の状態を示す状態情報を取得し、OSを介してソフトフォン851に提供してもよい。そして、ソフトフォン851は、当該状態情報に基づいて、電話発信を制御してもよい。   Note that the super-realistic client 853 may acquire state information indicating the state of a person in the real space (for example, the center office 10) and provide it to the soft phone 851 via the OS. Then, the soft phone 851 may control outgoing calls based on the state information.

また、電話発信制御機能855は、表示画面内の撮像画像に写っている人物の通信装置の通信用IDを取得するアプリケーションソフトウェアである。位置取得部183、オブジェクト選択部185及びID取得部187は、電話発信制御機能855により実装され得る。   The telephone call control function 855 is application software that acquires the communication ID of a person's communication device shown in the captured image in the display screen. The position acquisition unit 183, the object selection unit 185, and the ID acquisition unit 187 can be implemented by the telephone call control function 855.

なお、電話発信制御機能855は、通信用IDを取得すると、OSを介してソフトフォン851に提供する。そして、ソフトフォン851は、当該通信用IDを用いて、電話発信を行う。   The telephone call control function 855 obtains the communication ID and provides it to the softphone 851 via the OS. Then, the soft phone 851 makes a call using the communication ID.

<<3.情報管理サーバの構成>>
続いて、図15及び図16を参照して、本実施形態に係る情報管理サーバ200の構成の一例を説明する。
<< 3. Configuration of information management server >>
Next, an example of the configuration of the information management server 200 according to the present embodiment will be described with reference to FIGS. 15 and 16.

<3−1.ハードウェア構成>>
まず、図15を参照して、本実施形態に係る情報管理サーバ200のハードウェア構成の一例を説明する。図15は、本実施形態に係る情報管理サーバ200のハードウェア構成の一例を示すブロック図である。図15を参照すると、情報管理サーバ200は、CPU901、ROM903、RAM905、バス907、記憶装置909及び通信インターフェース911を備える。
<3-1. Hardware configuration >>
First, an example of the hardware configuration of the information management server 200 according to the present embodiment will be described with reference to FIG. FIG. 15 is a block diagram illustrating an example of a hardware configuration of the information management server 200 according to the present embodiment. Referring to FIG. 15, the information management server 200 includes a CPU 901, a ROM 903, a RAM 905, a bus 907, a storage device 909, and a communication interface 911.

CPU901は、情報管理サーバ200における様々な処理を実行する。また、ROM903は、情報管理サーバ200における処理をCPU901に実行させるためのプログラム及びデータを記憶する。また、RAM905は、CPU901の処理の実行時に、プログラム及びデータを一時的に記憶する。   The CPU 901 executes various processes in the information management server 200. The ROM 903 stores a program and data for causing the CPU 901 to execute processing in the information management server 200. The RAM 905 temporarily stores a program and data when the CPU 901 executes the process.

バス907は、CPU901、ROM903及びRAMを相互に接続する。バス907には、さらに、記憶装置909及び通信インターフェース911が接続される。バス907は、例えば、複数の種類のバスを含む。一例として、バス907は、CPU901、ROM903及びRAM905を接続する高速バスと、当該高速バスよりも低速の1つ以上の別のバスを含む。   A bus 907 connects the CPU 901, the ROM 903, and the RAM to each other. A storage device 909 and a communication interface 911 are further connected to the bus 907. The bus 907 includes, for example, a plurality of types of buses. As an example, the bus 907 includes a high-speed bus that connects the CPU 901, the ROM 903, and the RAM 905, and one or more other buses that are slower than the high-speed bus.

記憶装置909は、情報管理サーバ200内で一時的又は恒久的に保存すべきデータを記憶する。記憶装置909は、例えば、ハードディスク等の磁気記憶装置であってもよく、又は、EEPROM、フラッシュメモリ、MRAM、FeRAM及びPRAM等の不揮発性メモリであってもよい。   The storage device 909 stores data to be temporarily or permanently stored in the information management server 200. The storage device 909 may be a magnetic storage device such as a hard disk, or may be a non-volatile memory such as EEPROM, flash memory, MRAM, FeRAM, and PRAM.

通信インターフェース911は、情報管理サーバ200が備える通信手段であり、ネットワークを介して(あるいは、直接的に)外部装置と通信する。通信インターフェース911は、無線通信用のインターフェースであってもよく、この場合に、例えば、通信アンテナ、RF回路及びその他の通信処理用の回路を含んでもよい。また、通信インターフェース911は、有線通信用のインターフェースであってもよく、この場合に、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。   The communication interface 911 is a communication unit included in the information management server 200, and communicates with an external device via a network (or directly). The communication interface 911 may be an interface for wireless communication. In this case, for example, a communication antenna, an RF circuit, and other communication processing circuits may be included. The communication interface 911 may be an interface for wired communication. In this case, for example, the communication interface 911 may include a LAN terminal, a transmission circuit, and other communication processing circuits.

<3−2.機能構成>>
次に、本実施形態に係る情報管理サーバ200の機能構成の一例を説明する。図16は、本実施形態に係る情報管理サーバ200の機能構成の一例を示すブロック図である。図16を参照すると、情報管理サーバ200は、通信部210、記憶部220及び制御部230を備える。
<3-2. Functional configuration >>
Next, an example of a functional configuration of the information management server 200 according to the present embodiment will be described. FIG. 16 is a block diagram illustrating an example of a functional configuration of the information management server 200 according to the present embodiment. Referring to FIG. 16, the information management server 200 includes a communication unit 210, a storage unit 220, and a control unit 230.

(通信部210)
通信部210は、他の装置と通信する。例えば、通信部210は、LAN19に直接的に接続され、センタオフィス10内の各装置と通信する。具体的には、例えば、通信部210は、カメラ11、マイクロフォン13、センサ15及びメディア配信サーバ17と通信する。また、通信部210は、外部ネットワーク30及びLAN23を介して、サテライトオフィス20内の各装置と通信する。具体的には、例えば、通信部210は、端末装置100及びディスプレイ21と通信する。なお、通信部210は、例えば、通信インターフェース911により実装され得る。
(Communication unit 210)
The communication unit 210 communicates with other devices. For example, the communication unit 210 is directly connected to the LAN 19 and communicates with each device in the center office 10. Specifically, for example, the communication unit 210 communicates with the camera 11, the microphone 13, the sensor 15, and the media distribution server 17. The communication unit 210 communicates with each device in the satellite office 20 via the external network 30 and the LAN 23. Specifically, for example, the communication unit 210 communicates with the terminal device 100 and the display 21. The communication unit 210 can be implemented by the communication interface 911, for example.

(記憶部220)
記憶部220は、情報管理サーバ200の動作のためのプログラム及びデータを記憶する。
(Storage unit 220)
The storage unit 220 stores a program and data for the operation of the information management server 200.

とりわけ本実施形態では、記憶部220は、情報処理システムにおいて用いられる様々な情報を記憶する。   In particular, in the present embodiment, the storage unit 220 stores various information used in the information processing system.

第1の例として、記憶部220は、カメラ11、マイクロフォン13及びセンサ15に関するパラメータを記憶する。当該パラメータの具体的な内容は、上述したとおりである。   As a first example, the storage unit 220 stores parameters regarding the camera 11, the microphone 13, and the sensor 15. The specific contents of the parameter are as described above.

第2の例として、記憶部220は、実空間に対応する3次元仮想空間のデータを記憶する。当該3次元仮想空間は、例えば、センタオフィス10を模した3次元仮想空間である。当該3次元仮想空間の具体的な内容は、上述したとおりである。   As a second example, the storage unit 220 stores data in a three-dimensional virtual space corresponding to the real space. The three-dimensional virtual space is, for example, a three-dimensional virtual space that simulates the center office 10. The specific contents of the three-dimensional virtual space are as described above.

第3の例として、記憶部220は、人物関連情報を記憶する。当該人物関連情報は、例えば、センタオフィス10にいる人物の人物関連情報である。当該人物関連情報の具体的な内容は、上述したとおりである。   As a third example, the storage unit 220 stores person-related information. The person related information is, for example, person related information of a person in the center office 10. The specific content of the person related information is as described above.

第4の例として、記憶部220は、3次元仮想空間に配置されるオブジェクトのオブジェクトIDと通信用IDとを、互いに対応付けて記憶する。当該オブジェクトID及び通信用IDの具体的な内容は、上述したとおりである。   As a fourth example, the storage unit 220 stores object IDs and communication IDs of objects arranged in a three-dimensional virtual space in association with each other. The specific contents of the object ID and communication ID are as described above.

(制御部230)
制御部230は、情報管理サーバ200の様々な機能を提供する。
(Control unit 230)
The control unit 230 provides various functions of the information management server 200.

例えば、制御部230は、要求に応じて、情報処理システムにおいて用いられる様々な情報を提供する。例えば、制御部230は、端末装置100による要求に応じて、3次元仮想空間のデータ、人物関連情報、オブジェクトIDに対応する通信用ID、並びに、カメラ11、マイクロフォン13及びセンサ15に関するパラメータ等を提供する。   For example, the control unit 230 provides various information used in the information processing system in response to a request. For example, in response to a request from the terminal device 100, the control unit 230 displays data in the three-dimensional virtual space, person-related information, a communication ID corresponding to the object ID, parameters regarding the camera 11, the microphone 13, and the sensor 15. provide.

また、例えば、制御部230は、情報処理システムにおいて用いられる様々な情報を適宜更新する。制御部230は、自動で、又は手動による指示に応じて、当該情報を更新する。   For example, the control unit 230 appropriately updates various information used in the information processing system. The control unit 230 updates the information automatically or in response to a manual instruction.

<<4.処理の流れ>>
続いて、図17を参照して、本実施形態に係る情報処理の例を説明する。図17は、本実施形態に係る情報処理の概略的な流れの一例を示すフローチャートである。
<< 4. Process flow >>
Next, an example of information processing according to the present embodiment will be described with reference to FIG. FIG. 17 is a flowchart illustrating an example of a schematic flow of information processing according to the present embodiment.

ステップS401で、位置取得部183は、実空間の撮像画像の表示画面において当該撮像画像内の位置がユーザにより指定されたかを判定する。より具体的には、例えば、位置取得部183は、近接撮像画像内の位置をユーザにより指定されたかを判定する。上記位置が指定されていれば、処理はステップS403へ進む。そうでなければ、処理はステップS401を繰り返す。   In step S401, the position acquisition unit 183 determines whether the position in the captured image is specified by the user on the display screen of the captured image in real space. More specifically, for example, the position acquisition unit 183 determines whether a position in the close-up captured image has been designated by the user. If the position is designated, the process proceeds to step S403. Otherwise, the process repeats step S401.

ステップS403で、位置取得部183は、ユーザにより指定される上記撮像画像内の位置を取得する。   In step S403, the position acquisition unit 183 acquires a position in the captured image designated by the user.

ステップS405で、オブジェクト選択部185は、実空間に対応する3次元仮想空間のデータを記憶部170から取得する。   In step S405, the object selection unit 185 acquires data of the three-dimensional virtual space corresponding to the real space from the storage unit 170.

ステップS407で、取得された上記撮像画像内の上記位置に基づいて、上記3次元仮想空間に配置されたオブジェクトを選択する。   In step S407, an object arranged in the three-dimensional virtual space is selected based on the acquired position in the captured image.

ステップS409で、ID取得部187は、選択された上記オブジェクトに対応する通信用IDを着信側の通信用IDとして取得する。   In step S409, the ID acquisition unit 187 acquires the communication ID corresponding to the selected object as the communication ID on the called side.

ステップS411で、ID取得部187は、発信側の通信用ID(即ち、端末装置100の通信用ID)を取得する。   In step S411, the ID acquisition unit 187 acquires the communication ID on the transmission side (that is, the communication ID of the terminal device 100).

ステップS413で、電話部189は、着信側の通信用IDを用いて電話発信を行う。その後、電話部189は、電話のための様々な処理を実行し、処理は終了する。   In step S413, the telephone unit 189 performs a telephone call using the communication ID on the receiving side. Thereafter, the telephone unit 189 executes various processes for the telephone, and the process ends.

以上のように、本実施形態に係る情報処理が実行される。さらに、当該情報処理の開始前に行われる起動処理の一例を、図18を参照して説明する。   As described above, the information processing according to the present embodiment is executed. Furthermore, an example of the startup process performed before the start of the information processing will be described with reference to FIG.

図18は、本実施形態に係る起動処理の概略的な流れの一例を示すフローチャートである。   FIG. 18 is a flowchart illustrating an example of a schematic flow of the activation process according to the present embodiment.

ステップS501で、ソフトフォン851の起動処理が実行される。これにより、ソフトフォン851が起動する。   In step S501, the activation process of the softphone 851 is executed. As a result, the soft phone 851 is activated.

ステップS503で、ソフトフォン851に関する登録処理が実行される。例えば、ソフトフォン851の登録処理の1つとして、PBX40での登録(例えば、SIP REGISTRATION)が行われる。   In step S503, registration processing related to the softphone 851 is executed. For example, as one of the registration processes of the softphone 851, registration (for example, SIP REGISRATION) is performed at the PBX 40.

ステップS505で、超臨場感クライアントの起動処理が実行される。例えば、超臨場感クライアントにおいて利用されるカメラ11、マイクロフォン13、センサ15、メディア配信サーバ17、情報管理サーバ200等が特定される。   In step S505, the ultra-realistic client activation process is executed. For example, the camera 11, microphone 13, sensor 15, media distribution server 17, information management server 200, etc. used in the ultra-realistic client are specified.

ステップS507で、超臨場感クライアントの俯瞰モード処理が実行される。そして、一連の起動処理は終了する。   In step S507, the overhead view mode process of the super-realistic client is executed. And a series of starting processes are complete | finished.

以上、添付図面を参照しながら本発明の好適な実施形態を説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

例えば、実空間に対応する3次元仮想空間として、センタオフィスの3次元仮想空間が用意される例を説明したが、本発明はこれに限定されない。例えば、複数の3次元空間が用意されてもよい。一例として、実空間に対応する3次元仮想空間は、複数のオフィスの各々について用意されてもよい。例えば、サテライトオフィス、ホームオフィス、他のセンタオフィス等についての3次元仮想空間も用意されてもよい。この場合に、各オフィスの3次元仮想空間は、各オフィスの大きさに応じた大きさの3次元仮想空間であってもよい。また、端末装置のオブジェクト選択部は、複数の3次元仮想空間のうちの所望の3次元仮想空間のデータを取得してもよい。また、オフィス以外の3次元仮想空間が用意されてもよい。   For example, an example has been described in which the three-dimensional virtual space of the center office is prepared as the three-dimensional virtual space corresponding to the real space, but the present invention is not limited to this. For example, a plurality of three-dimensional spaces may be prepared. As an example, a three-dimensional virtual space corresponding to the real space may be prepared for each of a plurality of offices. For example, a three-dimensional virtual space for a satellite office, a home office, another center office, or the like may be prepared. In this case, the three-dimensional virtual space of each office may be a three-dimensional virtual space having a size corresponding to the size of each office. Further, the object selection unit of the terminal device may acquire data of a desired three-dimensional virtual space among a plurality of three-dimensional virtual spaces. Further, a three-dimensional virtual space other than the office may be prepared.

また、人物が座席に座っている場合に限り当該人物に対応するオブジェクトが選択される例を説明したが、本発明はこれに限定されない。例えば、人物が座席に座っていない場合にもオブジェクトが選択されてもよい。一例として、人物が座席に座っている場合には、当該座席に設置された通信装置の通信用IDが取得され、人物が座席に座っていない場合には、当該人物の携帯端末の通信用IDが取得されてもよい。   Further, although an example in which an object corresponding to a person is selected only when the person is sitting on the seat has been described, the present invention is not limited to this. For example, an object may be selected even when a person is not sitting on a seat. As an example, when a person is sitting on the seat, the communication ID of the communication device installed in the seat is acquired, and when the person is not sitting on the seat, the communication ID of the person's portable terminal May be acquired.

また、通信用IDが電話番号である例を説明したが、本発明はこれに限定されない。通信用IDは、電話番号以外のIDであってもよい。一例として、通信用IDは、電話番号以外のソフトフォン用IDであってもよい。また、別の例として、通信用IDは、電話以外の通信のためのIDであってもよい。例えば、通信用IDは、メールアドレスであってもよく、又はショートメッセージ用のIDであってもよい。この場合に、通信用IDを用いて、メールが送信され、又はショートメッセージが送信されてもよい。   Moreover, although the example in which the communication ID is a telephone number has been described, the present invention is not limited to this. The communication ID may be an ID other than a telephone number. As an example, the communication ID may be a softphone ID other than a telephone number. As another example, the communication ID may be an ID for communication other than a telephone. For example, the communication ID may be a mail address or a short message ID. In this case, a mail or a short message may be transmitted using the communication ID.

また、オブジェクトが選択された場合に当該オブジェクトに対応する通信用IDが取得される例を説明したが、本発明はこれに限定されない。例えば、オブジェクトが選択された場合に当該オブジェクトに対応するいずれかの識別情報が取得されてもよい。一例として、オブジェクトが選択された場合にオブジェクトに対応する人物のいずれかの識別情報が取得されてもよい。そして、例えば、この識別情報から、通信用IDが取得されてもよい。   Further, although an example has been described in which the communication ID corresponding to the object is acquired when the object is selected, the present invention is not limited to this. For example, when an object is selected, any identification information corresponding to the object may be acquired. As an example, when an object is selected, any identification information of a person corresponding to the object may be acquired. For example, the communication ID may be acquired from this identification information.

また、実空間に対応する3次元仮想空間に配置されるオブジェクト(オブジェクト選択部により選択されるオブジェクト)が人物に対応し且つ円柱のオブジェクトである例を説明したが、本発明はこれに限定されない。例えば、オブジェクトは、円柱のオブジェクトではなく、別の形状のオブジェクトであってもよい。また、例えば、オブジェクトは、人物以外のものに対応してもよい。一例として、オブジェクトは、実空間の領域に対応してもよい。具体的には、例えば、オブジェクトは、座席に対応し、当該座席の位置に対応する3次元仮想位置に配置されてもよい。そして、当該座席に設置された通信装置の通信用IDと上記オブジェクトとが対応し、当該オブジェクトが選択されると、当該通信用IDが取得されてもよい。また、オブジェクトは、座席よりも広い領域に対応し、当該領域の範囲に対応する3次元仮想範囲に渡って存在してもよい。そして、当該領域内に設置された通信装置の通信用IDと上記オブジェクトとが対応し、当該オブジェクトが選択されると、当該通信用IDが取得されてもよい。   Moreover, although the example (object selected by the object selection part) arrange | positioned in the three-dimensional virtual space corresponding to real space corresponds to a person and it is a cylindrical object, this invention is not limited to this. . For example, the object may be an object having a different shape instead of a cylindrical object. For example, the object may correspond to something other than a person. As an example, the object may correspond to a real space region. Specifically, for example, the object may correspond to a seat and may be arranged at a three-dimensional virtual position corresponding to the position of the seat. Then, when the communication ID of the communication apparatus installed in the seat corresponds to the object, and the object is selected, the communication ID may be acquired. The object may correspond to a region wider than the seat and may exist over a three-dimensional virtual range corresponding to the range of the region. Then, when the communication ID of the communication device installed in the area corresponds to the object, and the object is selected, the communication ID may be acquired.

また、表示画面において撮像画像の位置がユーザによるタッチで指定される例を説明したが、本発明はこれに限定されない。例えば、撮像画像の位置は、タッチパネル以外の入力手段を用いてユーザにより指定されてもよい。例えば、撮像画像の位置は、マウスによるクリックで指定されてもよく、ボタン、キーボード等の別の入力手段を用いて指定されてもよい。   Moreover, although the example in which the position of the captured image is designated by a user touch on the display screen has been described, the present invention is not limited to this. For example, the position of the captured image may be specified by the user using input means other than the touch panel. For example, the position of the captured image may be specified by clicking with a mouse, or may be specified using another input means such as a button or a keyboard.

また、カメラにより生成される撮像画像、マイクロフォンにより生成される音声データ、及び、センサによる判定結果が、それぞれ、カメラ、マイクロフォン及びセンサにより、端末装置に直接提供される例を説明したが、本発明はこれに限定されない。例えば、別の装置によりこれらのデータが提供されてもよい。一例として、いずれかのサーバ(例えば、メディア配信サーバ)が、これらのデータを取得し、これらのデータを端末装置に提供してもよい。   In addition, an example has been described in which a captured image generated by a camera, audio data generated by a microphone, and a determination result by a sensor are directly provided to the terminal device by the camera, the microphone, and the sensor, respectively. Is not limited to this. For example, these data may be provided by another device. As an example, any server (for example, a media distribution server) may acquire these data and provide these data to the terminal device.

また、位置取得部、オブジェクト選択部及びID取得部等の機能が端末装置により備えられる例を説明したが、本発明はこれに限定されない。例えば、これらの機能は、端末装置以外の装置により備えられてもよい。一例として、これらの機能はいずれかのサーバにより備えられてもよい。   Moreover, although the example in which functions, such as a position acquisition part, an object selection part, and an ID acquisition part, are provided with a terminal device was demonstrated, this invention is not limited to this. For example, these functions may be provided by a device other than the terminal device. As an example, these functions may be provided by any server.

また、実空間の撮像画像の表示画面が端末装置により表示される例を説明したが、本発明はこれに限定されない。例えば、当該表示画面は別の装置により表示されてもよい。一例として、上記表示画面はサテライトオフィスに設置されたディスプレイにより表示されてもよい。そして、ユーザが、当該ディスプレイにおいて、表示画像に含まれる撮像画像の位置を指定してもよい。   Moreover, although the example in which the display screen of the captured image of the real space is displayed by the terminal device has been described, the present invention is not limited to this. For example, the display screen may be displayed by another device. As an example, the display screen may be displayed by a display installed in a satellite office. Then, the user may specify the position of the captured image included in the display image on the display.

また、本明細書の情報処理における処理ステップは、必ずしもフローチャートに記載された順序に沿って時系列に実行されなくてよい。例えば、情報処理における処理ステップは、フローチャートとして記載した順序と異なる順序で実行されても、並列的に実行されてもよい。   Further, the processing steps in the information processing of the present specification do not necessarily have to be executed in time series in the order described in the flowchart. For example, the processing steps in the information processing may be executed in an order different from the order described in the flowchart, or may be executed in parallel.

また、情報処理装置(例えば、端末装置)に内蔵されるCPU、ROM及びRAM等のハードウェアに、上記情報処理装置の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させた記憶媒体も提供される。   In addition, it is possible to create a computer program for causing hardware such as a CPU, a ROM, and a RAM built in an information processing apparatus (for example, a terminal apparatus) to exhibit functions equivalent to the respective configurations of the information processing apparatus. A storage medium storing the computer program is also provided.

11 カメラ
13 マイクロフォン
15 センサ
17 メディア配信サーバ
19、23 LAN(Local Area Network)
21 ディスプレイ
30 外部ネットワーク
40 PBX(Private Branch eXchange)
60 表示画面(俯瞰モード)
61 俯瞰撮像画像
63、73、83 ボタン画像
70 表示画面(近接モード)
71 近接撮像画像
80 表示画面(会話モード)
81 相手側撮像画像81
85 自分側撮像画像85
90 3次元仮想空間
91 オブジェクト
93 仮想面
100 端末装置
180 制御部
181 実空間情報提供部
183 位置取得部
185 オブジェクト選択部
187 ID取得部
189 電話部
11 Camera 13 Microphone 15 Sensor 17 Media distribution server 19, 23 LAN (Local Area Network)
21 Display 30 External network 40 PBX (Private Branch eXchange)
60 Display screen (Overview mode)
61 Bird's-eye view image 63, 73, 83 Button image 70 Display screen (proximity mode)
71 Close-up image 80 Display screen (Conversation mode)
81 Opposite side captured image 81
85 Own side captured image 85
90 three-dimensional virtual space 91 object 93 virtual surface 100 terminal device 180 control unit 181 real space information providing unit 183 position acquisition unit 185 object selection unit 187 ID acquisition unit 189 telephone unit

Claims (18)

実空間の第1領域に係わる第1撮像画像を表示する第1表示モードの表示画面を表示部に表示させる実空間情報提供部、
を備え、
前記実空間情報提供部は、前記第1表示モードの表示画面における、ユーザによる前記第1撮像画像内の位置の指定に応じて、前記第1領域よりも狭い前記実空間の第2領域に係わる第2撮像画像を表示する第2表示モードの表示画面へ前記第1表示モードの表示画面を切り替えて前記表示部に表示させる、情報処理装置。
A real space information providing unit for displaying on the display unit a display screen in the first display mode for displaying the first captured image relating to the first region of the real space;
With
The real space information providing unit relates to a second region of the real space that is narrower than the first region in accordance with a designation of a position in the first captured image by a user on the display screen in the first display mode. An information processing apparatus that switches the display screen in the first display mode to the display screen in the second display mode that displays the second captured image and displays the display screen on the display unit.
前記第2領域は、前記ユーザにより指定された前記第1撮像画像内の位置に対応する前記実空間内の位置を含む領域である、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the second area is an area including a position in the real space corresponding to a position in the first captured image designated by the user. 前記第2領域は、前記ユーザにより指定された前記第1撮像画像内の位置に対応する前記実空間内の位置を中心とする領域である、請求項2に記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the second area is an area centering on a position in the real space corresponding to a position in the first captured image designated by the user. 少なくとも前記第1撮像画像は、前記第1領域の一部又は全体の撮像画像である、請求項3に記載の情報処理装置。   The information processing apparatus according to claim 3, wherein at least the first captured image is a captured image of a part of or the entire first region. 少なくとも前記第2撮像画像は、撮像動画像である、請求項4に記載の情報処理装置。   The information processing apparatus according to claim 4, wherein at least the second captured image is a captured moving image. 前記第2表示モードの表示画面は、表示モードを前記第2表示モードから前記第1表示モードへ切り替えるためのボタン表示を含む、請求項5に記載の情報処理装置。   The information processing apparatus according to claim 5, wherein the display screen in the second display mode includes a button display for switching a display mode from the second display mode to the first display mode. 前記第2表示モードの表示画面において、前記ボタン表示は、前記第2撮像画像に重畳せず、かつ、前記第2撮像画像の近傍に表示される、請求項6に記載の情報処理装置。   The information processing apparatus according to claim 6, wherein, on the display screen in the second display mode, the button display is not superimposed on the second captured image and is displayed in the vicinity of the second captured image. 前記第1撮像画像および前記第2撮像画像は、前記実空間内に配置された1つの撮像装置による撮像に基づき生成された撮像画像である、請求項7に記載の情報処理装置。   The information processing apparatus according to claim 7, wherein the first captured image and the second captured image are captured images generated based on an image captured by a single image capturing apparatus arranged in the real space. 前記情報処理装置は、
ネットワークに接続する通信部をさらに備え、
前記通信部は、前記ネットワークを介して前記第1撮像画像および前記第2撮像画像を取得する、請求項8に記載の情報処理装置。
The information processing apparatus includes:
A communication unit for connecting to the network;
The information processing apparatus according to claim 8, wherein the communication unit acquires the first captured image and the second captured image via the network.
前記通信部は、前記ネットワークに接続されているサーバから前記第1撮像画像および前記第2撮像画像を前記ネットワークを介して取得する、請求項9に記載の情報処理装置。   The information processing apparatus according to claim 9, wherein the communication unit acquires the first captured image and the second captured image from a server connected to the network via the network. 前記実空間情報提供部は、前記ユーザによる前記第1撮像画像内の位置の指定に応じて、前記第2領域を撮像可能なように前記撮像装置の向きを変更させる要求を前記サーバへ前記通信部に送信させる、請求項10に記載の情報処理装置。   The real space information providing unit sends a request to the server to change the orientation of the imaging device so that the second area can be imaged in accordance with the designation of the position in the first captured image by the user. The information processing apparatus according to claim 10, wherein the information processing apparatus is transmitted to a unit. 前記ネットワークは、LANおよび/またはインターネットである、請求項11に記載の情報処理装置。   The information processing apparatus according to claim 11, wherein the network is a LAN and / or the Internet. 前記情報処理装置は、前記表示部をさらに備え、
前記第1撮像画像内の位置は、前記表示部に対する前記ユーザのタッチ操作により指定される、請求項12に記載の情報処理装置。
The information processing apparatus further includes the display unit,
The information processing apparatus according to claim 12, wherein the position in the first captured image is designated by the user's touch operation on the display unit.
前記実空間情報提供部は、前記表示部に対するユーザのズーム率の指定操作に応じて、前記撮像装置の光学ズームまたはデジタルズームのズーム率を、指定されたズーム率に変更させる要求を前記サーバへ前記通信部に送信させ、
前記通信部が前記ネットワークを介して前記指定されたズーム率に変更後の前記撮像装置による撮像に基づき生成される前記第2撮像画像を取得すると、前記実空間情報提供部は、前記指定されたズーム率に変更後の前記第2撮像画像を表示する前記第2表示モードの表示画面を前記表示部に表示させる、請求項13に記載の情報処理装置。
The real space information providing unit requests the server to change the optical zoom or digital zoom zoom rate of the imaging device to a specified zoom rate in response to a user's zoom rate specifying operation on the display unit. Send it to the communication department,
When the communication unit acquires the second captured image generated based on imaging by the imaging device after being changed to the specified zoom rate via the network, the real space information providing unit is configured to The information processing apparatus according to claim 13, wherein a display screen in the second display mode for displaying the second captured image after being changed to a zoom rate is displayed on the display unit.
前記第1表示モードは俯瞰モードであり、
前記第2表示モードは近接モードである、請求項1〜14のいずれか記載の情報処理装置。
The first display mode is an overhead view mode,
The information processing apparatus according to claim 1, wherein the second display mode is a proximity mode.
実空間の第1領域に係わる第1撮像画像を表示する第1表示モードの表示画面を表示部に表示させるステップと、
前記第1表示モードの表示画面における、ユーザによる前記第1撮像画像内の位置の指定に応じて、前記第1領域よりも狭い前記実空間の第2領域に係わる第2撮像画像を表示する第2表示モードの表示画面へ前記第1表示モードの表示画面を切り替えて前記表示部に表示させるステップと、
を含む、情報処理方法。
Displaying a display screen of a first display mode for displaying a first captured image relating to a first region of real space on a display unit;
A second captured image related to the second region of the real space that is narrower than the first region is displayed in response to the designation of the position in the first captured image by the user on the display screen in the first display mode. A step of switching the display screen of the first display mode to a display screen of two display modes and displaying on the display unit;
Including an information processing method.
コンピュータを、
実空間の第1領域に係わる第1撮像画像を表示する第1表示モードの表示画面を表示部に表示させる実空間情報提供部、
として機能させるための、プログラムであって、
前記実空間情報提供部は、前記第1表示モードの表示画面における、ユーザによる前記第1撮像画像内の位置の指定に応じて、前記第1領域よりも狭い前記実空間の第2領域に係わる第2撮像画像を表示する第2表示モードの表示画面へ前記第1表示モードの表示画面を切り替えて前記表示部に表示させる、プログラム。
Computer
A real space information providing unit for displaying on the display unit a display screen in the first display mode for displaying the first captured image relating to the first region of the real space;
Is a program for functioning as
The real space information providing unit relates to a second region of the real space that is narrower than the first region in accordance with a designation of a position in the first captured image by a user on the display screen in the first display mode. The program which switches the display screen of the said 1st display mode to the display screen of the 2nd display mode which displays a 2nd captured image, and displays it on the said display part.
実空間の第1領域に係わる第1撮像画像を表示する第1表示モードの表示画面を表示部に表示させる実空間情報提供部、
を備え、
前記実空間情報提供部は、前記第1表示モードの表示画面における、ユーザによる前記第1撮像画像内の位置の指定に応じて、前記第1領域よりも狭い前記実空間の第2領域に係わる第2撮像画像を表示する第2表示モードの表示画面へ前記第1表示モードの表示画面を切り替えて前記表示部に表示させる、情報処理システム。
A real space information providing unit for displaying on the display unit a display screen in the first display mode for displaying the first captured image relating to the first region of the real space;
With
The real space information providing unit relates to a second region of the real space that is narrower than the first region in accordance with a designation of a position in the first captured image by a user on the display screen in the first display mode. An information processing system for switching a display screen in the first display mode to a display screen in a second display mode for displaying a second captured image and causing the display unit to display the display screen.
JP2017037192A 2017-02-28 2017-02-28 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, PROGRAM, AND INFORMATION PROCESSING SYSTEM Active JP6540732B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017037192A JP6540732B2 (en) 2017-02-28 2017-02-28 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, PROGRAM, AND INFORMATION PROCESSING SYSTEM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017037192A JP6540732B2 (en) 2017-02-28 2017-02-28 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, PROGRAM, AND INFORMATION PROCESSING SYSTEM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015021141A Division JP6102961B2 (en) 2015-02-05 2015-02-05 Information processing apparatus, program, and information processing method

Publications (2)

Publication Number Publication Date
JP2017107597A true JP2017107597A (en) 2017-06-15
JP6540732B2 JP6540732B2 (en) 2019-07-10

Family

ID=59060906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017037192A Active JP6540732B2 (en) 2017-02-28 2017-02-28 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, PROGRAM, AND INFORMATION PROCESSING SYSTEM

Country Status (1)

Country Link
JP (1) JP6540732B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080309799A1 (en) * 2007-06-13 2008-12-18 Masanori Imata Image pickup apparatus and image pickup method
JP2011188112A (en) * 2010-03-05 2011-09-22 Oki Electric Industry Co Ltd Apparatus, system and method for remote interaction, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080309799A1 (en) * 2007-06-13 2008-12-18 Masanori Imata Image pickup apparatus and image pickup method
JP2008311804A (en) * 2007-06-13 2008-12-25 Sony Corp Imaging apparatus and method
JP2011188112A (en) * 2010-03-05 2011-09-22 Oki Electric Industry Co Ltd Apparatus, system and method for remote interaction, and program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
緑川正幸: "モバイル端末活用に対応する次世代オフィスコミュニケーションシステム", OKIテクニカルレビュー 220, vol. 第79巻,第2号, JPN6018015712, 9 November 2012 (2012-11-09), pages 58 - 61, ISSN: 0003789496 *
野中雅人: "複数の映像・音・センサ情報を利用するオフィスコミュニケーションシステム", ヒューマンインタフェース学会研究報告集[CD−ROM], vol. 第13巻,第10号, JPN6018015710, 10 November 2011 (2011-11-10), pages 11 - 14, ISSN: 0003789495 *
金丸利文: "《3》超臨場感技術の応用 《3−1》テレワークシステム", 映像情報メディア学会誌, vol. 第65巻,第5号, JPN6018015713, 1 May 2011 (2011-05-01), pages 615 - 619, ISSN: 0003789497 *

Also Published As

Publication number Publication date
JP6540732B2 (en) 2019-07-10

Similar Documents

Publication Publication Date Title
JP6070783B2 (en) Information processing apparatus, program, and information processing method
US11089266B2 (en) Communication processing method, terminal, and storage medium
US10009543B2 (en) Method and apparatus for displaying self-taken images
CN109068161B (en) Equipment connection establishing method and device
JP2011205573A (en) Control device, camera system, and program
WO2013141405A1 (en) Teleconference system and teleconference terminal
KR20160086752A (en) Method for connecting appliance to network and device for the same
CN104115443A (en) Transferring of communication event
JP5632035B2 (en) Remote work support system and remote work support program
JP2018036871A (en) Information processing server, information processing system, terminal device, and program
JP6149474B2 (en) Information processing apparatus and program
CN114009003A (en) Image acquisition method, device, equipment and storage medium
JP2014225804A (en) Program, setting information utilization system, and information processing device
JP2015225400A (en) Communication system, transfer control device, communication method, and program
CN104378576B (en) Information processing method and electronic equipment
JP6314539B2 (en) Transmission terminal, transmission system, transmission method and program
JP6102961B2 (en) Information processing apparatus, program, and information processing method
JP5692204B2 (en) Information processing apparatus, program, and information processing method
JP6881193B2 (en) Information processing device, information processing method, program, display control device, display control method, program and information processing system
JP6540732B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, PROGRAM, AND INFORMATION PROCESSING SYSTEM
JP6575561B2 (en) Information processing apparatus, information processing method, and program
JP6008759B2 (en) Monitoring device, monitoring system, and monitoring support program
JP6524732B2 (en) Communication device, communication system, control method of communication device and program
JP2018174468A (en) Video display unit, and control method, and program therefor
CN113660448B (en) Call processing method, device, terminal equipment and storage medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180709

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190308

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190318

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190527

R150 Certificate of patent or registration of utility model

Ref document number: 6540732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150