JP2014204412A - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP2014204412A
JP2014204412A JP2013081895A JP2013081895A JP2014204412A JP 2014204412 A JP2014204412 A JP 2014204412A JP 2013081895 A JP2013081895 A JP 2013081895A JP 2013081895 A JP2013081895 A JP 2013081895A JP 2014204412 A JP2014204412 A JP 2014204412A
Authority
JP
Japan
Prior art keywords
objects
image
captured image
user
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013081895A
Other languages
Japanese (ja)
Other versions
JP6149474B2 (en
Inventor
利文 金丸
Toshifumi Kanamaru
利文 金丸
博 永井
Hiroshi Nagai
博 永井
吉田 敏之
Toshiyuki Yoshida
敏之 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2013081895A priority Critical patent/JP6149474B2/en
Publication of JP2014204412A publication Critical patent/JP2014204412A/en
Application granted granted Critical
Publication of JP6149474B2 publication Critical patent/JP6149474B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To make it possible to more easily contact a desired person by using intuitive operation.SOLUTION: There is provided an information processing device comprising: an acquisition unit for acquiring a position designated by a user in an imaged picture in real space on a display screen including the imaged picture; a selection unit for selecting one or more objects from a plurality of objects, each of which corresponds to any position in the imaged picture, on the basis of the acquired position; and a display control unit for making a display device for displaying the display screen display information on each of two or more objects when the two or more objects are selected from the plurality of objects. The selection unit selects one object designated by the user from the two or more objects. When the one object is selected, communication identification information corresponding to the one object is acquired.

Description

本発明は、情報処理装置及びプログラムに関する。   The present invention relates to an information processing apparatus and a program.

近年、従来のようにハードウェアで実装される電話機に代わって、アプリケーションソフトウェアで実装されるソフトフォンが普及してきている。ソフトフォンはソフトウェアで実装されるため、ソフトフォンへの機能追加、ソフトフォンと他のアプリケーションソフトウェアとの連携等を比較的容易に実現することができる。そのため、ソフトフォンに関する様々な応用技術が提案されている。   In recent years, softphones implemented with application software have become popular in place of telephones implemented with hardware as in the past. Since the softphone is implemented by software, it is possible to relatively easily realize addition of functions to the softphone, cooperation between the softphone and other application software, and the like. Therefore, various applied technologies related to softphones have been proposed.

例えば、特許文献1には、カメラから得られた撮像画像の表示画面において当該撮像画像に写っている人物の顔をタッチすると、顔認識により当該人物の顔を特定し、当該人物の電話番号を取得し、当該人物への電話発信を行う技術が、開示されている。   For example, in Patent Document 1, when a person's face shown in the captured image is touched on a display screen of a captured image obtained from a camera, the person's face is identified by face recognition, and the telephone number of the person is set. A technique for obtaining and making a call to the person is disclosed.

特開2007−208863号公報JP 2007-208863 A

しかし、上記特許文献1に開示されている技術では、表示画面において人物の顔の位置にタッチしなければ、当該人物への電話発信を行うことができない。そのため、例えば、表示画面自体が小さい場合、表示画面に写っている人物が小さい場合等には、当該人物の顔の位置へのタッチが困難であり、当該人物への電話発信を行うことが困難になり得る。また、タッチの精度を緩和するために、例えば、撮像画像に写っている顔のうちの、タッチ位置に最も近い顔を、顔認識により特定すると、例えば所望の人物と別の人物とが近くにいる場合に、当該別の人物の顔が特定されてしまう可能性もある。   However, in the technique disclosed in Patent Document 1, a call to the person cannot be made unless the position of the person's face is touched on the display screen. Therefore, for example, when the display screen itself is small, or when the person shown on the display screen is small, it is difficult to touch the position of the person's face, and it is difficult to make a call to the person. Can be. In order to reduce the accuracy of touch, for example, when the face closest to the touch position among the faces shown in the captured image is identified by face recognition, for example, the desired person and another person are close to each other. The face of the other person may be specified.

そこで、直感的な操作でより容易に所望の人物にコンタクトすることを可能にすることを可能にする仕組みが提供されることが望ましい。   Therefore, it is desirable to provide a mechanism that makes it possible to contact a desired person more easily through an intuitive operation.

本発明によれば、実空間の撮像画像を含む表示画面においてユーザにより指定される上記撮像画像内の位置を取得する取得部と、取得される上記位置に基づいて、上記撮像画像のいずれかの位置にそれぞれ対応する複数のオブジェクトの中から、1つ以上のオブジェクトを選択する選択部と、上記複数のオブジェクトの中から2つ以上のオブジェクトが選択される場合に、上記表示画面を表示する表示装置に、上記2つ以上のオブジェクトの各々に関する情報を表示させる表示制御部と、を備える情報処理装置が提供される。上記選択部は、上記2つ以上のオブジェクトの中から、ユーザにより指定される1つのオブジェクトを選択する。上記1つのオブジェクトが選択されると、当該1つのオブジェクトに対応する通信用の識別情報が取得される。   According to the present invention, an acquisition unit that acquires a position in the captured image specified by a user on a display screen that includes a captured image of real space, and any one of the captured images based on the acquired position A selection unit that selects one or more objects from a plurality of objects corresponding to positions, and a display that displays the display screen when two or more objects are selected from the plurality of objects. An information processing apparatus is provided that includes a display control unit that causes the apparatus to display information regarding each of the two or more objects. The selection unit selects one object specified by the user from the two or more objects. When the one object is selected, communication identification information corresponding to the one object is acquired.

また、上記2つ以上のオブジェクトは、第1のオブジェクト及び第2のオブジェクトを含み、上記2つ以上のオブジェクトの各々に関する上記情報は、上記第1のオブジェクトが対応する上記撮像画像内の位置を含む上記撮像画像内の第1の部分領域の画像、及び、上記第2のオブジェクトが対応する上記撮像画像内の位置を含む上記撮像画像内の第2の部分領域の画像を含んでもよい。   The two or more objects include a first object and a second object, and the information regarding each of the two or more objects includes a position in the captured image corresponding to the first object. An image of a first partial area in the captured image including the image and a second partial area in the captured image including a position in the captured image corresponding to the second object may be included.

また、上記表示制御部は、上記表示装置に、上記第1の部分領域の上記画像及び上記第2の部分領域の上記画像を並列に表示させてもよい。   The display control unit may cause the display device to display the image of the first partial area and the image of the second partial area in parallel.

また、上記第1の部分領域の上記画像は、上記第1の部分領域が拡大された拡大画像であり、上記第2の部分領域の上記画像は、上記第2の部分領域が拡大された拡大画像であってもよい。   The image of the first partial area is an enlarged image in which the first partial area is enlarged, and the image of the second partial area is enlarged in which the second partial area is enlarged. It may be an image.

また、上記第1の部分領域の上記画像は、上記第1の部分領域が第1の拡大率で拡大された拡大画像であり、上記第2の部分領域の上記画像は、上記第2の部分領域が第2の拡大率で拡大された拡大画像であってもよい。   The image of the first partial area is an enlarged image obtained by enlarging the first partial area at a first enlargement ratio, and the image of the second partial area is the second part. An enlarged image in which the region is enlarged at the second enlargement ratio may be used.

また、上記表示制御部は、上記表示装置に、上記第1の部分領域の上記画像と当該画像以外の領域との間の境界を示す第1の境界標識と、上記第2の部分領域の上記画像と当該画像以外の領域との間の境界を示す第2の境界標識とを表示させてもよい。   Further, the display control unit causes the display device to include a first boundary sign indicating a boundary between the image of the first partial region and a region other than the image, and the second partial region. A second boundary sign indicating a boundary between the image and a region other than the image may be displayed.

また、上記第1の境界標識は、上記第1のオブジェクトに関する情報を含み、上記第2の境界標識は、上記第2のオブジェクトに関する情報を含んでもよい。   The first boundary sign may include information related to the first object, and the second boundary sign may include information related to the second object.

また、上記第1のオブジェクトに関する上記情報は、上記第1のオブジェクトを識別するための第1の識別情報を含み、上記第2のオブジェクトに関する上記情報は、上記第2のオブジェクトを識別するための第2の識別情報を含んでもよい。   Further, the information regarding the first object includes first identification information for identifying the first object, and the information regarding the second object is for identifying the second object. Second identification information may be included.

また、上記2つ以上のオブジェクトの各々に関する上記情報は、上記2つ以上のオブジェクトの各々を識別するための識別情報を含んでもよい。   The information regarding each of the two or more objects may include identification information for identifying each of the two or more objects.

また、上記表示制御部は、上記表示装置に、上記2つ以上のオブジェクトの中から1つのオブジェクトをユーザにより指定させるための標識を表示させてもよい。   The display control unit may cause the display device to display a sign for allowing the user to designate one object from the two or more objects.

また、上記1つ以上のオブジェクトは、上記複数のオブジェクトのうちの、取得される上記位置に対応する領域内にある位置に対応するオブジェクトであってもよい。   The one or more objects may be an object corresponding to a position in an area corresponding to the acquired position among the plurality of objects.

また、上記取得部は、上記表示画面においてユーザにより指定される上記撮像画像内の1つの位置を取得し、上記1つ以上のオブジェクトは、上記複数のオブジェクトのうちの、取得される上記1つの位置を含む所定の形状の領域内にある位置に対応するオブジェクトであってもよい。   The acquisition unit acquires one position in the captured image specified by the user on the display screen, and the one or more objects are the one acquired among the plurality of objects. It may be an object corresponding to a position in an area of a predetermined shape including the position.

また、上記取得部は、上記表示画面においてユーザにより指定される上記撮像画像内の2つ以上の位置を取得し、上記1つ以上のオブジェクトは、上記複数のオブジェクトのうちの、取得される上記2つ以上の位置に基づき形成される領域内にある位置に対応するオブジェクトであってもよい。   Further, the acquisition unit acquires two or more positions in the captured image specified by the user on the display screen, and the one or more objects are acquired from the plurality of objects. It may be an object corresponding to a position in an area formed based on two or more positions.

また、上記選択部は、上記複数のオブジェクトが対応するいずれの位置も、取得される上記位置に対応する上記領域内にない場合には、いずれのオブジェクトも選択せず、上記表示制御部は、いずれのオブジェクトも選択されない場合に、上記表示装置に、上記撮像画像内の位置をユーザに指定させるための標識を上記表示画面に表示させてもよい。   The selection unit does not select any object when none of the positions corresponding to the plurality of objects is within the region corresponding to the acquired position, and the display control unit When no object is selected, a sign for causing the user to specify a position in the captured image may be displayed on the display screen on the display device.

また、上記通信用の識別情報は、専用網における通信のための識別情報であってもよい。   Further, the identification information for communication may be identification information for communication in a dedicated network.

また、上記通信用の識別情報は、公衆網を介して通信するための識別情報であってもよい。   Further, the identification information for communication may be identification information for communication via a public network.

また、上記公衆網は、移動体通信網を含んでもよい。   The public network may include a mobile communication network.

また、上記表示装置は、タッチパネルの表示面であり、上記撮像画像内の上記位置は、タッチパネルにおけるユーザのタッチにより指定されてもよい。   The display device may be a display surface of a touch panel, and the position in the captured image may be specified by a user touch on the touch panel.

また、本発明によれば、コンピュータを、実空間の撮像画像を含む表示画面においてユーザにより指定される上記撮像画像内の位置を取得する取得部と、取得される上記位置に基づいて、上記撮像画像のいずれかの位置にそれぞれ対応する複数のオブジェクトの中から、1つ以上のオブジェクトを選択する選択部と、上記複数のオブジェクトの中から2つ以上のオブジェクトが選択される場合に、上記表示画面を表示する表示装置に、上記2つ以上のオブジェクトの各々に関する情報を表示させる表示制御部と、として機能させるためのプログラムが提供される。上記選択部は、上記2つ以上のオブジェクトの中から、ユーザにより指定される1つのオブジェクトを選択する。上記1つのオブジェクトが選択されると、当該1つのオブジェクトに対応する通信用の識別情報が取得される。   According to the present invention, the computer is configured to acquire the position based on the acquired position and the acquisition unit that acquires the position in the captured image specified by the user on the display screen including the captured image of the real space. The selection unit that selects one or more objects from a plurality of objects corresponding to any position of the image, and the display when two or more objects are selected from the plurality of objects A program for causing a display device that displays a screen to function as a display control unit that displays information on each of the two or more objects is provided. The selection unit selects one object specified by the user from the two or more objects. When the one object is selected, communication identification information corresponding to the one object is acquired.

以上説明したように本発明によれば、直感的な操作でより容易に所望の人物にコンタクトすることを可能にすることが可能となる。   As described above, according to the present invention, it is possible to more easily contact a desired person through an intuitive operation.

一実施形態に係る情報処理システムの概略的な構成の一例を示す説明図である。It is explanatory drawing which shows an example of a schematic structure of the information processing system which concerns on one Embodiment. 一実施形態に係る端末装置の具体例を説明するための説明図である。It is explanatory drawing for demonstrating the specific example of the terminal device which concerns on one Embodiment. 一実施形態に係る端末装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the terminal device which concerns on one Embodiment. 一実施形態に係る端末装置の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of the terminal device which concerns on one Embodiment. 表示画面に含まれる撮像画像内の位置の取得の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of acquisition of the position in the captured image contained in a display screen. 複数のオブジェクト(人物)がそれぞれ対応する位置の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of the position which a some object (person) respond | corresponds respectively. いずれかのオブジェクトが対応する位置とユーザにより指定される位置とが合致する場合に選択されるオブジェクトの例を説明するための説明図である。It is explanatory drawing for demonstrating the example of the object selected when the position corresponding to one of objects and the position designated by the user correspond. オブジェクトを選択するための領域の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of the area | region for selecting an object. いずれかのオブジェクトが対応するどの位置にもユーザにより指定される位置が合致しない場合に選択されるオブジェクトの例を説明するための説明図である。It is explanatory drawing for demonstrating the example of the object selected when the position designated by the user does not correspond to any position which any object respond | corresponds. ユーザにより撮像画像内の位置が指定されてもいずれのオブジェクトも選択されないケースの一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the case where no object is selected even if the position in a captured image is designated by the user. 1つのオブジェクトが選択される場合に表示される表示画面の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the display screen displayed when one object is selected. 2つ以上のオブジェクトが選択される場合に表示される表示画面の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the display screen displayed when two or more objects are selected. 第1の部分領域の画像及び第2の部分領域の画像を含む表示画面の生成プロセスの一例を説明するための第1の説明図である。It is the 1st explanatory view for explaining an example of the generation process of the display screen containing the image of the 1st partial field, and the image of the 2nd partial field. 第1の部分領域の画像及び第2の部分領域の画像を含む表示画面の生成プロセスの一例を説明するための第2の説明図である。It is the 2nd explanatory view for explaining an example of the generation process of the display screen containing the image of the 1st partial field, and the image of the 2nd partial field. 第1の部分領域の画像及び第2の部分領域の画像を含む表示画面の生成プロセスの一例を説明するための第3の説明図である。It is the 3rd explanatory view for explaining an example of the generation process of the display screen containing the image of the 1st partial field, and the image of the 2nd partial field. 第1の部分領域の画像及び第2の部分領域の画像を含む表示画面の生成プロセスの一例を説明するための第4の説明図である。It is the 4th explanatory view for explaining an example of the generation process of the display screen containing the image of the 1st partial field, and the image of the 2nd partial field. オブジェクト指定促進標識の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of an object designation | designated promotion label | marker. 位置指定促進標識の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of a position designation | designated promotion label | marker. 通話用の表示画面の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the display screen for telephone calls. 一実施形態に係る端末装置のソフトウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the software structure of the terminal device which concerns on one Embodiment. メニュー画面の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of a menu screen. 画面に表示されるソフトフォンのユーザインターフェースの例である。It is an example of the user interface of the softphone displayed on a screen. 超臨場感クライアントの表示画面の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of the display screen of a super-realistic client. 電話帳の表示画面の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of the display screen of a telephone directory. 代表カメラの例を説明するための説明図である。It is explanatory drawing for demonstrating the example of a representative camera. プレゼンス情報を含む電話帳の表示画面の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of the display screen of the telephone directory containing presence information. 一実施形態に係る端末装置における情報処理の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the information processing in the terminal device which concerns on one Embodiment. プレゼンス情報に従った撮像画像の提供及び取得のための情報処理の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the information processing for provision and acquisition of the captured image according to presence information. 第1の変形例に従った、表示画面に含まれる撮像画像内の位置の取得の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of acquisition of the position in the captured image contained in a display screen according to a 1st modification. 2つ以上のオブジェクトが選択される場合に第3の変形例に従って表示される表示画面の第1の例を説明するための説明図である。It is explanatory drawing for demonstrating the 1st example of the display screen displayed according to a 3rd modification when two or more objects are selected. 2つ以上のオブジェクトが選択される場合に第3の変形例に従って表示される表示画面の第2の例を説明するための説明図である。It is explanatory drawing for demonstrating the 2nd example of the display screen displayed according to a 3rd modification when two or more objects are selected. 境界標識に含まれるオブジェクトに関する情報の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of the information regarding the object contained in a boundary sign. 2つ以上のオブジェクトが選択される場合に第4の変形例に従って表示される表示画面の一例を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining an example of a display screen displayed according to a fourth modification when two or more objects are selected.

以下に添付の図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

以降、<<1.情報処理システムの概略的な構成>>、<<2.端末装置の構成>>、<<3.処理の流れ>>、<<4.変形例>>という順序で本発明の実施形態を説明する。   Thereafter, << 1. Schematic configuration of information processing system >>, << 2. Configuration of terminal device >>, << 3. Flow of processing >>, << 4. Embodiments of the present invention will be described in the order of modification >>.

<<1.情報処理システムの概略的な構成>>
まず、図1を参照して、本発明の実施形態に係る情報処理システムの概略的な構成を説明する。図1は、本実施形態に係る情報処理システムの概略的な構成の一例を示す説明図である。図1を参照すると、情報処理システムは、例えば、複数の拠点にわたって存在する。この例では、情報処理システムは、センタオフィス10とサテライトオフィス20(又はホームオフィス20)にわたって存在する。センタオフィス10は、比較的大規模なオフィスであり、サテライトオフィス20(又はホームオフィス20)は、比較的小規模なオフィスである。
<< 1. Schematic configuration of information processing system >>
First, a schematic configuration of an information processing system according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is an explanatory diagram illustrating an example of a schematic configuration of an information processing system according to the present embodiment. Referring to FIG. 1, the information processing system exists over a plurality of locations, for example. In this example, the information processing system exists across the center office 10 and the satellite office 20 (or home office 20). The center office 10 is a relatively large office, and the satellite office 20 (or home office 20) is a relatively small office.

情報処理システムは、センタオフィス10において、カメラ11、マイクロフォン13、センサ15、メディア配信サーバ17、情報管理サーバ18、及びLAN(Local Area Network)19を含む。また、情報処理システムは、サテライトオフィス20(又はホームオフィス20)において、端末装置100、ディスプレイ21、及びLAN23を含む。また、情報処理システムは、さらにPBX(Private Branch eXchange)40を含む。   In the center office 10, the information processing system includes a camera 11, a microphone 13, a sensor 15, a media distribution server 17, an information management server 18, and a LAN (Local Area Network) 19. The information processing system includes a terminal device 100, a display 21, and a LAN 23 in the satellite office 20 (or home office 20). The information processing system further includes a PBX (Private Branch eXchange) 40.

(カメラ11)
カメラ11は、当該カメラ11が向いている方向(即ち、撮像方向)にある被写体を撮像する。センタオフィス10には、複数のカメラ11が設置される。そして、設置された各カメラ11は、それぞれの設置位置からセンタオフィスの一部又は全体を撮像する。このように、情報処理システムでは、様々な位置からセンタオフィスが撮像される。カメラ11を通じて生成される撮像画像は、静止画像であってもよく、又は動画像(即ち映像)であってもよい。
(Camera 11)
The camera 11 images a subject in the direction in which the camera 11 is facing (that is, the imaging direction). A plurality of cameras 11 are installed in the center office 10. Then, each installed camera 11 images a part or the whole of the center office from each installation position. Thus, in the information processing system, the center office is imaged from various positions. The captured image generated through the camera 11 may be a still image or a moving image (that is, a video).

また、カメラ11は、例えば、自動で向きを変えることができる。さらに、カメラ11は、例えば、ズーム機能を有する。当該ズーム機能は、光学ズーム機能であってもよく、又はデジタルズーム機能であってもよい。   Moreover, the camera 11 can change direction automatically, for example. Furthermore, the camera 11 has a zoom function, for example. The zoom function may be an optical zoom function or a digital zoom function.

また、カメラ11は、位置を変えることが可能であってもよい。一例として、カメラ11は、ドリーにより可動であってもよい。即ち、カメラ11は、レールに沿って可動であってもよい。この場合に、レールに沿って動くためのモータの制御により、カメラ11が前後に動いてもよい。これにより、1台のカメラ 11であっても、異なる位置から被写体が撮像された撮像画像を生成することが可能になる。   Further, the camera 11 may be capable of changing the position. As an example, the camera 11 may be movable by a dolly. That is, the camera 11 may be movable along the rail. In this case, the camera 11 may move back and forth by controlling the motor for moving along the rail. As a result, even one camera 11 can generate a captured image in which the subject is captured from different positions.

また、カメラ11が位置を変えることが可能である場合に、上記ズーム機能は、カメラ11の位置を変えることによるズーム機能であってもよい。一例として、上記ズーム機能は、ドリーによるズーム機能であってもよい。例えば、被写体に向かってカメラ11を動かすことによりズームインを行い、カメラ11が被写体から離れる方向にカメラ11を動かすことによりズームアウトを行ってもよい。なお、ドリーによるズームは、光学ズーム又はデジタルズームのように、精緻なズームである必要はない。例えば、ズームインでは、被写体がより大きく写った撮像画像が生成されればよく、ズームアウトでは、被写体がより小さく写った撮像画像が生成されればよい。   Further, when the camera 11 can change the position, the zoom function may be a zoom function by changing the position of the camera 11. As an example, the zoom function may be a dolly zoom function. For example, zooming in may be performed by moving the camera 11 toward the subject, and zooming out by moving the camera 11 in a direction away from the subject. Note that the zoom by dolly does not need to be a precise zoom like the optical zoom or the digital zoom. For example, in zooming in, it is only necessary to generate a captured image that shows a larger subject, and in zooming out, it is only necessary to generate a captured image that shows a smaller subject.

(マイクロフォン13)
マイクロフォン13は、当該マイクロフォン13の周囲の音を集音する。センタオフィス10には、複数のマイクロフォン13が設置される。そして、設置された各マイクロフォン13は、センタオフィス内のそれぞれの設置位置の周囲の音を集音する。このように、情報処理システムでは、センタオフィス10内の様々な位置での音が集音される。
(Microphone 13)
The microphone 13 collects sound around the microphone 13. A plurality of microphones 13 are installed in the center office 10. And each installed microphone 13 collects the sound around each installation position in the center office. In this way, in the information processing system, sounds at various positions in the center office 10 are collected.

(センサ15)
センサ15は、様々な種類のセンサを含み得る。例えば、センサ15は、人物が座席にいるか否かを判定する座席センサを含む。当該座席センサは、各座席に設置され、各座席に人物が座っているか否かを判定する。座席センサは、例えば、押圧を検出可能ないずれかのセンサである。
(Sensor 15)
The sensor 15 can include various types of sensors. For example, the sensor 15 includes a seat sensor that determines whether a person is in the seat. The seat sensor is installed in each seat and determines whether a person is sitting in each seat. The seat sensor is, for example, any sensor that can detect pressing.

(メディア配信サーバ17)
メディア配信サーバ17は、要求に応じて端末装置100にメディア(例えば、音声、撮像画像、等)を配信する。例えば、メディア配信サーバ17は、カメラ11から撮像画像を取得し、マイクロフォン13から音声を取得し、これらのメディアを端末装置100に配信する。
(Media distribution server 17)
The media distribution server 17 distributes media (for example, audio, captured images, etc.) to the terminal device 100 in response to a request. For example, the media distribution server 17 acquires a captured image from the camera 11, acquires sound from the microphone 13, and distributes these media to the terminal device 100.

(情報管理サーバ18)
情報管理サーバ18は、情報処理システムにおいて用いられる様々な情報を管理する。即ち、情報管理サーバ18は、当該様々な情報を記憶し、適時に当該様々な情報を更新する。
(Information management server 18)
The information management server 18 manages various information used in the information processing system. That is, the information management server 18 stores the various information and updates the various information in a timely manner.

例えば、情報管理サーバ18は、カメラ11、マイクロフォン13及びセンサ15に関するパラメータを管理する。具体的には、例えば、情報管理サーバ18は、カメラ11のパラメータとして、カメラ11の設置位置、撮像方向(例えば、カメラのレンズと垂直な方向)、ズーム率等の情報を記憶し、更新する。   For example, the information management server 18 manages parameters regarding the camera 11, the microphone 13, and the sensor 15. Specifically, for example, the information management server 18 stores and updates information such as an installation position of the camera 11, an imaging direction (for example, a direction perpendicular to the camera lens), a zoom ratio, and the like as parameters of the camera 11. .

(LAN19)
また、LAN19は、センタオフィス10内の各装置を接続するネットワークである。また、LAN19は、外部ネットワーク30を介して、センタオフィス10内の各装置とセンタオフィス10外の装置とを接続する。当該外部ネットワーク30は、例えば、インターネットを含む。
(LAN19)
The LAN 19 is a network that connects each device in the center office 10. The LAN 19 connects each device in the center office 10 and a device outside the center office 10 via the external network 30. The external network 30 includes the Internet, for example.

(端末装置100)
端末装置100は、ユーザにより使用される。例えば、端末装置100は、電話、メール等のコミュニケーションを行うための機能をユーザに提供する。また、端末装置100は、様々な種類の装置として実装され得る。以下、この点について図2を参照して具体例を説明する。
(Terminal device 100)
The terminal device 100 is used by a user. For example, the terminal device 100 provides a user with a function for performing communication such as telephone and e-mail. In addition, the terminal device 100 can be implemented as various types of devices. Hereinafter, a specific example of this point will be described with reference to FIG.

図2は、本実施形態に係る端末装置の具体例を説明するための説明図である。図2を参照すると、一例として、端末装置100Aは、タブレット端末である。また、別の例として、端末装置100Bは、スマートフォンである。また、さらに別の例として、端末装置100Cは、ディスプレイ付き電話機である。例えば、当該電話機には、ソフトフォンが備えられる。なお、端末装置100の具体例はこれらの例に限られない。一例として、端末装置100は、PC(Personal Computer)であってもよい。   FIG. 2 is an explanatory diagram for describing a specific example of the terminal device according to the present embodiment. Referring to FIG. 2, as an example, the terminal device 100A is a tablet terminal. As another example, the terminal device 100B is a smartphone. As yet another example, the terminal device 100C is a telephone with a display. For example, the telephone is provided with a soft phone. Note that specific examples of the terminal device 100 are not limited to these examples. As an example, the terminal device 100 may be a PC (Personal Computer).

(ディスプレイ21)
ディスプレイ21は、いずれかの画面を表示する。例えば、ディスプレイ21は、カメラ11を通じて生成された撮像画像を含む画面を表示する。これにより、端末装置100のユーザを含む多数の人物が、ディスプレイ21を介してセンタオフィス10の様子を見ることができる。
(Display 21)
The display 21 displays one of the screens. For example, the display 21 displays a screen including a captured image generated through the camera 11. Thereby, many persons including the user of the terminal device 100 can see the state of the center office 10 via the display 21.

また、ディスプレイ21は、例えば、いずれかの音声も出力する。例えば、ディスプレイ21は、マイクロフォン13により集音される音声を出力する。これにより、端末装置100のユーザを含む多数の人物が、ディスプレイ21を介してセンタオフィス10の音を聞くことができる。   Further, the display 21 outputs any sound, for example. For example, the display 21 outputs sound collected by the microphone 13. Thereby, many persons including the user of the terminal device 100 can hear the sound of the center office 10 via the display 21.

(LAN23)
また、LAN23は、サテライトオフィス20(又はホームオフィス20)内の各装置を接続するネットワークである。また、LAN23は、外部ネットワーク30を介して、サテライトオフィス20内の各装置とサテライトオフィス20外の装置とを接続する。
(LAN23)
The LAN 23 is a network that connects devices in the satellite office 20 (or the home office 20). The LAN 23 connects each device in the satellite office 20 to a device outside the satellite office 20 via the external network 30.

(PBX40)
PBX40は、外部ネットワーク30を介した装置間の通信を可能にする。PBX40は、例えば、H.323又はSIP(Session Initiation Protocol)に従って動作する。
(PBX40)
The PBX 40 enables communication between devices via the external network 30. PBX40 is, for example, H.264. It operates according to H.323 or SIP (Session Initiation Protocol).

具体的には、例えば、PBX40は、通信用の識別情報(例えば、電話番号)とIP(Internet Protocol)アドレスとを、互いに対応付けて記憶する。そして、PBX40は、要求に応じて、通信用の識別情報をIPアドレスに変換し、当該IPアドレスを要求元に提供する。   Specifically, for example, the PBX 40 stores identification information for communication (for example, a telephone number) and an IP (Internet Protocol) address in association with each other. In response to the request, the PBX 40 converts the communication identification information into an IP address, and provides the IP address to the request source.

なお、PBX40は、LAN19又はLAN23に接続されてもよい。   The PBX 40 may be connected to the LAN 19 or the LAN 23.

<<2.端末装置の構成>>
続いて、図3〜図25を参照して、本実施形態に係る端末装置100の構成の一例を説明する。
<< 2. Terminal device configuration >>
Next, an example of the configuration of the terminal device 100 according to the present embodiment will be described with reference to FIGS.

<2.1.ハードウェア構成>
まず、図3を参照して、本実施形態に係る端末装置100のハードウェア構成の一例を説明する。図3は、本実施形態に係る端末装置100のハードウェア構成の一例を示すブロック図である。図3を参照すると、端末装置100は、CPU(Central Processing Unit)801、ROM(Read Only Memory)803、RAM(Random Access Memory)805、バス807、記憶装置809、通信インターフェース811、カメラ813、マイクロフォン815、スピーカ817及びタッチパネル820を備える。
<2.1. Hardware configuration>
First, an example of the hardware configuration of the terminal device 100 according to the present embodiment will be described with reference to FIG. FIG. 3 is a block diagram illustrating an example of a hardware configuration of the terminal device 100 according to the present embodiment. Referring to FIG. 3, a terminal device 100 includes a CPU (Central Processing Unit) 801, a ROM (Read Only Memory) 803, a RAM (Random Access Memory) 805, a bus 807, a storage device 809, a communication interface 811, a camera 813, a microphone. 815, a speaker 817, and a touch panel 820.

CPU801は、端末装置100における様々な処理を実行する。また、ROM803は、端末装置100における処理をCPU801に実行させるためのプログラム及びデータを記憶する。また、RAM805は、CPU801の処理の実行時に、プログラム及びデータを一時的に記憶する。   The CPU 801 executes various processes in the terminal device 100. The ROM 803 stores a program and data for causing the CPU 801 to execute processing in the terminal device 100. The RAM 805 temporarily stores programs and data when the CPU 801 executes processing.

バス807は、CPU801、ROM803及びRAMを相互に接続する。バス807には、さらに、記憶装置809、通信インターフェース811、カメラ813、マイクロフォン815、スピーカ817及びタッチパネル820が接続される。バス807は、例えば、複数の種類のバスを含む。一例として、バス807は、CPU801、ROM803及びRAM805を接続する高速バスと、当該高速バスよりも低速の1つ以上の別のバスを含む。   A bus 807 connects the CPU 801, the ROM 803, and the RAM to each other. A storage device 809, a communication interface 811, a camera 813, a microphone 815, a speaker 817, and a touch panel 820 are further connected to the bus 807. The bus 807 includes, for example, a plurality of types of buses. As an example, the bus 807 includes a high-speed bus that connects the CPU 801, the ROM 803, and the RAM 805, and one or more other buses that are slower than the high-speed bus.

記憶装置809は、端末装置100内で一時的又は恒久的に保存すべきデータを記憶する。記憶装置809は、例えば、ハードディスク(Hard Disk)等の磁気記憶装置であってもよく、又は、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ(flash memory)、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)及びPRAM(Phase change Random Access Memory)等の不揮発性メモリ(nonvolatile memory)であってもよい。   The storage device 809 stores data to be temporarily or permanently stored in the terminal device 100. The storage device 809 may be, for example, a magnetic storage device such as a hard disk, or an EEPROM (Electrically Erasable and Programmable Read Only Memory), a flash memory, a MRAM (Magnetoresistive Random Access Memory). Further, non-volatile memories such as FeRAM (Ferroelectric Random Access Memory) and PRAM (Phase change Random Access Memory) may be used.

通信インターフェース811は、端末装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)外部装置と通信する。通信インターフェース811は、無線通信用のインターフェースであってもよく、この場合に、例えば、通信アンテナ、RF回路及びその他の通信処理用の回路を含んでもよい。また、通信インターフェース811は、有線通信用のインターフェースであってもよく、この場合に、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。   The communication interface 811 is a communication unit included in the terminal device 100 and communicates with an external device via a network (or directly). The communication interface 811 may be an interface for wireless communication. In this case, for example, a communication antenna, an RF circuit, and other communication processing circuits may be included. The communication interface 811 may be an interface for wired communication. In this case, for example, a LAN terminal, a transmission circuit, and other communication processing circuits may be included.

カメラ813は、被写体を撮像する。カメラ813は、例えば、光学系、撮像素子及び画像処理回路を含む。   The camera 813 images a subject. The camera 813 includes, for example, an optical system, an image sensor, and an image processing circuit.

マイクロフォン815は、周囲の音を集音する。マイクロフォン815は、周囲の音を電気信号へ変換し、当該電気信号をデジタルデータに変換する。   The microphone 815 collects ambient sounds. The microphone 815 converts ambient sound into an electric signal, and converts the electric signal into digital data.

スピーカ817は、音声を出力する。スピーカ817は、デジタルデータを電気信号に変換し、当該電気信号を音声に変換する。   The speaker 817 outputs sound. The speaker 817 converts digital data into an electric signal, and converts the electric signal into sound.

タッチパネル820は、タッチ検出面821及び表示面823を含む。   The touch panel 820 includes a touch detection surface 821 and a display surface 823.

タッチ検出面821は、タッチパネル820におけるタッチ位置を検出する。より具体的には、例えば、ユーザが、タッチパネル820にタッチすると、タッチ検出面821は、当該タッチを感知し、当該タッチの位置に応じた電気信号を生成し、そして当該電気信号をタッチ位置の情報に変換する。タッチ検出面821は、例えば、静電容量方式、抵抗膜方式、光学式等の任意のタッチ検出方式に従って形成され得る。   Touch detection surface 821 detects a touch position on touch panel 820. More specifically, for example, when the user touches the touch panel 820, the touch detection surface 821 senses the touch, generates an electrical signal corresponding to the position of the touch, and converts the electrical signal to the touch position. Convert to information. The touch detection surface 821 can be formed according to an arbitrary touch detection method such as a capacitance method, a resistance film method, and an optical method, for example.

表示面823は、端末装置100からの出力画像(即ち、表示画面)を表示する。表示面823は、例えば、液晶、有機EL(Organic Light-Emitting Diode:OLED)、CRT(Cathode Ray Tube)等を用いて実現され得る。   The display surface 823 displays an output image (that is, a display screen) from the terminal device 100. The display surface 823 can be realized using, for example, a liquid crystal, an organic EL (Organic Light-Emitting Diode: OLED), a CRT (Cathode Ray Tube), or the like.

<2.2.機能構成>
次に、図4〜図18を参照して、本実施形態に係る端末装置100の機能構成の一例を説明する。図4は、本実施形態に係る端末装置100の機能構成の一例を示すブロック図である。図4を参照すると、端末装置100は、通信部110、入力部120、撮像部130、集音部140、表示部150、音声出力部160、記憶部170及び制御部180を備える。
<2.2. Functional configuration>
Next, an example of a functional configuration of the terminal device 100 according to the present embodiment will be described with reference to FIGS. FIG. 4 is a block diagram illustrating an example of a functional configuration of the terminal device 100 according to the present embodiment. Referring to FIG. 4, the terminal device 100 includes a communication unit 110, an input unit 120, an imaging unit 130, a sound collection unit 140, a display unit 150, an audio output unit 160, a storage unit 170, and a control unit 180.

(通信部110)
通信部110は、他の装置と通信する。例えば、通信部110は、LAN23に直接的に接続され、サテライトオフィス20内の各装置と通信する。また、通信部110は、外部ネットワーク30及びLAN19を介して、センタオフィス10内の各装置と通信する。具体的には、例えば、通信部110は、カメラ11、マイクロフォン13、センサ15、メディア配信サーバ17及び情報管理サーバ200と通信する。なお、通信部110は、例えば、通信インターフェース811により実装され得る。
(Communication unit 110)
The communication unit 110 communicates with other devices. For example, the communication unit 110 is directly connected to the LAN 23 and communicates with each device in the satellite office 20. The communication unit 110 communicates with each device in the center office 10 via the external network 30 and the LAN 19. Specifically, for example, the communication unit 110 communicates with the camera 11, the microphone 13, the sensor 15, the media distribution server 17, and the information management server 200. Note that the communication unit 110 can be implemented by the communication interface 811, for example.

(入力部120)
入力部120は、端末装置100のユーザによる入力を受け付ける。そして、入力部120は、入力結果を制御部180へ提供する。
(Input unit 120)
The input unit 120 receives input from the user of the terminal device 100. The input unit 120 provides the input result to the control unit 180.

例えば、入力部120は、表示画面においてユーザにより指定される位置を検出する。より具体的には、例えば、入力部120は、タッチパネル820のタッチ検出面821により実装され、タッチパネル820におけるタッチ位置を検出する。そして、入力部120は、検出されたタッチ位置を制御部180へ提供する。   For example, the input unit 120 detects a position designated by the user on the display screen. More specifically, for example, the input unit 120 is mounted by the touch detection surface 821 of the touch panel 820 and detects a touch position on the touch panel 820. Then, the input unit 120 provides the detected touch position to the control unit 180.

(撮像部130)
撮像部130は、被写体を撮像する。例えば、撮像部130は、端末装置100の正面方向の領域を撮像する。この場合に、撮像部130は、端末装置100のユーザを撮像する。撮像部130は、撮像結果(即ち、撮像画像)を制御部180に提供する。なお、撮像部130は、例えば、カメラ813により実装され得る。
(Imaging unit 130)
The imaging unit 130 images a subject. For example, the imaging unit 130 captures an area in the front direction of the terminal device 100. In this case, the imaging unit 130 images the user of the terminal device 100. The imaging unit 130 provides the imaging result (that is, the captured image) to the control unit 180. Note that the imaging unit 130 may be implemented by a camera 813, for example.

(集音部140)
集音部140は、端末装置100の周囲の音を集音する。例えば、集音部140は、端末装置100のユーザの声を集音する。集音部140は、集音結果(即ち、音声データ)を制御部180に提供する。なお、集音部140は、例えば、マイクロフォン815により実装され得る。
(Sound collector 140)
The sound collection unit 140 collects sounds around the terminal device 100. For example, the sound collection unit 140 collects the voice of the user of the terminal device 100. The sound collection unit 140 provides a sound collection result (that is, sound data) to the control unit 180. Note that the sound collection unit 140 can be implemented by a microphone 815, for example.

(表示部150)
表示部150は、端末装置100からの出力画像(即ち、表示画面)を表示する。表示部150は、制御部180による制御に応じて表示画面を表示する。なお、表示部150は、例えば、タッチパネル820の表示面823により実装され得る。
(Display unit 150)
The display unit 150 displays an output image (that is, a display screen) from the terminal device 100. The display unit 150 displays a display screen according to control by the control unit 180. The display unit 150 can be mounted on the display surface 823 of the touch panel 820, for example.

(音声出力部160)
音声出力部160は、端末装置100から音声等を出力する。音声出力部160は、制御部180による制御に応じて音声を出力する。なお、音声出力部160は、例えば、スピーカ817により実装され得る。
(Audio output unit 160)
The voice output unit 160 outputs voice and the like from the terminal device 100. The sound output unit 160 outputs sound in accordance with control by the control unit 180. Note that the audio output unit 160 can be implemented by a speaker 817, for example.

(記憶部170)
記憶部170は、端末装置100の動作のためのプログラム及びデータを記憶する。なお、記憶部170は、例えば、記憶装置809により実装され得る。
(Storage unit 170)
The storage unit 170 stores a program and data for the operation of the terminal device 100. Note that the storage unit 170 may be implemented by the storage device 809, for example.

(制御部180)
制御部180は、端末装置100の様々な機能を提供する。制御部180は、位置取得部181、オブジェクト選択部183、表示制御部185、通信用ID取得部187及び電話部189を含む。なお、制御部180は、例えば、CPU801、ROM803及びRAM805により実装され得る。
(Control unit 180)
The control unit 180 provides various functions of the terminal device 100. The control unit 180 includes a position acquisition unit 181, an object selection unit 183, a display control unit 185, a communication ID acquisition unit 187, and a telephone unit 189. The control unit 180 can be implemented by, for example, the CPU 801, the ROM 803, and the RAM 805.

(位置取得部181)
位置取得部181は、表示画面においてユーザにより指定される位置を取得する。
(Position acquisition unit 181)
The position acquisition unit 181 acquires a position specified by the user on the display screen.

具体的には、例えば、上記表示画面は、表示装置により表示される画面であり、当該表示装置は、例えば表示部150である。そして、入力部120が、当該表示画面においてユーザにより指定される位置を検出すると、位置取得部181は、当該位置を取得する。   Specifically, for example, the display screen is a screen displayed by a display device, and the display device is, for example, the display unit 150. When the input unit 120 detects a position designated by the user on the display screen, the position acquisition unit 181 acquires the position.

−撮像画像内の位置の取得
とりわけ本実施形態では、位置取得部181は、実空間の撮像画像を含む表示画面においてユーザにより指定される上記撮像画像内の位置を取得する。
-Acquisition of the position in a captured image Especially in this embodiment, the position acquisition part 181 acquires the position in the said captured image designated by the user in the display screen containing the captured image of real space.

例えば、上記表示画面は、表示部150により表示される表示画面である。また、例えば、上記撮像画像は、実空間(センタオフィス10)内にあるカメラ11を通じて生成される撮像画像である。当該撮像画像は、カメラ11により生成された撮像画像であってもよく、又は、カメラ11により生成された撮像画像を加工することにより生成された撮像画像であってもよい。また、上記表示画面は、当該撮像画像を一部又は全体に含む画面である。   For example, the display screen is a display screen displayed by the display unit 150. Further, for example, the captured image is a captured image generated through the camera 11 in the real space (center office 10). The captured image may be a captured image generated by the camera 11, or may be a captured image generated by processing the captured image generated by the camera 11. The display screen is a screen that includes the captured image in part or in whole.

また、例えば、位置取得部181は、上記表示画面においてユーザにより指定される上記撮像画像内の1つの位置を取得する。即ち、1つの位置がユーザにより指定される。   Further, for example, the position acquisition unit 181 acquires one position in the captured image specified by the user on the display screen. That is, one position is designated by the user.

より具体的には、例えば、入力部120が、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の1つの位置を検出すると、位置取得部181は、当該1つの位置を取得する。以下、図5を参照して、このような撮像画像内の位置の取得の具体例を説明する。   More specifically, for example, when the input unit 120 detects one position in the captured image specified by the user on the display screen of the captured image in the real space, the position acquisition unit 181 determines the one position. get. Hereinafter, with reference to FIG. 5, a specific example of acquiring the position in such a captured image will be described.

図5は、表示画面に含まれる撮像画像内の位置の取得の例を説明するための説明図である。図5を参照すると、表示部150により表示される表示画面60が示されている。また、表示画面60は、実空間(センタオフィス10)内にあるいずれかのカメラ11を通じて生成される撮像画像61を含む。例えば、入力部120が、表示画面60においてユーザにより指定される撮像画像61内の1つの位置71を検出する。そして、位置取得部181は、位置71を取得する。なお、ここでは説明のために図5において位置71が明示されているが、位置71が表示画面60において実際に表示されているわけではないということに留意すべきである。   FIG. 5 is an explanatory diagram for explaining an example of acquiring a position in a captured image included in the display screen. Referring to FIG. 5, a display screen 60 displayed by the display unit 150 is shown. The display screen 60 includes a captured image 61 generated through any camera 11 in the real space (center office 10). For example, the input unit 120 detects one position 71 in the captured image 61 specified by the user on the display screen 60. Then, the position acquisition unit 181 acquires the position 71. It should be noted that although the position 71 is clearly shown in FIG. 5 for the sake of explanation here, the position 71 is not actually displayed on the display screen 60.

また、表示画面60は、別のカメラ11を選択するためのボタン画像63A及びボタン画像63Bをさらに含む。例えば、ユーザが、ボタン画像63の位置を指定すると、表示画面60には、別のカメラ11を通じて生成される撮像画像61が表示される。   The display screen 60 further includes a button image 63A and a button image 63B for selecting another camera 11. For example, when the user designates the position of the button image 63, a captured image 61 generated through another camera 11 is displayed on the display screen 60.

以上のように、位置取得部181は、ユーザにより指定される撮像画像内の位置を取得する。そして、位置取得部181は、撮像画像内の位置をオブジェクト選択部183に提供する。   As described above, the position acquisition unit 181 acquires the position in the captured image specified by the user. Then, the position acquisition unit 181 provides the position in the captured image to the object selection unit 183.

なお、例えば、上記表示装置(例えば、表示部150)は、タッチパネルの表示面である。そして、撮像画像内の位置は、タッチパネルにおけるユーザのタッチにより指定される。   For example, the display device (for example, the display unit 150) is a display surface of a touch panel. And the position in a captured image is designated by the user's touch in a touch panel.

(オブジェクト選択部183)
オブジェクト選択部183は、取得される上記撮像画像内の位置に基づいて、当該撮像画像のいずれかの位置にそれぞれ対応する複数のオブジェクトの中から、1つ以上のオブジェクトを選択する。
(Object selection unit 183)
The object selection unit 183 selects one or more objects from a plurality of objects respectively corresponding to any position of the captured image based on the acquired position in the captured image.

−オブジェクトが対応する撮像画像内の位置
上述したとおり、複数のオブジェクトが、撮像画像のいずれかの位置にそれぞれ対応する。例えば、当該複数のオブジェクトの各々は、人物(又は人物に関する情報)であり、当該人物が写る撮像画像内の位置に対応する。以下、この点について図6を参照して具体例を説明する。
-Position in the captured image corresponding to the object As described above, the plurality of objects respectively correspond to any position of the captured image. For example, each of the plurality of objects is a person (or information about the person), and corresponds to a position in a captured image in which the person is captured. Hereinafter, a specific example of this point will be described with reference to FIG.

図6は、複数のオブジェクト(人物)がそれぞれ対応する位置の例を説明するための説明図である。図6を参照すると、図5と同様に、表示画面60、撮像画像61及びボタン画像63が示されている。そして、4つのオブジェクト(人物)は、それぞれ、人物が写る撮像画像61内の位置73(具体的には、位置73A〜73D)に対応する。   FIG. 6 is an explanatory diagram for explaining an example of positions corresponding to a plurality of objects (persons). Referring to FIG. 6, a display screen 60, a captured image 61, and a button image 63 are shown as in FIG. Each of the four objects (persons) corresponds to a position 73 (specifically, positions 73A to 73D) in the captured image 61 where the person is captured.

以上のように、オブジェクトが撮像画像内の位置に対応する。以下、オブジェクト(人物)がどのように撮像画像内の位置に対応するかを具体的に説明する。   As described above, the object corresponds to the position in the captured image. Hereinafter, how the object (person) corresponds to the position in the captured image will be specifically described.

−−第1の例
第1の例として、オブジェクトは、撮像画像内の所定の位置に対応する。
--First Example As a first example, the object corresponds to a predetermined position in the captured image.

具体的には、例えば、カメラ11ごとに(又はカメラ11の設定ごとに)、実空間(センタオフィス10)のどの範囲が撮像されるかが決まる。即ち、カメラ11ごとの撮像画像において、実空間(センタオフィス10)がどのように写るかが決まる。そのため、例えば、撮像画像内に写ると想定される人物(オブジェクト)が、当該撮像画像内で当該人物が写ると想定される所定の位置に対応する。具体的には、例えば、撮像画像内に自席が写る人物(オブジェクト)が、撮像画像内における当該人物の自席付近の所定の位置に対応する。   Specifically, for example, for each camera 11 (or for each setting of the camera 11), it is determined which range in the real space (center office 10) is imaged. That is, how the real space (center office 10) is captured in the captured image of each camera 11 is determined. Therefore, for example, a person (object) assumed to appear in the captured image corresponds to a predetermined position where the person is assumed to appear in the captured image. Specifically, for example, a person (object) whose own seat is captured in the captured image corresponds to a predetermined position near the person's own seat in the captured image.

なお、第1の例では、オブジェクトが対応する撮像画像内の所定の位置は、例えば、情報管理サーバ18において記憶される。具体的には、例えば、カメラ11ごとに(又はカメラ11の設定ごとに)、カメラ11を通じて生成される撮像画像内の位置と、当該位置に対応するオブジェクトの情報とが記憶される。また、端末装置100は、情報管理サーバ18から上記所定の位置を取得する。   In the first example, the predetermined position in the captured image corresponding to the object is stored in the information management server 18, for example. Specifically, for example, for each camera 11 (or for each setting of the camera 11), a position in a captured image generated through the camera 11 and information of an object corresponding to the position are stored. Further, the terminal device 100 acquires the predetermined position from the information management server 18.

また、撮像画像内の上記所定の位置は、人物(オブジェクト)が実際にいる場合には存在し、人物が実際にはいない場合には存在しなくてもよい。即ち、人物(オブジェクト)の存否に応じて、上記所定の位置が存在し、又は存在しなくてもよい。一例として、センサ15により人物が座席にいると判定される場合に、上記所定の位置が存在し、そうでなければ、上記所定の位置が存在しなくてもよい。   In addition, the predetermined position in the captured image exists when a person (object) is actually present, and may not exist when a person is not actually present. That is, the predetermined position may or may not exist depending on whether or not a person (object) exists. As an example, when the sensor 15 determines that a person is in the seat, the predetermined position exists, and if not, the predetermined position may not exist.

−−第2の例
また、第2の例として、実空間に対応する3次元仮想空間が用意され、オブジェクト(人物、又は人物に関する情報)に対応する仮想物体が上記3次元仮想空間内に配置される。そして、オブジェクトは、当該オブジェクトに対応する仮想物体の(3次元仮想空間内の)配置位置に対応する、撮像画像内の位置に対応する。
--Second example As a second example, a three-dimensional virtual space corresponding to the real space is prepared, and a virtual object corresponding to the object (person or information about the person) is arranged in the three-dimensional virtual space. Is done. The object corresponds to a position in the captured image corresponding to the arrangement position (in the three-dimensional virtual space) of the virtual object corresponding to the object.

具体的には、例えば、実空間におけるカメラ11の配置位置は、3次元仮想空間におけるいずれかの仮想位置に対応する。そして、当該仮想位置に基づくレンダリングにより生成される画像は、カメラ11を通じて生成される撮像画像に対応する。そのため、3次元仮想空間内の上記仮想物体の配置位置が、撮像画像内のいずれかの位置に対応する。そして、例えば、仮想物体が対応する人物(オブジェクト)が、当該仮想物体の配置位置に対応する、撮像画像内の位置に対応する。   Specifically, for example, the arrangement position of the camera 11 in the real space corresponds to one of the virtual positions in the three-dimensional virtual space. An image generated by rendering based on the virtual position corresponds to a captured image generated through the camera 11. Therefore, the arrangement position of the virtual object in the three-dimensional virtual space corresponds to any position in the captured image. For example, a person (object) corresponding to the virtual object corresponds to a position in the captured image corresponding to the arrangement position of the virtual object.

なお、第2の例では、オブジェクトが対応する撮像画像内の位置は、例えば、情報管理サーバ18において算出される。具体的には、例えば、情報管理サーバ18は、端末装置100からの要求に応じて、3次元仮想空間を用いて、オブジェクトが対応する仮想物体の配置位置から、オブジェクトが対応する撮像画像内の位置を算出する。そして、算出された当該位置が、端末装置100に提供される。   In the second example, the position in the captured image corresponding to the object is calculated by the information management server 18, for example. Specifically, for example, in response to a request from the terminal device 100, the information management server 18 uses a three-dimensional virtual space, and from the arrangement position of the virtual object to which the object corresponds, in the captured image to which the object corresponds. Calculate the position. Then, the calculated position is provided to the terminal device 100.

また、仮想物体の配置位置は、当該仮想物体が対応する人物(オブジェクト)の実際の位置に応じて変化してもよい。この場合に、例えば、当該人物(オブジェクト)の実際の位置は、いずれかのセンサにより検出され、提供されてもよい。そして、提供される当該実際の位置に基づいて、3次元仮想空間における仮想物体の配置位置が変化してもよい。   Further, the arrangement position of the virtual object may change according to the actual position of the person (object) to which the virtual object corresponds. In this case, for example, the actual position of the person (object) may be detected and provided by any sensor. And the arrangement position of the virtual object in the three-dimensional virtual space may change based on the actual position to be provided.

また、上記3次元仮想空間内に配置される仮想物体は、人物(オブジェクト)が実際にいる場合には存在し、人物が実際にはいない場合には存在しなくてもよい。即ち、人物(オブジェクト)の存否に応じて、上記仮想物体が存在し、又は存在しなくてもよい。一例として、センサ15により人物が座席にいると判定される場合に、上記仮想物体が存在し、そうでなければ、上記仮想物体が存在しなくてもよい。   The virtual object arranged in the three-dimensional virtual space exists when a person (object) is actually present, and may not exist when a person is not actually present. That is, the virtual object may or may not exist depending on whether or not a person (object) exists. As an example, when the sensor 15 determines that a person is in the seat, the virtual object exists, and if not, the virtual object may not exist.

−−第3の例
また、上記手法の第3の例は、オブジェクト(人物)は、撮像画像内で当該オブジェクト(人物)が認識された位置に対応する。
--Third example In the third example of the above technique, an object (person) corresponds to a position where the object (person) is recognized in a captured image.

具体的には、例えば、撮像画像から人物の顔が認識される。そして、当該人物(オブジェクト)が、認識された顔の位置に対応する。   Specifically, for example, a human face is recognized from the captured image. The person (object) corresponds to the recognized face position.

なお、第3の例では、オブジェクトが対応する撮像画像内の位置は、例えば、情報管理サーバ18において算出される。具体的には、例えば、情報管理サーバ18は、端末装置100からの要求に応じて、撮像画像から人物の顔を認識する。さらに、情報管理サーバ18は、顔が認識された撮像画像内の位置を、当該人物(オブジェクト)に対応する撮像画像内の位置として取得する。そして、取得された当該位置が、端末装置100に提供される。   In the third example, the position in the captured image corresponding to the object is calculated by the information management server 18, for example. Specifically, for example, the information management server 18 recognizes a human face from the captured image in response to a request from the terminal device 100. Furthermore, the information management server 18 acquires the position in the captured image where the face is recognized as the position in the captured image corresponding to the person (object). Then, the acquired position is provided to the terminal device 100.

−オブジェクトの選択の手法
−−第1のケース
第1に、例えば、撮像画像内の1つの位置がユーザにより指定され、取得され、撮像画像内の当該1つの位置が、上記複数のオブジェクトのうちのいずれかのオブジェクトが対応する位置と合致する。この場合に、オブジェクト選択部183は、上記撮像画像内の取得される上記位置と合致する位置に対応するオブジェクトを選択する。以下、この点について、図7を参照して具体例を説明する。
—Object Selection Method——First Case First, for example, one position in a captured image is designated and acquired by a user, and the one position in the captured image is selected from the plurality of objects. Any of the objects matches the corresponding position. In this case, the object selection unit 183 selects an object corresponding to a position that matches the acquired position in the captured image. Hereinafter, a specific example of this point will be described with reference to FIG.

図7は、いずれかのオブジェクトが対応する位置とユーザにより指定される位置とが合致する場合に選択されるオブジェクトの例を説明するための説明図である。図7を参照すると、表示画面60と、表示画面に含まれる撮像画像61とが示されている。図7では、より分かりやすい説明のために、撮像画像61の具体的な画像は示されず、撮像画像内の取得される位置71(即ち、ユーザにより指定される位置)と、オブジェクトが対応する位置73とが示されている。この例では、例えば、撮像画像61内の取得される位置71は、オブジェクトが対応する位置73Bと合致する。よって、オブジェクト選択部183は、位置73Bに対応するオブジェクトを選択する。   FIG. 7 is an explanatory diagram for explaining an example of an object selected when a position corresponding to any object matches a position specified by the user. Referring to FIG. 7, a display screen 60 and a captured image 61 included in the display screen are shown. In FIG. 7, for the sake of easier understanding, a specific image of the captured image 61 is not shown, and a position 71 (that is, a position specified by the user) in the captured image and a position corresponding to the object. 73. In this example, for example, the acquired position 71 in the captured image 61 matches the position 73B to which the object corresponds. Therefore, the object selection unit 183 selects an object corresponding to the position 73B.

例えば以上のように、ユーザにより指定される位置と合致する位置に対応する1つのオブジェクトが選択される。   For example, as described above, one object corresponding to a position that matches the position specified by the user is selected.

−−第2のケース
第2に、例えば、とりわけ本実施形態では、オブジェクト選択部183は、上記複数のオブジェクトの中から、上記撮像画像内の取得される位置(即ち、ユーザにより指定される位置)に対応する領域内にある位置に対応する1つ以上のオブジェクトを選択する。即ち、選択される上記1つ以上のオブジェクトは、上記複数のオブジェクトのうちの、取得される上記位置に対応する領域内にある位置に対応するオブジェクトである。
--Second case Secondly, for example, particularly in the present embodiment, the object selection unit 183 selects the position acquired in the captured image (ie, the position specified by the user) from among the plurality of objects. ) One or more objects corresponding to positions in the area corresponding to. That is, the one or more objects to be selected are objects corresponding to positions in the region corresponding to the acquired position among the plurality of objects.

例えば、撮像画像内の1つの位置がユーザにより指定され、取得され、撮像画像内の当該1つの位置が、上記複数のオブジェクトのうちのいずれかのオブジェクトが対応するどの位置とも合致しない。この場合に、オブジェクト選択部183は、上記複数のオブジェクトの中から、取得される上記1つの位置に対応する領域内にある位置に対応する1つ以上のオブジェクトを選択する。即ち、選択される上記1つ以上のオブジェクトは、上記複数のオブジェクトのうちの、取得される上記1つの位置に対応する領域内にある位置に対応するオブジェクトである。   For example, one position in the captured image is designated and acquired by the user, and the one position in the captured image does not match any position corresponding to any one of the plurality of objects. In this case, the object selection unit 183 selects one or more objects corresponding to positions in the region corresponding to the acquired one position from the plurality of objects. In other words, the one or more objects to be selected are objects corresponding to positions in the region corresponding to the one position to be acquired among the plurality of objects.

例えば、オブジェクト選択部183は、上記複数のオブジェクトの中から、上記撮像画像内の取得される上記位置を含む所定の形状の領域内にある位置に対応するオブジェクトを選択する。即ち、選択される上記1つ以上のオブジェクトは、上記複数のオブジェクトのうちの、取得される上記1つの位置を含む所定の形状の領域内にある位置に対応するオブジェクトである。以下、図8を参照して、当該領域の具体例を説明し、図9を参照して、選択されるオブジェクトの具体例を説明する。   For example, the object selection unit 183 selects an object corresponding to a position in a region having a predetermined shape including the acquired position in the captured image from the plurality of objects. That is, the one or more objects to be selected are objects corresponding to positions within a predetermined shape area including the one position to be acquired among the plurality of objects. Hereinafter, a specific example of the area will be described with reference to FIG. 8, and a specific example of the selected object will be described with reference to FIG.

図8は、オブジェクトを選択するための領域の例を説明するための説明図である。図8を参照すると、撮像画像内の取得される位置71(即ち、ユーザにより指定される位置)と、位置71を含む所定の形状の領域75とが、示されている。例えば、第1の例として、領域75Aは、位置71を中心とする円の領域である。また、第2の例として、領域75Bは、位置71を中心とする矩形(一例として、正方形)の領域である。ユーザにより位置71が指定されると、このような領域75(例えば、領域75A又は領域75B)内にある位置に対応するオブジェクトが選択される。   FIG. 8 is an explanatory diagram for explaining an example of an area for selecting an object. Referring to FIG. 8, an acquired position 71 (that is, a position specified by the user) in the captured image and a region 75 having a predetermined shape including the position 71 are shown. For example, as a first example, the region 75 </ b> A is a circular region centered on the position 71. As a second example, the region 75B is a rectangular region (as an example, a square) centered on the position 71. When the position 71 is designated by the user, an object corresponding to a position in such a region 75 (for example, the region 75A or the region 75B) is selected.

図9は、いずれかのオブジェクトが対応するどの位置にもユーザにより指定される位置が合致しない場合に選択されるオブジェクトの例を説明するための説明図である。図9を参照すると、表示画面60と、表示画面に含まれる撮像画像61とが示されている。図9でも、図7と同様に、より分かりやすい説明のために、撮像画像61の具体的な画像は示されず、撮像画像61内の取得される位置71(即ち、ユーザにより指定される位置)と、オブジェクトが対応する位置73とが示されている。この例では、撮像画像内の取得される位置71は、いずれかのオブジェクトが対応するどの位置とも合致しない。すなわち、位置71は、いずれの位置73とも合致しない。そこで、オブジェクト選択部183は、撮像画像61内の取得される位置71を含む所定の形状の領域75A(位置71を中心とする円の領域75A)内にある位置73A及び位置73Bに対応するオブジェクトを選択する。   FIG. 9 is an explanatory diagram for explaining an example of an object selected when the position designated by the user does not match any position corresponding to any object. Referring to FIG. 9, a display screen 60 and a captured image 61 included in the display screen are shown. Also in FIG. 9, as in FIG. 7, for the sake of easier understanding, a specific image of the captured image 61 is not shown, and an acquired position 71 in the captured image 61 (that is, a position specified by the user). And a position 73 to which the object corresponds is shown. In this example, the acquired position 71 in the captured image does not match any position corresponding to any object. That is, the position 71 does not match any position 73. Therefore, the object selection unit 183 includes objects corresponding to the positions 73A and 73B in the area 75A having a predetermined shape including the acquired position 71 in the captured image 61 (a circular area 75A centered on the position 71). Select.

例えば以上のように、ユーザにより指定される位置を含む所定の形状の領域内にある位置に対応する1つ以上のオブジェクトが選択される。図9に示されるように、2つ以上のオブジェクトが選択されてもよく、又は1つのオブジェクトが選択されてもよい。   For example, as described above, one or more objects corresponding to positions within a predetermined shape area including a position designated by the user are selected. As shown in FIG. 9, two or more objects may be selected, or one object may be selected.

−−第3のケース
なお、例えば、上記複数のオブジェクトが対応するいずれの位置も、撮像画像内の取得される上記位置(即ち、ユーザにより指定される位置)に対応する領域内にない場合もある。この場合に、オブジェクト選択部183は、いずれのオブジェクトも選択しない。以下、この点について、図10を参照して具体例を説明する。
--Third case Note that, for example, any position corresponding to the plurality of objects may not be in an area corresponding to the acquired position (that is, a position specified by the user) in the captured image. is there. In this case, the object selection unit 183 does not select any object. Hereinafter, a specific example of this point will be described with reference to FIG.

図10は、ユーザにより撮像画像内の位置が指定されてもいずれのオブジェクトも選択されないケースの一例を説明するための説明図である。図10を参照すると、表示画面60と、表示画面に含まれる撮像画像61とが示されている。図10でも、図7及び図9と同様に、より分かりやすい説明のために、撮像画像61の具体的な画像は示されず、撮像画像61内の取得される位置71(即ち、ユーザにより指定される位置)と、オブジェクトが対応する位置73とが示されている。この例では、撮像画像内の取得される位置71は、いずれかのオブジェクトが対応するどの位置とも合致しない。即ち、位置71は、いずれの位置73とも合致しない。また、上記複数のオブジェクトが対応するいずれの位置も、位置71を中心とする領域75A内にない。このような場合に、オブジェクト選択部183は、いずれのオブジェクトも選択しない。   FIG. 10 is an explanatory diagram for explaining an example of a case in which no object is selected even if a position in the captured image is designated by the user. Referring to FIG. 10, a display screen 60 and a captured image 61 included in the display screen are shown. Also in FIG. 10, as in FIGS. 7 and 9, for the sake of easier understanding, the specific image of the captured image 61 is not shown, and the acquired position 71 in the captured image 61 (that is, designated by the user). Position) and a position 73 corresponding to the object are shown. In this example, the acquired position 71 in the captured image does not match any position corresponding to any object. That is, the position 71 does not match any position 73. Also, none of the positions corresponding to the plurality of objects is within the region 75A centered on the position 71. In such a case, the object selection unit 183 does not select any object.

以上のように、オブジェクト選択部183は、オブジェクトを選択する。なお、オブジェクト選択部183についての他の動作については、以下の表示制御部185についての説明の後に説明する。   As described above, the object selection unit 183 selects an object. Other operations regarding the object selection unit 183 will be described after the description of the display control unit 185 below.

(表示制御部185)
表示制御部185は、表示装置による表示を制御する。当該表示装置は、例えば、表示部150である。
(Display control unit 185)
The display control unit 185 controls display by the display device. The display device is, for example, the display unit 150.

−撮像画像を含む表示画面の表示制御
例えば、表示制御部185は、表示部150に、実空間の撮像画像を含む表示画面を表示させる。
-Display control of display screen including captured image For example, the display control unit 185 causes the display unit 150 to display a display screen including a captured image of real space.

例えば、上述したように、当該撮像画像は、実空間(センタオフィス10)内にあるカメラ11を通じて生成される撮像画像である。当該撮像画像は、カメラ11により生成された撮像画像であってもよく、又は、カメラ11により生成された撮像画像を加工することにより生成された撮像画像であってもよい。また、上記表示画面は、当該撮像画像を一部又は全体に含む画面である。例えば、図5及び図6に示される表示画面60のような表示画面が、表示部150により表示される。   For example, as described above, the captured image is a captured image generated through the camera 11 in the real space (center office 10). The captured image may be a captured image generated by the camera 11, or may be a captured image generated by processing the captured image generated by the camera 11. The display screen is a screen that includes the captured image in part or in whole. For example, a display screen such as the display screen 60 shown in FIGS. 5 and 6 is displayed by the display unit 150.

具体的な処理として、例えば、表示制御部185は、通信部110を介して、カメラ11により生成される撮像画像を取得する。そして、表示制御部185は、撮像画像を含む表示画面を生成し、表示部150に当該表示画面を表示させる。   As a specific process, for example, the display control unit 185 acquires a captured image generated by the camera 11 via the communication unit 110. Then, the display control unit 185 generates a display screen including the captured image and causes the display unit 150 to display the display screen.

また、例えば、上記撮像画像は、実空間(センタオフィス10)内にある複数のカメラ11のうちの選択された1つのカメラ11を通じて生成された撮像画像である。なお、上述したように、例えば、図5に示されるボタン画像63A又は画像63Bの位置をユーザが指定することにより、別のカメラ11が選択される。このようにカメラ11を選択できるので、ユーザは所望の位置からの撮像画像を見ることができる。   In addition, for example, the captured image is a captured image generated through one selected camera 11 among a plurality of cameras 11 in the real space (center office 10). As described above, for example, when the user designates the position of the button image 63A or the image 63B shown in FIG. 5, another camera 11 is selected. Since the camera 11 can be selected in this way, the user can see a captured image from a desired position.

−撮像画像内の位置をユーザが指定した後の表示画面
−−第1のケース:1つのオブジェクトが選択されるケース
第1に、例えば、ユーザが撮像画像内の位置を指定すると、上記複数のオブジェクトの中から、1つのオブジェクトが選択される。この場合に、当該1つのオブジェクトに関する情報が表示される。即ち、表示制御部185は、複数のオブジェクトの中から1つのオブジェクトが選択される場合に、表示部150に、当該1つのオブジェクトに関する情報を表示させる。
-Display screen after the user specifies the position in the captured image-First case: Case where one object is selected First, for example, when the user specifies a position in the captured image, One object is selected from the objects. In this case, information regarding the one object is displayed. That is, when one object is selected from a plurality of objects, the display control unit 185 causes the display unit 150 to display information regarding the one object.

例えば、上記1つのオブジェクトに関する情報は、当該1つのオブジェクトが対応する撮像画像内の位置を含む撮像画像内の部分領域の画像である。即ち、表示制御部185は、表示部150に、選択された1つのオブジェクトが対応する撮像画像内の位置を含む撮像画像内の部分領域の画像である。例えば、このような部分領域は、人物(オブジェクト)が写る領域である。また、例えば、当該部分領域の画像は、当該部分領域が拡大された拡大画像である。以下、この点について、図11を参照して具体例を説明する。   For example, the information related to the one object is an image of a partial region in the captured image including the position in the captured image corresponding to the one object. That is, the display control unit 185 is an image of a partial region in the captured image including the position in the captured image corresponding to the selected one object on the display unit 150. For example, such a partial area is an area in which a person (object) is captured. For example, the image of the partial area is an enlarged image in which the partial area is enlarged. Hereinafter, a specific example of this point will be described with reference to FIG.

図11は、1つのオブジェクトが選択される場合に表示される表示画面の一例を説明するための説明図である。図11を参照すると、表示画面80が示されている。この表示画面80は、図5及び図7に示されるように、表示画面60においてユーザにより撮像画像61内の位置71が指定された場合(即ち、位置73Bに対応するオブジェクトが選択された場合)に表示される表示画面である。そのため、表示画面80には、位置73Bを含む撮像画像61内の部分領域の画像81が含まれる。当該部分領域は、人物(オブジェクト)が写る領域である。また、画像81は、上記部分領域が拡大された拡大画像である。以上のように、表示制御部185は、表示部150に、選択された1つのオブジェクトが対応する位置を含む部分領域の拡大画像を表示させる。   FIG. 11 is an explanatory diagram for explaining an example of a display screen displayed when one object is selected. Referring to FIG. 11, a display screen 80 is shown. As shown in FIGS. 5 and 7, the display screen 80 is displayed when a position 71 in the captured image 61 is designated by the user on the display screen 60 (that is, when an object corresponding to the position 73B is selected). It is a display screen displayed on the screen. Therefore, the display screen 80 includes a partial region image 81 in the captured image 61 including the position 73B. The partial area is an area where a person (object) is captured. The image 81 is an enlarged image in which the partial area is enlarged. As described above, the display control unit 185 causes the display unit 150 to display an enlarged image of the partial region including the position corresponding to the selected one object.

なお、図11を参照すると、表示画面80は、ボタン画像83をさらに含む。ボタン画像83は、元の表示画面への切換えをユーザが指定するための画像である。例えば、ユーザが、ボタン画像83の位置を指定すると、再び、図5に示されるような表示画面60が表示部150により表示される。   Referring to FIG. 11, the display screen 80 further includes a button image 83. The button image 83 is an image for the user to specify switching to the original display screen. For example, when the user designates the position of the button image 83, the display screen 60 as shown in FIG.

−−第2のケース:2つ以上のオブジェクトが選択されるケース
第2に、例えば、ユーザが撮像画像内の位置を指定すると、上記複数のオブジェクトの中から2つ以上のオブジェクトが選択される。とりわけ本実施形態では、この場合に、表示制御部185は、表示部150に、上記2つ以上のオブジェクトの各々に関する情報を表示させる。
--Second case: Case where two or more objects are selected Secondly, for example, when the user designates a position in a captured image, two or more objects are selected from the plurality of objects. . Particularly in this embodiment, in this case, the display control unit 185 causes the display unit 150 to display information on each of the two or more objects.

例えば、上記2つ以上のオブジェクトは、第1のオブジェクト及び第2のオブジェクトを含む。そして、上記2つ以上のオブジェクトの各々に関する上記情報は、上記第1のオブジェクトが対応する上記撮像画像内の位置を含む上記撮像画像内の第1の部分領域の画像、及び、上記第2のオブジェクトが対応する上記撮像画像内の位置を含む上記撮像画像内の第2の部分領域の画像を含む。即ち、表示制御部185は、表示部150に、上記第1のオブジェクトが対応する位置を含む撮像画像内の第1の部分領域の画像と、上記第2のオブジェクトが対応する位置を含む撮像画像内の第2の部分領域の画像とを表示させる。例えば、第1の部分領域は、第1の人物(第1のオブジェクト)が写る領域であり、第2の部分領域は、第2の人物(第2のオブジェクト)が写る領域である。   For example, the two or more objects include a first object and a second object. The information regarding each of the two or more objects includes an image of a first partial area in the captured image including a position in the captured image corresponding to the first object, and the second An image of a second partial region in the captured image including a position in the captured image corresponding to the object is included. That is, the display control unit 185 causes the display unit 150 to display the first partial region image in the captured image including the position corresponding to the first object and the captured image including the position corresponding to the second object. And the image of the second partial area in the image is displayed. For example, the first partial region is a region where a first person (first object) is captured, and the second partial region is a region where a second person (second object) is captured.

また、例えば、表示制御部185は、表示部150に、上記第1の部分領域の上記画像及び上記第2の部分領域の上記画像を並列に表示させる。   For example, the display control unit 185 causes the display unit 150 to display the image of the first partial area and the image of the second partial area in parallel.

また、例えば、上記第1の部分領域の上記像は、上記1の部分領域が拡大された拡大画像である。また、上記第2の部分領域の上記画像は、上記第2の部分領域が拡大された拡大画像である。以下、図12を参照して、2つ以上のオブジェクトが選択される場合に表示される表示画面の具体例を説明する。   For example, the image of the first partial region is an enlarged image in which the first partial region is enlarged. Further, the image of the second partial area is an enlarged image in which the second partial area is enlarged. Hereinafter, a specific example of a display screen displayed when two or more objects are selected will be described with reference to FIG.

図12は、2つ以上のオブジェクトが選択される場合に表示される表示画面の一例を説明するための説明図である。図12を参照すると、表示画面80が示されている。この表示画面80は、図5に示されるような表示画面60において、図9に示されるようにユーザにより撮像画像61内の位置71が指定された場合(即ち、位置73A及び位置73Bに対応するオブジェクトが選択された場合)に表示される表示画面である。そのため、表示画面80には、位置73Aを含む撮像画像61内の部分領域の画像85Aと、位置73Bを含む撮像画像61内の部分領域の画像85Bとが含まれる。各部分領域の画像85は、人物(オブジェクト)が写る領域である。また、画像85Aは、位置73Aを含む部分領域が拡大された画像であり、画像85Bは、位置73Bを含む部分領域が拡大された画像である。また、画像85A及び画像85Bは並列に表示される。以上のように、表示制御部185は、表示部150に、選択されたオブジェクトが対応する位置を含む部分領域の拡大画像を表示させる。   FIG. 12 is an explanatory diagram for explaining an example of a display screen displayed when two or more objects are selected. Referring to FIG. 12, a display screen 80 is shown. This display screen 80 corresponds to the display screen 60 as shown in FIG. 5 when the position 71 in the captured image 61 is designated by the user as shown in FIG. 9 (that is, corresponding to the position 73A and the position 73B). This is a display screen displayed when an object is selected. Therefore, the display screen 80 includes a partial region image 85A in the captured image 61 including the position 73A and a partial region image 85B in the captured image 61 including the position 73B. The image 85 of each partial area is an area where a person (object) is captured. The image 85A is an image in which the partial area including the position 73A is enlarged, and the image 85B is an image in which the partial area including the position 73B is enlarged. Further, the image 85A and the image 85B are displayed in parallel. As described above, the display control unit 185 causes the display unit 150 to display an enlarged image of the partial region including the position corresponding to the selected object.

−−−部分領域の画像を含む表示画面の生成プロセス
ここで、図12に示されるような画像85A及び画像85Bを含む表示画面80の生成プロセスの例を、図13〜図15を参照して説明する。
--- Generation Process of Display Screen Including Partial Area Image Here, an example of the generation process of the display screen 80 including the image 85A and the image 85B as shown in FIG. 12 will be described with reference to FIGS. explain.

図13、図14A、図14B及び図15は、第1の部分領域の画像85A及び第2の部分領域の画像85Bを含む表示画面80の生成プロセスの一例を説明するための説明図である。   13, FIG. 14A, FIG. 14B, and FIG. 15 are explanatory diagrams for explaining an example of the generation process of the display screen 80 including the image 85A of the first partial region and the image 85B of the second partial region.

まず、図13を参照すると、撮像画像61が示されている。この撮像画像61は、図5に示されるものと同様である。例えば、図9に示されるように、ユーザにより撮像画像61内の71が指定される。そして、位置73Aに対応する第1のオブジェクトと、位置73Bに対応する第2のオブジェクトとが選択される。すると、位置73A及び位置73Bを含む部分領域に対する拡大処理(ズーム処理)が行われ、当該部分領域の拡大画像86が生成される。   First, referring to FIG. 13, a captured image 61 is shown. This captured image 61 is the same as that shown in FIG. For example, as shown in FIG. 9, 71 in the captured image 61 is designated by the user. Then, the first object corresponding to the position 73A and the second object corresponding to the position 73B are selected. Then, an enlargement process (zoom process) is performed on the partial area including the position 73A and the position 73B, and an enlarged image 86 of the partial area is generated.

次に、図14Aを参照すると、拡大画像86のうちの、位置73Aを中心とする部分領域が切りだされる。これにより、切りだされた当該部分領域の画像85Aが生成される。同様に、図14Bを参照すると、拡大画像86のうちの、位置73Bを中心とする部分領域が切りだされる。これにより、切りだされた当該部分領域の画像85Bが生成される。   Next, referring to FIG. 14A, a partial region centered on the position 73A in the enlarged image 86 is cut out. As a result, the cut-out image 85A of the partial area is generated. Similarly, referring to FIG. 14B, a partial region centered on the position 73B in the enlarged image 86 is cut out. Thereby, an image 85B of the cut-out partial area is generated.

そして、図15を参照すると、画像85A及び画像85Bが、表示画面80に並列に組み込まれる。即ち、画像85A及び画像85Bが並列に配置された表示画面80が生成される。   Then, referring to FIG. 15, the image 85 </ b> A and the image 85 </ b> B are incorporated in the display screen 80 in parallel. That is, the display screen 80 in which the image 85A and the image 85B are arranged in parallel is generated.

例えば以上のように、図12に示されるような画像85A及び画像85Bを含む表示画面80が生成される。   For example, as described above, the display screen 80 including the image 85A and the image 85B as shown in FIG. 12 is generated.

−−−操作促進標識の表示
さらに、表示制御部185は、表示部150に、上記2つ以上のオブジェクトの中から1つのオブジェクトをユーザにより指定させるための標識(オブジェクト指定促進標識)を表示させてもよい。以下、この点について図16を参照して具体例を説明する。
--- Display of operation promotion sign Further, the display control unit 185 causes the display unit 150 to display a sign (object designation promotion sign) for allowing the user to designate one of the two or more objects. May be. Hereinafter, a specific example of this point will be described with reference to FIG.

図16は、オブジェクト指定促進標識の一例を説明するための説明図である。図16を参照すると、図12と同様に、表示画面80、画像85A及び画像85Bが示されている。そして、さらに、画像85Aに対応するオブジェクト、又は画像85Bに対応するオブジェクトを指定するための、オブジェクト指定促進標識87A及び87Bが表示される。   FIG. 16 is an explanatory diagram for explaining an example of an object designation promotion sign. Referring to FIG. 16, a display screen 80, an image 85A, and an image 85B are shown as in FIG. Further, object designation promotion signs 87A and 87B for designating an object corresponding to the image 85A or an object corresponding to the image 85B are displayed.

−−第3のケース:いずれのオブジェクトも選択されないケース
第3に、例えば、ユーザが撮像画像内の位置を指定しても、いずれのオブジェクトも選択されない。この場合に、表示制御部185は、表示部150に、上記撮像画像内の位置をユーザに指定させるための標識(以下、「位置指定促進標識」と呼ぶ)を表示画面に表示させる。以下、この点について図17を参照して具体例を説明する。
--Third case: Case where no object is selected Third, for example, even if the user specifies a position in the captured image, no object is selected. In this case, the display control unit 185 causes the display unit 150 to display a sign (hereinafter referred to as “position designation promotion sign”) for allowing the user to designate a position in the captured image on the display screen. Hereinafter, a specific example of this point will be described with reference to FIG.

図17は、位置指定促進標識の一例を説明するための説明図である。図17を参照すると、図5と同様に、表示画面60及び撮像画像61が示されている。そして、例えば図10に示されるようにユーザにより撮像画像内の位置が指定され、その結果、いずれのオブジェクトも選択されない。この場合に、表示制御部185は、表示部150に、「再度タッチして下さい」という文字情報を含む位置指定促進標識65を表示させる。   FIG. 17 is an explanatory diagram for explaining an example of a position designation promotion mark. Referring to FIG. 17, a display screen 60 and a captured image 61 are shown as in FIG. Then, for example, as shown in FIG. 10, the position in the captured image is designated by the user, and as a result, no object is selected. In this case, the display control unit 185 causes the display unit 150 to display the position designation promotion mark 65 including the character information “Please touch again”.

このような再指定促進標識65により、ユーザは、撮像画像内の位置を再度指定する必要があることに気付くことができる。そのため、ユーザにとっての利便性が高まる。   Such a re-designation promotion mark 65 allows the user to notice that it is necessary to designate the position in the captured image again. Therefore, convenience for the user is increased.

−電話時の表示画面
例えば、表示制御部185は、電話時において、表示部150に、通話用の表示画面を表示させる。この点については、電話部189に関連して後に説明する。
-Display screen during a call For example, the display control unit 185 causes the display unit 150 to display a display screen for a call during a call. This will be described later in connection with the telephone unit 189.

(オブジェクト選択部183(続き))
ここで、オブジェクト選択部183の動作を再び説明する。
(Object selection unit 183 (continued))
Here, the operation of the object selection unit 183 will be described again.

−−第1のケース:1つのオブジェクトが選択されるケース
上述したように、1つのオブジェクトが選択される場合には、例えば図11に示されるように、当該1つのオブジェクトが対応する位置を含む部分領域の画像81が表示される。このような場合に、オブジェクト選択部183は、上記1つのオブジェクトがユーザにより指定されると、当該1つのオブジェクトを選択する。
--First case: Case where one object is selected As described above, when one object is selected, for example, as shown in FIG. 11, the one object includes a corresponding position. An image 81 of the partial area is displayed. In such a case, when the one object is specified by the user, the object selecting unit 183 selects the one object.

一例として、ユーザは、画像81のうちのいずれかの位置をタッチすることにより、上記1つのオブジェクトを指定する。   As an example, the user designates the one object by touching any position in the image 81.

−−第2のケース:2つ以上のオブジェクトが選択されるケース
上述したように、2つ以上のオブジェクトが選択される場合には、例えば図12に示されるように、各オブジェクトが対応する位置を含む部分領域の画像85が表示される。このような場合に、とりわけ本実施形態では、オブジェクト選択部183は、上記2つ以上のオブジェクトの中から、ユーザにより指定される1つのオブジェクトを選択する。
--Second case: a case where two or more objects are selected As described above, when two or more objects are selected, for example, as shown in FIG. An image 85 of a partial area including is displayed. In such a case, particularly in the present embodiment, the object selection unit 183 selects one object specified by the user from the two or more objects.

一例として、ユーザは、画像85Aのうちのいずれかの位置をタッチすることにより、画像85Aに対応する1つのオブジェクトを指定する。また、ユーザは、画像85Bのうちのいずれかの位置をタッチすることにより、画像85Bに対応する1つのオブジェクトを指定する。   As an example, the user specifies one object corresponding to the image 85A by touching any position in the image 85A. In addition, the user specifies one object corresponding to the image 85B by touching any position in the image 85B.

(通信用ID取得部187)
通信用ID取得部187は、通信用の識別情報(以下、「通信用ID」と呼ぶ)を取得する。
(Communication ID acquisition unit 187)
The communication ID acquisition unit 187 acquires communication identification information (hereinafter referred to as “communication ID”).

−オブジェクトに対応する通信用IDの取得
上述したように、一例として、選択された1つのオブジェクトに関する情報(例えば、図11に示される画像81)が表示され、当該1つのオブジェクトが、ユーザにより指定され、選択される。また、別の例として、選択された2つ以上のオブジェクトに関する情報(例えば、図12に示される画像85A及び画像85B)が表示され、当該2つ以上のオブジェクトの中から、ユーザにより指定される1つのオブジェクトが選択される。これらの例のように、1つのオブジェクトが選択されると、当該1つのオブジェクトに対応する通信用IDが取得される。即ち、通信用ID取得部187は、1つのオブジェクトが選択されると、当該1つのオブジェクトに対応する通信用IDを取得する。
-Acquisition of Communication ID Corresponding to Object As described above, as an example, information on one selected object (for example, image 81 shown in FIG. 11) is displayed, and the one object is designated by the user. And selected. As another example, information about two or more selected objects (for example, the image 85A and the image 85B shown in FIG. 12) is displayed and specified by the user from the two or more objects. One object is selected. As in these examples, when one object is selected, a communication ID corresponding to the one object is acquired. That is, when one object is selected, the communication ID acquisition unit 187 acquires a communication ID corresponding to the one object.

具体的には、例えば、オブジェクト選択部185が、1つのオブジェクトを選択すると、通信用ID取得部187は、選択された当該1つのオブジェクトのオブジェクトIDを取得する。そして、通信用ID取得部187は、当該オブジェクトIDに対応する通信用IDを取得する。   Specifically, for example, when the object selection unit 185 selects one object, the communication ID acquisition unit 187 acquires the object ID of the selected one object. Then, the communication ID acquisition unit 187 acquires a communication ID corresponding to the object ID.

なお、上記オブジェクトID及び上記通信用IDは、例えば、情報管理サーバにより、各オブジェクトに対応する撮像画像内の位置とともに端末装置100に提供され、記憶部170に記憶される。そして、1つのオブジェクトを選択すると、当該1つのオブジェクトのオブジェクトIDが記憶部170から取得され、通信用ID取得部187に提供される。そして、通信用ID取得部187は、提供されたオブジェクトIDに対応する通信用IDを記憶部170から取得する。   The object ID and the communication ID are provided to the terminal device 100 together with the position in the captured image corresponding to each object, for example, by the information management server, and stored in the storage unit 170. When one object is selected, the object ID of the one object is acquired from the storage unit 170 and provided to the communication ID acquisition unit 187. Then, the communication ID acquisition unit 187 acquires the communication ID corresponding to the provided object ID from the storage unit 170.

−通信用IDの種類
−−第1の例:専用網の通信用ID
例えば、上記通信用IDは、専用網における通信のための識別情報である。これにより、専用網において所望の人物にコンタクトすることが可能になる。
-Types of communication IDs-First example: Communication ID for dedicated network
For example, the communication ID is identification information for communication in a dedicated network. This makes it possible to contact a desired person on the dedicated network.

一例として、上記通信用IDは、専用網における電話のための電話番号である。   As an example, the communication ID is a telephone number for a telephone in a private network.

上記専用網は、内線電話網を含んでもよく、又は無線LAN通信網を含んでもよい。また、専用網は、VPN(Virtual Private Network)で接続された2つ以上の無線LAN通信網を含んでもよい。   The dedicated network may include an extension telephone network or a wireless LAN communication network. The dedicated network may include two or more wireless LAN communication networks connected by a VPN (Virtual Private Network).

−−第2の例:公衆網の通信用ID
なお、上記通信用IDは、公衆網を介して通信するための識別情報であってもよい。これにより、公衆網を介して所望の人物にコンタクトすることが可能になる。
-Second example: Public network communication ID
The communication ID may be identification information for communication via a public network. This makes it possible to contact a desired person via the public network.

一例として、上記通信用IDは、公衆網における電話のための電話番号であってもよい。   As an example, the communication ID may be a telephone number for a telephone call in a public network.

例えば、上記公衆網は、移動体通信網を含んでもよい。これにより、移動体通信網を介して所望の人物にコンタクトすることが可能になる。例えば、携帯電話端末へのコンタクトが可能になる。また、上記公衆網は、インターネット、又は公衆交換回線網(Public Switched Telephone Network:PSTN)を含んでもよい。   For example, the public network may include a mobile communication network. This makes it possible to contact a desired person via the mobile communication network. For example, it is possible to contact a mobile phone terminal. The public network may include the Internet or a public switched telephone network (PSTN).

また、通信用ID取得部187は、特番(特殊用途の番号)を付加しつつ通信用IDを取得してもよい。この場合、通信用ID取得部187は、オブジェクトIDに対応する通信用IDを記憶部170から取得するとき、通信用IDに特番を付加し取得する。具体的には、例えば、通信用ID取得部187は、オブジェクトIDに対応する通信用IDとして電話番号「yyyy」を記憶部170から取得するとき、電話番号「yyyy」に特番「xx」を付加し、通信用IDとして電話番号「xx−yyyy」を取得する。   The communication ID acquisition unit 187 may acquire the communication ID while adding a special number (special use number). In this case, when acquiring the communication ID corresponding to the object ID from the storage unit 170, the communication ID acquisition unit 187 adds a special number to the communication ID and acquires the communication ID. Specifically, for example, when the communication ID acquisition unit 187 acquires the telephone number “yyyy” as the communication ID corresponding to the object ID from the storage unit 170, the communication ID acquisition unit 187 adds the special number “xx” to the telephone number “yyyy”. The telephone number “xx-yyyy” is acquired as the communication ID.

また、通信用ID取得部187は、通信用IDの取得の際、特番を付加するか否かの判断及び付加する特番の決定をする通信用ID調整手段を有してもよい。この通信用ID調整手段は、通信用ID取得部187が、オブジェクトIDに対応する通信用IDを記憶部170から取得するとき、取得する通信用IDについて、外部の通信制御手段(当該通信用IDに基づき通信の制御おこなう手段(例えばPBX40等))に問合せし、特番を付加するか否かの判断及び付加する特番の決定をする。ここで、通信用ID調整手段における問合せ処理は、通信用ID調整手段が、PBX40(PBX40のDB(呼制御にために用いるデータのデータベース(局データ)))に接続することである。なお、通信用ID調整手段は、PBX40が対応するH.323又はSIPに対応し、PBX40に接続する。また、通信用ID調整手段における特番を付加するか否かの判断の処理は、通信用ID調整手段が、通信用ID取得部187が取得する通信用IDがPBX40において内線相互接続、局線発信接続又は専用線発信接続のいずれに該当するか確認し、局線発信接続又は専用線発信接続に該当する場合に特番を付加すると判断することである。他方、通信用ID調整手段は、内線相互接続に該当すると確認できると特番を付加しないと判断する。また、通信用ID調整手段における付加する特番の決定の処理は、特番を付加するか否かの判断の処理にて局線発信接続に該当し特番を付加すると判断された場合に局線発信特番「0」を付加する特番と決定し、特番を付加するか否かの判断の処理にて専用線発信接続に該当し特番を付加すると判断された場合に専用線発信特番「1」を付加する特番と決定することである。   Further, the communication ID acquisition unit 187 may include a communication ID adjustment unit that determines whether or not to add a special number and determines a special number to be added when acquiring the communication ID. When the communication ID acquisition unit 187 acquires the communication ID corresponding to the object ID from the storage unit 170, the communication ID adjustment unit uses an external communication control unit (the communication ID corresponding to the communication ID to be acquired). Based on the above, a communication control means (for example, PBX 40) is inquired to determine whether or not to add a special number and to determine the special number to be added. Here, the inquiry processing in the communication ID adjusting means is that the communication ID adjusting means is connected to the PBX 40 (DB of the PBX 40 (data database (station data) used for call control)). Note that the communication ID adjustment means is an H.264 compatible with the PBX 40. It corresponds to H.323 or SIP and is connected to the PBX 40. The communication ID adjustment means determines whether or not to add a special number in the communication ID adjustment means when the communication ID acquired by the communication ID acquisition unit 187 is PBX 40, which is an extension interconnection or a local line transmission. It is to confirm whether it corresponds to a connection or a dedicated line transmission connection, and to determine that a special number is added when it corresponds to a local line transmission connection or a dedicated line transmission connection. On the other hand, the communication ID adjusting means determines that the special number is not added if it can be confirmed that it corresponds to the extension interconnection. The process for determining the special number to be added in the communication ID adjusting means corresponds to the local transmission connection in the process of determining whether or not to add the special number, and if it is determined that the special number is added, the local line transmission special number is determined. A special number to be added with “0” is determined, and if it is determined that a special number is added in the processing for determining whether or not to add a special number, it is determined that a special number will be added. It is to be determined as a special number.

(電話部189)
電話部189は、電話を行うための機能を提供する。例えば、電話部189は、ソフトフォンの機能を提供する。
(Phone 189)
The telephone unit 189 provides a function for making a call. For example, the telephone unit 189 provides a softphone function.

−電話発信
例えば、電話部189は、通信用ID取得部187から通信用IDを取得すると、当該通信用IDを用いて電話発信を行う。より具体的には、例えば、電話部189は、通信用IDを取得すると、通信部110を介して、当該通信用IDをPBX40に提供し、PBX40からIPアドレスを取得する。そして、電話部189は、当該IPアドレスを有する通信装置(即ち、着信先の通信装置)との間で、セッションを確立するための一連のシーケンスを実行する。
-Calling For example, when the telephone unit 189 acquires the communication ID from the communication ID acquisition unit 187, the telephone unit 189 performs a telephone call using the communication ID. More specifically, for example, when the telephone unit 189 acquires the communication ID, the telephone unit 189 provides the communication ID to the PBX 40 via the communication unit 110 and acquires the IP address from the PBX 40. Then, the telephone unit 189 executes a series of sequences for establishing a session with a communication device having the IP address (that is, a communication device that is a destination).

このように、電話部189は、表示画面において選択された人物(オブジェクト)への電話のための電話発信を行う。即ち、電話部189は、当該人物の通信装置への電話発信を行う。   As described above, the telephone unit 189 performs a telephone call for a telephone call to a person (object) selected on the display screen. That is, the telephone unit 189 makes a telephone call to the communication device of the person.

−音声データ及び映像データの通信
また、電話の相手先の通信装置からの音声データが、通信部110により受信されると、電話部189は、音声出力部160に、当該音声データの音声を出力させる。また、電話部189は、通信部110に、集音部140により提供される音声データを電話の相手先の通信装置へ送信させる。また、電話部189は、例えば、通信部110に、撮像部130により提供される撮像画像(例えば、端末装置100のユーザが写っている撮像画像)も電話の相手先の通信装置へ送信させる。
-Communication of audio data and video data When the audio data from the communication device of the other party of the telephone is received by the communication unit 110, the telephone unit 189 outputs the audio of the audio data to the audio output unit 160 Let Further, the telephone unit 189 causes the communication unit 110 to transmit the voice data provided by the sound collection unit 140 to the communication device of the other party of the telephone. In addition, for example, the telephone unit 189 causes the communication unit 110 to transmit a captured image provided by the imaging unit 130 (for example, a captured image in which the user of the terminal device 100 is captured) to the communication apparatus of the other party of the telephone.

−通話用の表示画面
また、このような電話時において、表示制御部185は、通話用の表示画面を表示させる。以下、通話用の表示画面について図18を参照して具体例を説明する。
-Display Screen for Calls In addition, during such a call, the display control unit 185 displays a display screen for calls. Hereinafter, a specific example of the call display screen will be described with reference to FIG.

図18は、通話用の表示画面の一例を説明するための説明図である。図18を参照すると、会通話用の表示画面90が示されている。表示画面90は、相手側撮像画像91、ボタン画像93及び自分側撮像画像95を含む。   FIG. 18 is an explanatory diagram for explaining an example of a call display screen. Referring to FIG. 18, a display screen 90 for a conference call is shown. The display screen 90 includes a partner-side captured image 91, a button image 93, and a self-side captured image 95.

相手側撮像画像91は、例えば、電話の相手先の通信装置から取得された撮像画像である。例えば、電話の相手先の通信装置からの撮像画像が、通信部110により受信されると、電話部189は、当該撮像画像を相手側撮像画像91として利用する。   The partner side captured image 91 is, for example, a captured image acquired from a communication device of a telephone partner. For example, when the captured image from the communication device of the other party of the telephone is received by the communication unit 110, the telephone unit 189 uses the captured image as the other party captured image 91.

また、ボタン画像93は、電話を終了させるための画像である。例えば、ユーザが、ボタン画像93の位置を指定すると、電話部189は、電話を終了させる。より具体的には、例えば、ユーザがボタン画像93の位置をタッチし、ボタン画像93に対応するタッチ位置が検出されると、電話部189は、セッションの切断を含む電話終了用のシーケンスを実行する。また、例えば、電話部189は、表示モードを会話モードから俯瞰モードに切り替える。   The button image 93 is an image for ending the call. For example, when the user designates the position of the button image 93, the telephone unit 189 ends the telephone call. More specifically, for example, when the user touches the position of the button image 93 and a touch position corresponding to the button image 93 is detected, the telephone unit 189 executes a sequence for ending the call including disconnection of the session. To do. For example, the telephone unit 189 switches the display mode from the conversation mode to the overhead mode.

自分側撮像画像95は、撮像部130により提供される撮像画像である。   The own side captured image 95 is a captured image provided by the imaging unit 130.

(作用効果)
以上、本実施形態に係る端末装置100の機能構成の例を説明した。以上のように、空間の撮像画像を含む表示画面においてユーザにより指定される当該上記撮像画像内の位置に基づいて、当該撮像画像のいずれかの位置にそれぞれ対応する複数のオブジェクトの中から、1つ以上のオブジェクトが選択される。そして、複数のオブジェクトの中から2つ以上のオブジェクトが選択される場合に、上記2つ以上のオブジェクトの各々に関する情報が表示される。さらに、上記2つ以上のオブジェクトの中から、ユーザにより指定される1つのオブジェクトが選択される。そして、当該1つのオブジェクトが選択されると、当該1つのオブジェクトに対応する通信用IDが取得される。
(Function and effect)
The example of the functional configuration of the terminal device 100 according to the present embodiment has been described above. As described above, based on the position in the captured image specified by the user on the display screen including the captured image of the space, one of the plurality of objects respectively corresponding to any position of the captured image is 1 One or more objects are selected. When two or more objects are selected from a plurality of objects, information regarding each of the two or more objects is displayed. Furthermore, one object designated by the user is selected from the two or more objects. When the one object is selected, a communication ID corresponding to the one object is acquired.

これにより、直感的な操作でより容易に所望の人物にコンタクトすることを可能にすることが可能となる。   Thereby, it becomes possible to contact a desired person more easily by intuitive operation.

より具体的には、例えば、ユーザは、表示画面の撮像画像において1人の人物(オブジェクト)をピンポイントで指定できなかったとしても、2人以上の人物(2つ以上のオブジェクト)が選択され、当該2人以上の人物に関する情報が表示される。そして、ユーザは、改めて表示された人物に関する情報から、1人の人物(1つのオブジェクト)をピンポイントで選択することができる。そのため、例えば、表示画面自体が小さい場合、表示画面に写っている人物が小さい場合等であっても、最終的に、1人の人物を選択することができる。また、2人以上の人物のうちのいずれの人物を指定しているのか不明な際に1人の人物が自動的に選択されるのではなく、2人以上の人物が選択されるので、誤った1人のみが選択されることが回避される。即ち、より容易に所望の人物を選択することが可能になる。   More specifically, for example, even if the user cannot pinpoint one person (object) in the captured image on the display screen, two or more persons (two or more objects) are selected. Information on the two or more persons is displayed. Then, the user can pinpoint one person (one object) from the information about the person displayed anew. Therefore, for example, even when the display screen itself is small or when the person shown on the display screen is small, one person can be finally selected. In addition, when it is unclear which of the two or more persons is specified, one person is not automatically selected, but two or more persons are selected. It is avoided that only one person is selected. That is, a desired person can be selected more easily.

また、選択された人物に対応する通信用ID(例えば、電話番号)が取得される。そのため、選択した人物にコンタクトすることが可能になる。   Further, a communication ID (for example, a telephone number) corresponding to the selected person is acquired. Therefore, it becomes possible to contact the selected person.

即ち、表示画面において人物を指定するという直感的な操作で、表示画面においてピンポイントで人物を指定することが困難な場合であってもより容易に、所望の人物にコンタクトすることが可能になる。   That is, an intuitive operation of designating a person on the display screen makes it possible to contact a desired person more easily even when it is difficult to designate a person pinpoint on the display screen. .

また、具体的には、表示制御部185に関連して上述したように、例えば、選択される2つ以上のオブジェクトは、第1のオブジェクト及び第2のオブジェクトを含む。そして、当該第1のオブジェクトが対応する位置を含む上記撮像画像内の第1の部分領域の画像、及び、上記第2のオブジェクトが対応する位置を含む上記撮像画像内の第2の部分領域の画像が、表示される。   Specifically, as described above in relation to the display control unit 185, for example, two or more selected objects include a first object and a second object. Then, the image of the first partial area in the captured image including the position corresponding to the first object, and the second partial area in the captured image including the position corresponding to the second object. An image is displayed.

このように人物(オブジェクト)に対応する位置を含む部分領域の画像が表示されることで、2人以上の人物の中から所望の人物をより直感的に指定することが可能になる。即ち、顔、髪型、後ろ姿、姿勢のような見た目の確認という直感的な確認により所望の人物を指定することが可能になる。そのため、ユーザにとっての利便性が高まる。例えば、より素早く、及び/又はより負担なく、人物を指定することが可能になり得る。   Thus, by displaying the image of the partial area including the position corresponding to the person (object), it becomes possible to more intuitively specify a desired person from two or more persons. That is, a desired person can be designated by intuitive confirmation such as confirmation of appearance such as face, hairstyle, back view, and posture. Therefore, convenience for the user is increased. For example, it may be possible to specify a person more quickly and / or less burdensomely.

また、表示制御部185に関連して上述したように、例えば、第1の部分領域の画像及び第2の部分領域の画像が、並列に表示される。   Further, as described above with reference to the display control unit 185, for example, the image of the first partial area and the image of the second partial area are displayed in parallel.

これにより、2人以上の人物をより容易に比べることが可能になる。そのため、ユーザにとっての利便性が高まる。例えば、より素早く、及び/又はより負担なく、人物を指定することが可能になり得る。   This makes it possible to compare two or more persons more easily. Therefore, convenience for the user is increased. For example, it may be possible to specify a person more quickly and / or less burdensomely.

また、表示制御部185に関連して上述したように、例えば、上記第1の部分領域の上記画像は、上記第1の部分領域が拡大された拡大画像であり、上記第2の部分領域の上記画像は、上記第2の部分領域が拡大された拡大画像である。   Further, as described above in relation to the display control unit 185, for example, the image of the first partial area is an enlarged image in which the first partial area is enlarged, and the second partial area is The image is an enlarged image in which the second partial region is enlarged.

これにより、2人以上の人物の各々をより容易に確認することが可能になる。そのため、ユーザにとっての利便性が高まる。例えば、より素早く、及び/又はより負担なく、人物を指定することが可能になり得る。   Thereby, it becomes possible to confirm each of two or more persons more easily. Therefore, convenience for the user is increased. For example, it may be possible to specify a person more quickly and / or less burdensomely.

また、オブジェクト選択部183に関連して上述したように、例えば、上記複数のオブジェクトのうちの、ユーザにより指定される位置に対応する領域内にある位置に対応するオブジェクトが、選択される。   In addition, as described above with reference to the object selection unit 183, for example, an object corresponding to a position within the region corresponding to the position specified by the user among the plurality of objects is selected.

これにより、ピンポイントで人物(オブジェクト)に対応する位置を指定しなくても、当該人物が選択され得る。そのため、ユーザによる指定をより容易にすることが可能になる。   Thus, the person can be selected without specifying the position corresponding to the person (object) by pinpointing. Therefore, it becomes possible to make designation by the user easier.

また、オブジェクト選択部183に関連して上述したように、例えば、表示画面においてユーザにより指定される1つの位置を含む所定の形状の領域内にある位置に対応する人物(オブジェクト)が選択される。   Further, as described above in relation to the object selection unit 183, for example, a person (object) corresponding to a position within a predetermined shape area including one position designated by the user on the display screen is selected. .

これにより、ユーザが指定した位置の近傍の位置に対応する人物(オブジェクト)が選択される。そのため、選択されるオブジェクトの中に、ユーザが指定しようとする人物(即ち、所望の人物)が含まれる可能性が高くなる。   Thereby, a person (object) corresponding to a position near the position designated by the user is selected. Therefore, there is a high possibility that the selected object includes a person to be specified by the user (that is, a desired person).

また、オブジェクト選択部183に関連して上述したように、例えば、上記複数のオブジェクトが対応するいずれの位置も、ユーザにより指定される位置に対応する上記領域内にない場合には、いずれのオブジェクトも選択されない。また、表示制御部185に関連して上述したように、いずれのオブジェクトも選択されない場合に、上記撮像画像内の位置をユーザに指定させるための標識(即ち、位置指定促進標識)が表示される。   In addition, as described above with reference to the object selection unit 183, for example, if any position corresponding to the plurality of objects is not within the area corresponding to the position specified by the user, any object is selected. Is not selected. Further, as described above with reference to the display control unit 185, when no object is selected, a sign (that is, a position designation promoting sign) for causing the user to designate the position in the captured image is displayed. .

これにより、いずれの人物(オブジェクト)も選択されなかったことを、ユーザに知らせることができる。そのため、ユーザがより素早く人物を再度指定することが可能になる。   As a result, the user can be notified that no person (object) has been selected. Therefore, the user can specify the person again more quickly.

また、位置取得部181に関連して上述したように、例えば、上記撮像画像内の位置は、タッチパネルにおけるユーザのタッチにより指定される。   Further, as described above with reference to the position acquisition unit 181, for example, the position in the captured image is specified by the user's touch on the touch panel.

これにより、表示画面において人物(オブジェクト)の近傍の位置にタッチするという直感的な操作で、容易に人物(オブジェクト)を選択することが可能になる。   Accordingly, it is possible to easily select a person (object) by an intuitive operation of touching a position near the person (object) on the display screen.

<2.3.ソフトウェア構成>
次に、図19を参照して、本実施形態に係る端末装置100のソフトウェア構成の一例を説明する。図19は、本実施形態に係る端末装置100のソフトウェア構成の一例を示すブロック図である。図19を参照すると、端末装置100は、OS(Operating System)840及びアプリケーションソフトウェアを備える。そして、端末装置100は、アプリケーションソフトウェアとして、ソフトフォン851、超臨場感クライアント853及び電話発信制御機能855を含む。
<2.3. Software configuration>
Next, an example of the software configuration of the terminal device 100 according to the present embodiment will be described with reference to FIG. FIG. 19 is a block diagram illustrating an example of a software configuration of the terminal device 100 according to the present embodiment. Referring to FIG. 19, the terminal device 100 includes an OS (Operating System) 840 and application software. The terminal device 100 includes a soft phone 851, a super-realistic client 853, and a telephone call control function 855 as application software.

OS840は、端末装置100を動作させるための基本的な機能を提供するソフトウェアである。OS840は、各アプリケーションソフトウェアを実行する。   The OS 840 is software that provides basic functions for operating the terminal device 100. The OS 840 executes each application software.

ソフトフォン851は、端末装置100を用いて電話を行うためのアプリケーションソフトウェアである。超臨場感クライアント853は、実空間の情報を端末装置100に提供するためのアプリケーションソフトウェアである。また、電話発信制御機能855は、オブジェクト(人物)に対応する通信用IDを取得するアプリケーションソフトウェアである。   The soft phone 851 is application software for making a phone call using the terminal device 100. The ultra-realistic client 853 is application software for providing real space information to the terminal device 100. The telephone call control function 855 is application software that acquires a communication ID corresponding to an object (person).

例えば、電話発信制御機能855は、通信用IDを取得すると、OSを介してソフトフォン851に提供する。そして、ソフトフォン851は、当該通信用IDを用いて、電話発信を行う。   For example, when the call origination control function 855 acquires the communication ID, it provides it to the softphone 851 via the OS. Then, the soft phone 851 makes a call using the communication ID.

また、例えば、超臨場感クライアント853は、実空間(例えば、センタオフィス10)にいる人物の状態を示す状態情報を取得し、OSを介してソフトフォン851に提供してもよい。そして、ソフトフォン851は、当該状態情報に基づいて、電話発信を制御してもよい。   Further, for example, the super-realistic client 853 may acquire state information indicating the state of a person in the real space (for example, the center office 10) and provide the information to the soft phone 851 via the OS. Then, the soft phone 851 may control outgoing calls based on the state information.

なお、位置取得部181、オブジェクト選択部183及び通信用ID取得部187は、電話発信制御機能855により実装され得る。また、電話部189は、例えば、ソフトフォン851により実装され得る。また、表示制御部185は、ソフトフォン851、超臨場感クライアント853及び電話発信制御機能855により実装され得る。   The position acquisition unit 181, the object selection unit 183, and the communication ID acquisition unit 187 can be implemented by the telephone call control function 855. Further, the telephone unit 189 can be implemented by a soft phone 851, for example. Further, the display control unit 185 can be implemented by the soft phone 851, the super-realistic client 853, and the telephone call control function 855.

また、電話発信制御機能855は、超臨場感クライアント853の中に組み込まれてもよい。   Further, the telephone call control function 855 may be incorporated in the ultra-realistic client 853.

<2.4.画面遷移>
次に、図20〜図25を参照して、上述したようなオブジェクトの選択及び通信用IDの取得のための表示画面(例えば、図5に示される表示画面60)が表示されるまでの画面遷移の例を説明する。
<2.4. Screen transition>
Next, referring to FIGS. 20 to 25, a screen until a display screen (for example, display screen 60 shown in FIG. 5) for selecting an object and acquiring a communication ID as described above is displayed. An example of transition will be described.

図20は、メニュー画面の例を説明するための説明図である。図20を参照すると、メニュー画面1000が示されている。メニュー画面には、各ソフトウェアを起動するためのアイコンが含まれる。例えば、メニュー画面1000は、ソフトフォン851のアイコン1010、超臨場感クライアント853のアイコン1020及び電話帳のアイコン1030を含む。例えば、ユーザがアイコン1010を指定すると、ソフトフォン851が起動する。また、ユーザがアイコン1020を指定すると、超臨場感クライアント853が起動する。また、ユーザがアイコン1030を指定すると、電話帳が起動する。   FIG. 20 is an explanatory diagram for explaining an example of a menu screen. Referring to FIG. 20, a menu screen 1000 is shown. The menu screen includes an icon for starting each software. For example, the menu screen 1000 includes a soft phone 851 icon 1010, a super-realistic client 853 icon 1020, and a phone book icon 1030. For example, when the user designates the icon 1010, the softphone 851 is activated. When the user designates the icon 1020, the super-realistic client 853 is activated. Further, when the user designates the icon 1030, the phone book is activated.

図21は、画面に表示されるソフトフォンのユーザインターフェースの例である。図21を参照すると、ソフトフォン用のユーザインターフェース1110が示されている。ユーザがアイコン1010を指定し、ソフトフォン851が起動すると、このようにユーザインターフェース1110が表示される。ユーザは、ユーザインターフェース1110を介した操作により、電話の発着信を行うことができる。   FIG. 21 shows an example of a softphone user interface displayed on the screen. Referring to FIG. 21, a softphone user interface 1110 is shown. When the user designates the icon 1010 and the softphone 851 is activated, the user interface 1110 is displayed in this way. The user can make / receive calls by operating the user interface 1110.

図22は、超臨場感クライアントの表示画面の例を説明するための説明図である。図22を参照すると、図5と同様に、超臨場クライアントの表示画面60が示されている。ユーザがアイコン1020を指定し、超臨場感クライアント853が起動すると、このように表示画面60が表示される。なお、超臨場感クライアント853が起動した段階では、初期設定に基づいてカメラ11が選択され、当該カメラ11を通じて生成された撮像画像61を含む表示画面60が表示される。その後、ボタン画像63の指定等によって、別のカメラ11が選択され得る。   FIG. 22 is an explanatory diagram for explaining an example of a display screen of a super-realistic client. Referring to FIG. 22, the display screen 60 of the ultra-realistic client is shown as in FIG. 5. When the user designates the icon 1020 and the ultra-realistic client 853 is activated, the display screen 60 is displayed in this way. At the stage where the ultra-realistic client 853 is activated, the camera 11 is selected based on the initial setting, and the display screen 60 including the captured image 61 generated through the camera 11 is displayed. Thereafter, another camera 11 can be selected by designating the button image 63 or the like.

図23は、電話帳の表示画面の例を説明するための説明図である。図23を参照すると、電話帳の表示画面1130が示されている。ユーザがアイコン1030を指定し、電話帳が起動すると、このように表示画面1130が表示される。表示画面1130には、連絡先1131A〜1131Dが含まれる。ボタン画像1133A〜1133Cも含まれる。   FIG. 23 is an explanatory diagram for explaining an example of a phonebook display screen. Referring to FIG. 23, a phonebook display screen 1130 is shown. When the user designates the icon 1030 and the phone book is activated, the display screen 1130 is displayed in this way. Display screen 1130 includes contacts 1131A to 1131D. Button images 1133A to 1133C are also included.

例えば、ユーザが、「荒川」に対応する連絡先1131Aのうちのボタン画像1133A以外の位置を指定すると、OS840が、ソフトフォン851を起動し、ソフトフォン851に、「荒川」に対応する電話番号「2200」と発信の指示とを提供する。すると、ソフトフォン851が、「荒川」に対応する電話番号「2200」への電話発信を行う。   For example, when the user designates a position other than the button image 1133A in the contact 1131A corresponding to “Arakawa”, the OS 840 activates the soft phone 851, and the telephone number corresponding to “Arakawa” is displayed on the soft phone 851. “2200” and an instruction to send are provided. Then, the soft phone 851 makes a call to the telephone number “2200” corresponding to “Arakawa”.

また、ユーザが、「アレックス」に対応する連絡先1131Bのうちのボタン画像1133B以外の位置を指定すると、OS840が、ソフトフォン851を起動し、ソフトフォン851に、「アレックス」に対応する電話番号「2010」と発信の指示とを提供する。すると、ソフトフォン851が、「アレックス」に対応する電話番号「2010」への電話発信を行う。   When the user designates a position other than the button image 1133B in the contact 1131B corresponding to “Alex”, the OS 840 activates the softphone 851, and the telephone number corresponding to “Alex” is displayed on the softphone 851. “2010” and an instruction to send are provided. Then, the soft phone 851 makes a call to the telephone number “2010” corresponding to “Alex”.

また、ユーザが、ボタン画像1133Bの位置を指定すると、OS840が、超臨場感クライアント853を起動し、超臨場感クライアント853に、「アレックス」に関する情報(例えば、ID、プレゼンス情報、等)を提供する。すると、超臨場感クライアント853が、「アレックス」に関する情報(例えば、ID、プレゼンス情報、等)を情報管理サーバ18に提供する。その後、情報管理サーバ18は、「アレックス」に関するプレゼンス情報に基づいて、カメラ11を選択する。当該プレゼンス情報に対応する複数のカメラ11がある場合には、いずれかの代表的なカメラ(以下、「代表カメラ」と呼ぶ)が選択される。そして、超臨場感クライアント853は、選択されたカメラ11を通じて生成される撮像画像を取得する。なお、上記プレゼンス情報は、例えば、人物の位置を示す情報(例えば、会議室、ワークスペース、等)である。例えば、当該プレゼンス情報は、PBX40に提供され、PBX40から取得される。   When the user designates the position of the button image 1133B, the OS 840 activates the super-realistic client 853 and provides the super-realistic client 853 with information related to “Alex” (for example, ID, presence information, etc.). To do. Then, the super-realistic client 853 provides information (for example, ID, presence information, etc.) regarding “Alex” to the information management server 18. Thereafter, the information management server 18 selects the camera 11 based on the presence information regarding “Alex”. If there are a plurality of cameras 11 corresponding to the presence information, one of the representative cameras (hereinafter referred to as “representative camera”) is selected. Then, the ultra-realistic client 853 acquires a captured image generated through the selected camera 11. The presence information is, for example, information indicating the position of a person (for example, a conference room, a work space, etc.). For example, the presence information is provided to the PBX 40 and acquired from the PBX 40.

図24は、代表カメラの例を説明するための説明図である。図24を参照すると、会議室1210及びワークスペース1220の各々において配置されるカメラ11が示されている。例えば、プレゼンス情報が「会議室」である場合の代表カメラとして、カメラ11Cが予め定められる。また、例えば、プレゼンス情報が「ワークスペース」である場合の代表カメラとして、カメラ11Dが予め定められる。このように、例えば、会議室又はワークスペースの中の広い範囲を撮像可能なカメラ11が、代表カメラとして予め定められる。   FIG. 24 is an explanatory diagram for describing an example of a representative camera. Referring to FIG. 24, the camera 11 disposed in each of the conference room 1210 and the workspace 1220 is shown. For example, the camera 11C is determined in advance as a representative camera when the presence information is “conference room”. For example, the camera 11D is determined in advance as a representative camera when the presence information is “work space”. In this way, for example, the camera 11 that can capture a wide range in a conference room or workspace is determined in advance as a representative camera.

なお、プレゼンス情報は、電話帳において表示されてもよい。図25は、プレゼンス情報を含む電話帳の表示画面の例を説明するための説明図である。図25を参照すると、電話帳の表示画面1130が示されている。この例では、連絡先1131A及び連絡先1131Dの各々は、プレゼンス情報を含む。例えば、連絡先1131Aは、「荒川」のプレゼンス情報として「会議室」を含む。また、連絡先1131Bは、「アレックス」のプレゼンス情報として「ワークスペース」を含む。   The presence information may be displayed in a telephone directory. FIG. 25 is an explanatory diagram for explaining an example of a phone book display screen including presence information. Referring to FIG. 25, a phonebook display screen 1130 is shown. In this example, each of contact 1131A and contact 1131D includes presence information. For example, the contact 1131A includes “conference room” as presence information of “Arakawa”. Contact 1131B includes “work space” as presence information of “Alex”.

<<3.処理の流れ>>
次に、図26及び図27を参照して、本実施形態に係る情報処理の例を説明する。
<< 3. Process flow >>
Next, an example of information processing according to the present embodiment will be described with reference to FIGS. 26 and 27.

(端末装置における情報処理の例)
図26は、本実施形態に係る端末装置100における情報処理の一例を説明するための説明図である。
(Example of information processing in a terminal device)
FIG. 26 is an explanatory diagram for describing an example of information processing in the terminal device 100 according to the present embodiment.

ステップS301で、表示制御部185は、表示部150に、実空間(センタオフィス10)の撮像画像を含む表示画面を表示させる。   In step S301, the display control unit 185 causes the display unit 150 to display a display screen including a captured image of the real space (center office 10).

ステップS303で、位置取得部181は、上記表示画面においてユーザにより上記撮像画像内の位置が指定されたかを判定する。当該位置が指定された場合には、処理はステップS305へ進む。そうでなければ、処理はステップS301を繰り返す。   In step S303, the position acquisition unit 181 determines whether a position in the captured image is specified by the user on the display screen. If the position is designated, the process proceeds to step S305. Otherwise, the process repeats step S301.

ステップS305で、位置取得部181は、ユーザにより指定された上記撮像画像内の位置(即ち、ユーザにより指定された撮像画像内の位置)を取得する。   In step S305, the position acquisition unit 181 acquires a position in the captured image specified by the user (that is, a position in the captured image specified by the user).

ステップS307で、オブジェクト選択部183は、取得された上記撮像画像内の位置(即ち、ユーザにより指定された撮像画像内の位置)に基づいて、当該撮像画像のいずれかの位置にそれぞれ対応する複数のオブジェクトの中から、1つ以上のオブジェクトを選択する。   In step S307, the object selection unit 183 determines a plurality of positions corresponding to any position of the captured image based on the acquired position in the captured image (that is, the position in the captured image designated by the user). One or more objects are selected from the objects.

ステップS309で、表示制御部185は、1つ以上のオブジェクトが選択されたかを判定する。1つ以上のオブジェクトが選択されていれば、処理はステップS313へ進む。そうでなければ、処理はステップS311へ進む。   In step S309, the display control unit 185 determines whether one or more objects have been selected. If one or more objects are selected, the process proceeds to step S313. Otherwise, the process proceeds to step S311.

ステップS311で、表示制御部185は、表示部150に、上記撮像画像内の位置をユーザに指定させるための標識(即ち、位置指定促進標識)を上記表示画面に表示させる。   In step S311, the display control unit 185 causes the display unit 150 to display a sign (that is, a position designation promotion sign) for allowing the user to designate a position in the captured image on the display screen.

ステップS313で、表示制御部185は、2つ以上のオブジェクトが選択されたかを判定する。2つ以上のオブジェクトが選択されていれば、処理はステップS315へ進む。そうでなければ、処理はステップS323へ進む。   In step S313, the display control unit 185 determines whether two or more objects have been selected. If two or more objects are selected, the process proceeds to step S315. Otherwise, the process proceeds to step S323.

ステップS315で、表示制御部185は、表示部150に、2つ以上のオブジェクトの各々が対応する位置を含む部分領域の拡大画像を表示させる。   In step S315, the display control unit 185 causes the display unit 150 to display an enlarged image of the partial region including the position corresponding to each of the two or more objects.

ステップS317で、元の表示画面への切換えがユーザにより指定されたかが判定される。より具体的には、例えば、図12に示されるボタン画像83の位置がユーザにより指定されたかが判定される。当該切換えが指定された場合には、処理はステップS301へ戻る。そうでなければ、処理はステップ319へ進む。   In step S317, it is determined whether switching to the original display screen has been designated by the user. More specifically, for example, it is determined whether the position of the button image 83 shown in FIG. 12 is designated by the user. If the switching is designated, the process returns to step S301. Otherwise, the process proceeds to step 319.

ステップS319で、部分領域の拡大画像を含む表示画面を介していずれかのオブジェクトがユーザにより指定されたかが判定される。いずれかのオブジェクトが指定されていれば、処理はステップS321へ進む。そうでなければ、処理はステップS315へ戻る。   In step S319, it is determined whether any object has been designated by the user via the display screen including the enlarged image of the partial area. If any object is designated, the process proceeds to step S321. Otherwise, the process returns to step S315.

ステップS321で、オブジェクト選択部183は、上記2つ以上のオブジェクトの中から、ユーザにより指定される1つのオブジェクトを選択する。そして、処理はステップS331へ進む。   In step S321, the object selection unit 183 selects one object designated by the user from the two or more objects. Then, the process proceeds to step S331.

ステップS323で、表示制御部185は、表示部150に、1つのオブジェクトが対応する位置を含む部分領域の拡大画像を表示させる。   In step S323, the display control unit 185 causes the display unit 150 to display an enlarged image of a partial region including a position corresponding to one object.

ステップS325で、元の表示画面への切換えがユーザにより指定されたかが判定される。より具体的には、例えば、図11に示されるボタン画像83の位置がユーザにより指定されたかが判定される。当該切換えが指定された場合には、処理はステップS301へ戻る。そうでなければ、処理はステップ327へ進む。   In step S325, it is determined whether switching to the original display screen has been designated by the user. More specifically, for example, it is determined whether the position of the button image 83 shown in FIG. 11 is designated by the user. If the switching is designated, the process returns to step S301. Otherwise, processing proceeds to step 327.

ステップS327で、部分領域の拡大画像を含む表示画面を介していずれかのオブジェクトがユーザにより指定されたかが判定される。いずれかのオブジェクトが指定されていれば、処理はステップS329へ進む。そうでなければ、処理はステップS323へ戻る。   In step S327, it is determined whether any object has been designated by the user via the display screen including the enlarged image of the partial area. If any object is designated, the process proceeds to step S329. Otherwise, the process returns to step S323.

ステップS329で、オブジェクト選択部183は、上記1つのオブジェクトを選択する。そして、処理はステップS331へ進む。   In step S329, the object selection unit 183 selects the one object. Then, the process proceeds to step S331.

ステップS331で、通信用ID取得部187は、選択された1つのオブジェクトに対応する通信用IDを取得する。   In step S331, the communication ID acquisition unit 187 acquires a communication ID corresponding to one selected object.

ステップS333で、電話部189は、取得された通信用IDを用いて電話発信を行う。そして、処理は終了する。   In step S333, the telephone unit 189 makes a telephone call using the acquired communication ID. Then, the process ends.

(撮像画像の取得までの情報処理の例)
図27は、プレゼンス情報に従った撮像画像の提供及び取得のための情報処理の一例を説明するための説明図である。
(Example of information processing until acquisition of captured image)
FIG. 27 is an explanatory diagram for explaining an example of information processing for providing and acquiring a captured image according to presence information.

ステップS401で、端末装置100は、自装置のユーザに関するプレゼンス情報をPBX40に提供する。   In step S401, the terminal device 100 provides the PBX 40 with presence information regarding the user of the device itself.

ステップS403で、端末装置100は、所望の人物(オブジェクト)に対応する通信用IDをPBX40に提供する。すると、ステップS404で、PBX40は、当該所望の人物(オブジェクト)に関するプレゼンス情報を端末装置100に提供する。   In step S403, the terminal device 100 provides the PBX 40 with a communication ID corresponding to a desired person (object). In step S404, the PBX 40 provides the terminal device 100 with presence information regarding the desired person (object).

ステップS407で、端末装置100は、上記所望の人物(オブジェクト)に関するプレゼンス情報を情報管理サーバ18に提供する。すると、ステップS409で、情報管理サーバ18は、当該プレゼンス情報に基づいてカメラ11を選択し、選択されたカメラ11に関する情報(カメラ情報)を端末装置100に提供する。   In step S407, the terminal device 100 provides the information management server 18 with presence information regarding the desired person (object). In step S409, the information management server 18 selects the camera 11 based on the presence information, and provides the terminal device 100 with information (camera information) regarding the selected camera 11.

ステップS411で、端末装置100は、カメラ情報をメディア配信サーバ17に提供する。すると、ステップS413で、メディア配信サーバ17は、カメラ情報から選択されたカメラ11を認識し、選択されたカメラ11を通じて生成される撮像画像を端末装置100に提供する。   In step S411, the terminal device 100 provides the camera information to the media distribution server 17. Then, in step S413, the media distribution server 17 recognizes the camera 11 selected from the camera information, and provides the terminal device 100 with a captured image generated through the selected camera 11.

<<4.変形例>>
続いて、図28〜図32を参照して、本実施形態の変形例を説明する。
<< 4. Modification >>
Subsequently, a modification of the present embodiment will be described with reference to FIGS.

<4.1.第1の変形例>
まず、図28を参照して、本実施形態の第1の変形例を説明する。上述した本実施形態の例では、撮像画像を含む表示画面において1つの位置がユーザにより指定され、当該1つの位置を含む所定の形状の領域内にある位置に対応するオブジェクトが選択される。一方、本実施形態の第1の変形例では、撮像画像を含む表示画面において2つ以上の位置がユーザにより指定され、当該2つ以上の位置に基づき形成される領域内にある位置に対応するオブジェクトが選択される。
<4.1. First Modification>
First, a first modification of the present embodiment will be described with reference to FIG. In the example of the present embodiment described above, one position is designated by the user on the display screen including the captured image, and an object corresponding to a position in a region having a predetermined shape including the one position is selected. On the other hand, in the first modification example of the present embodiment, two or more positions are designated by the user on the display screen including the captured image, and the position corresponds to a position in an area formed based on the two or more positions. An object is selected.

(位置取得部181)
−撮像画像内の位置の取得
位置取得部181は、実空間の撮像画像を含む表示画面においてユーザにより指定される上記撮像画像内の位置を取得する。
(Position acquisition unit 181)
-Acquisition of the position in a captured image The position acquisition part 181 acquires the position in the said captured image designated by the user in the display screen containing the captured image of real space.

とりわけ本実施形態の第1の変形例では、位置取得部181は、上記表示画面においてユーザにより指定される上記撮像画像内の2つ以上の位置を取得する。即ち、2つ以上の位置がユーザにより指定される。   In particular, in the first modification of the present embodiment, the position acquisition unit 181 acquires two or more positions in the captured image designated by the user on the display screen. That is, two or more positions are designated by the user.

より具体的には、例えば、入力部120が、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の2つ以上の位置を検出すると、位置取得部181は、当該2つ以上の位置を取得する。以下、図28を参照して、このような撮像画像内の位置の取得の具体例を説明する。   More specifically, for example, when the input unit 120 detects two or more positions in the captured image specified by the user on the display screen of the captured image in real space, the position acquisition unit 181 The above position is acquired. Hereinafter, with reference to FIG. 28, a specific example of obtaining the position in such a captured image will be described.

図28は、第1の変形例に従った、表示画面に含まれる撮像画像内の位置の取得の例を説明するための説明図である。図28を参照すると、表示部150により表示される表示画面60が示されている。また、表示画面60は、実空間(センタオフィス10)内にあるいずれかのカメラ11を通じて生成される撮像画像61を含む。例えば、入力部120が、表示画面60においてユーザにより指定される撮像画像61内の2つ以上の位置を含む位置集合77を検出する。例えば、位置集合77は、ある領域を形成する位置の集合である。そして、位置取得部181は、2つ以上の位置を含む位置集合77を取得する。なお、ここでは説明のために図28において位置集合77が明示されているが、位置集合77が表示画面60において実際に表示されているわけではないということに留意すべきである。   FIG. 28 is an explanatory diagram for describing an example of acquiring a position in a captured image included in the display screen according to the first modification. Referring to FIG. 28, a display screen 60 displayed by the display unit 150 is shown. The display screen 60 includes a captured image 61 generated through any camera 11 in the real space (center office 10). For example, the input unit 120 detects a position set 77 including two or more positions in the captured image 61 specified by the user on the display screen 60. For example, the position set 77 is a set of positions that form a certain region. Then, the position acquisition unit 181 acquires a position set 77 including two or more positions. It should be noted that although the position set 77 is clearly shown in FIG. 28 for the sake of explanation here, the position set 77 is not actually displayed on the display screen 60.

(オブジェクト選択部183)
−オブジェクトの選択の手法
選択される1つ以上のオブジェクトは、上記複数のオブジェクトのうちの、取得される上記2つ以上の位置に基づき形成される領域内にある位置に対応するオブジェクトである。即ち、オブジェクト選択部183は、上記複数のオブジェクトのうちの、取得される上記2つ以上の位置に基づき形成される領域内にある位置に対応するオブジェクトを選択する。
(Object selection unit 183)
-Object Selection Method One or more objects to be selected are objects corresponding to positions in a region formed based on the two or more acquired positions among the plurality of objects. That is, the object selection unit 183 selects an object corresponding to a position in an area formed based on the two or more acquired positions from among the plurality of objects.

より具体的には、例えば、図28を再び参照すると、上記2つ以上の位置に基づき形成される領域は、図28に示されるような位置集合77により囲われる領域である。例えば、位置集合77は、表示画面60(撮像画像61内)においてユーザにより指定される2つ以上の位置であり、入力部120により検出され、位置取得部181により取得される。一例として、位置集合77は、ユーザによるドラッグ(スワイプ)(指を画面につけ、画面上を移動させ、画面から離す操作であって、指をつけた位置と離した位置、及び/又は移動させた指の軌道に対応する2つ以上の位置を指定する操作)に応じて検出される位置の集合である。そして、位置集合77により囲われる領域内の位置に対応するオブジェクトが、オブジェクト選択部183により選択される。   More specifically, for example, referring to FIG. 28 again, the region formed based on the two or more positions is a region surrounded by a position set 77 as shown in FIG. For example, the position set 77 is two or more positions designated by the user on the display screen 60 (in the captured image 61), is detected by the input unit 120, and is acquired by the position acquisition unit 181. As an example, the position set 77 is a drag (swipe) by a user (an operation in which a finger is applied to the screen, moved on the screen, and released from the screen, which is a position separated from the position where the finger was placed and / or moved. This is a set of positions detected in response to an operation for designating two or more positions corresponding to the trajectory of the finger. Then, the object corresponding to the position in the area surrounded by the position set 77 is selected by the object selection unit 183.

なお、上記2つ以上の位置に基づき形成される領域は、ユーザによるドラッグに応じて検出される位置(位置集合77)に囲われる領域に限られない。当該領域は、ユーザによるタップ(1本以上の指を画面につけ、画面から離す操作であって、指の位置で位置を指定する操作)、ピンチアウト(2本以上の指を画面につけ、当該2本以上の指の間隔を広げ、当該2本以上の指を離す操作であって、指を離したときの2本以上の指の位置で2つ以上の位置を指定する操作)、及びピンチイン(2本以上の指を画面につけ、当該2本以上の指の間隔を狭め、当該2本以上の指を離す操作であって、指を離したときの2本以上の指の位置で2つ以上の位置を指定する操作)等のいずれかの(タッチ)操作手法に対応する領域であってもよい。一例として、上記2つ以上の位置に基づき形成される上記領域は、ピンチアウト又はピンチインに応じて検出される位置(例えば、指を離したときの2本以上の指の位置)を含む図形(円、矩形、等)により囲われる領域であってもよい。   The area formed based on the two or more positions is not limited to the area surrounded by the position (position set 77) detected in response to the drag by the user. The area includes a tap by the user (an operation in which one or more fingers are put on the screen and separated from the screen and the position is specified by the position of the finger), and a pinch out (two or more fingers are put on the screen and the 2 An operation of widening the interval between two or more fingers and releasing the two or more fingers, and specifying two or more positions by the positions of two or more fingers when the fingers are released) and pinch-in ( An operation of placing two or more fingers on the screen, narrowing the interval between the two or more fingers, and releasing the two or more fingers, two or more at the positions of the two or more fingers when the fingers are released It may be an area corresponding to any (touch) operation technique such as an operation for designating the position of the user. As an example, the region formed based on the two or more positions includes a figure (for example, positions of two or more fingers when fingers are released) detected according to pinch-out or pinch-in (for example, positions of two or more fingers). It may be a region surrounded by a circle, a rectangle, etc.

また、所定の期間(例えば、2秒間)に、位置取得部181により取得される位置(入力部120により検出される位置)が、用いられてもよい。そして、当該所定の期間に取得される位置により形成される領域内にある位置に対応するオブジェクトが選択されてもよい。一例として、上記領域は、上記所定の期間における複数の操作(例えば、ドラック、ピンチアウト及び/又はピンチイン、等)に対応する領域であってもよい。具体例を挙げると、表示画面60(撮像画像61内)において、ユーザが、2本の指で1回タップし、1回目のタップと相違する位置で1本の指で1回タップし、さらに2本の指でピンチアウトする。この場合に、1回目のタップ(ユーザによる位置の指定の開始)を契機に、所定の検出期間内の操作(2回のタップとピンチアウト)に対応する領域が形成される。このようにすることで、ユーザは、多様な操作の組合せでオブジェクトを選択することができるようになる。   In addition, a position (position detected by the input unit 120) acquired by the position acquisition unit 181 may be used in a predetermined period (for example, 2 seconds). And the object corresponding to the position in the area | region formed with the position acquired in the said predetermined period may be selected. As an example, the region may be a region corresponding to a plurality of operations (for example, drag, pinch out and / or pinch in, etc.) in the predetermined period. As a specific example, on the display screen 60 (in the captured image 61), the user taps once with two fingers, taps once with one finger at a position different from the first tap, and further Pinch out with two fingers. In this case, an area corresponding to an operation (two taps and pinch out) within a predetermined detection period is formed in response to the first tap (start of designation of position by the user). In this way, the user can select an object with various combinations of operations.

また、制御部180は、ユーザにより指定される位置から、タップ、ドラッグ、ピンチアウト及びピンチイン等のいずかの(タッチ)操作手法を認識する操作認識部を有してもよい。また、この操作認識部は、端末装置100の状態(タッチ検出面821、表示面823及び撮像画像61等のサイズ、並びに/又は、アプリケーションソフトウェア)に応じて、対応する操作手法(例えば、タップ、ドラッグ、ピンチアウト及びピンチインのいずれかまたはそれらの組み合わせ)を決定してもよい。   The control unit 180 may include an operation recognition unit that recognizes any (touch) operation method such as tap, drag, pinch out, and pinch in from a position specified by the user. In addition, the operation recognizing unit corresponds to a corresponding operation method (for example, tap, Any of a drug, a pinch out and a pinch in or a combination thereof may be determined.

第1の例として、端末装置100における撮像画像61が所定のサイズ(例えば所定Cm、所定inch及び所定解像度)以上の場合、操作認識部は、対応する操作手法をタップ、ドラッグ、ピンチアウト及びピンチインと決定してもよい。他方、端末装置100における撮像画像61が所定のサイズ以下の場合、操作認識部は、対応する操作方法をタップ及びドラッグと決定してもよい。   As a first example, when the captured image 61 in the terminal device 100 is a predetermined size (for example, a predetermined Cm, a predetermined inch, and a predetermined resolution) or more, the operation recognition unit taps, drags, pinches out, and pinches in the corresponding operation method. May be determined. On the other hand, when the captured image 61 in the terminal device 100 is a predetermined size or less, the operation recognition unit may determine the corresponding operation method as tap and drag.

第2の例として、端末装置100における表示面823とタッチ検出面821との比率(表示面823の大きさ(サイズ)を100%としたときのタッチ検出面821の大きさ(サイズ))が70%以上の場合、操作認識部は、対応する操作方法をタップ、ドラッグ、ピンチアウト及びピンチインと決定してもよい。他方、端末装置100における表示面823とタッチ検出面821との比率が70%以下の場合、操作認識部は、対応する操作手法をタップと決定してもよい。   As a second example, the ratio of the display surface 823 and the touch detection surface 821 in the terminal device 100 (the size (size) of the touch detection surface 821 when the size (size) of the display surface 823 is 100%)). In the case of 70% or more, the operation recognition unit may determine the corresponding operation method as tap, drag, pinch out, and pinch in. On the other hand, when the ratio between the display surface 823 and the touch detection surface 821 in the terminal device 100 is 70% or less, the operation recognition unit may determine that the corresponding operation method is a tap.

第3の例として、端末装置100においてアプリケーションソフトウェアAAA(図19に示されていないアプリケーションソフトウェア)が起動されている場合、操作認識部は、対応する操作方法をタップ及びドラッグと決定してもよい。他方、端末装置100においてアプリケーションソフトウェアBBB(図19に示されていないアプリケーションソフトウェア)が起動されている場合、操作認識部は、対応する操作方法をピンチアウト及びピンチインと決定してもよい。   As a third example, when application software AAA (application software not shown in FIG. 19) is activated in terminal device 100, the operation recognition unit may determine the corresponding operation method as tap and drag. . On the other hand, when application software BBB (application software not shown in FIG. 19) is activated in terminal device 100, the operation recognition unit may determine the corresponding operation method as pinch out and pinch in.

さらに、対応する操作手法が決定されるとともに、対応する操作手法に係る情報が撮像画像61に重畳して表示されてもよい。具体的には、例えば、操作認識部が、対応する操作方法をドラッグと決定すると、撮像画像61内(の例えば4隅のいずれか)にドラッグを示すアイコン等の情報が、重畳表示されてもよい。これにより、ユーザは、多様なタッチに対応するタッチパネルにおいて、適切なタッチにより位置(位置集合77)の指定ができるようになる。   Further, a corresponding operation method may be determined, and information related to the corresponding operation method may be displayed superimposed on the captured image 61. Specifically, for example, when the operation recognizing unit determines that the corresponding operation method is dragging, information such as an icon indicating dragging is superimposed and displayed in the captured image 61 (for example, any one of the four corners). Good. Accordingly, the user can specify the position (position set 77) by an appropriate touch on the touch panel corresponding to various touches.

以上、本実施形態の第1の変形例を説明した。本実施形態の第1の変形例によれば、ユーザは、より直感的な操作でオブジェクトを選択することが可能になる。即ち、より直感的な操作で所望の人物にコンタクトすることが可能になる。   The first modification example of the present embodiment has been described above. According to the first modification of the present embodiment, the user can select an object with a more intuitive operation. That is, it becomes possible to contact a desired person with a more intuitive operation.

<4.2.第2の変形例>
次に、本実施形態の第2の変形例を説明する。上述した本実施形態の例では、ユーザが撮像画像内の位置を指定すると、複数のオブジェクトの中から2つ以上のオブジェクトが選択される。そして、選択されたオブジェクトが対応する位置を含む部分領域が拡大された拡大画像(即ち、オブジェクトごとの拡大画像)が表示される。とりわけ、本実施形態の第2の変形例では、部分領域ごとの拡大率で拡大された拡大画像が表示される。
<4.2. Second Modification>
Next, a second modification of the present embodiment will be described. In the example of the present embodiment described above, when the user designates a position in the captured image, two or more objects are selected from a plurality of objects. Then, an enlarged image (that is, an enlarged image for each object) in which the partial area including the position corresponding to the selected object is enlarged is displayed. In particular, in the second modification of the present embodiment, an enlarged image enlarged at an enlargement rate for each partial region is displayed.

(表示制御部185)
−撮像画像内の位置をユーザが指定した後の表示画面
−−第2のケース:2つ以上のオブジェクトが選択されるケース
例えば、ユーザが撮像画像内の位置を指定すると、上記複数のオブジェクトの中から2つ以上のオブジェクトが選択される。そして、表示制御部185は、表示部150に、上記第1のオブジェクトが対応する位置を含む撮像画像内の第1の部分領域の画像と、上記第2のオブジェクトが対応する位置を含む撮像画像内の第2の部分領域の画像とを表示させる。
(Display control unit 185)
-Display screen after the user specifies the position in the captured image-Second case: Two or more objects are selected For example, when the user specifies a position in the captured image, Two or more objects are selected from among them. Then, the display control unit 185 displays on the display unit 150 an image of the first partial area in the captured image including the position corresponding to the first object and a captured image including the position corresponding to the second object. And the image of the second partial area in the image is displayed.

例えば、上記第1の部分領域の上記像は、上記1の部分領域が拡大された拡大画像である。また、上記第2の部分領域の上記画像は、上記第2の部分領域が拡大された拡大画像である。   For example, the image of the first partial area is an enlarged image in which the first partial area is enlarged. Further, the image of the second partial area is an enlarged image in which the second partial area is enlarged.

とりわけ本実施形態の第2の変形例では、上記第1部分領域の上記画像は、上記第1の部分領域が第1の拡大率で拡大された拡大画像である。また、上記第2部分領域の上記画像は、上記第2の部分領域が第2の拡大率で拡大された拡大画像である。即ち、オブジェクトごとに、別々の拡大率の拡大画像が表示される。   In particular, in the second modification of the present embodiment, the image of the first partial area is an enlarged image in which the first partial area is enlarged at a first enlargement ratio. The image of the second partial area is an enlarged image in which the second partial area is enlarged at a second enlargement ratio. That is, enlarged images with different enlargement ratios are displayed for each object.

以上、本実施形態の第2の変形例を説明した。本実施形態の第2の変形例によれば、撮像画像に写る人物によって、当該撮像画像内における大きさが異なる場合であっても、ユーザはコンタクト先の人物を容易に識別することが可能になる。   Heretofore, the second modification of the present embodiment has been described. According to the second modification of the present embodiment, the user can easily identify the contact person even if the person in the captured image has a different size in the captured image. Become.

<4.3.第3の変形例>
次に、図29〜図31を参照して、本実施形態の第3の変形例を説明する。上述した本実施形態の例では、ユーザが撮像画像内の位置を指定すると、複数のオブジェクトの中から2つ以上のオブジェクトが選択される。そして、選択されたオブジェクトが対応する位置を含む部分領域の画像が表示される。とりわけ、本実施形態の第3の変形例では、上記部分領域の画像と当該画像以外の領域との間の境界を示す境界標識が表示される。
<4.3. Third Modification>
Next, a third modification of the present embodiment will be described with reference to FIGS. In the example of the present embodiment described above, when the user designates a position in the captured image, two or more objects are selected from a plurality of objects. Then, an image of the partial area including the position corresponding to the selected object is displayed. In particular, in the third modification of the present embodiment, a boundary sign indicating the boundary between the image of the partial area and the area other than the image is displayed.

(表示制御部185)
−撮像画像内の位置をユーザが指定した後の表示画面
−−第2のケース:2つ以上のオブジェクトが選択されるケース
例えば、ユーザが撮像画像内の位置を指定すると、上記複数のオブジェクトの中から2つ以上のオブジェクトが選択される。そして、表示制御部185は、表示部150に、上記第1のオブジェクトが対応する位置を含む撮像画像内の第1の部分領域の画像と、上記第2のオブジェクトが対応する位置を含む撮像画像内の第2の部分領域の画像とを表示させる。
(Display control unit 185)
-Display screen after the user specifies the position in the captured image-Second case: Two or more objects are selected For example, when the user specifies a position in the captured image, Two or more objects are selected from among them. Then, the display control unit 185 displays on the display unit 150 an image of the first partial area in the captured image including the position corresponding to the first object and a captured image including the position corresponding to the second object. And the image of the second partial area in the image is displayed.

とりわけ本実施形態の第3の変形例では、表示制御部185は、表示部150に、上記第1の部分領域の上記画像と上記画像以外の領域との間の境界を示す第1の境界標識と、上記第2の部分領域の上記画像と当該画像以外の領域との間の境界を示す第2の境界標識とを表示させる。以下、この点について、図29及び図30を参照して具体例を説明する。   In particular, in the third modification of the present embodiment, the display control unit 185 causes the display unit 150 to display a first boundary mark indicating a boundary between the image of the first partial region and a region other than the image. And a second boundary sign indicating a boundary between the image of the second partial region and a region other than the image. Hereinafter, a specific example of this point will be described with reference to FIGS. 29 and 30. FIG.

図29は、2つ以上のオブジェクトが選択される場合に第3の変形例に従って表示される表示画面の第1の例を説明するための説明図である。図29を参照すると、図12の例と同様に、表示画面80には、部分領域の画像85Aと、部分領域の画像85Bとが含まれる。そして、表示画面80には、画像85Aとそれ以外の領域との間の境界を示す境界標識88Aと、画像85Bとそれ以外の領域との間の境界を示す境界標識88Bとが含まれる。この例では、境界標識88Aは、画像85Aの内部に表示され、境界標識88Bは、画像85Bの内部に表示される。   FIG. 29 is an explanatory diagram for describing a first example of a display screen displayed according to the third modified example when two or more objects are selected. Referring to FIG. 29, as in the example of FIG. 12, the display screen 80 includes a partial region image 85 </ b> A and a partial region image 85 </ b> B. The display screen 80 includes a boundary sign 88A indicating a boundary between the image 85A and the other area, and a boundary sign 88B indicating a boundary between the image 85B and the other area. In this example, the boundary sign 88A is displayed inside the image 85A, and the boundary sign 88B is displayed inside the image 85B.

図30は、2つ以上のオブジェクトが選択される場合に第3の変形例に従って表示される表示画面の第2の例を説明するための説明図である。図30を参照すると、図12の例と同様に、表示画面80には、部分領域の画像85Aと、部分領域の画像85Bとが含まれる。そして、表示画面80には、画像85Aとそれ以外の領域との間の境界を示す境界標識89Aと、画像85Bとそれ以外の領域との間の境界を示す境界標識89Bとが含まれる。この例では、境界標識89Aは、画像85Aの外部に表示され、境界標識89Bは、画像85Bの外部に表示される。   FIG. 30 is an explanatory diagram for explaining a second example of a display screen displayed according to the third modification when two or more objects are selected. Referring to FIG. 30, as in the example of FIG. 12, the display screen 80 includes a partial region image 85 </ b> A and a partial region image 85 </ b> B. The display screen 80 includes a boundary sign 89A indicating a boundary between the image 85A and the other area, and a boundary sign 89B indicating a boundary between the image 85B and the other area. In this example, the boundary sign 89A is displayed outside the image 85A, and the boundary sign 89B is displayed outside the image 85B.

なお、上記第1の境界標識は、上記第1のオブジェクトに関する情報を含み、上記第2の境界標識は、上記第2のオブジェクトに関する情報を含んでもよい。より具体的には、例えば、上記第1のオブジェクトに関する上記情報は、上記第1のオブジェクトを識別するための第1の識別情報を含み、上記第2のオブジェクトに関する上記情報は、上記第2のオブジェクトを識別するための第2の識別情報を含んでもよい。以下、この点について図31を参照して具体例を説明する。   The first boundary sign may include information related to the first object, and the second boundary sign may include information related to the second object. More specifically, for example, the information related to the first object includes first identification information for identifying the first object, and the information related to the second object includes the second information Second identification information for identifying the object may be included. Hereinafter, a specific example of this point will be described with reference to FIG.

図31は、境界標識に含まれるオブジェクトに関する情報の例を説明するための説明図である。図31を参照すると、図29と同様に、表示画面80、部分領域の画像85A、部分領域の画像85B、境界標識88A及び境界標識88Bが示されている。例えば、図31に示されるように、境界標識88A及び境界標識88Bには、人物(オブジェクト)の識別情報である名前(高橋、荒川)が含まれる。   FIG. 31 is an explanatory diagram for describing an example of information regarding an object included in a boundary sign. Referring to FIG. 31, a display screen 80, a partial area image 85A, a partial area image 85B, a boundary indicator 88A, and a boundary indicator 88B are shown as in FIG. For example, as shown in FIG. 31, the boundary signs 88A and 88B include names (Takahashi and Arakawa) that are identification information of a person (object).

以上、本実施形態の第3の変形例を説明した。本実施形態の第3の変形例によれば、境界標識が表示される。これにより、部分領域の画像の中心を際立たせることが可能になる。即ち、ユーザは、各画像に対応するオブジェクト(例えば、人物)を認識しやすくなる。   Heretofore, the third modification example of the present embodiment has been described. According to the third modification of the present embodiment, a boundary sign is displayed. Thereby, it becomes possible to make the center of the image of the partial area stand out. That is, the user can easily recognize an object (for example, a person) corresponding to each image.

また、境界領域がオブジェクト(例えば、人物)に関する情報を含むことで、ユーザは、各画像に対応するオブジェクト(例えば、人物)をさらに認識しやすくなる。さらに、上記情報がオブジェクト(例えば、人物)の識別情報であることで、ユーザは、各画像に対応するオブジェクト(例えば、人物)を確実に認識することが可能になる。   In addition, since the boundary area includes information on an object (for example, a person), the user can more easily recognize an object (for example, a person) corresponding to each image. Furthermore, since the information is identification information of an object (for example, a person), the user can surely recognize an object (for example, a person) corresponding to each image.

<4.4.第4の変形例>
次に、図32を参照して、本実施形態の第4の変形例を説明する。上述した本実施形態の例では、上記複数のオブジェクトの中から1つ以上のオブジェクトが選択されると、選択された当該1つ以上のオブジェクトの各々に関する情報が表示される。そして、当該情報として、選択されたオブジェクトが対応する位置を含む部分領域の画像が表示される。一方、本実施形態の第4の変形例では、選択された上記1つ以上のオブジェクトの各々に関する情報として、当該1つ以上のオブジェクトの各々を識別するための識別情報が表示される。
<4.4. Fourth Modification>
Next, a fourth modification of the present embodiment will be described with reference to FIG. In the example of the present embodiment described above, when one or more objects are selected from the plurality of objects, information on each of the selected one or more objects is displayed. Then, as the information, an image of a partial area including the position corresponding to the selected object is displayed. On the other hand, in the fourth modification example of the present embodiment, identification information for identifying each of the one or more objects is displayed as information on each of the one or more selected objects.

(表示制御部185)   (Display control unit 185)

−撮像画像内の位置をユーザが指定した後の表示画面
−−第2のケース:2つ以上のオブジェクトが選択されるケース
例えば、ユーザが撮像画像内の位置を指定すると、上記複数のオブジェクトの中から2つ以上のオブジェクトが選択される。とりわけ本実施形態では、この場合に、表示制御部185は、表示部150に、上記2つ以上のオブジェクトの各々に関する情報を表示させる。
-Display screen after the user specifies the position in the captured image-Second case: Two or more objects are selected For example, when the user specifies a position in the captured image, Two or more objects are selected from among them. Particularly in this embodiment, in this case, the display control unit 185 causes the display unit 150 to display information on each of the two or more objects.

とりわけ本実施形態の第4の変形例では、上記2つ以上のオブジェクトの各々に関する上記情報は、当該2つ以上のオブジェクトの各々を識別するための識別情報を含む。以下、この点について図32を参照して具体例を説明する。   In particular, in the fourth modification example of the present embodiment, the information regarding each of the two or more objects includes identification information for identifying each of the two or more objects. Hereinafter, a specific example of this point will be described with reference to FIG.

図32は、2つ以上のオブジェクトが選択される場合に第4の変形例に従って表示される表示画面の一例を説明するための説明図である。図32を参照すると、図32を参照すると、表示画面60が示されている。また、表示画面60には、実空間の撮像画像61が含まれる。そして、表示画面60には、選択された2人の人物(2つのオブジェクト)の各々を識別するための識別情報99A及び識別情報99Bも含まれる。この例では、識別情報99A及び識別情報99Bは、人物(オブジェクト)の識別情報である名前(高橋、荒川)である。一例として、ユーザは、このような識別情報99A及び識別情報99Bのうちの一方の識別情報のいずれかの位置を指定することにより、当該一方の識別情報に対応する人物(オブジェクト)を指定する。そして、ユーザにより指定された1人の人物(1つのオブジェクト)が選択される。   FIG. 32 is an explanatory diagram for explaining an example of a display screen displayed according to the fourth modification when two or more objects are selected. Referring to FIG. 32, a display screen 60 is shown with reference to FIG. The display screen 60 includes a captured image 61 in real space. The display screen 60 also includes identification information 99A and identification information 99B for identifying each of the two selected persons (two objects). In this example, the identification information 99A and the identification information 99B are names (Takahashi and Arakawa) that are identification information of a person (object). As an example, the user designates the position of one of the identification information 99A and the identification information 99B, thereby designating a person (object) corresponding to the one identification information. Then, one person (one object) designated by the user is selected.

以上、本実施形態の第4の変形例を説明した。本実施形態の第4の変形例によれば、簡単な表示処理によってより容易に所望の人物にコンタクトすることが可能になる。   The fourth modification example of this embodiment has been described above. According to the fourth modification of the present embodiment, it is possible to more easily contact a desired person by a simple display process.

以上、添付図面を参照しながら本発明の好適な実施形態を説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

例えば、2つ以上のオブジェクトが選択されるケースとして、2つのオブジェクトが選択される例を説明したが、本発明はこれに限定されない。3つ以上のオブジェクトが選択され、選択された当該3つ以上のオブジェクトに関する情報が表示されてもよい。   For example, as an example in which two or more objects are selected, the example in which two objects are selected has been described, but the present invention is not limited to this. Three or more objects may be selected, and information regarding the selected three or more objects may be displayed.

また、2つ以上のオブジェクトが選択される例を説明した。即ち、選択されるオブジェクトの数に制限がない例を説明したが、本発明はこれに限定されない。例えば、選択されるオブジェクトの個数に上限が設けられてもよい。一例として、最大で2つのオブジェクトが選択されてもよい。これにより、3つ以上のオブジェクトが選択される場合よりも、より素早く容易にオブジェクトを指定することが可能になる。また、別の例として、最大で3つのオブジェクトが選択されてもよい。人間が3つ以下の物事をより容易に処理し、記憶することができることを考慮すると、これにより、より多くのオブジェクトに関する情報を表示しつつも、より素早く容易にオブジェクトを指定することが可能になる。   Further, an example in which two or more objects are selected has been described. That is, the example in which the number of objects to be selected is not limited has been described, but the present invention is not limited to this. For example, an upper limit may be set for the number of objects to be selected. As an example, up to two objects may be selected. This makes it possible to specify an object more quickly and easily than when three or more objects are selected. As another example, a maximum of three objects may be selected. Considering that humans can more easily process and store less than three things, this makes it possible to specify objects more quickly and easily while displaying information about more objects Become.

また、通信用IDが電話番号である例を説明したが、本発明はこれに限定されない。通信用IDは、電話番号以外のIDであってもよい。一例として、通信用IDは、電話番号以外のソフトフォン用IDであってもよい。また、別の例として、通信用IDは、電話以外の通信のためのIDであってもよい。例えば、通信用IDは、メールアドレスであってもよく、又はショートメッセージ用のIDであってもよい。この場合に、通信用IDを用いて、メールが送信され、又はショートメッセージが送信されてもよい。   Moreover, although the example in which the communication ID is a telephone number has been described, the present invention is not limited to this. The communication ID may be an ID other than a telephone number. As an example, the communication ID may be a softphone ID other than a telephone number. As another example, the communication ID may be an ID for communication other than a telephone. For example, the communication ID may be a mail address or a short message ID. In this case, a mail or a short message may be transmitted using the communication ID.

また、表示画面において撮像画像の位置がユーザによるタッチで指定される例を説明したが、本発明はこれに限定されない。例えば、撮像画像の位置は、タッチパネル以外の入力手段を用いてユーザにより指定されてもよい。例えば、撮像画像の位置は、マウスによるクリックで指定されてもよく、ボタン、キーボード等の別の入力手段を用いて指定されてもよい。   Moreover, although the example in which the position of the captured image is designated by a user touch on the display screen has been described, the present invention is not limited to this. For example, the position of the captured image may be specified by the user using input means other than the touch panel. For example, the position of the captured image may be specified by clicking with a mouse, or may be specified using another input means such as a button or a keyboard.

また、撮像画像のいずれかの位置に対応するオブジェクトが人物(又は人物に関する情報)である例を説明したが、本発明はこれに限定されない。例えば、オブジェクトは、通信装置(又は通信装置に関する情報)であってもよい。一例として、当該通信装置は電話機であってもよい。   Further, although an example in which the object corresponding to any position of the captured image is a person (or information related to a person) has been described, the present invention is not limited to this. For example, the object may be a communication device (or information regarding the communication device). As an example, the communication device may be a telephone.

また、カメラにより生成される撮像画像、マイクロフォンにより生成される音声データ、及び、センサによる判定結果が、メディア配信サーバを介して提供される例を説明したが、本発明はこれに限定されない。一例として、これらのデータは、メディア配信サーバの代わりに別の装置を介して提供されてもよい。また、別の例として、これらのデータは、カメラ、マイクロフォン及びセンサにより、端末装置に直接提供されてもよい。   Moreover, although the captured image produced | generated by the camera, the audio | voice data produced | generated by the microphone, and the determination result by a sensor were demonstrated via the media delivery server, the example was described, This invention is not limited to this. As an example, these data may be provided via another device instead of the media distribution server. As another example, these data may be directly provided to the terminal device by a camera, a microphone, and a sensor.

また、位置取得部、オブジェクト選択部、表示制御部、通信用ID取得部及び電話部が端末装置により備えられる例を説明したが、本発明はこれに限定されない。例えば、これらの機能は、端末装置以外の装置により備えられてもよい。一例として、これらの機能はいずれかのサーバにより備えられてもよい。   In addition, although the example in which the position acquisition unit, the object selection unit, the display control unit, the communication ID acquisition unit, and the telephone unit are provided by the terminal device has been described, the present invention is not limited to this. For example, these functions may be provided by a device other than the terminal device. As an example, these functions may be provided by any server.

また、位置取得部、オブジェクト選択部、表示制御部、通信用ID取得部及び電話部が同一の装置(端末装置)に備えられる例を説明したが、本発明はこれに限定されない。位置取得部、オブジェクト選択部及び表示制御部と、通信用ID取得部及び電話部とが、別々の装置により備えられてもよい。一例として、位置取得部、オブジェクト選択部及び表示制御部が、いずれかのサーバ、又は、サテライトオフィスに設置されたディスプレイにより備えられ、通信用ID取得部及び電話部が端末装置により備えられてもよい。   Moreover, although the position acquisition unit, the object selection unit, the display control unit, the communication ID acquisition unit, and the telephone unit have been described as being provided in the same device (terminal device), the present invention is not limited to this. The position acquisition unit, the object selection unit, the display control unit, the communication ID acquisition unit, and the telephone unit may be provided by separate devices. As an example, the position acquisition unit, the object selection unit, and the display control unit may be provided by a display installed in any server or satellite office, and the communication ID acquisition unit and the telephone unit may be provided by the terminal device. Good.

また、実空間の撮像画像の表示画面が端末装置により表示される例を説明したが、本発明はこれに限定されない。例えば、当該表示画面は別の装置により表示されてもよい。一例として、上記表示画面はサテライトオフィスに設置されたディスプレイにより表示されてもよい。そして、ユーザが、当該ディスプレイにおいて、表示画像に含まれる撮像画像の位置を指定してもよい。   Moreover, although the example in which the display screen of the captured image of the real space is displayed by the terminal device has been described, the present invention is not limited to this. For example, the display screen may be displayed by another device. As an example, the display screen may be displayed by a display installed in a satellite office. Then, the user may specify the position of the captured image included in the display image on the display.

また、本明細書の情報処理における処理ステップは、必ずしもフローチャートに記載された順序に沿って時系列に実行されなくてよい。例えば、情報処理における処理ステップは、フローチャートとして記載した順序と異なる順序で実行されても、並列的に実行されてもよい。   Further, the processing steps in the information processing of the present specification do not necessarily have to be executed in time series in the order described in the flowchart. For example, the processing steps in the information processing may be executed in an order different from the order described in the flowchart, or may be executed in parallel.

また、情報処理装置(例えば、端末装置)に内蔵されるCPU、ROM及びRAM等のハードウェアに、上記情報処理装置の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させた記憶媒体も提供される。   In addition, it is possible to create a computer program for causing hardware such as a CPU, a ROM, and a RAM built in an information processing apparatus (for example, a terminal apparatus) to exhibit functions equivalent to the respective configurations of the information processing apparatus. A storage medium storing the computer program is also provided.

11 カメラ
13 マイクロフォン
15 センサ
17 メディア配信サーバ
18 情報管理サーバ
19、23 LAN(Local Area Network)
21 ディスプレイ
30 外部ネットワーク
40 PBX(Private Branch eXchange)
60、80 表示画面
61 撮像画像
71 ユーザにより指定される位置
73 オブジェクトが対応する位置
85 部分領域の画像(拡大画像)
99 識別情報
100 端末装置
181 位置取得部
183 オブジェクト選択部
185 表示制御部
11 Camera 13 Microphone 15 Sensor 17 Media Distribution Server 18 Information Management Server 19, 23 LAN (Local Area Network)
21 Display 30 External network 40 PBX (Private Branch eXchange)
60, 80 Display screen 61 Captured image 71 Position specified by user 73 Position corresponding to object 85 Image of partial area (enlarged image)
99 Identification information 100 Terminal device 181 Position acquisition unit 183 Object selection unit 185 Display control unit

Claims (19)

実空間の撮像画像を含む表示画面においてユーザにより指定される前記撮像画像内の位置を取得する取得部と、
取得される前記位置に基づいて、前記撮像画像のいずれかの位置にそれぞれ対応する複数のオブジェクトの中から、1つ以上のオブジェクトを選択する選択部と、
前記複数のオブジェクトの中から2つ以上のオブジェクトが選択される場合に、前記表示画面を表示する表示装置に、前記2つ以上のオブジェクトの各々に関する情報を表示させる表示制御部と、
を備え、
前記選択部は、前記2つ以上のオブジェクトの中から、ユーザにより指定される1つのオブジェクトを選択し、
前記1つのオブジェクトが選択されると、当該1つのオブジェクトに対応する通信用の識別情報が取得される、
情報処理装置。
An acquisition unit that acquires a position in the captured image specified by a user on a display screen including a captured image of real space;
A selection unit that selects one or more objects from a plurality of objects respectively corresponding to any position of the captured image based on the acquired position;
A display control unit that displays information on each of the two or more objects on a display device that displays the display screen when two or more objects are selected from the plurality of objects;
With
The selection unit selects one object specified by the user from the two or more objects,
When the one object is selected, identification information for communication corresponding to the one object is acquired.
Information processing device.
前記2つ以上のオブジェクトは、第1のオブジェクト及び第2のオブジェクトを含み、
前記2つ以上のオブジェクトの各々に関する前記情報は、前記第1のオブジェクトが対応する前記撮像画像内の位置を含む前記撮像画像内の第1の部分領域の画像、及び、前記第2のオブジェクトが対応する前記撮像画像内の位置を含む前記撮像画像内の第2の部分領域の画像を含む、
請求項1に記載の情報処理装置。
The two or more objects include a first object and a second object;
The information regarding each of the two or more objects includes an image of a first partial area in the captured image including a position in the captured image to which the first object corresponds, and the second object Including an image of a second partial region in the captured image including a corresponding position in the captured image;
The information processing apparatus according to claim 1.
前記表示制御部は、前記表示装置に、前記第1の部分領域の前記画像及び前記第2の部分領域の前記画像を並列に表示させる、請求項2に記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the display control unit causes the display device to display the image of the first partial area and the image of the second partial area in parallel. 前記第1の部分領域の前記画像は、前記第1の部分領域が拡大された拡大画像であり、
前記第2の部分領域の前記画像は、前記第2の部分領域が拡大された拡大画像である、
請求項2又は3に記載の情報処理装置。
The image of the first partial region is an enlarged image in which the first partial region is enlarged,
The image of the second partial area is an enlarged image in which the second partial area is enlarged.
The information processing apparatus according to claim 2 or 3.
前記第1の部分領域の前記画像は、前記第1の部分領域が第1の拡大率で拡大された拡大画像であり、
前記第2の部分領域の前記画像は、前記第2の部分領域が第2の拡大率で拡大された拡大画像である、
請求項4に記載の情報処理装置。
The image of the first partial area is an enlarged image in which the first partial area is enlarged at a first enlargement ratio,
The image of the second partial area is an enlarged image in which the second partial area is enlarged at a second enlargement ratio.
The information processing apparatus according to claim 4.
前記表示制御部は、前記表示装置に、前記第1の部分領域の前記画像と当該画像以外の領域との間の境界を示す第1の境界標識と、前記第2の部分領域の前記画像と当該画像以外の領域との間の境界を示す第2の境界標識とを表示させる、請求項2〜5のいずれか1項に記載の情報処理装置。   The display control unit includes, on the display device, a first boundary sign indicating a boundary between the image of the first partial region and a region other than the image, and the image of the second partial region. The information processing apparatus according to claim 2, wherein a second boundary sign indicating a boundary with a region other than the image is displayed. 前記第1の境界標識は、前記第1のオブジェクトに関する情報を含み、
前記第2の境界標識は、前記第2のオブジェクトに関する情報を含む、
請求項6に記載の情報処理装置。
The first boundary sign includes information about the first object;
The second boundary sign includes information about the second object;
The information processing apparatus according to claim 6.
前記第1のオブジェクトに関する前記情報は、前記第1のオブジェクトを識別するための第1の識別情報を含み、
前記第2のオブジェクトに関する前記情報は、前記第2のオブジェクトを識別するための第2の識別情報を含む、
請求項7に記載の情報処理装置。
The information regarding the first object includes first identification information for identifying the first object;
The information related to the second object includes second identification information for identifying the second object.
The information processing apparatus according to claim 7.
前記2つ以上のオブジェクトの各々に関する前記情報は、前記2つ以上のオブジェクトの各々を識別するための識別情報を含む、請求項1〜8のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the information regarding each of the two or more objects includes identification information for identifying each of the two or more objects. 前記表示制御部は、前記表示装置に、前記2つ以上のオブジェクトの中から1つのオブジェクトをユーザにより指定させるための標識を表示させる、請求項1〜9のいずれか1項に記載の情報処理装置。   The information processing according to any one of claims 1 to 9, wherein the display control unit causes the display device to display a sign for allowing a user to specify one object from the two or more objects. apparatus. 前記1つ以上のオブジェクトは、前記複数のオブジェクトのうちの、取得される前記位置に対応する領域内にある位置に対応するオブジェクトである、請求項1〜10のいずれか1項に記載の情報処理装置。   The information according to any one of claims 1 to 10, wherein the one or more objects are objects corresponding to positions in the region corresponding to the acquired position among the plurality of objects. Processing equipment. 前記取得部は、前記表示画面においてユーザにより指定される前記撮像画像内の1つの位置を取得し、
前記1つ以上のオブジェクトは、前記複数のオブジェクトのうちの、取得される前記1つの位置を含む所定の形状の領域内にある位置に対応するオブジェクトである、
請求項11に記載の情報処理装置。
The acquisition unit acquires one position in the captured image specified by the user on the display screen,
The one or more objects are objects corresponding to positions in a region of a predetermined shape including the one position to be acquired among the plurality of objects.
The information processing apparatus according to claim 11.
前記取得部は、前記表示画面においてユーザにより指定される前記撮像画像内の2つ以上の位置を取得し、
前記1つ以上のオブジェクトは、前記複数のオブジェクトのうちの、取得される前記2つ以上の位置に基づき形成される領域内にある位置に対応するオブジェクトである、
請求項11に記載の情報処理装置。
The acquisition unit acquires two or more positions in the captured image specified by the user on the display screen;
The one or more objects are objects corresponding to positions in an area formed based on the two or more acquired positions among the plurality of objects.
The information processing apparatus according to claim 11.
前記選択部は、前記複数のオブジェクトが対応するいずれの位置も、取得される前記位置に対応する前記領域内にない場合には、いずれのオブジェクトも選択せず、
前記表示制御部は、いずれのオブジェクトも選択されない場合に、前記表示装置に、前記撮像画像内の位置をユーザに指定させるための標識を前記表示画面に表示させる、
請求項11〜13のいずれか1項に記載の情報処理装置。
The selection unit does not select any object when none of the positions corresponding to the plurality of objects is within the region corresponding to the acquired position,
The display control unit causes the display device to display on the display screen a sign for allowing a user to specify a position in the captured image when no object is selected.
The information processing apparatus according to any one of claims 11 to 13.
前記通信用の識別情報は、専用網における通信のための識別情報である、請求項1〜14のいずれか1項に記載の情報処理装。   The information processing apparatus according to claim 1, wherein the identification information for communication is identification information for communication in a dedicated network. 前記通信用の識別情報は、公衆網を介して通信するための識別情報である、請求項1〜14のいずれか1項に記載の情報処理装。   The information processing apparatus according to claim 1, wherein the identification information for communication is identification information for communication via a public network. 前記公衆網は、移動体通信網を含む、請求項16に記載の情報処理装置。   The information processing apparatus according to claim 16, wherein the public network includes a mobile communication network. 前記表示装置は、タッチパネルの表示面であり、
前記撮像画像内の前記位置は、タッチパネルにおけるユーザのタッチにより指定される、
請求項1〜17のいずれか1項に記載の情報処理装。
The display device is a display surface of a touch panel,
The position in the captured image is designated by a user touch on the touch panel.
The information processing apparatus according to claim 1.
コンピュータを、
実空間の撮像画像を含む表示画面においてユーザにより指定される前記撮像画像内の位置を取得する取得部と、
取得される前記位置に基づいて、前記撮像画像のいずれかの位置にそれぞれ対応する複数のオブジェクトの中から、1つ以上のオブジェクトを選択する選択部と、
前記複数のオブジェクトの中から2つ以上のオブジェクトが選択される場合に、前記表示画面を表示する表示装置に、前記2つ以上のオブジェクトの各々に関する情報を表示させる表示制御部と、
として機能させ、
前記選択部は、前記2つ以上のオブジェクトの中から、ユーザにより指定される1つのオブジェクトを選択し、
前記1つのオブジェクトが選択されると、当該1つのオブジェクトに対応する通信用の識別情報が取得される、
プログラム。
Computer
An acquisition unit that acquires a position in the captured image specified by a user on a display screen including a captured image of real space;
A selection unit that selects one or more objects from a plurality of objects respectively corresponding to any position of the captured image based on the acquired position;
A display control unit that displays information on each of the two or more objects on a display device that displays the display screen when two or more objects are selected from the plurality of objects;
Function as
The selection unit selects one object specified by the user from the two or more objects,
When the one object is selected, identification information for communication corresponding to the one object is acquired.
program.
JP2013081895A 2013-04-10 2013-04-10 Information processing apparatus and program Active JP6149474B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013081895A JP6149474B2 (en) 2013-04-10 2013-04-10 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013081895A JP6149474B2 (en) 2013-04-10 2013-04-10 Information processing apparatus and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017104028A Division JP6575561B2 (en) 2017-05-25 2017-05-25 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2014204412A true JP2014204412A (en) 2014-10-27
JP6149474B2 JP6149474B2 (en) 2017-06-21

Family

ID=52354462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013081895A Active JP6149474B2 (en) 2013-04-10 2013-04-10 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP6149474B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017022438A (en) * 2015-07-07 2017-01-26 沖電気工業株式会社 Communication support device, communication support method, program, and communication support system
JP2017022587A (en) * 2015-07-13 2017-01-26 沖電気工業株式会社 Information processing device, program and information processing method
JP2018036871A (en) * 2016-08-31 2018-03-08 沖電気工業株式会社 Information processing server, information processing system, terminal device, and program
JP2022007893A (en) * 2020-05-19 2022-01-13 oVice株式会社 Information processing system, information processing device, and program
US11871152B2 (en) 2020-05-19 2024-01-09 Ovice, Inc. Information processing system, information processing apparatus, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007106A (en) * 2002-05-31 2004-01-08 Fujitsu Ltd Remote control system
JP2009032028A (en) * 2007-07-26 2009-02-12 Panasonic Corp Touch panel device
JP2011176599A (en) * 2010-02-24 2011-09-08 Oki Networks Co Ltd Space information visualization system and related information providing device
JP2012216127A (en) * 2011-04-01 2012-11-08 Ntt Docomo Inc User interface device, operation reception method by display device and program
JP2012226527A (en) * 2011-04-19 2012-11-15 Mitsubishi Electric Corp User interface device and user interface method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007106A (en) * 2002-05-31 2004-01-08 Fujitsu Ltd Remote control system
JP2009032028A (en) * 2007-07-26 2009-02-12 Panasonic Corp Touch panel device
JP2011176599A (en) * 2010-02-24 2011-09-08 Oki Networks Co Ltd Space information visualization system and related information providing device
JP2012216127A (en) * 2011-04-01 2012-11-08 Ntt Docomo Inc User interface device, operation reception method by display device and program
JP2012226527A (en) * 2011-04-19 2012-11-15 Mitsubishi Electric Corp User interface device and user interface method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017022438A (en) * 2015-07-07 2017-01-26 沖電気工業株式会社 Communication support device, communication support method, program, and communication support system
JP2017022587A (en) * 2015-07-13 2017-01-26 沖電気工業株式会社 Information processing device, program and information processing method
JP2018036871A (en) * 2016-08-31 2018-03-08 沖電気工業株式会社 Information processing server, information processing system, terminal device, and program
JP2022007893A (en) * 2020-05-19 2022-01-13 oVice株式会社 Information processing system, information processing device, and program
JP7160263B2 (en) 2020-05-19 2022-10-25 oVice株式会社 Information processing system, information processing device and program
US11871152B2 (en) 2020-05-19 2024-01-09 Ovice, Inc. Information processing system, information processing apparatus, and program

Also Published As

Publication number Publication date
JP6149474B2 (en) 2017-06-21

Similar Documents

Publication Publication Date Title
US11128802B2 (en) Photographing method and mobile terminal
JP6070783B2 (en) Information processing apparatus, program, and information processing method
JP6292797B2 (en) Mobile terminal and its video call service operation method
US20170295604A1 (en) Point-to-point ad hoc voice communication
JP6149474B2 (en) Information processing apparatus and program
JP6729193B2 (en) Information processing server, information processing system, terminal device, and program
CA3053980A1 (en) Task management based on instant communication message
EP2284675A2 (en) Method for displaying data and mobile terminal thereof
CN106020592A (en) Split screen display method and device
US9509733B2 (en) Program, communication apparatus and control method
JP2015225400A (en) Communication system, transfer control device, communication method, and program
JP6260201B2 (en) Transmission terminal, transmission method, and program
JP6575561B2 (en) Information processing apparatus, information processing method, and program
CN112422812B (en) Image processing method, mobile terminal and storage medium
JP6314539B2 (en) Transmission terminal, transmission system, transmission method and program
KR20190035373A (en) Virtual movile device implementing system and control method for the same in mixed reality
JP2004242244A (en) Communication network system, portable terminal, and method and computer program for synthesizing panoramic image
CN106980449A (en) Image switches the rendering method and device of transition effect
JP6102961B2 (en) Information processing apparatus, program, and information processing method
JP6881193B2 (en) Information processing device, information processing method, program, display control device, display control method, program and information processing system
JP5692204B2 (en) Information processing apparatus, program, and information processing method
WO2016206468A1 (en) Method and device for processing video communication image
JP6540732B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, PROGRAM, AND INFORMATION PROCESSING SYSTEM
JP7180473B2 (en) Display control device, display control method, program and display control system
CN105530354A (en) Photograph contact list generation method and communication equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170508

R150 Certificate of patent or registration of utility model

Ref document number: 6149474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150