JP2014204412A - Information processing device and program - Google Patents
Information processing device and program Download PDFInfo
- Publication number
- JP2014204412A JP2014204412A JP2013081895A JP2013081895A JP2014204412A JP 2014204412 A JP2014204412 A JP 2014204412A JP 2013081895 A JP2013081895 A JP 2013081895A JP 2013081895 A JP2013081895 A JP 2013081895A JP 2014204412 A JP2014204412 A JP 2014204412A
- Authority
- JP
- Japan
- Prior art keywords
- objects
- image
- captured image
- user
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and a program.
近年、従来のようにハードウェアで実装される電話機に代わって、アプリケーションソフトウェアで実装されるソフトフォンが普及してきている。ソフトフォンはソフトウェアで実装されるため、ソフトフォンへの機能追加、ソフトフォンと他のアプリケーションソフトウェアとの連携等を比較的容易に実現することができる。そのため、ソフトフォンに関する様々な応用技術が提案されている。 In recent years, softphones implemented with application software have become popular in place of telephones implemented with hardware as in the past. Since the softphone is implemented by software, it is possible to relatively easily realize addition of functions to the softphone, cooperation between the softphone and other application software, and the like. Therefore, various applied technologies related to softphones have been proposed.
例えば、特許文献1には、カメラから得られた撮像画像の表示画面において当該撮像画像に写っている人物の顔をタッチすると、顔認識により当該人物の顔を特定し、当該人物の電話番号を取得し、当該人物への電話発信を行う技術が、開示されている。 For example, in Patent Document 1, when a person's face shown in the captured image is touched on a display screen of a captured image obtained from a camera, the person's face is identified by face recognition, and the telephone number of the person is set. A technique for obtaining and making a call to the person is disclosed.
しかし、上記特許文献1に開示されている技術では、表示画面において人物の顔の位置にタッチしなければ、当該人物への電話発信を行うことができない。そのため、例えば、表示画面自体が小さい場合、表示画面に写っている人物が小さい場合等には、当該人物の顔の位置へのタッチが困難であり、当該人物への電話発信を行うことが困難になり得る。また、タッチの精度を緩和するために、例えば、撮像画像に写っている顔のうちの、タッチ位置に最も近い顔を、顔認識により特定すると、例えば所望の人物と別の人物とが近くにいる場合に、当該別の人物の顔が特定されてしまう可能性もある。 However, in the technique disclosed in Patent Document 1, a call to the person cannot be made unless the position of the person's face is touched on the display screen. Therefore, for example, when the display screen itself is small, or when the person shown on the display screen is small, it is difficult to touch the position of the person's face, and it is difficult to make a call to the person. Can be. In order to reduce the accuracy of touch, for example, when the face closest to the touch position among the faces shown in the captured image is identified by face recognition, for example, the desired person and another person are close to each other. The face of the other person may be specified.
そこで、直感的な操作でより容易に所望の人物にコンタクトすることを可能にすることを可能にする仕組みが提供されることが望ましい。 Therefore, it is desirable to provide a mechanism that makes it possible to contact a desired person more easily through an intuitive operation.
本発明によれば、実空間の撮像画像を含む表示画面においてユーザにより指定される上記撮像画像内の位置を取得する取得部と、取得される上記位置に基づいて、上記撮像画像のいずれかの位置にそれぞれ対応する複数のオブジェクトの中から、1つ以上のオブジェクトを選択する選択部と、上記複数のオブジェクトの中から2つ以上のオブジェクトが選択される場合に、上記表示画面を表示する表示装置に、上記2つ以上のオブジェクトの各々に関する情報を表示させる表示制御部と、を備える情報処理装置が提供される。上記選択部は、上記2つ以上のオブジェクトの中から、ユーザにより指定される1つのオブジェクトを選択する。上記1つのオブジェクトが選択されると、当該1つのオブジェクトに対応する通信用の識別情報が取得される。 According to the present invention, an acquisition unit that acquires a position in the captured image specified by a user on a display screen that includes a captured image of real space, and any one of the captured images based on the acquired position A selection unit that selects one or more objects from a plurality of objects corresponding to positions, and a display that displays the display screen when two or more objects are selected from the plurality of objects. An information processing apparatus is provided that includes a display control unit that causes the apparatus to display information regarding each of the two or more objects. The selection unit selects one object specified by the user from the two or more objects. When the one object is selected, communication identification information corresponding to the one object is acquired.
また、上記2つ以上のオブジェクトは、第1のオブジェクト及び第2のオブジェクトを含み、上記2つ以上のオブジェクトの各々に関する上記情報は、上記第1のオブジェクトが対応する上記撮像画像内の位置を含む上記撮像画像内の第1の部分領域の画像、及び、上記第2のオブジェクトが対応する上記撮像画像内の位置を含む上記撮像画像内の第2の部分領域の画像を含んでもよい。 The two or more objects include a first object and a second object, and the information regarding each of the two or more objects includes a position in the captured image corresponding to the first object. An image of a first partial area in the captured image including the image and a second partial area in the captured image including a position in the captured image corresponding to the second object may be included.
また、上記表示制御部は、上記表示装置に、上記第1の部分領域の上記画像及び上記第2の部分領域の上記画像を並列に表示させてもよい。 The display control unit may cause the display device to display the image of the first partial area and the image of the second partial area in parallel.
また、上記第1の部分領域の上記画像は、上記第1の部分領域が拡大された拡大画像であり、上記第2の部分領域の上記画像は、上記第2の部分領域が拡大された拡大画像であってもよい。 The image of the first partial area is an enlarged image in which the first partial area is enlarged, and the image of the second partial area is enlarged in which the second partial area is enlarged. It may be an image.
また、上記第1の部分領域の上記画像は、上記第1の部分領域が第1の拡大率で拡大された拡大画像であり、上記第2の部分領域の上記画像は、上記第2の部分領域が第2の拡大率で拡大された拡大画像であってもよい。 The image of the first partial area is an enlarged image obtained by enlarging the first partial area at a first enlargement ratio, and the image of the second partial area is the second part. An enlarged image in which the region is enlarged at the second enlargement ratio may be used.
また、上記表示制御部は、上記表示装置に、上記第1の部分領域の上記画像と当該画像以外の領域との間の境界を示す第1の境界標識と、上記第2の部分領域の上記画像と当該画像以外の領域との間の境界を示す第2の境界標識とを表示させてもよい。 Further, the display control unit causes the display device to include a first boundary sign indicating a boundary between the image of the first partial region and a region other than the image, and the second partial region. A second boundary sign indicating a boundary between the image and a region other than the image may be displayed.
また、上記第1の境界標識は、上記第1のオブジェクトに関する情報を含み、上記第2の境界標識は、上記第2のオブジェクトに関する情報を含んでもよい。 The first boundary sign may include information related to the first object, and the second boundary sign may include information related to the second object.
また、上記第1のオブジェクトに関する上記情報は、上記第1のオブジェクトを識別するための第1の識別情報を含み、上記第2のオブジェクトに関する上記情報は、上記第2のオブジェクトを識別するための第2の識別情報を含んでもよい。 Further, the information regarding the first object includes first identification information for identifying the first object, and the information regarding the second object is for identifying the second object. Second identification information may be included.
また、上記2つ以上のオブジェクトの各々に関する上記情報は、上記2つ以上のオブジェクトの各々を識別するための識別情報を含んでもよい。 The information regarding each of the two or more objects may include identification information for identifying each of the two or more objects.
また、上記表示制御部は、上記表示装置に、上記2つ以上のオブジェクトの中から1つのオブジェクトをユーザにより指定させるための標識を表示させてもよい。 The display control unit may cause the display device to display a sign for allowing the user to designate one object from the two or more objects.
また、上記1つ以上のオブジェクトは、上記複数のオブジェクトのうちの、取得される上記位置に対応する領域内にある位置に対応するオブジェクトであってもよい。 The one or more objects may be an object corresponding to a position in an area corresponding to the acquired position among the plurality of objects.
また、上記取得部は、上記表示画面においてユーザにより指定される上記撮像画像内の1つの位置を取得し、上記1つ以上のオブジェクトは、上記複数のオブジェクトのうちの、取得される上記1つの位置を含む所定の形状の領域内にある位置に対応するオブジェクトであってもよい。 The acquisition unit acquires one position in the captured image specified by the user on the display screen, and the one or more objects are the one acquired among the plurality of objects. It may be an object corresponding to a position in an area of a predetermined shape including the position.
また、上記取得部は、上記表示画面においてユーザにより指定される上記撮像画像内の2つ以上の位置を取得し、上記1つ以上のオブジェクトは、上記複数のオブジェクトのうちの、取得される上記2つ以上の位置に基づき形成される領域内にある位置に対応するオブジェクトであってもよい。 Further, the acquisition unit acquires two or more positions in the captured image specified by the user on the display screen, and the one or more objects are acquired from the plurality of objects. It may be an object corresponding to a position in an area formed based on two or more positions.
また、上記選択部は、上記複数のオブジェクトが対応するいずれの位置も、取得される上記位置に対応する上記領域内にない場合には、いずれのオブジェクトも選択せず、上記表示制御部は、いずれのオブジェクトも選択されない場合に、上記表示装置に、上記撮像画像内の位置をユーザに指定させるための標識を上記表示画面に表示させてもよい。 The selection unit does not select any object when none of the positions corresponding to the plurality of objects is within the region corresponding to the acquired position, and the display control unit When no object is selected, a sign for causing the user to specify a position in the captured image may be displayed on the display screen on the display device.
また、上記通信用の識別情報は、専用網における通信のための識別情報であってもよい。 Further, the identification information for communication may be identification information for communication in a dedicated network.
また、上記通信用の識別情報は、公衆網を介して通信するための識別情報であってもよい。 Further, the identification information for communication may be identification information for communication via a public network.
また、上記公衆網は、移動体通信網を含んでもよい。 The public network may include a mobile communication network.
また、上記表示装置は、タッチパネルの表示面であり、上記撮像画像内の上記位置は、タッチパネルにおけるユーザのタッチにより指定されてもよい。 The display device may be a display surface of a touch panel, and the position in the captured image may be specified by a user touch on the touch panel.
また、本発明によれば、コンピュータを、実空間の撮像画像を含む表示画面においてユーザにより指定される上記撮像画像内の位置を取得する取得部と、取得される上記位置に基づいて、上記撮像画像のいずれかの位置にそれぞれ対応する複数のオブジェクトの中から、1つ以上のオブジェクトを選択する選択部と、上記複数のオブジェクトの中から2つ以上のオブジェクトが選択される場合に、上記表示画面を表示する表示装置に、上記2つ以上のオブジェクトの各々に関する情報を表示させる表示制御部と、として機能させるためのプログラムが提供される。上記選択部は、上記2つ以上のオブジェクトの中から、ユーザにより指定される1つのオブジェクトを選択する。上記1つのオブジェクトが選択されると、当該1つのオブジェクトに対応する通信用の識別情報が取得される。 According to the present invention, the computer is configured to acquire the position based on the acquired position and the acquisition unit that acquires the position in the captured image specified by the user on the display screen including the captured image of the real space. The selection unit that selects one or more objects from a plurality of objects corresponding to any position of the image, and the display when two or more objects are selected from the plurality of objects A program for causing a display device that displays a screen to function as a display control unit that displays information on each of the two or more objects is provided. The selection unit selects one object specified by the user from the two or more objects. When the one object is selected, communication identification information corresponding to the one object is acquired.
以上説明したように本発明によれば、直感的な操作でより容易に所望の人物にコンタクトすることを可能にすることが可能となる。 As described above, according to the present invention, it is possible to more easily contact a desired person through an intuitive operation.
以下に添付の図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
以降、<<1.情報処理システムの概略的な構成>>、<<2.端末装置の構成>>、<<3.処理の流れ>>、<<4.変形例>>という順序で本発明の実施形態を説明する。 Thereafter, << 1. Schematic configuration of information processing system >>, << 2. Configuration of terminal device >>, << 3. Flow of processing >>, << 4. Embodiments of the present invention will be described in the order of modification >>.
<<1.情報処理システムの概略的な構成>>
まず、図1を参照して、本発明の実施形態に係る情報処理システムの概略的な構成を説明する。図1は、本実施形態に係る情報処理システムの概略的な構成の一例を示す説明図である。図1を参照すると、情報処理システムは、例えば、複数の拠点にわたって存在する。この例では、情報処理システムは、センタオフィス10とサテライトオフィス20(又はホームオフィス20)にわたって存在する。センタオフィス10は、比較的大規模なオフィスであり、サテライトオフィス20(又はホームオフィス20)は、比較的小規模なオフィスである。
<< 1. Schematic configuration of information processing system >>
First, a schematic configuration of an information processing system according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is an explanatory diagram illustrating an example of a schematic configuration of an information processing system according to the present embodiment. Referring to FIG. 1, the information processing system exists over a plurality of locations, for example. In this example, the information processing system exists across the
情報処理システムは、センタオフィス10において、カメラ11、マイクロフォン13、センサ15、メディア配信サーバ17、情報管理サーバ18、及びLAN(Local Area Network)19を含む。また、情報処理システムは、サテライトオフィス20(又はホームオフィス20)において、端末装置100、ディスプレイ21、及びLAN23を含む。また、情報処理システムは、さらにPBX(Private Branch eXchange)40を含む。
In the
(カメラ11)
カメラ11は、当該カメラ11が向いている方向(即ち、撮像方向)にある被写体を撮像する。センタオフィス10には、複数のカメラ11が設置される。そして、設置された各カメラ11は、それぞれの設置位置からセンタオフィスの一部又は全体を撮像する。このように、情報処理システムでは、様々な位置からセンタオフィスが撮像される。カメラ11を通じて生成される撮像画像は、静止画像であってもよく、又は動画像(即ち映像)であってもよい。
(Camera 11)
The
また、カメラ11は、例えば、自動で向きを変えることができる。さらに、カメラ11は、例えば、ズーム機能を有する。当該ズーム機能は、光学ズーム機能であってもよく、又はデジタルズーム機能であってもよい。
Moreover, the
また、カメラ11は、位置を変えることが可能であってもよい。一例として、カメラ11は、ドリーにより可動であってもよい。即ち、カメラ11は、レールに沿って可動であってもよい。この場合に、レールに沿って動くためのモータの制御により、カメラ11が前後に動いてもよい。これにより、1台のカメラ 11であっても、異なる位置から被写体が撮像された撮像画像を生成することが可能になる。
Further, the
また、カメラ11が位置を変えることが可能である場合に、上記ズーム機能は、カメラ11の位置を変えることによるズーム機能であってもよい。一例として、上記ズーム機能は、ドリーによるズーム機能であってもよい。例えば、被写体に向かってカメラ11を動かすことによりズームインを行い、カメラ11が被写体から離れる方向にカメラ11を動かすことによりズームアウトを行ってもよい。なお、ドリーによるズームは、光学ズーム又はデジタルズームのように、精緻なズームである必要はない。例えば、ズームインでは、被写体がより大きく写った撮像画像が生成されればよく、ズームアウトでは、被写体がより小さく写った撮像画像が生成されればよい。
Further, when the
(マイクロフォン13)
マイクロフォン13は、当該マイクロフォン13の周囲の音を集音する。センタオフィス10には、複数のマイクロフォン13が設置される。そして、設置された各マイクロフォン13は、センタオフィス内のそれぞれの設置位置の周囲の音を集音する。このように、情報処理システムでは、センタオフィス10内の様々な位置での音が集音される。
(Microphone 13)
The
(センサ15)
センサ15は、様々な種類のセンサを含み得る。例えば、センサ15は、人物が座席にいるか否かを判定する座席センサを含む。当該座席センサは、各座席に設置され、各座席に人物が座っているか否かを判定する。座席センサは、例えば、押圧を検出可能ないずれかのセンサである。
(Sensor 15)
The
(メディア配信サーバ17)
メディア配信サーバ17は、要求に応じて端末装置100にメディア(例えば、音声、撮像画像、等)を配信する。例えば、メディア配信サーバ17は、カメラ11から撮像画像を取得し、マイクロフォン13から音声を取得し、これらのメディアを端末装置100に配信する。
(Media distribution server 17)
The
(情報管理サーバ18)
情報管理サーバ18は、情報処理システムにおいて用いられる様々な情報を管理する。即ち、情報管理サーバ18は、当該様々な情報を記憶し、適時に当該様々な情報を更新する。
(Information management server 18)
The
例えば、情報管理サーバ18は、カメラ11、マイクロフォン13及びセンサ15に関するパラメータを管理する。具体的には、例えば、情報管理サーバ18は、カメラ11のパラメータとして、カメラ11の設置位置、撮像方向(例えば、カメラのレンズと垂直な方向)、ズーム率等の情報を記憶し、更新する。
For example, the
(LAN19)
また、LAN19は、センタオフィス10内の各装置を接続するネットワークである。また、LAN19は、外部ネットワーク30を介して、センタオフィス10内の各装置とセンタオフィス10外の装置とを接続する。当該外部ネットワーク30は、例えば、インターネットを含む。
(LAN19)
The
(端末装置100)
端末装置100は、ユーザにより使用される。例えば、端末装置100は、電話、メール等のコミュニケーションを行うための機能をユーザに提供する。また、端末装置100は、様々な種類の装置として実装され得る。以下、この点について図2を参照して具体例を説明する。
(Terminal device 100)
The
図2は、本実施形態に係る端末装置の具体例を説明するための説明図である。図2を参照すると、一例として、端末装置100Aは、タブレット端末である。また、別の例として、端末装置100Bは、スマートフォンである。また、さらに別の例として、端末装置100Cは、ディスプレイ付き電話機である。例えば、当該電話機には、ソフトフォンが備えられる。なお、端末装置100の具体例はこれらの例に限られない。一例として、端末装置100は、PC(Personal Computer)であってもよい。
FIG. 2 is an explanatory diagram for describing a specific example of the terminal device according to the present embodiment. Referring to FIG. 2, as an example, the
(ディスプレイ21)
ディスプレイ21は、いずれかの画面を表示する。例えば、ディスプレイ21は、カメラ11を通じて生成された撮像画像を含む画面を表示する。これにより、端末装置100のユーザを含む多数の人物が、ディスプレイ21を介してセンタオフィス10の様子を見ることができる。
(Display 21)
The
また、ディスプレイ21は、例えば、いずれかの音声も出力する。例えば、ディスプレイ21は、マイクロフォン13により集音される音声を出力する。これにより、端末装置100のユーザを含む多数の人物が、ディスプレイ21を介してセンタオフィス10の音を聞くことができる。
Further, the
(LAN23)
また、LAN23は、サテライトオフィス20(又はホームオフィス20)内の各装置を接続するネットワークである。また、LAN23は、外部ネットワーク30を介して、サテライトオフィス20内の各装置とサテライトオフィス20外の装置とを接続する。
(LAN23)
The
(PBX40)
PBX40は、外部ネットワーク30を介した装置間の通信を可能にする。PBX40は、例えば、H.323又はSIP(Session Initiation Protocol)に従って動作する。
(PBX40)
The
具体的には、例えば、PBX40は、通信用の識別情報(例えば、電話番号)とIP(Internet Protocol)アドレスとを、互いに対応付けて記憶する。そして、PBX40は、要求に応じて、通信用の識別情報をIPアドレスに変換し、当該IPアドレスを要求元に提供する。
Specifically, for example, the
なお、PBX40は、LAN19又はLAN23に接続されてもよい。
The
<<2.端末装置の構成>>
続いて、図3〜図25を参照して、本実施形態に係る端末装置100の構成の一例を説明する。
<< 2. Terminal device configuration >>
Next, an example of the configuration of the
<2.1.ハードウェア構成>
まず、図3を参照して、本実施形態に係る端末装置100のハードウェア構成の一例を説明する。図3は、本実施形態に係る端末装置100のハードウェア構成の一例を示すブロック図である。図3を参照すると、端末装置100は、CPU(Central Processing Unit)801、ROM(Read Only Memory)803、RAM(Random Access Memory)805、バス807、記憶装置809、通信インターフェース811、カメラ813、マイクロフォン815、スピーカ817及びタッチパネル820を備える。
<2.1. Hardware configuration>
First, an example of the hardware configuration of the
CPU801は、端末装置100における様々な処理を実行する。また、ROM803は、端末装置100における処理をCPU801に実行させるためのプログラム及びデータを記憶する。また、RAM805は、CPU801の処理の実行時に、プログラム及びデータを一時的に記憶する。
The
バス807は、CPU801、ROM803及びRAMを相互に接続する。バス807には、さらに、記憶装置809、通信インターフェース811、カメラ813、マイクロフォン815、スピーカ817及びタッチパネル820が接続される。バス807は、例えば、複数の種類のバスを含む。一例として、バス807は、CPU801、ROM803及びRAM805を接続する高速バスと、当該高速バスよりも低速の1つ以上の別のバスを含む。
A
記憶装置809は、端末装置100内で一時的又は恒久的に保存すべきデータを記憶する。記憶装置809は、例えば、ハードディスク(Hard Disk)等の磁気記憶装置であってもよく、又は、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ(flash memory)、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)及びPRAM(Phase change Random Access Memory)等の不揮発性メモリ(nonvolatile memory)であってもよい。
The
通信インターフェース811は、端末装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)外部装置と通信する。通信インターフェース811は、無線通信用のインターフェースであってもよく、この場合に、例えば、通信アンテナ、RF回路及びその他の通信処理用の回路を含んでもよい。また、通信インターフェース811は、有線通信用のインターフェースであってもよく、この場合に、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。
The
カメラ813は、被写体を撮像する。カメラ813は、例えば、光学系、撮像素子及び画像処理回路を含む。
The
マイクロフォン815は、周囲の音を集音する。マイクロフォン815は、周囲の音を電気信号へ変換し、当該電気信号をデジタルデータに変換する。
The
スピーカ817は、音声を出力する。スピーカ817は、デジタルデータを電気信号に変換し、当該電気信号を音声に変換する。
The
タッチパネル820は、タッチ検出面821及び表示面823を含む。
The
タッチ検出面821は、タッチパネル820におけるタッチ位置を検出する。より具体的には、例えば、ユーザが、タッチパネル820にタッチすると、タッチ検出面821は、当該タッチを感知し、当該タッチの位置に応じた電気信号を生成し、そして当該電気信号をタッチ位置の情報に変換する。タッチ検出面821は、例えば、静電容量方式、抵抗膜方式、光学式等の任意のタッチ検出方式に従って形成され得る。
表示面823は、端末装置100からの出力画像(即ち、表示画面)を表示する。表示面823は、例えば、液晶、有機EL(Organic Light-Emitting Diode:OLED)、CRT(Cathode Ray Tube)等を用いて実現され得る。
The
<2.2.機能構成>
次に、図4〜図18を参照して、本実施形態に係る端末装置100の機能構成の一例を説明する。図4は、本実施形態に係る端末装置100の機能構成の一例を示すブロック図である。図4を参照すると、端末装置100は、通信部110、入力部120、撮像部130、集音部140、表示部150、音声出力部160、記憶部170及び制御部180を備える。
<2.2. Functional configuration>
Next, an example of a functional configuration of the
(通信部110)
通信部110は、他の装置と通信する。例えば、通信部110は、LAN23に直接的に接続され、サテライトオフィス20内の各装置と通信する。また、通信部110は、外部ネットワーク30及びLAN19を介して、センタオフィス10内の各装置と通信する。具体的には、例えば、通信部110は、カメラ11、マイクロフォン13、センサ15、メディア配信サーバ17及び情報管理サーバ200と通信する。なお、通信部110は、例えば、通信インターフェース811により実装され得る。
(Communication unit 110)
The
(入力部120)
入力部120は、端末装置100のユーザによる入力を受け付ける。そして、入力部120は、入力結果を制御部180へ提供する。
(Input unit 120)
The
例えば、入力部120は、表示画面においてユーザにより指定される位置を検出する。より具体的には、例えば、入力部120は、タッチパネル820のタッチ検出面821により実装され、タッチパネル820におけるタッチ位置を検出する。そして、入力部120は、検出されたタッチ位置を制御部180へ提供する。
For example, the
(撮像部130)
撮像部130は、被写体を撮像する。例えば、撮像部130は、端末装置100の正面方向の領域を撮像する。この場合に、撮像部130は、端末装置100のユーザを撮像する。撮像部130は、撮像結果(即ち、撮像画像)を制御部180に提供する。なお、撮像部130は、例えば、カメラ813により実装され得る。
(Imaging unit 130)
The
(集音部140)
集音部140は、端末装置100の周囲の音を集音する。例えば、集音部140は、端末装置100のユーザの声を集音する。集音部140は、集音結果(即ち、音声データ)を制御部180に提供する。なお、集音部140は、例えば、マイクロフォン815により実装され得る。
(Sound collector 140)
The
(表示部150)
表示部150は、端末装置100からの出力画像(即ち、表示画面)を表示する。表示部150は、制御部180による制御に応じて表示画面を表示する。なお、表示部150は、例えば、タッチパネル820の表示面823により実装され得る。
(Display unit 150)
The
(音声出力部160)
音声出力部160は、端末装置100から音声等を出力する。音声出力部160は、制御部180による制御に応じて音声を出力する。なお、音声出力部160は、例えば、スピーカ817により実装され得る。
(Audio output unit 160)
The
(記憶部170)
記憶部170は、端末装置100の動作のためのプログラム及びデータを記憶する。なお、記憶部170は、例えば、記憶装置809により実装され得る。
(Storage unit 170)
The
(制御部180)
制御部180は、端末装置100の様々な機能を提供する。制御部180は、位置取得部181、オブジェクト選択部183、表示制御部185、通信用ID取得部187及び電話部189を含む。なお、制御部180は、例えば、CPU801、ROM803及びRAM805により実装され得る。
(Control unit 180)
The
(位置取得部181)
位置取得部181は、表示画面においてユーザにより指定される位置を取得する。
(Position acquisition unit 181)
The
具体的には、例えば、上記表示画面は、表示装置により表示される画面であり、当該表示装置は、例えば表示部150である。そして、入力部120が、当該表示画面においてユーザにより指定される位置を検出すると、位置取得部181は、当該位置を取得する。
Specifically, for example, the display screen is a screen displayed by a display device, and the display device is, for example, the
−撮像画像内の位置の取得
とりわけ本実施形態では、位置取得部181は、実空間の撮像画像を含む表示画面においてユーザにより指定される上記撮像画像内の位置を取得する。
-Acquisition of the position in a captured image Especially in this embodiment, the
例えば、上記表示画面は、表示部150により表示される表示画面である。また、例えば、上記撮像画像は、実空間(センタオフィス10)内にあるカメラ11を通じて生成される撮像画像である。当該撮像画像は、カメラ11により生成された撮像画像であってもよく、又は、カメラ11により生成された撮像画像を加工することにより生成された撮像画像であってもよい。また、上記表示画面は、当該撮像画像を一部又は全体に含む画面である。
For example, the display screen is a display screen displayed by the
また、例えば、位置取得部181は、上記表示画面においてユーザにより指定される上記撮像画像内の1つの位置を取得する。即ち、1つの位置がユーザにより指定される。
Further, for example, the
より具体的には、例えば、入力部120が、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の1つの位置を検出すると、位置取得部181は、当該1つの位置を取得する。以下、図5を参照して、このような撮像画像内の位置の取得の具体例を説明する。
More specifically, for example, when the
図5は、表示画面に含まれる撮像画像内の位置の取得の例を説明するための説明図である。図5を参照すると、表示部150により表示される表示画面60が示されている。また、表示画面60は、実空間(センタオフィス10)内にあるいずれかのカメラ11を通じて生成される撮像画像61を含む。例えば、入力部120が、表示画面60においてユーザにより指定される撮像画像61内の1つの位置71を検出する。そして、位置取得部181は、位置71を取得する。なお、ここでは説明のために図5において位置71が明示されているが、位置71が表示画面60において実際に表示されているわけではないということに留意すべきである。
FIG. 5 is an explanatory diagram for explaining an example of acquiring a position in a captured image included in the display screen. Referring to FIG. 5, a
また、表示画面60は、別のカメラ11を選択するためのボタン画像63A及びボタン画像63Bをさらに含む。例えば、ユーザが、ボタン画像63の位置を指定すると、表示画面60には、別のカメラ11を通じて生成される撮像画像61が表示される。
The
以上のように、位置取得部181は、ユーザにより指定される撮像画像内の位置を取得する。そして、位置取得部181は、撮像画像内の位置をオブジェクト選択部183に提供する。
As described above, the
なお、例えば、上記表示装置(例えば、表示部150)は、タッチパネルの表示面である。そして、撮像画像内の位置は、タッチパネルにおけるユーザのタッチにより指定される。 For example, the display device (for example, the display unit 150) is a display surface of a touch panel. And the position in a captured image is designated by the user's touch in a touch panel.
(オブジェクト選択部183)
オブジェクト選択部183は、取得される上記撮像画像内の位置に基づいて、当該撮像画像のいずれかの位置にそれぞれ対応する複数のオブジェクトの中から、1つ以上のオブジェクトを選択する。
(Object selection unit 183)
The
−オブジェクトが対応する撮像画像内の位置
上述したとおり、複数のオブジェクトが、撮像画像のいずれかの位置にそれぞれ対応する。例えば、当該複数のオブジェクトの各々は、人物(又は人物に関する情報)であり、当該人物が写る撮像画像内の位置に対応する。以下、この点について図6を参照して具体例を説明する。
-Position in the captured image corresponding to the object As described above, the plurality of objects respectively correspond to any position of the captured image. For example, each of the plurality of objects is a person (or information about the person), and corresponds to a position in a captured image in which the person is captured. Hereinafter, a specific example of this point will be described with reference to FIG.
図6は、複数のオブジェクト(人物)がそれぞれ対応する位置の例を説明するための説明図である。図6を参照すると、図5と同様に、表示画面60、撮像画像61及びボタン画像63が示されている。そして、4つのオブジェクト(人物)は、それぞれ、人物が写る撮像画像61内の位置73(具体的には、位置73A〜73D)に対応する。
FIG. 6 is an explanatory diagram for explaining an example of positions corresponding to a plurality of objects (persons). Referring to FIG. 6, a
以上のように、オブジェクトが撮像画像内の位置に対応する。以下、オブジェクト(人物)がどのように撮像画像内の位置に対応するかを具体的に説明する。 As described above, the object corresponds to the position in the captured image. Hereinafter, how the object (person) corresponds to the position in the captured image will be specifically described.
−−第1の例
第1の例として、オブジェクトは、撮像画像内の所定の位置に対応する。
--First Example As a first example, the object corresponds to a predetermined position in the captured image.
具体的には、例えば、カメラ11ごとに(又はカメラ11の設定ごとに)、実空間(センタオフィス10)のどの範囲が撮像されるかが決まる。即ち、カメラ11ごとの撮像画像において、実空間(センタオフィス10)がどのように写るかが決まる。そのため、例えば、撮像画像内に写ると想定される人物(オブジェクト)が、当該撮像画像内で当該人物が写ると想定される所定の位置に対応する。具体的には、例えば、撮像画像内に自席が写る人物(オブジェクト)が、撮像画像内における当該人物の自席付近の所定の位置に対応する。
Specifically, for example, for each camera 11 (or for each setting of the camera 11), it is determined which range in the real space (center office 10) is imaged. That is, how the real space (center office 10) is captured in the captured image of each
なお、第1の例では、オブジェクトが対応する撮像画像内の所定の位置は、例えば、情報管理サーバ18において記憶される。具体的には、例えば、カメラ11ごとに(又はカメラ11の設定ごとに)、カメラ11を通じて生成される撮像画像内の位置と、当該位置に対応するオブジェクトの情報とが記憶される。また、端末装置100は、情報管理サーバ18から上記所定の位置を取得する。
In the first example, the predetermined position in the captured image corresponding to the object is stored in the
また、撮像画像内の上記所定の位置は、人物(オブジェクト)が実際にいる場合には存在し、人物が実際にはいない場合には存在しなくてもよい。即ち、人物(オブジェクト)の存否に応じて、上記所定の位置が存在し、又は存在しなくてもよい。一例として、センサ15により人物が座席にいると判定される場合に、上記所定の位置が存在し、そうでなければ、上記所定の位置が存在しなくてもよい。
In addition, the predetermined position in the captured image exists when a person (object) is actually present, and may not exist when a person is not actually present. That is, the predetermined position may or may not exist depending on whether or not a person (object) exists. As an example, when the
−−第2の例
また、第2の例として、実空間に対応する3次元仮想空間が用意され、オブジェクト(人物、又は人物に関する情報)に対応する仮想物体が上記3次元仮想空間内に配置される。そして、オブジェクトは、当該オブジェクトに対応する仮想物体の(3次元仮想空間内の)配置位置に対応する、撮像画像内の位置に対応する。
--Second example As a second example, a three-dimensional virtual space corresponding to the real space is prepared, and a virtual object corresponding to the object (person or information about the person) is arranged in the three-dimensional virtual space. Is done. The object corresponds to a position in the captured image corresponding to the arrangement position (in the three-dimensional virtual space) of the virtual object corresponding to the object.
具体的には、例えば、実空間におけるカメラ11の配置位置は、3次元仮想空間におけるいずれかの仮想位置に対応する。そして、当該仮想位置に基づくレンダリングにより生成される画像は、カメラ11を通じて生成される撮像画像に対応する。そのため、3次元仮想空間内の上記仮想物体の配置位置が、撮像画像内のいずれかの位置に対応する。そして、例えば、仮想物体が対応する人物(オブジェクト)が、当該仮想物体の配置位置に対応する、撮像画像内の位置に対応する。
Specifically, for example, the arrangement position of the
なお、第2の例では、オブジェクトが対応する撮像画像内の位置は、例えば、情報管理サーバ18において算出される。具体的には、例えば、情報管理サーバ18は、端末装置100からの要求に応じて、3次元仮想空間を用いて、オブジェクトが対応する仮想物体の配置位置から、オブジェクトが対応する撮像画像内の位置を算出する。そして、算出された当該位置が、端末装置100に提供される。
In the second example, the position in the captured image corresponding to the object is calculated by the
また、仮想物体の配置位置は、当該仮想物体が対応する人物(オブジェクト)の実際の位置に応じて変化してもよい。この場合に、例えば、当該人物(オブジェクト)の実際の位置は、いずれかのセンサにより検出され、提供されてもよい。そして、提供される当該実際の位置に基づいて、3次元仮想空間における仮想物体の配置位置が変化してもよい。 Further, the arrangement position of the virtual object may change according to the actual position of the person (object) to which the virtual object corresponds. In this case, for example, the actual position of the person (object) may be detected and provided by any sensor. And the arrangement position of the virtual object in the three-dimensional virtual space may change based on the actual position to be provided.
また、上記3次元仮想空間内に配置される仮想物体は、人物(オブジェクト)が実際にいる場合には存在し、人物が実際にはいない場合には存在しなくてもよい。即ち、人物(オブジェクト)の存否に応じて、上記仮想物体が存在し、又は存在しなくてもよい。一例として、センサ15により人物が座席にいると判定される場合に、上記仮想物体が存在し、そうでなければ、上記仮想物体が存在しなくてもよい。
The virtual object arranged in the three-dimensional virtual space exists when a person (object) is actually present, and may not exist when a person is not actually present. That is, the virtual object may or may not exist depending on whether or not a person (object) exists. As an example, when the
−−第3の例
また、上記手法の第3の例は、オブジェクト(人物)は、撮像画像内で当該オブジェクト(人物)が認識された位置に対応する。
--Third example In the third example of the above technique, an object (person) corresponds to a position where the object (person) is recognized in a captured image.
具体的には、例えば、撮像画像から人物の顔が認識される。そして、当該人物(オブジェクト)が、認識された顔の位置に対応する。 Specifically, for example, a human face is recognized from the captured image. The person (object) corresponds to the recognized face position.
なお、第3の例では、オブジェクトが対応する撮像画像内の位置は、例えば、情報管理サーバ18において算出される。具体的には、例えば、情報管理サーバ18は、端末装置100からの要求に応じて、撮像画像から人物の顔を認識する。さらに、情報管理サーバ18は、顔が認識された撮像画像内の位置を、当該人物(オブジェクト)に対応する撮像画像内の位置として取得する。そして、取得された当該位置が、端末装置100に提供される。
In the third example, the position in the captured image corresponding to the object is calculated by the
−オブジェクトの選択の手法
−−第1のケース
第1に、例えば、撮像画像内の1つの位置がユーザにより指定され、取得され、撮像画像内の当該1つの位置が、上記複数のオブジェクトのうちのいずれかのオブジェクトが対応する位置と合致する。この場合に、オブジェクト選択部183は、上記撮像画像内の取得される上記位置と合致する位置に対応するオブジェクトを選択する。以下、この点について、図7を参照して具体例を説明する。
—Object Selection Method——First Case First, for example, one position in a captured image is designated and acquired by a user, and the one position in the captured image is selected from the plurality of objects. Any of the objects matches the corresponding position. In this case, the
図7は、いずれかのオブジェクトが対応する位置とユーザにより指定される位置とが合致する場合に選択されるオブジェクトの例を説明するための説明図である。図7を参照すると、表示画面60と、表示画面に含まれる撮像画像61とが示されている。図7では、より分かりやすい説明のために、撮像画像61の具体的な画像は示されず、撮像画像内の取得される位置71(即ち、ユーザにより指定される位置)と、オブジェクトが対応する位置73とが示されている。この例では、例えば、撮像画像61内の取得される位置71は、オブジェクトが対応する位置73Bと合致する。よって、オブジェクト選択部183は、位置73Bに対応するオブジェクトを選択する。
FIG. 7 is an explanatory diagram for explaining an example of an object selected when a position corresponding to any object matches a position specified by the user. Referring to FIG. 7, a
例えば以上のように、ユーザにより指定される位置と合致する位置に対応する1つのオブジェクトが選択される。 For example, as described above, one object corresponding to a position that matches the position specified by the user is selected.
−−第2のケース
第2に、例えば、とりわけ本実施形態では、オブジェクト選択部183は、上記複数のオブジェクトの中から、上記撮像画像内の取得される位置(即ち、ユーザにより指定される位置)に対応する領域内にある位置に対応する1つ以上のオブジェクトを選択する。即ち、選択される上記1つ以上のオブジェクトは、上記複数のオブジェクトのうちの、取得される上記位置に対応する領域内にある位置に対応するオブジェクトである。
--Second case Secondly, for example, particularly in the present embodiment, the
例えば、撮像画像内の1つの位置がユーザにより指定され、取得され、撮像画像内の当該1つの位置が、上記複数のオブジェクトのうちのいずれかのオブジェクトが対応するどの位置とも合致しない。この場合に、オブジェクト選択部183は、上記複数のオブジェクトの中から、取得される上記1つの位置に対応する領域内にある位置に対応する1つ以上のオブジェクトを選択する。即ち、選択される上記1つ以上のオブジェクトは、上記複数のオブジェクトのうちの、取得される上記1つの位置に対応する領域内にある位置に対応するオブジェクトである。
For example, one position in the captured image is designated and acquired by the user, and the one position in the captured image does not match any position corresponding to any one of the plurality of objects. In this case, the
例えば、オブジェクト選択部183は、上記複数のオブジェクトの中から、上記撮像画像内の取得される上記位置を含む所定の形状の領域内にある位置に対応するオブジェクトを選択する。即ち、選択される上記1つ以上のオブジェクトは、上記複数のオブジェクトのうちの、取得される上記1つの位置を含む所定の形状の領域内にある位置に対応するオブジェクトである。以下、図8を参照して、当該領域の具体例を説明し、図9を参照して、選択されるオブジェクトの具体例を説明する。
For example, the
図8は、オブジェクトを選択するための領域の例を説明するための説明図である。図8を参照すると、撮像画像内の取得される位置71(即ち、ユーザにより指定される位置)と、位置71を含む所定の形状の領域75とが、示されている。例えば、第1の例として、領域75Aは、位置71を中心とする円の領域である。また、第2の例として、領域75Bは、位置71を中心とする矩形(一例として、正方形)の領域である。ユーザにより位置71が指定されると、このような領域75(例えば、領域75A又は領域75B)内にある位置に対応するオブジェクトが選択される。
FIG. 8 is an explanatory diagram for explaining an example of an area for selecting an object. Referring to FIG. 8, an acquired position 71 (that is, a position specified by the user) in the captured image and a region 75 having a predetermined shape including the
図9は、いずれかのオブジェクトが対応するどの位置にもユーザにより指定される位置が合致しない場合に選択されるオブジェクトの例を説明するための説明図である。図9を参照すると、表示画面60と、表示画面に含まれる撮像画像61とが示されている。図9でも、図7と同様に、より分かりやすい説明のために、撮像画像61の具体的な画像は示されず、撮像画像61内の取得される位置71(即ち、ユーザにより指定される位置)と、オブジェクトが対応する位置73とが示されている。この例では、撮像画像内の取得される位置71は、いずれかのオブジェクトが対応するどの位置とも合致しない。すなわち、位置71は、いずれの位置73とも合致しない。そこで、オブジェクト選択部183は、撮像画像61内の取得される位置71を含む所定の形状の領域75A(位置71を中心とする円の領域75A)内にある位置73A及び位置73Bに対応するオブジェクトを選択する。
FIG. 9 is an explanatory diagram for explaining an example of an object selected when the position designated by the user does not match any position corresponding to any object. Referring to FIG. 9, a
例えば以上のように、ユーザにより指定される位置を含む所定の形状の領域内にある位置に対応する1つ以上のオブジェクトが選択される。図9に示されるように、2つ以上のオブジェクトが選択されてもよく、又は1つのオブジェクトが選択されてもよい。 For example, as described above, one or more objects corresponding to positions within a predetermined shape area including a position designated by the user are selected. As shown in FIG. 9, two or more objects may be selected, or one object may be selected.
−−第3のケース
なお、例えば、上記複数のオブジェクトが対応するいずれの位置も、撮像画像内の取得される上記位置(即ち、ユーザにより指定される位置)に対応する領域内にない場合もある。この場合に、オブジェクト選択部183は、いずれのオブジェクトも選択しない。以下、この点について、図10を参照して具体例を説明する。
--Third case Note that, for example, any position corresponding to the plurality of objects may not be in an area corresponding to the acquired position (that is, a position specified by the user) in the captured image. is there. In this case, the
図10は、ユーザにより撮像画像内の位置が指定されてもいずれのオブジェクトも選択されないケースの一例を説明するための説明図である。図10を参照すると、表示画面60と、表示画面に含まれる撮像画像61とが示されている。図10でも、図7及び図9と同様に、より分かりやすい説明のために、撮像画像61の具体的な画像は示されず、撮像画像61内の取得される位置71(即ち、ユーザにより指定される位置)と、オブジェクトが対応する位置73とが示されている。この例では、撮像画像内の取得される位置71は、いずれかのオブジェクトが対応するどの位置とも合致しない。即ち、位置71は、いずれの位置73とも合致しない。また、上記複数のオブジェクトが対応するいずれの位置も、位置71を中心とする領域75A内にない。このような場合に、オブジェクト選択部183は、いずれのオブジェクトも選択しない。
FIG. 10 is an explanatory diagram for explaining an example of a case in which no object is selected even if a position in the captured image is designated by the user. Referring to FIG. 10, a
以上のように、オブジェクト選択部183は、オブジェクトを選択する。なお、オブジェクト選択部183についての他の動作については、以下の表示制御部185についての説明の後に説明する。
As described above, the
(表示制御部185)
表示制御部185は、表示装置による表示を制御する。当該表示装置は、例えば、表示部150である。
(Display control unit 185)
The
−撮像画像を含む表示画面の表示制御
例えば、表示制御部185は、表示部150に、実空間の撮像画像を含む表示画面を表示させる。
-Display control of display screen including captured image For example, the
例えば、上述したように、当該撮像画像は、実空間(センタオフィス10)内にあるカメラ11を通じて生成される撮像画像である。当該撮像画像は、カメラ11により生成された撮像画像であってもよく、又は、カメラ11により生成された撮像画像を加工することにより生成された撮像画像であってもよい。また、上記表示画面は、当該撮像画像を一部又は全体に含む画面である。例えば、図5及び図6に示される表示画面60のような表示画面が、表示部150により表示される。
For example, as described above, the captured image is a captured image generated through the
具体的な処理として、例えば、表示制御部185は、通信部110を介して、カメラ11により生成される撮像画像を取得する。そして、表示制御部185は、撮像画像を含む表示画面を生成し、表示部150に当該表示画面を表示させる。
As a specific process, for example, the
また、例えば、上記撮像画像は、実空間(センタオフィス10)内にある複数のカメラ11のうちの選択された1つのカメラ11を通じて生成された撮像画像である。なお、上述したように、例えば、図5に示されるボタン画像63A又は画像63Bの位置をユーザが指定することにより、別のカメラ11が選択される。このようにカメラ11を選択できるので、ユーザは所望の位置からの撮像画像を見ることができる。
In addition, for example, the captured image is a captured image generated through one selected
−撮像画像内の位置をユーザが指定した後の表示画面
−−第1のケース:1つのオブジェクトが選択されるケース
第1に、例えば、ユーザが撮像画像内の位置を指定すると、上記複数のオブジェクトの中から、1つのオブジェクトが選択される。この場合に、当該1つのオブジェクトに関する情報が表示される。即ち、表示制御部185は、複数のオブジェクトの中から1つのオブジェクトが選択される場合に、表示部150に、当該1つのオブジェクトに関する情報を表示させる。
-Display screen after the user specifies the position in the captured image-First case: Case where one object is selected First, for example, when the user specifies a position in the captured image, One object is selected from the objects. In this case, information regarding the one object is displayed. That is, when one object is selected from a plurality of objects, the
例えば、上記1つのオブジェクトに関する情報は、当該1つのオブジェクトが対応する撮像画像内の位置を含む撮像画像内の部分領域の画像である。即ち、表示制御部185は、表示部150に、選択された1つのオブジェクトが対応する撮像画像内の位置を含む撮像画像内の部分領域の画像である。例えば、このような部分領域は、人物(オブジェクト)が写る領域である。また、例えば、当該部分領域の画像は、当該部分領域が拡大された拡大画像である。以下、この点について、図11を参照して具体例を説明する。
For example, the information related to the one object is an image of a partial region in the captured image including the position in the captured image corresponding to the one object. That is, the
図11は、1つのオブジェクトが選択される場合に表示される表示画面の一例を説明するための説明図である。図11を参照すると、表示画面80が示されている。この表示画面80は、図5及び図7に示されるように、表示画面60においてユーザにより撮像画像61内の位置71が指定された場合(即ち、位置73Bに対応するオブジェクトが選択された場合)に表示される表示画面である。そのため、表示画面80には、位置73Bを含む撮像画像61内の部分領域の画像81が含まれる。当該部分領域は、人物(オブジェクト)が写る領域である。また、画像81は、上記部分領域が拡大された拡大画像である。以上のように、表示制御部185は、表示部150に、選択された1つのオブジェクトが対応する位置を含む部分領域の拡大画像を表示させる。
FIG. 11 is an explanatory diagram for explaining an example of a display screen displayed when one object is selected. Referring to FIG. 11, a
なお、図11を参照すると、表示画面80は、ボタン画像83をさらに含む。ボタン画像83は、元の表示画面への切換えをユーザが指定するための画像である。例えば、ユーザが、ボタン画像83の位置を指定すると、再び、図5に示されるような表示画面60が表示部150により表示される。
Referring to FIG. 11, the
−−第2のケース:2つ以上のオブジェクトが選択されるケース
第2に、例えば、ユーザが撮像画像内の位置を指定すると、上記複数のオブジェクトの中から2つ以上のオブジェクトが選択される。とりわけ本実施形態では、この場合に、表示制御部185は、表示部150に、上記2つ以上のオブジェクトの各々に関する情報を表示させる。
--Second case: Case where two or more objects are selected Secondly, for example, when the user designates a position in a captured image, two or more objects are selected from the plurality of objects. . Particularly in this embodiment, in this case, the
例えば、上記2つ以上のオブジェクトは、第1のオブジェクト及び第2のオブジェクトを含む。そして、上記2つ以上のオブジェクトの各々に関する上記情報は、上記第1のオブジェクトが対応する上記撮像画像内の位置を含む上記撮像画像内の第1の部分領域の画像、及び、上記第2のオブジェクトが対応する上記撮像画像内の位置を含む上記撮像画像内の第2の部分領域の画像を含む。即ち、表示制御部185は、表示部150に、上記第1のオブジェクトが対応する位置を含む撮像画像内の第1の部分領域の画像と、上記第2のオブジェクトが対応する位置を含む撮像画像内の第2の部分領域の画像とを表示させる。例えば、第1の部分領域は、第1の人物(第1のオブジェクト)が写る領域であり、第2の部分領域は、第2の人物(第2のオブジェクト)が写る領域である。
For example, the two or more objects include a first object and a second object. The information regarding each of the two or more objects includes an image of a first partial area in the captured image including a position in the captured image corresponding to the first object, and the second An image of a second partial region in the captured image including a position in the captured image corresponding to the object is included. That is, the
また、例えば、表示制御部185は、表示部150に、上記第1の部分領域の上記画像及び上記第2の部分領域の上記画像を並列に表示させる。
For example, the
また、例えば、上記第1の部分領域の上記像は、上記1の部分領域が拡大された拡大画像である。また、上記第2の部分領域の上記画像は、上記第2の部分領域が拡大された拡大画像である。以下、図12を参照して、2つ以上のオブジェクトが選択される場合に表示される表示画面の具体例を説明する。 For example, the image of the first partial region is an enlarged image in which the first partial region is enlarged. Further, the image of the second partial area is an enlarged image in which the second partial area is enlarged. Hereinafter, a specific example of a display screen displayed when two or more objects are selected will be described with reference to FIG.
図12は、2つ以上のオブジェクトが選択される場合に表示される表示画面の一例を説明するための説明図である。図12を参照すると、表示画面80が示されている。この表示画面80は、図5に示されるような表示画面60において、図9に示されるようにユーザにより撮像画像61内の位置71が指定された場合(即ち、位置73A及び位置73Bに対応するオブジェクトが選択された場合)に表示される表示画面である。そのため、表示画面80には、位置73Aを含む撮像画像61内の部分領域の画像85Aと、位置73Bを含む撮像画像61内の部分領域の画像85Bとが含まれる。各部分領域の画像85は、人物(オブジェクト)が写る領域である。また、画像85Aは、位置73Aを含む部分領域が拡大された画像であり、画像85Bは、位置73Bを含む部分領域が拡大された画像である。また、画像85A及び画像85Bは並列に表示される。以上のように、表示制御部185は、表示部150に、選択されたオブジェクトが対応する位置を含む部分領域の拡大画像を表示させる。
FIG. 12 is an explanatory diagram for explaining an example of a display screen displayed when two or more objects are selected. Referring to FIG. 12, a
−−−部分領域の画像を含む表示画面の生成プロセス
ここで、図12に示されるような画像85A及び画像85Bを含む表示画面80の生成プロセスの例を、図13〜図15を参照して説明する。
--- Generation Process of Display Screen Including Partial Area Image Here, an example of the generation process of the
図13、図14A、図14B及び図15は、第1の部分領域の画像85A及び第2の部分領域の画像85Bを含む表示画面80の生成プロセスの一例を説明するための説明図である。
13, FIG. 14A, FIG. 14B, and FIG. 15 are explanatory diagrams for explaining an example of the generation process of the
まず、図13を参照すると、撮像画像61が示されている。この撮像画像61は、図5に示されるものと同様である。例えば、図9に示されるように、ユーザにより撮像画像61内の71が指定される。そして、位置73Aに対応する第1のオブジェクトと、位置73Bに対応する第2のオブジェクトとが選択される。すると、位置73A及び位置73Bを含む部分領域に対する拡大処理(ズーム処理)が行われ、当該部分領域の拡大画像86が生成される。
First, referring to FIG. 13, a captured
次に、図14Aを参照すると、拡大画像86のうちの、位置73Aを中心とする部分領域が切りだされる。これにより、切りだされた当該部分領域の画像85Aが生成される。同様に、図14Bを参照すると、拡大画像86のうちの、位置73Bを中心とする部分領域が切りだされる。これにより、切りだされた当該部分領域の画像85Bが生成される。
Next, referring to FIG. 14A, a partial region centered on the
そして、図15を参照すると、画像85A及び画像85Bが、表示画面80に並列に組み込まれる。即ち、画像85A及び画像85Bが並列に配置された表示画面80が生成される。
Then, referring to FIG. 15, the image 85 </ b> A and the image 85 </ b> B are incorporated in the
例えば以上のように、図12に示されるような画像85A及び画像85Bを含む表示画面80が生成される。
For example, as described above, the
−−−操作促進標識の表示
さらに、表示制御部185は、表示部150に、上記2つ以上のオブジェクトの中から1つのオブジェクトをユーザにより指定させるための標識(オブジェクト指定促進標識)を表示させてもよい。以下、この点について図16を参照して具体例を説明する。
--- Display of operation promotion sign Further, the
図16は、オブジェクト指定促進標識の一例を説明するための説明図である。図16を参照すると、図12と同様に、表示画面80、画像85A及び画像85Bが示されている。そして、さらに、画像85Aに対応するオブジェクト、又は画像85Bに対応するオブジェクトを指定するための、オブジェクト指定促進標識87A及び87Bが表示される。
FIG. 16 is an explanatory diagram for explaining an example of an object designation promotion sign. Referring to FIG. 16, a
−−第3のケース:いずれのオブジェクトも選択されないケース
第3に、例えば、ユーザが撮像画像内の位置を指定しても、いずれのオブジェクトも選択されない。この場合に、表示制御部185は、表示部150に、上記撮像画像内の位置をユーザに指定させるための標識(以下、「位置指定促進標識」と呼ぶ)を表示画面に表示させる。以下、この点について図17を参照して具体例を説明する。
--Third case: Case where no object is selected Third, for example, even if the user specifies a position in the captured image, no object is selected. In this case, the
図17は、位置指定促進標識の一例を説明するための説明図である。図17を参照すると、図5と同様に、表示画面60及び撮像画像61が示されている。そして、例えば図10に示されるようにユーザにより撮像画像内の位置が指定され、その結果、いずれのオブジェクトも選択されない。この場合に、表示制御部185は、表示部150に、「再度タッチして下さい」という文字情報を含む位置指定促進標識65を表示させる。
FIG. 17 is an explanatory diagram for explaining an example of a position designation promotion mark. Referring to FIG. 17, a
このような再指定促進標識65により、ユーザは、撮像画像内の位置を再度指定する必要があることに気付くことができる。そのため、ユーザにとっての利便性が高まる。
Such a
−電話時の表示画面
例えば、表示制御部185は、電話時において、表示部150に、通話用の表示画面を表示させる。この点については、電話部189に関連して後に説明する。
-Display screen during a call For example, the
(オブジェクト選択部183(続き))
ここで、オブジェクト選択部183の動作を再び説明する。
(Object selection unit 183 (continued))
Here, the operation of the
−−第1のケース:1つのオブジェクトが選択されるケース
上述したように、1つのオブジェクトが選択される場合には、例えば図11に示されるように、当該1つのオブジェクトが対応する位置を含む部分領域の画像81が表示される。このような場合に、オブジェクト選択部183は、上記1つのオブジェクトがユーザにより指定されると、当該1つのオブジェクトを選択する。
--First case: Case where one object is selected As described above, when one object is selected, for example, as shown in FIG. 11, the one object includes a corresponding position. An
一例として、ユーザは、画像81のうちのいずれかの位置をタッチすることにより、上記1つのオブジェクトを指定する。
As an example, the user designates the one object by touching any position in the
−−第2のケース:2つ以上のオブジェクトが選択されるケース
上述したように、2つ以上のオブジェクトが選択される場合には、例えば図12に示されるように、各オブジェクトが対応する位置を含む部分領域の画像85が表示される。このような場合に、とりわけ本実施形態では、オブジェクト選択部183は、上記2つ以上のオブジェクトの中から、ユーザにより指定される1つのオブジェクトを選択する。
--Second case: a case where two or more objects are selected As described above, when two or more objects are selected, for example, as shown in FIG. An image 85 of a partial area including is displayed. In such a case, particularly in the present embodiment, the
一例として、ユーザは、画像85Aのうちのいずれかの位置をタッチすることにより、画像85Aに対応する1つのオブジェクトを指定する。また、ユーザは、画像85Bのうちのいずれかの位置をタッチすることにより、画像85Bに対応する1つのオブジェクトを指定する。
As an example, the user specifies one object corresponding to the
(通信用ID取得部187)
通信用ID取得部187は、通信用の識別情報(以下、「通信用ID」と呼ぶ)を取得する。
(Communication ID acquisition unit 187)
The communication
−オブジェクトに対応する通信用IDの取得
上述したように、一例として、選択された1つのオブジェクトに関する情報(例えば、図11に示される画像81)が表示され、当該1つのオブジェクトが、ユーザにより指定され、選択される。また、別の例として、選択された2つ以上のオブジェクトに関する情報(例えば、図12に示される画像85A及び画像85B)が表示され、当該2つ以上のオブジェクトの中から、ユーザにより指定される1つのオブジェクトが選択される。これらの例のように、1つのオブジェクトが選択されると、当該1つのオブジェクトに対応する通信用IDが取得される。即ち、通信用ID取得部187は、1つのオブジェクトが選択されると、当該1つのオブジェクトに対応する通信用IDを取得する。
-Acquisition of Communication ID Corresponding to Object As described above, as an example, information on one selected object (for example,
具体的には、例えば、オブジェクト選択部185が、1つのオブジェクトを選択すると、通信用ID取得部187は、選択された当該1つのオブジェクトのオブジェクトIDを取得する。そして、通信用ID取得部187は、当該オブジェクトIDに対応する通信用IDを取得する。
Specifically, for example, when the
なお、上記オブジェクトID及び上記通信用IDは、例えば、情報管理サーバにより、各オブジェクトに対応する撮像画像内の位置とともに端末装置100に提供され、記憶部170に記憶される。そして、1つのオブジェクトを選択すると、当該1つのオブジェクトのオブジェクトIDが記憶部170から取得され、通信用ID取得部187に提供される。そして、通信用ID取得部187は、提供されたオブジェクトIDに対応する通信用IDを記憶部170から取得する。
The object ID and the communication ID are provided to the
−通信用IDの種類
−−第1の例:専用網の通信用ID
例えば、上記通信用IDは、専用網における通信のための識別情報である。これにより、専用網において所望の人物にコンタクトすることが可能になる。
-Types of communication IDs-First example: Communication ID for dedicated network
For example, the communication ID is identification information for communication in a dedicated network. This makes it possible to contact a desired person on the dedicated network.
一例として、上記通信用IDは、専用網における電話のための電話番号である。 As an example, the communication ID is a telephone number for a telephone in a private network.
上記専用網は、内線電話網を含んでもよく、又は無線LAN通信網を含んでもよい。また、専用網は、VPN(Virtual Private Network)で接続された2つ以上の無線LAN通信網を含んでもよい。 The dedicated network may include an extension telephone network or a wireless LAN communication network. The dedicated network may include two or more wireless LAN communication networks connected by a VPN (Virtual Private Network).
−−第2の例:公衆網の通信用ID
なお、上記通信用IDは、公衆網を介して通信するための識別情報であってもよい。これにより、公衆網を介して所望の人物にコンタクトすることが可能になる。
-Second example: Public network communication ID
The communication ID may be identification information for communication via a public network. This makes it possible to contact a desired person via the public network.
一例として、上記通信用IDは、公衆網における電話のための電話番号であってもよい。 As an example, the communication ID may be a telephone number for a telephone call in a public network.
例えば、上記公衆網は、移動体通信網を含んでもよい。これにより、移動体通信網を介して所望の人物にコンタクトすることが可能になる。例えば、携帯電話端末へのコンタクトが可能になる。また、上記公衆網は、インターネット、又は公衆交換回線網(Public Switched Telephone Network:PSTN)を含んでもよい。 For example, the public network may include a mobile communication network. This makes it possible to contact a desired person via the mobile communication network. For example, it is possible to contact a mobile phone terminal. The public network may include the Internet or a public switched telephone network (PSTN).
また、通信用ID取得部187は、特番(特殊用途の番号)を付加しつつ通信用IDを取得してもよい。この場合、通信用ID取得部187は、オブジェクトIDに対応する通信用IDを記憶部170から取得するとき、通信用IDに特番を付加し取得する。具体的には、例えば、通信用ID取得部187は、オブジェクトIDに対応する通信用IDとして電話番号「yyyy」を記憶部170から取得するとき、電話番号「yyyy」に特番「xx」を付加し、通信用IDとして電話番号「xx−yyyy」を取得する。
The communication
また、通信用ID取得部187は、通信用IDの取得の際、特番を付加するか否かの判断及び付加する特番の決定をする通信用ID調整手段を有してもよい。この通信用ID調整手段は、通信用ID取得部187が、オブジェクトIDに対応する通信用IDを記憶部170から取得するとき、取得する通信用IDについて、外部の通信制御手段(当該通信用IDに基づき通信の制御おこなう手段(例えばPBX40等))に問合せし、特番を付加するか否かの判断及び付加する特番の決定をする。ここで、通信用ID調整手段における問合せ処理は、通信用ID調整手段が、PBX40(PBX40のDB(呼制御にために用いるデータのデータベース(局データ)))に接続することである。なお、通信用ID調整手段は、PBX40が対応するH.323又はSIPに対応し、PBX40に接続する。また、通信用ID調整手段における特番を付加するか否かの判断の処理は、通信用ID調整手段が、通信用ID取得部187が取得する通信用IDがPBX40において内線相互接続、局線発信接続又は専用線発信接続のいずれに該当するか確認し、局線発信接続又は専用線発信接続に該当する場合に特番を付加すると判断することである。他方、通信用ID調整手段は、内線相互接続に該当すると確認できると特番を付加しないと判断する。また、通信用ID調整手段における付加する特番の決定の処理は、特番を付加するか否かの判断の処理にて局線発信接続に該当し特番を付加すると判断された場合に局線発信特番「0」を付加する特番と決定し、特番を付加するか否かの判断の処理にて専用線発信接続に該当し特番を付加すると判断された場合に専用線発信特番「1」を付加する特番と決定することである。
Further, the communication
(電話部189)
電話部189は、電話を行うための機能を提供する。例えば、電話部189は、ソフトフォンの機能を提供する。
(Phone 189)
The
−電話発信
例えば、電話部189は、通信用ID取得部187から通信用IDを取得すると、当該通信用IDを用いて電話発信を行う。より具体的には、例えば、電話部189は、通信用IDを取得すると、通信部110を介して、当該通信用IDをPBX40に提供し、PBX40からIPアドレスを取得する。そして、電話部189は、当該IPアドレスを有する通信装置(即ち、着信先の通信装置)との間で、セッションを確立するための一連のシーケンスを実行する。
-Calling For example, when the
このように、電話部189は、表示画面において選択された人物(オブジェクト)への電話のための電話発信を行う。即ち、電話部189は、当該人物の通信装置への電話発信を行う。
As described above, the
−音声データ及び映像データの通信
また、電話の相手先の通信装置からの音声データが、通信部110により受信されると、電話部189は、音声出力部160に、当該音声データの音声を出力させる。また、電話部189は、通信部110に、集音部140により提供される音声データを電話の相手先の通信装置へ送信させる。また、電話部189は、例えば、通信部110に、撮像部130により提供される撮像画像(例えば、端末装置100のユーザが写っている撮像画像)も電話の相手先の通信装置へ送信させる。
-Communication of audio data and video data When the audio data from the communication device of the other party of the telephone is received by the
−通話用の表示画面
また、このような電話時において、表示制御部185は、通話用の表示画面を表示させる。以下、通話用の表示画面について図18を参照して具体例を説明する。
-Display Screen for Calls In addition, during such a call, the
図18は、通話用の表示画面の一例を説明するための説明図である。図18を参照すると、会通話用の表示画面90が示されている。表示画面90は、相手側撮像画像91、ボタン画像93及び自分側撮像画像95を含む。
FIG. 18 is an explanatory diagram for explaining an example of a call display screen. Referring to FIG. 18, a
相手側撮像画像91は、例えば、電話の相手先の通信装置から取得された撮像画像である。例えば、電話の相手先の通信装置からの撮像画像が、通信部110により受信されると、電話部189は、当該撮像画像を相手側撮像画像91として利用する。
The partner side captured
また、ボタン画像93は、電話を終了させるための画像である。例えば、ユーザが、ボタン画像93の位置を指定すると、電話部189は、電話を終了させる。より具体的には、例えば、ユーザがボタン画像93の位置をタッチし、ボタン画像93に対応するタッチ位置が検出されると、電話部189は、セッションの切断を含む電話終了用のシーケンスを実行する。また、例えば、電話部189は、表示モードを会話モードから俯瞰モードに切り替える。
The
自分側撮像画像95は、撮像部130により提供される撮像画像である。
The own side captured
(作用効果)
以上、本実施形態に係る端末装置100の機能構成の例を説明した。以上のように、空間の撮像画像を含む表示画面においてユーザにより指定される当該上記撮像画像内の位置に基づいて、当該撮像画像のいずれかの位置にそれぞれ対応する複数のオブジェクトの中から、1つ以上のオブジェクトが選択される。そして、複数のオブジェクトの中から2つ以上のオブジェクトが選択される場合に、上記2つ以上のオブジェクトの各々に関する情報が表示される。さらに、上記2つ以上のオブジェクトの中から、ユーザにより指定される1つのオブジェクトが選択される。そして、当該1つのオブジェクトが選択されると、当該1つのオブジェクトに対応する通信用IDが取得される。
(Function and effect)
The example of the functional configuration of the
これにより、直感的な操作でより容易に所望の人物にコンタクトすることを可能にすることが可能となる。 Thereby, it becomes possible to contact a desired person more easily by intuitive operation.
より具体的には、例えば、ユーザは、表示画面の撮像画像において1人の人物(オブジェクト)をピンポイントで指定できなかったとしても、2人以上の人物(2つ以上のオブジェクト)が選択され、当該2人以上の人物に関する情報が表示される。そして、ユーザは、改めて表示された人物に関する情報から、1人の人物(1つのオブジェクト)をピンポイントで選択することができる。そのため、例えば、表示画面自体が小さい場合、表示画面に写っている人物が小さい場合等であっても、最終的に、1人の人物を選択することができる。また、2人以上の人物のうちのいずれの人物を指定しているのか不明な際に1人の人物が自動的に選択されるのではなく、2人以上の人物が選択されるので、誤った1人のみが選択されることが回避される。即ち、より容易に所望の人物を選択することが可能になる。 More specifically, for example, even if the user cannot pinpoint one person (object) in the captured image on the display screen, two or more persons (two or more objects) are selected. Information on the two or more persons is displayed. Then, the user can pinpoint one person (one object) from the information about the person displayed anew. Therefore, for example, even when the display screen itself is small or when the person shown on the display screen is small, one person can be finally selected. In addition, when it is unclear which of the two or more persons is specified, one person is not automatically selected, but two or more persons are selected. It is avoided that only one person is selected. That is, a desired person can be selected more easily.
また、選択された人物に対応する通信用ID(例えば、電話番号)が取得される。そのため、選択した人物にコンタクトすることが可能になる。 Further, a communication ID (for example, a telephone number) corresponding to the selected person is acquired. Therefore, it becomes possible to contact the selected person.
即ち、表示画面において人物を指定するという直感的な操作で、表示画面においてピンポイントで人物を指定することが困難な場合であってもより容易に、所望の人物にコンタクトすることが可能になる。 That is, an intuitive operation of designating a person on the display screen makes it possible to contact a desired person more easily even when it is difficult to designate a person pinpoint on the display screen. .
また、具体的には、表示制御部185に関連して上述したように、例えば、選択される2つ以上のオブジェクトは、第1のオブジェクト及び第2のオブジェクトを含む。そして、当該第1のオブジェクトが対応する位置を含む上記撮像画像内の第1の部分領域の画像、及び、上記第2のオブジェクトが対応する位置を含む上記撮像画像内の第2の部分領域の画像が、表示される。
Specifically, as described above in relation to the
このように人物(オブジェクト)に対応する位置を含む部分領域の画像が表示されることで、2人以上の人物の中から所望の人物をより直感的に指定することが可能になる。即ち、顔、髪型、後ろ姿、姿勢のような見た目の確認という直感的な確認により所望の人物を指定することが可能になる。そのため、ユーザにとっての利便性が高まる。例えば、より素早く、及び/又はより負担なく、人物を指定することが可能になり得る。 Thus, by displaying the image of the partial area including the position corresponding to the person (object), it becomes possible to more intuitively specify a desired person from two or more persons. That is, a desired person can be designated by intuitive confirmation such as confirmation of appearance such as face, hairstyle, back view, and posture. Therefore, convenience for the user is increased. For example, it may be possible to specify a person more quickly and / or less burdensomely.
また、表示制御部185に関連して上述したように、例えば、第1の部分領域の画像及び第2の部分領域の画像が、並列に表示される。
Further, as described above with reference to the
これにより、2人以上の人物をより容易に比べることが可能になる。そのため、ユーザにとっての利便性が高まる。例えば、より素早く、及び/又はより負担なく、人物を指定することが可能になり得る。 This makes it possible to compare two or more persons more easily. Therefore, convenience for the user is increased. For example, it may be possible to specify a person more quickly and / or less burdensomely.
また、表示制御部185に関連して上述したように、例えば、上記第1の部分領域の上記画像は、上記第1の部分領域が拡大された拡大画像であり、上記第2の部分領域の上記画像は、上記第2の部分領域が拡大された拡大画像である。
Further, as described above in relation to the
これにより、2人以上の人物の各々をより容易に確認することが可能になる。そのため、ユーザにとっての利便性が高まる。例えば、より素早く、及び/又はより負担なく、人物を指定することが可能になり得る。 Thereby, it becomes possible to confirm each of two or more persons more easily. Therefore, convenience for the user is increased. For example, it may be possible to specify a person more quickly and / or less burdensomely.
また、オブジェクト選択部183に関連して上述したように、例えば、上記複数のオブジェクトのうちの、ユーザにより指定される位置に対応する領域内にある位置に対応するオブジェクトが、選択される。
In addition, as described above with reference to the
これにより、ピンポイントで人物(オブジェクト)に対応する位置を指定しなくても、当該人物が選択され得る。そのため、ユーザによる指定をより容易にすることが可能になる。 Thus, the person can be selected without specifying the position corresponding to the person (object) by pinpointing. Therefore, it becomes possible to make designation by the user easier.
また、オブジェクト選択部183に関連して上述したように、例えば、表示画面においてユーザにより指定される1つの位置を含む所定の形状の領域内にある位置に対応する人物(オブジェクト)が選択される。
Further, as described above in relation to the
これにより、ユーザが指定した位置の近傍の位置に対応する人物(オブジェクト)が選択される。そのため、選択されるオブジェクトの中に、ユーザが指定しようとする人物(即ち、所望の人物)が含まれる可能性が高くなる。 Thereby, a person (object) corresponding to a position near the position designated by the user is selected. Therefore, there is a high possibility that the selected object includes a person to be specified by the user (that is, a desired person).
また、オブジェクト選択部183に関連して上述したように、例えば、上記複数のオブジェクトが対応するいずれの位置も、ユーザにより指定される位置に対応する上記領域内にない場合には、いずれのオブジェクトも選択されない。また、表示制御部185に関連して上述したように、いずれのオブジェクトも選択されない場合に、上記撮像画像内の位置をユーザに指定させるための標識(即ち、位置指定促進標識)が表示される。
In addition, as described above with reference to the
これにより、いずれの人物(オブジェクト)も選択されなかったことを、ユーザに知らせることができる。そのため、ユーザがより素早く人物を再度指定することが可能になる。 As a result, the user can be notified that no person (object) has been selected. Therefore, the user can specify the person again more quickly.
また、位置取得部181に関連して上述したように、例えば、上記撮像画像内の位置は、タッチパネルにおけるユーザのタッチにより指定される。
Further, as described above with reference to the
これにより、表示画面において人物(オブジェクト)の近傍の位置にタッチするという直感的な操作で、容易に人物(オブジェクト)を選択することが可能になる。 Accordingly, it is possible to easily select a person (object) by an intuitive operation of touching a position near the person (object) on the display screen.
<2.3.ソフトウェア構成>
次に、図19を参照して、本実施形態に係る端末装置100のソフトウェア構成の一例を説明する。図19は、本実施形態に係る端末装置100のソフトウェア構成の一例を示すブロック図である。図19を参照すると、端末装置100は、OS(Operating System)840及びアプリケーションソフトウェアを備える。そして、端末装置100は、アプリケーションソフトウェアとして、ソフトフォン851、超臨場感クライアント853及び電話発信制御機能855を含む。
<2.3. Software configuration>
Next, an example of the software configuration of the
OS840は、端末装置100を動作させるための基本的な機能を提供するソフトウェアである。OS840は、各アプリケーションソフトウェアを実行する。
The
ソフトフォン851は、端末装置100を用いて電話を行うためのアプリケーションソフトウェアである。超臨場感クライアント853は、実空間の情報を端末装置100に提供するためのアプリケーションソフトウェアである。また、電話発信制御機能855は、オブジェクト(人物)に対応する通信用IDを取得するアプリケーションソフトウェアである。
The
例えば、電話発信制御機能855は、通信用IDを取得すると、OSを介してソフトフォン851に提供する。そして、ソフトフォン851は、当該通信用IDを用いて、電話発信を行う。
For example, when the call
また、例えば、超臨場感クライアント853は、実空間(例えば、センタオフィス10)にいる人物の状態を示す状態情報を取得し、OSを介してソフトフォン851に提供してもよい。そして、ソフトフォン851は、当該状態情報に基づいて、電話発信を制御してもよい。
Further, for example, the
なお、位置取得部181、オブジェクト選択部183及び通信用ID取得部187は、電話発信制御機能855により実装され得る。また、電話部189は、例えば、ソフトフォン851により実装され得る。また、表示制御部185は、ソフトフォン851、超臨場感クライアント853及び電話発信制御機能855により実装され得る。
The
また、電話発信制御機能855は、超臨場感クライアント853の中に組み込まれてもよい。
Further, the telephone
<2.4.画面遷移>
次に、図20〜図25を参照して、上述したようなオブジェクトの選択及び通信用IDの取得のための表示画面(例えば、図5に示される表示画面60)が表示されるまでの画面遷移の例を説明する。
<2.4. Screen transition>
Next, referring to FIGS. 20 to 25, a screen until a display screen (for example,
図20は、メニュー画面の例を説明するための説明図である。図20を参照すると、メニュー画面1000が示されている。メニュー画面には、各ソフトウェアを起動するためのアイコンが含まれる。例えば、メニュー画面1000は、ソフトフォン851のアイコン1010、超臨場感クライアント853のアイコン1020及び電話帳のアイコン1030を含む。例えば、ユーザがアイコン1010を指定すると、ソフトフォン851が起動する。また、ユーザがアイコン1020を指定すると、超臨場感クライアント853が起動する。また、ユーザがアイコン1030を指定すると、電話帳が起動する。
FIG. 20 is an explanatory diagram for explaining an example of a menu screen. Referring to FIG. 20, a
図21は、画面に表示されるソフトフォンのユーザインターフェースの例である。図21を参照すると、ソフトフォン用のユーザインターフェース1110が示されている。ユーザがアイコン1010を指定し、ソフトフォン851が起動すると、このようにユーザインターフェース1110が表示される。ユーザは、ユーザインターフェース1110を介した操作により、電話の発着信を行うことができる。
FIG. 21 shows an example of a softphone user interface displayed on the screen. Referring to FIG. 21, a
図22は、超臨場感クライアントの表示画面の例を説明するための説明図である。図22を参照すると、図5と同様に、超臨場クライアントの表示画面60が示されている。ユーザがアイコン1020を指定し、超臨場感クライアント853が起動すると、このように表示画面60が表示される。なお、超臨場感クライアント853が起動した段階では、初期設定に基づいてカメラ11が選択され、当該カメラ11を通じて生成された撮像画像61を含む表示画面60が表示される。その後、ボタン画像63の指定等によって、別のカメラ11が選択され得る。
FIG. 22 is an explanatory diagram for explaining an example of a display screen of a super-realistic client. Referring to FIG. 22, the
図23は、電話帳の表示画面の例を説明するための説明図である。図23を参照すると、電話帳の表示画面1130が示されている。ユーザがアイコン1030を指定し、電話帳が起動すると、このように表示画面1130が表示される。表示画面1130には、連絡先1131A〜1131Dが含まれる。ボタン画像1133A〜1133Cも含まれる。
FIG. 23 is an explanatory diagram for explaining an example of a phonebook display screen. Referring to FIG. 23, a
例えば、ユーザが、「荒川」に対応する連絡先1131Aのうちのボタン画像1133A以外の位置を指定すると、OS840が、ソフトフォン851を起動し、ソフトフォン851に、「荒川」に対応する電話番号「2200」と発信の指示とを提供する。すると、ソフトフォン851が、「荒川」に対応する電話番号「2200」への電話発信を行う。
For example, when the user designates a position other than the
また、ユーザが、「アレックス」に対応する連絡先1131Bのうちのボタン画像1133B以外の位置を指定すると、OS840が、ソフトフォン851を起動し、ソフトフォン851に、「アレックス」に対応する電話番号「2010」と発信の指示とを提供する。すると、ソフトフォン851が、「アレックス」に対応する電話番号「2010」への電話発信を行う。
When the user designates a position other than the
また、ユーザが、ボタン画像1133Bの位置を指定すると、OS840が、超臨場感クライアント853を起動し、超臨場感クライアント853に、「アレックス」に関する情報(例えば、ID、プレゼンス情報、等)を提供する。すると、超臨場感クライアント853が、「アレックス」に関する情報(例えば、ID、プレゼンス情報、等)を情報管理サーバ18に提供する。その後、情報管理サーバ18は、「アレックス」に関するプレゼンス情報に基づいて、カメラ11を選択する。当該プレゼンス情報に対応する複数のカメラ11がある場合には、いずれかの代表的なカメラ(以下、「代表カメラ」と呼ぶ)が選択される。そして、超臨場感クライアント853は、選択されたカメラ11を通じて生成される撮像画像を取得する。なお、上記プレゼンス情報は、例えば、人物の位置を示す情報(例えば、会議室、ワークスペース、等)である。例えば、当該プレゼンス情報は、PBX40に提供され、PBX40から取得される。
When the user designates the position of the
図24は、代表カメラの例を説明するための説明図である。図24を参照すると、会議室1210及びワークスペース1220の各々において配置されるカメラ11が示されている。例えば、プレゼンス情報が「会議室」である場合の代表カメラとして、カメラ11Cが予め定められる。また、例えば、プレゼンス情報が「ワークスペース」である場合の代表カメラとして、カメラ11Dが予め定められる。このように、例えば、会議室又はワークスペースの中の広い範囲を撮像可能なカメラ11が、代表カメラとして予め定められる。
FIG. 24 is an explanatory diagram for describing an example of a representative camera. Referring to FIG. 24, the
なお、プレゼンス情報は、電話帳において表示されてもよい。図25は、プレゼンス情報を含む電話帳の表示画面の例を説明するための説明図である。図25を参照すると、電話帳の表示画面1130が示されている。この例では、連絡先1131A及び連絡先1131Dの各々は、プレゼンス情報を含む。例えば、連絡先1131Aは、「荒川」のプレゼンス情報として「会議室」を含む。また、連絡先1131Bは、「アレックス」のプレゼンス情報として「ワークスペース」を含む。
The presence information may be displayed in a telephone directory. FIG. 25 is an explanatory diagram for explaining an example of a phone book display screen including presence information. Referring to FIG. 25, a
<<3.処理の流れ>>
次に、図26及び図27を参照して、本実施形態に係る情報処理の例を説明する。
<< 3. Process flow >>
Next, an example of information processing according to the present embodiment will be described with reference to FIGS. 26 and 27.
(端末装置における情報処理の例)
図26は、本実施形態に係る端末装置100における情報処理の一例を説明するための説明図である。
(Example of information processing in a terminal device)
FIG. 26 is an explanatory diagram for describing an example of information processing in the
ステップS301で、表示制御部185は、表示部150に、実空間(センタオフィス10)の撮像画像を含む表示画面を表示させる。
In step S301, the
ステップS303で、位置取得部181は、上記表示画面においてユーザにより上記撮像画像内の位置が指定されたかを判定する。当該位置が指定された場合には、処理はステップS305へ進む。そうでなければ、処理はステップS301を繰り返す。
In step S303, the
ステップS305で、位置取得部181は、ユーザにより指定された上記撮像画像内の位置(即ち、ユーザにより指定された撮像画像内の位置)を取得する。
In step S305, the
ステップS307で、オブジェクト選択部183は、取得された上記撮像画像内の位置(即ち、ユーザにより指定された撮像画像内の位置)に基づいて、当該撮像画像のいずれかの位置にそれぞれ対応する複数のオブジェクトの中から、1つ以上のオブジェクトを選択する。
In step S307, the
ステップS309で、表示制御部185は、1つ以上のオブジェクトが選択されたかを判定する。1つ以上のオブジェクトが選択されていれば、処理はステップS313へ進む。そうでなければ、処理はステップS311へ進む。
In step S309, the
ステップS311で、表示制御部185は、表示部150に、上記撮像画像内の位置をユーザに指定させるための標識(即ち、位置指定促進標識)を上記表示画面に表示させる。
In step S311, the
ステップS313で、表示制御部185は、2つ以上のオブジェクトが選択されたかを判定する。2つ以上のオブジェクトが選択されていれば、処理はステップS315へ進む。そうでなければ、処理はステップS323へ進む。
In step S313, the
ステップS315で、表示制御部185は、表示部150に、2つ以上のオブジェクトの各々が対応する位置を含む部分領域の拡大画像を表示させる。
In step S315, the
ステップS317で、元の表示画面への切換えがユーザにより指定されたかが判定される。より具体的には、例えば、図12に示されるボタン画像83の位置がユーザにより指定されたかが判定される。当該切換えが指定された場合には、処理はステップS301へ戻る。そうでなければ、処理はステップ319へ進む。
In step S317, it is determined whether switching to the original display screen has been designated by the user. More specifically, for example, it is determined whether the position of the
ステップS319で、部分領域の拡大画像を含む表示画面を介していずれかのオブジェクトがユーザにより指定されたかが判定される。いずれかのオブジェクトが指定されていれば、処理はステップS321へ進む。そうでなければ、処理はステップS315へ戻る。 In step S319, it is determined whether any object has been designated by the user via the display screen including the enlarged image of the partial area. If any object is designated, the process proceeds to step S321. Otherwise, the process returns to step S315.
ステップS321で、オブジェクト選択部183は、上記2つ以上のオブジェクトの中から、ユーザにより指定される1つのオブジェクトを選択する。そして、処理はステップS331へ進む。
In step S321, the
ステップS323で、表示制御部185は、表示部150に、1つのオブジェクトが対応する位置を含む部分領域の拡大画像を表示させる。
In step S323, the
ステップS325で、元の表示画面への切換えがユーザにより指定されたかが判定される。より具体的には、例えば、図11に示されるボタン画像83の位置がユーザにより指定されたかが判定される。当該切換えが指定された場合には、処理はステップS301へ戻る。そうでなければ、処理はステップ327へ進む。
In step S325, it is determined whether switching to the original display screen has been designated by the user. More specifically, for example, it is determined whether the position of the
ステップS327で、部分領域の拡大画像を含む表示画面を介していずれかのオブジェクトがユーザにより指定されたかが判定される。いずれかのオブジェクトが指定されていれば、処理はステップS329へ進む。そうでなければ、処理はステップS323へ戻る。 In step S327, it is determined whether any object has been designated by the user via the display screen including the enlarged image of the partial area. If any object is designated, the process proceeds to step S329. Otherwise, the process returns to step S323.
ステップS329で、オブジェクト選択部183は、上記1つのオブジェクトを選択する。そして、処理はステップS331へ進む。
In step S329, the
ステップS331で、通信用ID取得部187は、選択された1つのオブジェクトに対応する通信用IDを取得する。
In step S331, the communication
ステップS333で、電話部189は、取得された通信用IDを用いて電話発信を行う。そして、処理は終了する。
In step S333, the
(撮像画像の取得までの情報処理の例)
図27は、プレゼンス情報に従った撮像画像の提供及び取得のための情報処理の一例を説明するための説明図である。
(Example of information processing until acquisition of captured image)
FIG. 27 is an explanatory diagram for explaining an example of information processing for providing and acquiring a captured image according to presence information.
ステップS401で、端末装置100は、自装置のユーザに関するプレゼンス情報をPBX40に提供する。
In step S401, the
ステップS403で、端末装置100は、所望の人物(オブジェクト)に対応する通信用IDをPBX40に提供する。すると、ステップS404で、PBX40は、当該所望の人物(オブジェクト)に関するプレゼンス情報を端末装置100に提供する。
In step S403, the
ステップS407で、端末装置100は、上記所望の人物(オブジェクト)に関するプレゼンス情報を情報管理サーバ18に提供する。すると、ステップS409で、情報管理サーバ18は、当該プレゼンス情報に基づいてカメラ11を選択し、選択されたカメラ11に関する情報(カメラ情報)を端末装置100に提供する。
In step S407, the
ステップS411で、端末装置100は、カメラ情報をメディア配信サーバ17に提供する。すると、ステップS413で、メディア配信サーバ17は、カメラ情報から選択されたカメラ11を認識し、選択されたカメラ11を通じて生成される撮像画像を端末装置100に提供する。
In step S411, the
<<4.変形例>>
続いて、図28〜図32を参照して、本実施形態の変形例を説明する。
<< 4. Modification >>
Subsequently, a modification of the present embodiment will be described with reference to FIGS.
<4.1.第1の変形例>
まず、図28を参照して、本実施形態の第1の変形例を説明する。上述した本実施形態の例では、撮像画像を含む表示画面において1つの位置がユーザにより指定され、当該1つの位置を含む所定の形状の領域内にある位置に対応するオブジェクトが選択される。一方、本実施形態の第1の変形例では、撮像画像を含む表示画面において2つ以上の位置がユーザにより指定され、当該2つ以上の位置に基づき形成される領域内にある位置に対応するオブジェクトが選択される。
<4.1. First Modification>
First, a first modification of the present embodiment will be described with reference to FIG. In the example of the present embodiment described above, one position is designated by the user on the display screen including the captured image, and an object corresponding to a position in a region having a predetermined shape including the one position is selected. On the other hand, in the first modification example of the present embodiment, two or more positions are designated by the user on the display screen including the captured image, and the position corresponds to a position in an area formed based on the two or more positions. An object is selected.
(位置取得部181)
−撮像画像内の位置の取得
位置取得部181は、実空間の撮像画像を含む表示画面においてユーザにより指定される上記撮像画像内の位置を取得する。
(Position acquisition unit 181)
-Acquisition of the position in a captured image The
とりわけ本実施形態の第1の変形例では、位置取得部181は、上記表示画面においてユーザにより指定される上記撮像画像内の2つ以上の位置を取得する。即ち、2つ以上の位置がユーザにより指定される。
In particular, in the first modification of the present embodiment, the
より具体的には、例えば、入力部120が、実空間の撮像画像の表示画面においてユーザにより指定される上記撮像画像内の2つ以上の位置を検出すると、位置取得部181は、当該2つ以上の位置を取得する。以下、図28を参照して、このような撮像画像内の位置の取得の具体例を説明する。
More specifically, for example, when the
図28は、第1の変形例に従った、表示画面に含まれる撮像画像内の位置の取得の例を説明するための説明図である。図28を参照すると、表示部150により表示される表示画面60が示されている。また、表示画面60は、実空間(センタオフィス10)内にあるいずれかのカメラ11を通じて生成される撮像画像61を含む。例えば、入力部120が、表示画面60においてユーザにより指定される撮像画像61内の2つ以上の位置を含む位置集合77を検出する。例えば、位置集合77は、ある領域を形成する位置の集合である。そして、位置取得部181は、2つ以上の位置を含む位置集合77を取得する。なお、ここでは説明のために図28において位置集合77が明示されているが、位置集合77が表示画面60において実際に表示されているわけではないということに留意すべきである。
FIG. 28 is an explanatory diagram for describing an example of acquiring a position in a captured image included in the display screen according to the first modification. Referring to FIG. 28, a
(オブジェクト選択部183)
−オブジェクトの選択の手法
選択される1つ以上のオブジェクトは、上記複数のオブジェクトのうちの、取得される上記2つ以上の位置に基づき形成される領域内にある位置に対応するオブジェクトである。即ち、オブジェクト選択部183は、上記複数のオブジェクトのうちの、取得される上記2つ以上の位置に基づき形成される領域内にある位置に対応するオブジェクトを選択する。
(Object selection unit 183)
-Object Selection Method One or more objects to be selected are objects corresponding to positions in a region formed based on the two or more acquired positions among the plurality of objects. That is, the
より具体的には、例えば、図28を再び参照すると、上記2つ以上の位置に基づき形成される領域は、図28に示されるような位置集合77により囲われる領域である。例えば、位置集合77は、表示画面60(撮像画像61内)においてユーザにより指定される2つ以上の位置であり、入力部120により検出され、位置取得部181により取得される。一例として、位置集合77は、ユーザによるドラッグ(スワイプ)(指を画面につけ、画面上を移動させ、画面から離す操作であって、指をつけた位置と離した位置、及び/又は移動させた指の軌道に対応する2つ以上の位置を指定する操作)に応じて検出される位置の集合である。そして、位置集合77により囲われる領域内の位置に対応するオブジェクトが、オブジェクト選択部183により選択される。
More specifically, for example, referring to FIG. 28 again, the region formed based on the two or more positions is a region surrounded by a position set 77 as shown in FIG. For example, the position set 77 is two or more positions designated by the user on the display screen 60 (in the captured image 61), is detected by the
なお、上記2つ以上の位置に基づき形成される領域は、ユーザによるドラッグに応じて検出される位置(位置集合77)に囲われる領域に限られない。当該領域は、ユーザによるタップ(1本以上の指を画面につけ、画面から離す操作であって、指の位置で位置を指定する操作)、ピンチアウト(2本以上の指を画面につけ、当該2本以上の指の間隔を広げ、当該2本以上の指を離す操作であって、指を離したときの2本以上の指の位置で2つ以上の位置を指定する操作)、及びピンチイン(2本以上の指を画面につけ、当該2本以上の指の間隔を狭め、当該2本以上の指を離す操作であって、指を離したときの2本以上の指の位置で2つ以上の位置を指定する操作)等のいずれかの(タッチ)操作手法に対応する領域であってもよい。一例として、上記2つ以上の位置に基づき形成される上記領域は、ピンチアウト又はピンチインに応じて検出される位置(例えば、指を離したときの2本以上の指の位置)を含む図形(円、矩形、等)により囲われる領域であってもよい。 The area formed based on the two or more positions is not limited to the area surrounded by the position (position set 77) detected in response to the drag by the user. The area includes a tap by the user (an operation in which one or more fingers are put on the screen and separated from the screen and the position is specified by the position of the finger), and a pinch out (two or more fingers are put on the screen and the 2 An operation of widening the interval between two or more fingers and releasing the two or more fingers, and specifying two or more positions by the positions of two or more fingers when the fingers are released) and pinch-in ( An operation of placing two or more fingers on the screen, narrowing the interval between the two or more fingers, and releasing the two or more fingers, two or more at the positions of the two or more fingers when the fingers are released It may be an area corresponding to any (touch) operation technique such as an operation for designating the position of the user. As an example, the region formed based on the two or more positions includes a figure (for example, positions of two or more fingers when fingers are released) detected according to pinch-out or pinch-in (for example, positions of two or more fingers). It may be a region surrounded by a circle, a rectangle, etc.
また、所定の期間(例えば、2秒間)に、位置取得部181により取得される位置(入力部120により検出される位置)が、用いられてもよい。そして、当該所定の期間に取得される位置により形成される領域内にある位置に対応するオブジェクトが選択されてもよい。一例として、上記領域は、上記所定の期間における複数の操作(例えば、ドラック、ピンチアウト及び/又はピンチイン、等)に対応する領域であってもよい。具体例を挙げると、表示画面60(撮像画像61内)において、ユーザが、2本の指で1回タップし、1回目のタップと相違する位置で1本の指で1回タップし、さらに2本の指でピンチアウトする。この場合に、1回目のタップ(ユーザによる位置の指定の開始)を契機に、所定の検出期間内の操作(2回のタップとピンチアウト)に対応する領域が形成される。このようにすることで、ユーザは、多様な操作の組合せでオブジェクトを選択することができるようになる。
In addition, a position (position detected by the input unit 120) acquired by the
また、制御部180は、ユーザにより指定される位置から、タップ、ドラッグ、ピンチアウト及びピンチイン等のいずかの(タッチ)操作手法を認識する操作認識部を有してもよい。また、この操作認識部は、端末装置100の状態(タッチ検出面821、表示面823及び撮像画像61等のサイズ、並びに/又は、アプリケーションソフトウェア)に応じて、対応する操作手法(例えば、タップ、ドラッグ、ピンチアウト及びピンチインのいずれかまたはそれらの組み合わせ)を決定してもよい。
The
第1の例として、端末装置100における撮像画像61が所定のサイズ(例えば所定Cm、所定inch及び所定解像度)以上の場合、操作認識部は、対応する操作手法をタップ、ドラッグ、ピンチアウト及びピンチインと決定してもよい。他方、端末装置100における撮像画像61が所定のサイズ以下の場合、操作認識部は、対応する操作方法をタップ及びドラッグと決定してもよい。
As a first example, when the captured
第2の例として、端末装置100における表示面823とタッチ検出面821との比率(表示面823の大きさ(サイズ)を100%としたときのタッチ検出面821の大きさ(サイズ))が70%以上の場合、操作認識部は、対応する操作方法をタップ、ドラッグ、ピンチアウト及びピンチインと決定してもよい。他方、端末装置100における表示面823とタッチ検出面821との比率が70%以下の場合、操作認識部は、対応する操作手法をタップと決定してもよい。
As a second example, the ratio of the
第3の例として、端末装置100においてアプリケーションソフトウェアAAA(図19に示されていないアプリケーションソフトウェア)が起動されている場合、操作認識部は、対応する操作方法をタップ及びドラッグと決定してもよい。他方、端末装置100においてアプリケーションソフトウェアBBB(図19に示されていないアプリケーションソフトウェア)が起動されている場合、操作認識部は、対応する操作方法をピンチアウト及びピンチインと決定してもよい。
As a third example, when application software AAA (application software not shown in FIG. 19) is activated in
さらに、対応する操作手法が決定されるとともに、対応する操作手法に係る情報が撮像画像61に重畳して表示されてもよい。具体的には、例えば、操作認識部が、対応する操作方法をドラッグと決定すると、撮像画像61内(の例えば4隅のいずれか)にドラッグを示すアイコン等の情報が、重畳表示されてもよい。これにより、ユーザは、多様なタッチに対応するタッチパネルにおいて、適切なタッチにより位置(位置集合77)の指定ができるようになる。
Further, a corresponding operation method may be determined, and information related to the corresponding operation method may be displayed superimposed on the captured
以上、本実施形態の第1の変形例を説明した。本実施形態の第1の変形例によれば、ユーザは、より直感的な操作でオブジェクトを選択することが可能になる。即ち、より直感的な操作で所望の人物にコンタクトすることが可能になる。 The first modification example of the present embodiment has been described above. According to the first modification of the present embodiment, the user can select an object with a more intuitive operation. That is, it becomes possible to contact a desired person with a more intuitive operation.
<4.2.第2の変形例>
次に、本実施形態の第2の変形例を説明する。上述した本実施形態の例では、ユーザが撮像画像内の位置を指定すると、複数のオブジェクトの中から2つ以上のオブジェクトが選択される。そして、選択されたオブジェクトが対応する位置を含む部分領域が拡大された拡大画像(即ち、オブジェクトごとの拡大画像)が表示される。とりわけ、本実施形態の第2の変形例では、部分領域ごとの拡大率で拡大された拡大画像が表示される。
<4.2. Second Modification>
Next, a second modification of the present embodiment will be described. In the example of the present embodiment described above, when the user designates a position in the captured image, two or more objects are selected from a plurality of objects. Then, an enlarged image (that is, an enlarged image for each object) in which the partial area including the position corresponding to the selected object is enlarged is displayed. In particular, in the second modification of the present embodiment, an enlarged image enlarged at an enlargement rate for each partial region is displayed.
(表示制御部185)
−撮像画像内の位置をユーザが指定した後の表示画面
−−第2のケース:2つ以上のオブジェクトが選択されるケース
例えば、ユーザが撮像画像内の位置を指定すると、上記複数のオブジェクトの中から2つ以上のオブジェクトが選択される。そして、表示制御部185は、表示部150に、上記第1のオブジェクトが対応する位置を含む撮像画像内の第1の部分領域の画像と、上記第2のオブジェクトが対応する位置を含む撮像画像内の第2の部分領域の画像とを表示させる。
(Display control unit 185)
-Display screen after the user specifies the position in the captured image-Second case: Two or more objects are selected For example, when the user specifies a position in the captured image, Two or more objects are selected from among them. Then, the
例えば、上記第1の部分領域の上記像は、上記1の部分領域が拡大された拡大画像である。また、上記第2の部分領域の上記画像は、上記第2の部分領域が拡大された拡大画像である。 For example, the image of the first partial area is an enlarged image in which the first partial area is enlarged. Further, the image of the second partial area is an enlarged image in which the second partial area is enlarged.
とりわけ本実施形態の第2の変形例では、上記第1部分領域の上記画像は、上記第1の部分領域が第1の拡大率で拡大された拡大画像である。また、上記第2部分領域の上記画像は、上記第2の部分領域が第2の拡大率で拡大された拡大画像である。即ち、オブジェクトごとに、別々の拡大率の拡大画像が表示される。 In particular, in the second modification of the present embodiment, the image of the first partial area is an enlarged image in which the first partial area is enlarged at a first enlargement ratio. The image of the second partial area is an enlarged image in which the second partial area is enlarged at a second enlargement ratio. That is, enlarged images with different enlargement ratios are displayed for each object.
以上、本実施形態の第2の変形例を説明した。本実施形態の第2の変形例によれば、撮像画像に写る人物によって、当該撮像画像内における大きさが異なる場合であっても、ユーザはコンタクト先の人物を容易に識別することが可能になる。 Heretofore, the second modification of the present embodiment has been described. According to the second modification of the present embodiment, the user can easily identify the contact person even if the person in the captured image has a different size in the captured image. Become.
<4.3.第3の変形例>
次に、図29〜図31を参照して、本実施形態の第3の変形例を説明する。上述した本実施形態の例では、ユーザが撮像画像内の位置を指定すると、複数のオブジェクトの中から2つ以上のオブジェクトが選択される。そして、選択されたオブジェクトが対応する位置を含む部分領域の画像が表示される。とりわけ、本実施形態の第3の変形例では、上記部分領域の画像と当該画像以外の領域との間の境界を示す境界標識が表示される。
<4.3. Third Modification>
Next, a third modification of the present embodiment will be described with reference to FIGS. In the example of the present embodiment described above, when the user designates a position in the captured image, two or more objects are selected from a plurality of objects. Then, an image of the partial area including the position corresponding to the selected object is displayed. In particular, in the third modification of the present embodiment, a boundary sign indicating the boundary between the image of the partial area and the area other than the image is displayed.
(表示制御部185)
−撮像画像内の位置をユーザが指定した後の表示画面
−−第2のケース:2つ以上のオブジェクトが選択されるケース
例えば、ユーザが撮像画像内の位置を指定すると、上記複数のオブジェクトの中から2つ以上のオブジェクトが選択される。そして、表示制御部185は、表示部150に、上記第1のオブジェクトが対応する位置を含む撮像画像内の第1の部分領域の画像と、上記第2のオブジェクトが対応する位置を含む撮像画像内の第2の部分領域の画像とを表示させる。
(Display control unit 185)
-Display screen after the user specifies the position in the captured image-Second case: Two or more objects are selected For example, when the user specifies a position in the captured image, Two or more objects are selected from among them. Then, the
とりわけ本実施形態の第3の変形例では、表示制御部185は、表示部150に、上記第1の部分領域の上記画像と上記画像以外の領域との間の境界を示す第1の境界標識と、上記第2の部分領域の上記画像と当該画像以外の領域との間の境界を示す第2の境界標識とを表示させる。以下、この点について、図29及び図30を参照して具体例を説明する。
In particular, in the third modification of the present embodiment, the
図29は、2つ以上のオブジェクトが選択される場合に第3の変形例に従って表示される表示画面の第1の例を説明するための説明図である。図29を参照すると、図12の例と同様に、表示画面80には、部分領域の画像85Aと、部分領域の画像85Bとが含まれる。そして、表示画面80には、画像85Aとそれ以外の領域との間の境界を示す境界標識88Aと、画像85Bとそれ以外の領域との間の境界を示す境界標識88Bとが含まれる。この例では、境界標識88Aは、画像85Aの内部に表示され、境界標識88Bは、画像85Bの内部に表示される。
FIG. 29 is an explanatory diagram for describing a first example of a display screen displayed according to the third modified example when two or more objects are selected. Referring to FIG. 29, as in the example of FIG. 12, the
図30は、2つ以上のオブジェクトが選択される場合に第3の変形例に従って表示される表示画面の第2の例を説明するための説明図である。図30を参照すると、図12の例と同様に、表示画面80には、部分領域の画像85Aと、部分領域の画像85Bとが含まれる。そして、表示画面80には、画像85Aとそれ以外の領域との間の境界を示す境界標識89Aと、画像85Bとそれ以外の領域との間の境界を示す境界標識89Bとが含まれる。この例では、境界標識89Aは、画像85Aの外部に表示され、境界標識89Bは、画像85Bの外部に表示される。
FIG. 30 is an explanatory diagram for explaining a second example of a display screen displayed according to the third modification when two or more objects are selected. Referring to FIG. 30, as in the example of FIG. 12, the
なお、上記第1の境界標識は、上記第1のオブジェクトに関する情報を含み、上記第2の境界標識は、上記第2のオブジェクトに関する情報を含んでもよい。より具体的には、例えば、上記第1のオブジェクトに関する上記情報は、上記第1のオブジェクトを識別するための第1の識別情報を含み、上記第2のオブジェクトに関する上記情報は、上記第2のオブジェクトを識別するための第2の識別情報を含んでもよい。以下、この点について図31を参照して具体例を説明する。 The first boundary sign may include information related to the first object, and the second boundary sign may include information related to the second object. More specifically, for example, the information related to the first object includes first identification information for identifying the first object, and the information related to the second object includes the second information Second identification information for identifying the object may be included. Hereinafter, a specific example of this point will be described with reference to FIG.
図31は、境界標識に含まれるオブジェクトに関する情報の例を説明するための説明図である。図31を参照すると、図29と同様に、表示画面80、部分領域の画像85A、部分領域の画像85B、境界標識88A及び境界標識88Bが示されている。例えば、図31に示されるように、境界標識88A及び境界標識88Bには、人物(オブジェクト)の識別情報である名前(高橋、荒川)が含まれる。
FIG. 31 is an explanatory diagram for describing an example of information regarding an object included in a boundary sign. Referring to FIG. 31, a
以上、本実施形態の第3の変形例を説明した。本実施形態の第3の変形例によれば、境界標識が表示される。これにより、部分領域の画像の中心を際立たせることが可能になる。即ち、ユーザは、各画像に対応するオブジェクト(例えば、人物)を認識しやすくなる。 Heretofore, the third modification example of the present embodiment has been described. According to the third modification of the present embodiment, a boundary sign is displayed. Thereby, it becomes possible to make the center of the image of the partial area stand out. That is, the user can easily recognize an object (for example, a person) corresponding to each image.
また、境界領域がオブジェクト(例えば、人物)に関する情報を含むことで、ユーザは、各画像に対応するオブジェクト(例えば、人物)をさらに認識しやすくなる。さらに、上記情報がオブジェクト(例えば、人物)の識別情報であることで、ユーザは、各画像に対応するオブジェクト(例えば、人物)を確実に認識することが可能になる。 In addition, since the boundary area includes information on an object (for example, a person), the user can more easily recognize an object (for example, a person) corresponding to each image. Furthermore, since the information is identification information of an object (for example, a person), the user can surely recognize an object (for example, a person) corresponding to each image.
<4.4.第4の変形例>
次に、図32を参照して、本実施形態の第4の変形例を説明する。上述した本実施形態の例では、上記複数のオブジェクトの中から1つ以上のオブジェクトが選択されると、選択された当該1つ以上のオブジェクトの各々に関する情報が表示される。そして、当該情報として、選択されたオブジェクトが対応する位置を含む部分領域の画像が表示される。一方、本実施形態の第4の変形例では、選択された上記1つ以上のオブジェクトの各々に関する情報として、当該1つ以上のオブジェクトの各々を識別するための識別情報が表示される。
<4.4. Fourth Modification>
Next, a fourth modification of the present embodiment will be described with reference to FIG. In the example of the present embodiment described above, when one or more objects are selected from the plurality of objects, information on each of the selected one or more objects is displayed. Then, as the information, an image of a partial area including the position corresponding to the selected object is displayed. On the other hand, in the fourth modification example of the present embodiment, identification information for identifying each of the one or more objects is displayed as information on each of the one or more selected objects.
(表示制御部185) (Display control unit 185)
−撮像画像内の位置をユーザが指定した後の表示画面
−−第2のケース:2つ以上のオブジェクトが選択されるケース
例えば、ユーザが撮像画像内の位置を指定すると、上記複数のオブジェクトの中から2つ以上のオブジェクトが選択される。とりわけ本実施形態では、この場合に、表示制御部185は、表示部150に、上記2つ以上のオブジェクトの各々に関する情報を表示させる。
-Display screen after the user specifies the position in the captured image-Second case: Two or more objects are selected For example, when the user specifies a position in the captured image, Two or more objects are selected from among them. Particularly in this embodiment, in this case, the
とりわけ本実施形態の第4の変形例では、上記2つ以上のオブジェクトの各々に関する上記情報は、当該2つ以上のオブジェクトの各々を識別するための識別情報を含む。以下、この点について図32を参照して具体例を説明する。 In particular, in the fourth modification example of the present embodiment, the information regarding each of the two or more objects includes identification information for identifying each of the two or more objects. Hereinafter, a specific example of this point will be described with reference to FIG.
図32は、2つ以上のオブジェクトが選択される場合に第4の変形例に従って表示される表示画面の一例を説明するための説明図である。図32を参照すると、図32を参照すると、表示画面60が示されている。また、表示画面60には、実空間の撮像画像61が含まれる。そして、表示画面60には、選択された2人の人物(2つのオブジェクト)の各々を識別するための識別情報99A及び識別情報99Bも含まれる。この例では、識別情報99A及び識別情報99Bは、人物(オブジェクト)の識別情報である名前(高橋、荒川)である。一例として、ユーザは、このような識別情報99A及び識別情報99Bのうちの一方の識別情報のいずれかの位置を指定することにより、当該一方の識別情報に対応する人物(オブジェクト)を指定する。そして、ユーザにより指定された1人の人物(1つのオブジェクト)が選択される。
FIG. 32 is an explanatory diagram for explaining an example of a display screen displayed according to the fourth modification when two or more objects are selected. Referring to FIG. 32, a
以上、本実施形態の第4の変形例を説明した。本実施形態の第4の変形例によれば、簡単な表示処理によってより容易に所望の人物にコンタクトすることが可能になる。 The fourth modification example of this embodiment has been described above. According to the fourth modification of the present embodiment, it is possible to more easily contact a desired person by a simple display process.
以上、添付図面を参照しながら本発明の好適な実施形態を説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.
例えば、2つ以上のオブジェクトが選択されるケースとして、2つのオブジェクトが選択される例を説明したが、本発明はこれに限定されない。3つ以上のオブジェクトが選択され、選択された当該3つ以上のオブジェクトに関する情報が表示されてもよい。 For example, as an example in which two or more objects are selected, the example in which two objects are selected has been described, but the present invention is not limited to this. Three or more objects may be selected, and information regarding the selected three or more objects may be displayed.
また、2つ以上のオブジェクトが選択される例を説明した。即ち、選択されるオブジェクトの数に制限がない例を説明したが、本発明はこれに限定されない。例えば、選択されるオブジェクトの個数に上限が設けられてもよい。一例として、最大で2つのオブジェクトが選択されてもよい。これにより、3つ以上のオブジェクトが選択される場合よりも、より素早く容易にオブジェクトを指定することが可能になる。また、別の例として、最大で3つのオブジェクトが選択されてもよい。人間が3つ以下の物事をより容易に処理し、記憶することができることを考慮すると、これにより、より多くのオブジェクトに関する情報を表示しつつも、より素早く容易にオブジェクトを指定することが可能になる。 Further, an example in which two or more objects are selected has been described. That is, the example in which the number of objects to be selected is not limited has been described, but the present invention is not limited to this. For example, an upper limit may be set for the number of objects to be selected. As an example, up to two objects may be selected. This makes it possible to specify an object more quickly and easily than when three or more objects are selected. As another example, a maximum of three objects may be selected. Considering that humans can more easily process and store less than three things, this makes it possible to specify objects more quickly and easily while displaying information about more objects Become.
また、通信用IDが電話番号である例を説明したが、本発明はこれに限定されない。通信用IDは、電話番号以外のIDであってもよい。一例として、通信用IDは、電話番号以外のソフトフォン用IDであってもよい。また、別の例として、通信用IDは、電話以外の通信のためのIDであってもよい。例えば、通信用IDは、メールアドレスであってもよく、又はショートメッセージ用のIDであってもよい。この場合に、通信用IDを用いて、メールが送信され、又はショートメッセージが送信されてもよい。 Moreover, although the example in which the communication ID is a telephone number has been described, the present invention is not limited to this. The communication ID may be an ID other than a telephone number. As an example, the communication ID may be a softphone ID other than a telephone number. As another example, the communication ID may be an ID for communication other than a telephone. For example, the communication ID may be a mail address or a short message ID. In this case, a mail or a short message may be transmitted using the communication ID.
また、表示画面において撮像画像の位置がユーザによるタッチで指定される例を説明したが、本発明はこれに限定されない。例えば、撮像画像の位置は、タッチパネル以外の入力手段を用いてユーザにより指定されてもよい。例えば、撮像画像の位置は、マウスによるクリックで指定されてもよく、ボタン、キーボード等の別の入力手段を用いて指定されてもよい。 Moreover, although the example in which the position of the captured image is designated by a user touch on the display screen has been described, the present invention is not limited to this. For example, the position of the captured image may be specified by the user using input means other than the touch panel. For example, the position of the captured image may be specified by clicking with a mouse, or may be specified using another input means such as a button or a keyboard.
また、撮像画像のいずれかの位置に対応するオブジェクトが人物(又は人物に関する情報)である例を説明したが、本発明はこれに限定されない。例えば、オブジェクトは、通信装置(又は通信装置に関する情報)であってもよい。一例として、当該通信装置は電話機であってもよい。 Further, although an example in which the object corresponding to any position of the captured image is a person (or information related to a person) has been described, the present invention is not limited to this. For example, the object may be a communication device (or information regarding the communication device). As an example, the communication device may be a telephone.
また、カメラにより生成される撮像画像、マイクロフォンにより生成される音声データ、及び、センサによる判定結果が、メディア配信サーバを介して提供される例を説明したが、本発明はこれに限定されない。一例として、これらのデータは、メディア配信サーバの代わりに別の装置を介して提供されてもよい。また、別の例として、これらのデータは、カメラ、マイクロフォン及びセンサにより、端末装置に直接提供されてもよい。 Moreover, although the captured image produced | generated by the camera, the audio | voice data produced | generated by the microphone, and the determination result by a sensor were demonstrated via the media delivery server, the example was described, This invention is not limited to this. As an example, these data may be provided via another device instead of the media distribution server. As another example, these data may be directly provided to the terminal device by a camera, a microphone, and a sensor.
また、位置取得部、オブジェクト選択部、表示制御部、通信用ID取得部及び電話部が端末装置により備えられる例を説明したが、本発明はこれに限定されない。例えば、これらの機能は、端末装置以外の装置により備えられてもよい。一例として、これらの機能はいずれかのサーバにより備えられてもよい。 In addition, although the example in which the position acquisition unit, the object selection unit, the display control unit, the communication ID acquisition unit, and the telephone unit are provided by the terminal device has been described, the present invention is not limited to this. For example, these functions may be provided by a device other than the terminal device. As an example, these functions may be provided by any server.
また、位置取得部、オブジェクト選択部、表示制御部、通信用ID取得部及び電話部が同一の装置(端末装置)に備えられる例を説明したが、本発明はこれに限定されない。位置取得部、オブジェクト選択部及び表示制御部と、通信用ID取得部及び電話部とが、別々の装置により備えられてもよい。一例として、位置取得部、オブジェクト選択部及び表示制御部が、いずれかのサーバ、又は、サテライトオフィスに設置されたディスプレイにより備えられ、通信用ID取得部及び電話部が端末装置により備えられてもよい。 Moreover, although the position acquisition unit, the object selection unit, the display control unit, the communication ID acquisition unit, and the telephone unit have been described as being provided in the same device (terminal device), the present invention is not limited to this. The position acquisition unit, the object selection unit, the display control unit, the communication ID acquisition unit, and the telephone unit may be provided by separate devices. As an example, the position acquisition unit, the object selection unit, and the display control unit may be provided by a display installed in any server or satellite office, and the communication ID acquisition unit and the telephone unit may be provided by the terminal device. Good.
また、実空間の撮像画像の表示画面が端末装置により表示される例を説明したが、本発明はこれに限定されない。例えば、当該表示画面は別の装置により表示されてもよい。一例として、上記表示画面はサテライトオフィスに設置されたディスプレイにより表示されてもよい。そして、ユーザが、当該ディスプレイにおいて、表示画像に含まれる撮像画像の位置を指定してもよい。 Moreover, although the example in which the display screen of the captured image of the real space is displayed by the terminal device has been described, the present invention is not limited to this. For example, the display screen may be displayed by another device. As an example, the display screen may be displayed by a display installed in a satellite office. Then, the user may specify the position of the captured image included in the display image on the display.
また、本明細書の情報処理における処理ステップは、必ずしもフローチャートに記載された順序に沿って時系列に実行されなくてよい。例えば、情報処理における処理ステップは、フローチャートとして記載した順序と異なる順序で実行されても、並列的に実行されてもよい。 Further, the processing steps in the information processing of the present specification do not necessarily have to be executed in time series in the order described in the flowchart. For example, the processing steps in the information processing may be executed in an order different from the order described in the flowchart, or may be executed in parallel.
また、情報処理装置(例えば、端末装置)に内蔵されるCPU、ROM及びRAM等のハードウェアに、上記情報処理装置の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させた記憶媒体も提供される。 In addition, it is possible to create a computer program for causing hardware such as a CPU, a ROM, and a RAM built in an information processing apparatus (for example, a terminal apparatus) to exhibit functions equivalent to the respective configurations of the information processing apparatus. A storage medium storing the computer program is also provided.
11 カメラ
13 マイクロフォン
15 センサ
17 メディア配信サーバ
18 情報管理サーバ
19、23 LAN(Local Area Network)
21 ディスプレイ
30 外部ネットワーク
40 PBX(Private Branch eXchange)
60、80 表示画面
61 撮像画像
71 ユーザにより指定される位置
73 オブジェクトが対応する位置
85 部分領域の画像(拡大画像)
99 識別情報
100 端末装置
181 位置取得部
183 オブジェクト選択部
185 表示制御部
11
21
60, 80
99
Claims (19)
取得される前記位置に基づいて、前記撮像画像のいずれかの位置にそれぞれ対応する複数のオブジェクトの中から、1つ以上のオブジェクトを選択する選択部と、
前記複数のオブジェクトの中から2つ以上のオブジェクトが選択される場合に、前記表示画面を表示する表示装置に、前記2つ以上のオブジェクトの各々に関する情報を表示させる表示制御部と、
を備え、
前記選択部は、前記2つ以上のオブジェクトの中から、ユーザにより指定される1つのオブジェクトを選択し、
前記1つのオブジェクトが選択されると、当該1つのオブジェクトに対応する通信用の識別情報が取得される、
情報処理装置。 An acquisition unit that acquires a position in the captured image specified by a user on a display screen including a captured image of real space;
A selection unit that selects one or more objects from a plurality of objects respectively corresponding to any position of the captured image based on the acquired position;
A display control unit that displays information on each of the two or more objects on a display device that displays the display screen when two or more objects are selected from the plurality of objects;
With
The selection unit selects one object specified by the user from the two or more objects,
When the one object is selected, identification information for communication corresponding to the one object is acquired.
Information processing device.
前記2つ以上のオブジェクトの各々に関する前記情報は、前記第1のオブジェクトが対応する前記撮像画像内の位置を含む前記撮像画像内の第1の部分領域の画像、及び、前記第2のオブジェクトが対応する前記撮像画像内の位置を含む前記撮像画像内の第2の部分領域の画像を含む、
請求項1に記載の情報処理装置。 The two or more objects include a first object and a second object;
The information regarding each of the two or more objects includes an image of a first partial area in the captured image including a position in the captured image to which the first object corresponds, and the second object Including an image of a second partial region in the captured image including a corresponding position in the captured image;
The information processing apparatus according to claim 1.
前記第2の部分領域の前記画像は、前記第2の部分領域が拡大された拡大画像である、
請求項2又は3に記載の情報処理装置。 The image of the first partial region is an enlarged image in which the first partial region is enlarged,
The image of the second partial area is an enlarged image in which the second partial area is enlarged.
The information processing apparatus according to claim 2 or 3.
前記第2の部分領域の前記画像は、前記第2の部分領域が第2の拡大率で拡大された拡大画像である、
請求項4に記載の情報処理装置。 The image of the first partial area is an enlarged image in which the first partial area is enlarged at a first enlargement ratio,
The image of the second partial area is an enlarged image in which the second partial area is enlarged at a second enlargement ratio.
The information processing apparatus according to claim 4.
前記第2の境界標識は、前記第2のオブジェクトに関する情報を含む、
請求項6に記載の情報処理装置。 The first boundary sign includes information about the first object;
The second boundary sign includes information about the second object;
The information processing apparatus according to claim 6.
前記第2のオブジェクトに関する前記情報は、前記第2のオブジェクトを識別するための第2の識別情報を含む、
請求項7に記載の情報処理装置。 The information regarding the first object includes first identification information for identifying the first object;
The information related to the second object includes second identification information for identifying the second object.
The information processing apparatus according to claim 7.
前記1つ以上のオブジェクトは、前記複数のオブジェクトのうちの、取得される前記1つの位置を含む所定の形状の領域内にある位置に対応するオブジェクトである、
請求項11に記載の情報処理装置。 The acquisition unit acquires one position in the captured image specified by the user on the display screen,
The one or more objects are objects corresponding to positions in a region of a predetermined shape including the one position to be acquired among the plurality of objects.
The information processing apparatus according to claim 11.
前記1つ以上のオブジェクトは、前記複数のオブジェクトのうちの、取得される前記2つ以上の位置に基づき形成される領域内にある位置に対応するオブジェクトである、
請求項11に記載の情報処理装置。 The acquisition unit acquires two or more positions in the captured image specified by the user on the display screen;
The one or more objects are objects corresponding to positions in an area formed based on the two or more acquired positions among the plurality of objects.
The information processing apparatus according to claim 11.
前記表示制御部は、いずれのオブジェクトも選択されない場合に、前記表示装置に、前記撮像画像内の位置をユーザに指定させるための標識を前記表示画面に表示させる、
請求項11〜13のいずれか1項に記載の情報処理装置。 The selection unit does not select any object when none of the positions corresponding to the plurality of objects is within the region corresponding to the acquired position,
The display control unit causes the display device to display on the display screen a sign for allowing a user to specify a position in the captured image when no object is selected.
The information processing apparatus according to any one of claims 11 to 13.
前記撮像画像内の前記位置は、タッチパネルにおけるユーザのタッチにより指定される、
請求項1〜17のいずれか1項に記載の情報処理装。 The display device is a display surface of a touch panel,
The position in the captured image is designated by a user touch on the touch panel.
The information processing apparatus according to claim 1.
実空間の撮像画像を含む表示画面においてユーザにより指定される前記撮像画像内の位置を取得する取得部と、
取得される前記位置に基づいて、前記撮像画像のいずれかの位置にそれぞれ対応する複数のオブジェクトの中から、1つ以上のオブジェクトを選択する選択部と、
前記複数のオブジェクトの中から2つ以上のオブジェクトが選択される場合に、前記表示画面を表示する表示装置に、前記2つ以上のオブジェクトの各々に関する情報を表示させる表示制御部と、
として機能させ、
前記選択部は、前記2つ以上のオブジェクトの中から、ユーザにより指定される1つのオブジェクトを選択し、
前記1つのオブジェクトが選択されると、当該1つのオブジェクトに対応する通信用の識別情報が取得される、
プログラム。
Computer
An acquisition unit that acquires a position in the captured image specified by a user on a display screen including a captured image of real space;
A selection unit that selects one or more objects from a plurality of objects respectively corresponding to any position of the captured image based on the acquired position;
A display control unit that displays information on each of the two or more objects on a display device that displays the display screen when two or more objects are selected from the plurality of objects;
Function as
The selection unit selects one object specified by the user from the two or more objects,
When the one object is selected, identification information for communication corresponding to the one object is acquired.
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013081895A JP6149474B2 (en) | 2013-04-10 | 2013-04-10 | Information processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013081895A JP6149474B2 (en) | 2013-04-10 | 2013-04-10 | Information processing apparatus and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017104028A Division JP6575561B2 (en) | 2017-05-25 | 2017-05-25 | Information processing apparatus, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014204412A true JP2014204412A (en) | 2014-10-27 |
JP6149474B2 JP6149474B2 (en) | 2017-06-21 |
Family
ID=52354462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013081895A Active JP6149474B2 (en) | 2013-04-10 | 2013-04-10 | Information processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6149474B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017022438A (en) * | 2015-07-07 | 2017-01-26 | 沖電気工業株式会社 | Communication support device, communication support method, program, and communication support system |
JP2017022587A (en) * | 2015-07-13 | 2017-01-26 | 沖電気工業株式会社 | Information processing device, program and information processing method |
JP2018036871A (en) * | 2016-08-31 | 2018-03-08 | 沖電気工業株式会社 | Information processing server, information processing system, terminal device, and program |
JP2022007893A (en) * | 2020-05-19 | 2022-01-13 | oVice株式会社 | Information processing system, information processing device, and program |
US11871152B2 (en) | 2020-05-19 | 2024-01-09 | Ovice, Inc. | Information processing system, information processing apparatus, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004007106A (en) * | 2002-05-31 | 2004-01-08 | Fujitsu Ltd | Remote control system |
JP2009032028A (en) * | 2007-07-26 | 2009-02-12 | Panasonic Corp | Touch panel device |
JP2011176599A (en) * | 2010-02-24 | 2011-09-08 | Oki Networks Co Ltd | Space information visualization system and related information providing device |
JP2012216127A (en) * | 2011-04-01 | 2012-11-08 | Ntt Docomo Inc | User interface device, operation reception method by display device and program |
JP2012226527A (en) * | 2011-04-19 | 2012-11-15 | Mitsubishi Electric Corp | User interface device and user interface method |
-
2013
- 2013-04-10 JP JP2013081895A patent/JP6149474B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004007106A (en) * | 2002-05-31 | 2004-01-08 | Fujitsu Ltd | Remote control system |
JP2009032028A (en) * | 2007-07-26 | 2009-02-12 | Panasonic Corp | Touch panel device |
JP2011176599A (en) * | 2010-02-24 | 2011-09-08 | Oki Networks Co Ltd | Space information visualization system and related information providing device |
JP2012216127A (en) * | 2011-04-01 | 2012-11-08 | Ntt Docomo Inc | User interface device, operation reception method by display device and program |
JP2012226527A (en) * | 2011-04-19 | 2012-11-15 | Mitsubishi Electric Corp | User interface device and user interface method |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017022438A (en) * | 2015-07-07 | 2017-01-26 | 沖電気工業株式会社 | Communication support device, communication support method, program, and communication support system |
JP2017022587A (en) * | 2015-07-13 | 2017-01-26 | 沖電気工業株式会社 | Information processing device, program and information processing method |
JP2018036871A (en) * | 2016-08-31 | 2018-03-08 | 沖電気工業株式会社 | Information processing server, information processing system, terminal device, and program |
JP2022007893A (en) * | 2020-05-19 | 2022-01-13 | oVice株式会社 | Information processing system, information processing device, and program |
JP7160263B2 (en) | 2020-05-19 | 2022-10-25 | oVice株式会社 | Information processing system, information processing device and program |
US11871152B2 (en) | 2020-05-19 | 2024-01-09 | Ovice, Inc. | Information processing system, information processing apparatus, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6149474B2 (en) | 2017-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11128802B2 (en) | Photographing method and mobile terminal | |
JP6070783B2 (en) | Information processing apparatus, program, and information processing method | |
JP6292797B2 (en) | Mobile terminal and its video call service operation method | |
US20170295604A1 (en) | Point-to-point ad hoc voice communication | |
JP6149474B2 (en) | Information processing apparatus and program | |
JP6729193B2 (en) | Information processing server, information processing system, terminal device, and program | |
CA3053980A1 (en) | Task management based on instant communication message | |
EP2284675A2 (en) | Method for displaying data and mobile terminal thereof | |
CN106020592A (en) | Split screen display method and device | |
US9509733B2 (en) | Program, communication apparatus and control method | |
JP2015225400A (en) | Communication system, transfer control device, communication method, and program | |
JP6260201B2 (en) | Transmission terminal, transmission method, and program | |
JP6575561B2 (en) | Information processing apparatus, information processing method, and program | |
CN112422812B (en) | Image processing method, mobile terminal and storage medium | |
JP6314539B2 (en) | Transmission terminal, transmission system, transmission method and program | |
KR20190035373A (en) | Virtual movile device implementing system and control method for the same in mixed reality | |
JP2004242244A (en) | Communication network system, portable terminal, and method and computer program for synthesizing panoramic image | |
CN106980449A (en) | Image switches the rendering method and device of transition effect | |
JP6102961B2 (en) | Information processing apparatus, program, and information processing method | |
JP6881193B2 (en) | Information processing device, information processing method, program, display control device, display control method, program and information processing system | |
JP5692204B2 (en) | Information processing apparatus, program, and information processing method | |
WO2016206468A1 (en) | Method and device for processing video communication image | |
JP6540732B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, PROGRAM, AND INFORMATION PROCESSING SYSTEM | |
JP7180473B2 (en) | Display control device, display control method, program and display control system | |
CN105530354A (en) | Photograph contact list generation method and communication equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170425 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170508 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6149474 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |