JP2016181234A - Information processing apparatus, program, portable terminal, and information processing system - Google Patents

Information processing apparatus, program, portable terminal, and information processing system Download PDF

Info

Publication number
JP2016181234A
JP2016181234A JP2015062568A JP2015062568A JP2016181234A JP 2016181234 A JP2016181234 A JP 2016181234A JP 2015062568 A JP2015062568 A JP 2015062568A JP 2015062568 A JP2015062568 A JP 2015062568A JP 2016181234 A JP2016181234 A JP 2016181234A
Authority
JP
Japan
Prior art keywords
unit
display
mobile terminal
user
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015062568A
Other languages
Japanese (ja)
Other versions
JP6384376B2 (en
Inventor
寛之 福島
Hiroyuki Fukushima
寛之 福島
茂 立澤
Shigeru Tatezawa
茂 立澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2015062568A priority Critical patent/JP6384376B2/en
Publication of JP2016181234A publication Critical patent/JP2016181234A/en
Application granted granted Critical
Publication of JP6384376B2 publication Critical patent/JP6384376B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus that can estimate a relative position of a user to a display part without using a measurement result from a dedicated measurement instrument, a program, a portable terminal, and an information processing system.SOLUTION: There is provided an information processing apparatus comprising: a cooperation processing part that performs determination related to establishment of information cooperation between a portable terminal and a display part; and a position estimation part that estimates a relative position of a user carrying the portable terminal to the display part on the basis of a change in position of the portable terminal detected by the portable terminal and a contact position of the portable terminal with the display part detected by the display part when the establishment of information cooperation is determined.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、プログラム、携帯端末、及び情報処理システムに関する。   The present invention relates to an information processing device, a program, a portable terminal, and an information processing system.

従来、例えば駅、空港、またはショッピングモールなどの施設には、ディスプレイを用いて利用者に対して情報提供を行うデジタルサイネージが設置されている。例えば、特許文献1には、ディスプレイに表示されている複数のコンテンツのうちいずれかがユーザにより選択された場合に、選択されたコンテンツと関連したコンテンツをディスプレイに表示させる技術が記載されている。   Conventionally, a digital signage that provides information to a user using a display is installed in a facility such as a station, an airport, or a shopping mall. For example, Patent Literature 1 describes a technique for displaying content related to a selected content on a display when any of a plurality of contents displayed on the display is selected by a user.

また、ディスプレイに表示されているコンテンツとユーザとの間での直感的なインタラクションを可能とするための技術も提案されている。例えば、特許文献2には、ディスプレイに表示されている複数の概略情報のうちのいずれかに対するユーザの手の接近が超音波センサにより検出された場合には、該当の概略情報に対応付けられた詳細情報をディスプレイに表示させる技術が記載されている。   A technique for enabling intuitive interaction between content displayed on a display and a user has also been proposed. For example, in Patent Literature 2, when an approach of a user's hand to any one of a plurality of pieces of outline information displayed on the display is detected by an ultrasonic sensor, the information is associated with the outline information. A technique for displaying detailed information on a display is described.

特開2015−15005号公報Japanese Patent Laid-Open No. 2015-15005 特開2006−301534号公報JP 2006-301534 A

しかしながら、特許文献2に記載の技術では、システムの構成が複雑になる。例えば、特許文献2に記載の技術では、ディスプレイに対するユーザの相対位置を推測するために、ディスプレイごとに専用の計測機器が必要である。   However, the technique described in Patent Document 2 complicates the system configuration. For example, in the technique described in Patent Document 2, a dedicated measuring device is required for each display in order to estimate the relative position of the user with respect to the display.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、専用の計測機器による計測結果を用いることなく、表示部に対するユーザの相対位置を推測することが可能な、新規かつ改良された情報処理装置、プログラム、携帯端末、及び情報処理システムを提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to estimate the relative position of the user with respect to the display unit without using a measurement result obtained by a dedicated measuring device. It is an object of the present invention to provide a new and improved information processing apparatus, program, portable terminal, and information processing system.

上記課題を解決するために、本発明のある観点によれば、携帯端末と表示部との間の情報連携の確立に関する判定を行う連携処理部と、前記携帯端末により検出される前記携帯端末の位置変化と、前記情報連携の確立が判定された場合に前記表示部により検出される前記表示部における前記携帯端末の接触位置とに基づいて、前記携帯端末を携帯するユーザの前記表示部に対する相対位置を推測する位置推測部と、を備える、情報処理装置が提供される。   In order to solve the above-described problem, according to an aspect of the present invention, there is provided a cooperation processing unit that performs determination related to establishment of information cooperation between a mobile terminal and a display unit, and the mobile terminal detected by the mobile terminal. Relative to the display unit of the user carrying the mobile terminal based on a change in position and a contact position of the mobile terminal in the display unit detected by the display unit when it is determined that the information cooperation is established An information processing apparatus including a position estimation unit that estimates a position is provided.

前記携帯端末の位置変化は、前記携帯端末が前記表示部に接触された際の前記携帯端末の位置と、前記携帯端末が前記表示部に接触される前もしくは前記表示部から離れた後における前記携帯端末の位置との間の変化であってもよい。   The change in the position of the portable terminal includes the position of the portable terminal when the portable terminal is in contact with the display unit, and the position of the portable terminal before or after the portable terminal is contacted with the display unit. It may be a change between the position of the mobile terminal.

前記携帯端末の位置変化は、前記ユーザの姿勢が第1の姿勢から、前記ユーザが前記携帯端末を前記表示部に接触させる際の姿勢であるタッチ姿勢へ移行する際、もしくは、前記タッチ姿勢から前記第1の姿勢へ移行する際における前記携帯端末の位置の変化であってもよい。   The position change of the mobile terminal is performed when the user's posture shifts from the first posture to a touch posture that is a posture when the user brings the mobile terminal into contact with the display unit, or from the touch posture. It may be a change in the position of the mobile terminal when shifting to the first posture.

前記ユーザの姿勢は、前記携帯端末により検出される前記携帯端末の加速度または前記携帯端末の角加速度に基づいて判定されてもよい。   The posture of the user may be determined based on an acceleration of the mobile terminal detected by the mobile terminal or an angular acceleration of the mobile terminal.

前記位置推測部は、さらに、記憶部に格納されている人体モデル情報に基づいて、前記表示部に対する前記ユーザの相対位置を推測してもよい。   The position estimation unit may further estimate the relative position of the user with respect to the display unit based on the human body model information stored in the storage unit.

前記情報連携は、前記携帯端末が前記ユーザにより把持された状態で前記携帯端末が前記表示部に接触された場合に確立されてもよい。   The information linkage may be established when the mobile terminal is in contact with the display unit while the mobile terminal is held by the user.

前記情報処理装置は、前記位置推測部により前記ユーザの相対位置が推測された場合に、推測された前記ユーザの相対位置に基づいて、前記表示部に表示されているコンテンツの表示態様を変化させる表示制御部をさらに備えてもよい。   When the relative position of the user is estimated by the position estimation unit, the information processing apparatus changes a display mode of content displayed on the display unit based on the estimated relative position of the user. A display control unit may be further provided.

前記表示制御部は、前記ユーザの相対位置に基づいて、表示されているコンテンツの表示位置を変更してもよい。   The display control unit may change the display position of the displayed content based on the relative position of the user.

前記表示制御部は、前記ユーザの相対位置が前記表示部上に投影された位置である投影位置の周辺に表示されているコンテンツを前記投影位置の上方に移動し、表示させてもよい。   The display control unit may move and display the content displayed around the projection position, which is the position where the relative position of the user is projected on the display unit, above the projection position.

前記情報処理装置は、前記携帯端末の接触位置、前記携帯端末が前記表示部に接触された際における前記表示部に対する前記携帯端末の傾き、および、前記ユーザの相対位置に基づいて、前記ユーザが前記携帯端末を把持する把持腕が左腕と右腕とのいずれであるかを推測する姿勢推測部をさらに備え、前記表示制御部は、さらに、推測された前記ユーザの把持腕に基づいて、表示されているコンテンツの表示態様を変化させてもよい。   Based on the contact position of the mobile terminal, the inclination of the mobile terminal with respect to the display unit when the mobile terminal is in contact with the display unit, and the relative position of the user, It further includes a posture estimation unit that estimates whether the gripping arm that grips the mobile terminal is the left arm or the right arm, and the display control unit is further displayed based on the estimated gripping arm of the user. You may change the display mode of the content.

前記姿勢推測部は、前記携帯端末の接触位置と推測された前記ユーザの相対位置との位置関係に対応付けてデータベースに登録されている把持腕判定条件が示す傾きの閾値と、前記携帯端末の傾きとを比較することにより、前記把持腕が左腕と右腕とのいずれであるかを推測してもよい。   The posture estimation unit includes an inclination threshold value indicated by a gripping arm determination condition registered in a database in association with a positional relationship between the contact position of the mobile terminal and the estimated relative position of the user, and the mobile terminal By comparing the inclination, it may be estimated whether the gripping arm is the left arm or the right arm.

前記情報処理装置は、前記携帯端末が前記表示部に接触されている場合に、前記姿勢推測部により推測された把持腕、推測された前記ユーザの相対位置、および、前記携帯端末の接触位置に基づいて、前記表示部において前記把持腕により前記ユーザの視界から遮蔽される領域である遮蔽領域を推測する遮蔽領域推測部をさらに備え、前記表示制御部は、推測された遮蔽領域に表示されているコンテンツの表示位置を変更してもよい。   When the portable terminal is in contact with the display unit, the information processing apparatus is configured to detect the gripping arm estimated by the posture estimation unit, the estimated relative position of the user, and the contact position of the portable terminal. The display unit further includes a shielding region estimation unit that estimates a shielding region that is a region shielded from the user's field of view by the gripping arm, and the display control unit is displayed in the estimated shielding region. The display position of the existing content may be changed.

前記表示制御部は、前記遮蔽領域に表示されているコンテンツを前記遮蔽領域外の領域に表示させてもよい。   The display control unit may display content displayed in the shielding area in an area outside the shielding area.

また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、携帯端末と表示部との間の情報連携の確立に関する判定を行う連携処理部と、前記携帯端末により検出される前記携帯端末の位置変化と、前記情報連携の確立が判定された場合に前記表示部により検出される前記表示部における前記携帯端末の接触位置とに基づいて、前記携帯端末を携帯するユーザの前記表示部に対する相対位置を推測する位置推測部、として機能させるための、プログラムが提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a computer is detected by a cooperation processing unit that performs determination regarding establishment of information cooperation between a portable terminal and a display unit, and the portable terminal. A user who carries the portable terminal based on the position change of the portable terminal and the contact position of the portable terminal in the display unit detected by the display unit when it is determined that the information cooperation is established A program is provided for functioning as a position estimation unit that estimates a relative position of the display unit.

また、上記課題を解決するために、本発明の別の観点によれば、携帯端末であって、ユーザにより把持された状態で前記携帯端末が表示部に接触された場合に前記表示部との間での情報連携の確立の要求を情報処理装置へ送信部に送信させる連携制御部と、前記携帯端末が前記表示部に接触された際の前記携帯端末の位置と、前記表示部に接触される前もしくは前記表示部から離れた後における前記携帯端末の位置との間の位置変化を検出し、検出した位置変化を前記情報処理装置へ前記送信部に送信させる動作制御部と、を備える、携帯端末が提供される。   Moreover, in order to solve the said subject, according to another viewpoint of this invention, when it is a portable terminal and the said portable terminal is contacted with the display part in the state hold | gripped by the user, Control unit that causes the information processing apparatus to transmit a request for establishment of information cooperation between the mobile terminal, the position of the mobile terminal when the mobile terminal is in contact with the display unit, and the display unit An operation control unit that detects a change in position between the mobile terminal and the information processing apparatus before or after moving away from the display unit, and transmits the detected change in position to the information processing apparatus. A mobile terminal is provided.

また、上記課題を解決するために、本発明の別の観点によれば、携帯端末と、コンテンツを表示する表示部と、前記携帯端末と前記表示部との間の情報連携の確立に関する判定を行う連携処理部と、前記携帯端末により検出される前記携帯端末の位置変化と、前記情報連携の確立が判定された場合に前記表示部により検出される前記表示部における前記携帯端末の接触位置とに基づいて、前記携帯端末を携帯するユーザの前記表示部に対する相対位置を推測する位置推測部と、を備える、情報処理システムが提供される。   Moreover, in order to solve the said subject, according to another viewpoint of this invention, the determination regarding establishment of the information cooperation between a portable terminal, the display part which displays a content, and the said portable terminal and the said display part is performed. A linkage processing unit to perform, a position change of the portable terminal detected by the portable terminal, and a contact position of the portable terminal in the display unit detected by the display unit when the establishment of the information linkage is determined And a position estimation unit that estimates a relative position of the user carrying the mobile terminal with respect to the display unit.

以上説明したように本発明によれば、専用の計測機器による計測結果を用いることなく、表示部に対するユーザの相対位置を推測することができる。   As described above, according to the present invention, it is possible to estimate the relative position of the user with respect to the display unit without using the measurement result of the dedicated measuring device.

本発明の第1の実施形態による情報処理システムの構成例を示した説明図である。It is explanatory drawing which showed the structural example of the information processing system by the 1st Embodiment of this invention. ベース姿勢およびタッチ姿勢の例を示した説明図である。It is explanatory drawing which showed the example of the base attitude | position and the touch attitude | position. 同実施形態による携帯端末20の構成を示した機能ブロック図である。It is the functional block diagram which showed the structure of the portable terminal 20 by the embodiment. 携帯端末20において設定されている座標系の例を示した説明図である。FIG. 6 is an explanatory diagram showing an example of a coordinate system set in the mobile terminal 20. 携帯端末20を傾けた場面において携帯端末20にかかる重力加速度の方向を示した説明図である。It is explanatory drawing which showed the direction of the gravitational acceleration concerning the portable terminal 20 in the scene where the portable terminal 20 was inclined. 同実施形態による携帯端末20の表示方向ごとの、ベース姿勢に関する一部の判定方法の例を示した説明図である。It is explanatory drawing which showed the example of the one part determination method regarding a base attitude | position for every display direction of the portable terminal 20 by the embodiment. 携帯端末20により検出された加速度の変化方向を表示部326上に投影した様子を示した説明図である。6 is an explanatory diagram showing a state in which a change direction of acceleration detected by the mobile terminal 20 is projected on a display unit 326. FIG. 同実施形態による表示装置30の構成を示した機能ブロック図である。4 is a functional block diagram showing a configuration of a display device 30 according to the embodiment. FIG. 同実施形態によるサーバ10‐1の構成を示した機能ブロック図である。It is the functional block diagram which showed the structure of the server 10-1 by the embodiment. 同実施形態による動作の一部を示したシーケンス図である。FIG. 6 is a sequence diagram showing a part of the operation according to the embodiment. 同実施形態による動作の一部を示したシーケンス図である。FIG. 6 is a sequence diagram showing a part of the operation according to the embodiment. 本発明の第2の実施形態によるサーバ10‐2の構成を示した機能ブロック図である。It is the functional block diagram which showed the structure of the server 10-2 by the 2nd Embodiment of this invention. 携帯端末20の把持腕の回転の自由度を示した説明図である。FIG. 6 is an explanatory diagram showing the degree of freedom of rotation of the grip arm of the mobile terminal 20. タッチ姿勢時における携帯端末20の把持腕の手掌部分の無理のない姿勢の例を示した説明図である。It is explanatory drawing which showed the example of the unreasonable attitude | position of the palm part of the holding arm of the portable terminal 20 at the time of a touch attitude | position. タッチ姿勢時における携帯端末20の把持腕と、表示部に対する携帯端末20の傾きとの関係例を示した説明図である。It is explanatory drawing which showed the example of a relationship between the holding arm of the portable terminal 20 at the time of a touch attitude | position, and the inclination of the portable terminal 20 with respect to a display part. タッチ姿勢時における携帯端末20の把持腕と、表示部に対する携帯端末20の傾きとの関係例を示した説明図である。It is explanatory drawing which showed the example of a relationship between the holding arm of the portable terminal 20 at the time of a touch attitude | position, and the inclination of the portable terminal 20 with respect to a display part. タッチ姿勢時における携帯端末20の把持腕と、表示部に対する携帯端末20の傾きとの関係例を示した説明図である。It is explanatory drawing which showed the example of a relationship between the holding arm of the portable terminal 20 at the time of a touch attitude | position, and the inclination of the portable terminal 20 with respect to a display part. 同実施形態による把持腕の判定条件が異なる領域の区分例を示した説明図である。It is explanatory drawing which showed the example of a division | segmentation of the area | region where the determination conditions of a holding | grip arm differ by the embodiment. ユーザの相対位置とタッチ位置との関係の例を示した説明図である。It is explanatory drawing which showed the example of the relationship between a user's relative position and a touch position. ユーザの相対位置とタッチ位置との位置関係および把持腕の組み合わせと、遮蔽領域との関係の例を示した説明図である。It is explanatory drawing which showed the example of the relationship between the positional relationship of a user's relative position and a touch position, the combination of a holding arm, and a shielding area. 遮蔽領域と、コンテンツが非表示にされる領域との関係の例を示した説明図である。It is explanatory drawing which showed the example of the relationship between a shielding area | region and the area | region where a content is hidden. 同実施形態による動作の一部を示したシーケンス図である。FIG. 6 is a sequence diagram showing a part of the operation according to the embodiment. 各実施形態に共通するサーバ10のハードウェア構成を示した説明図である。It is explanatory drawing which showed the hardware constitutions of the server 10 common to each embodiment.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成を、必要に応じて通信網32aおよび通信網32bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、通信網32aおよび通信網32bを特に区別する必要が無い場合には、単に通信網32と称する。   In the present specification and drawings, a plurality of components having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numeral. For example, a plurality of configurations having substantially the same functional configuration are distinguished as necessary, such as the communication network 32a and the communication network 32b. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given. For example, when it is not necessary to distinguish between the communication network 32a and the communication network 32b, they are simply referred to as the communication network 32.

また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.情報処理システムの基本構成
2.第1の実施形態
3.第2の実施形態
4.ハードウェア構成
5.変形例
Further, the “DETAILED DESCRIPTION OF THE INVENTION” will be described according to the following item order.
1. 1. Basic configuration of information processing system 1. First embodiment Second Embodiment 4. 4. Hardware configuration Modified example

なお、本明細書及び図面において、第1の実施形態によるサーバ10‐1と第2の実施形態によるサーバ10‐2とを特に区別する必要がない場合には、総称的にサーバ10と記載する場合がある。   In the present specification and drawings, the server 10-1 according to the first embodiment and the server 10-2 according to the second embodiment are collectively referred to as the server 10 when it is not necessary to distinguish between them. There is a case.

<<1.情報処理システムの基本構成>>
まず、各実施形態に共通する情報処理システムの基本構成について、図1を参照して説明する。図1に示したように、各実施形態に共通する情報処理システムは、サーバ10、携帯端末20、表示装置30、および通信網32を含む。
<< 1. Basic configuration of information processing system >>
First, a basic configuration of an information processing system common to each embodiment will be described with reference to FIG. As illustrated in FIG. 1, the information processing system common to the embodiments includes a server 10, a mobile terminal 20, a display device 30, and a communication network 32.

[1−1−1.サーバ10]
サーバ10は、本発明における情報処理装置の一例である。このサーバ10は、例えば携帯端末20がユーザにより表示装置30にタッチされた場合に、携帯端末20と表示装置30との間の情報連携(ペアリング)の確立処理を行うための装置である。また、サーバ10は、表示装置30に対する表示制御を行うことが可能である。
[1-1-1. Server 10]
The server 10 is an example of an information processing apparatus according to the present invention. The server 10 is a device for performing information cooperation (pairing) establishment processing between the mobile terminal 20 and the display device 30 when the mobile terminal 20 is touched on the display device 30 by a user, for example. In addition, the server 10 can perform display control on the display device 30.

[1−1−2.携帯端末20]
携帯端末20は、ユーザが携帯する通信端末である。この携帯端末20は、例えば、スマートフォンなどの携帯電話である。
[1-1-2. Mobile terminal 20]
The mobile terminal 20 is a communication terminal carried by the user. The mobile terminal 20 is a mobile phone such as a smartphone.

また、携帯端末20は、サーバ10との間で通信網32aを介して各種情報の送受信を行うことが可能である。なお、携帯端末20と表示装置30とは、初期状態では互いに通信相手として特定されていない状態であり、通信が不可能となっている。   In addition, the mobile terminal 20 can transmit and receive various types of information to and from the server 10 via the communication network 32a. Note that the mobile terminal 20 and the display device 30 are not specified as communication partners in the initial state, and communication is impossible.

[1−1−3.表示装置30]
表示装置30は、例えば静電容量方式または赤外線遮断方式のタッチパネルを含むディスプレイを有する。この表示装置30は、例えば、デジタルサイネージ用の装置である。
[1-1-3. Display device 30]
The display device 30 includes a display including a capacitive touch panel or an infrared shielding touch panel, for example. The display device 30 is, for example, a device for digital signage.

表示装置30は、サーバ10から受信される表示制御情報に従って、画像などの複数のコンテンツを表示する。また、表示装置30は、例えば図2の右図に示したような、ユーザが携帯端末20を表示装置30のディスプレイに接触させた場合(タッチ姿勢時)に、ディスプレイにおける携帯端末20のタッチ位置を検出することが可能である。   The display device 30 displays a plurality of contents such as images in accordance with display control information received from the server 10. Further, the display device 30 is configured such that, for example, as shown in the right diagram of FIG. 2, when the user brings the mobile terminal 20 into contact with the display of the display device 30 (at the touch position), the touch position of the mobile terminal 20 on the display Can be detected.

[1−1−4.通信網32]
通信網32は、通信網32に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網32は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網32は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
[1-1-4. Communication network 32]
The communication network 32 is a wired or wireless transmission path for information transmitted from a device connected to the communication network 32. For example, the communication network 32 may include a public line network such as a telephone line network, the Internet, a satellite communication network, various local area networks (LANs) including the Ethernet (registered trademark), a wide area network (WAN), and the like. . The communication network 32 may include a dedicated line network such as an IP-VPN (Internet Protocol-Virtual Private Network).

<1−2.課題の整理>
ところで、表示装置30に表示されているコンテンツとユーザとの間で直感的なインタラクションが可能であることが望まれる。例えば図2の右図に示したようにユーザが携帯端末20をディスプレイにタッチした場合には、携帯端末20のタッチ位置に応じて、表示されているコンテンツの表示態様を変化可能であることが望ましい。
<1-2. Organizing issues>
By the way, it is desired that an intuitive interaction is possible between the content displayed on the display device 30 and the user. For example, as shown in the right diagram of FIG. 2, when the user touches the mobile terminal 20 on the display, the display mode of the displayed content can be changed according to the touch position of the mobile terminal 20. desirable.

公知の技術では、ユーザの状態を計測するためだけに使用される専用の計測機器を使用することにより、インタラクション時におけるユーザとディスプレイとの位置関係や姿勢関係を計測する技術が提案されている。しかしながら、この技術では、専用の計測機器が必要となるので、システムの構成が複雑になったり、システムの導入コストが高くなる。   In a known technique, a technique for measuring the positional relationship and posture relationship between a user and a display at the time of interaction by using a dedicated measuring device that is used only for measuring the state of the user has been proposed. However, this technique requires a dedicated measuring instrument, which complicates the system configuration and increases the system introduction cost.

そこで、上記事情を一着眼点にして、各実施形態によるサーバ10を創作するに至った。各実施形態によるサーバ10は、携帯端末20および表示装置30による計測結果だけで、ディスプレイに対するユーザの相対位置を推測することが可能である。また、サーバ10は、推測したユーザの相対位置に応じて、表示装置30に表示されているコンテンツの表示態様を変化させることが可能である。   Therefore, the server 10 according to each embodiment has been created by focusing on the above circumstances. The server 10 according to each embodiment can estimate the relative position of the user with respect to the display only from the measurement results obtained by the mobile terminal 20 and the display device 30. Further, the server 10 can change the display mode of the content displayed on the display device 30 according to the estimated relative position of the user.

<<2.第1の実施形態>>
<2−1.構成>
[2−1−1.携帯端末20]
次に、第1の実施形態による構成について詳細に説明する。図3は、第1の実施形態による携帯端末20の構成を示した機能ブロック図である。図3に示したように、携帯端末20は、制御部200、入力部220、センサ部222、通信部224、記憶部226、および表示部228を有する。
<< 2. First Embodiment >>
<2-1. Configuration>
[2-1-1. Mobile terminal 20]
Next, the configuration according to the first embodiment will be described in detail. FIG. 3 is a functional block diagram showing the configuration of the mobile terminal 20 according to the first embodiment. As illustrated in FIG. 3, the mobile terminal 20 includes a control unit 200, an input unit 220, a sensor unit 222, a communication unit 224, a storage unit 226, and a display unit 228.

(2−1−1−1.制御部200)
制御部200は、携帯端末20に内蔵される例えばCPU(Central Processing Unit)、RAM(Random Access Memory)、またはROM(Read Only Memory)などのハードウェアを用いて、携帯端末20の動作を全般的に制御する。また、図3に示したように、制御部200は、操作処理部202、動作処理部204、表示制御部206、および、連携制御部208を有する。
(2-1-1-1. Control unit 200)
The control unit 200 generally performs operations of the mobile terminal 20 using hardware such as a CPU (Central Processing Unit), a RAM (Random Access Memory), or a ROM (Read Only Memory) built in the mobile terminal 20. To control. As illustrated in FIG. 3, the control unit 200 includes an operation processing unit 202, an operation processing unit 204, a display control unit 206, and a cooperation control unit 208.

(2−1−1−2.操作処理部202)
操作処理部202は、後述する入力部220により検出されたユーザの入力操作の処理を行う。
(2-1-1-2. Operation processing unit 202)
The operation processing unit 202 performs processing of a user input operation detected by the input unit 220 described later.

(2−1−1−3.動作処理部204)
‐動作の導出
動作処理部204は、後述するセンサ部222による検出結果に基づいて、ユーザの動作またはユーザに把持された携帯端末20の動作を示す動作情報を導出する処理を行う。
(2-1-1-3. Operation processing unit 204)
-Derivation of operation The operation processing unit 204 performs a process of deriving operation information indicating the operation of the user or the operation of the mobile terminal 20 held by the user based on the detection result by the sensor unit 222 described later.

‐‐ユーザの姿勢(ベース姿勢)の判定
例えば、動作処理部204は、センサ部222による加速度または角加速度の検出結果に基づいて、ユーザの姿勢がベース姿勢であるか否かの判定を行う。ここで、ベース姿勢は、本発明における第1の姿勢の一例である。ベース姿勢は、タッチ姿勢との間での姿勢の切り替えを識別可能な任意の姿勢である。また、タッチ姿勢は、例えば図2の右図に示したような、ユーザが携帯端末20を表示装置30のディスプレイにタッチさせる際の姿勢である。
-Determination of user posture (base posture) For example, the motion processing unit 204 determines whether or not the user posture is the base posture based on the detection result of acceleration or angular acceleration by the sensor unit 222. Here, the base posture is an example of a first posture in the present invention. The base posture is an arbitrary posture that can identify the posture switching between the touch posture. Further, the touch posture is a posture when the user touches the display of the display device 30 with the mobile terminal 20 as illustrated in the right diagram of FIG.

例えば、ベース姿勢は、図2の左図に示したように、ユーザが携帯端末20を胸部前方に傾けて保持し、かつ、携帯端末20の表示画面を見ている姿勢であってもよい。または、ベース姿勢は、ユーザが表示装置30に正対し、かつ、携帯端末20を手に把持した状態で手を下ろしている姿勢であってもよい。または、ベース姿勢は、ユーザが表示装置30に向かって歩いている際の姿勢であってもよい。   For example, as shown in the left diagram of FIG. 2, the base posture may be a posture in which the user holds the mobile terminal 20 tilted forward of the chest and is looking at the display screen of the mobile terminal 20. Alternatively, the base posture may be a posture in which the user is facing the display device 30 and holding his hand down while holding the mobile terminal 20 in his / her hand. Alternatively, the base posture may be a posture when the user is walking toward the display device 30.

例えば、動作処理部204は、下記の2つの条件(条件A、および条件B)をともに満たす場合にはユーザの姿勢がベース姿勢であると判定し、かつ、2つの条件のうち少なくとも一方を満たさない場合にはベース姿勢ではないと判定してもよい。ここで、条件Aは、携帯端末20が静止状態であることである。また、条件Bは、携帯端末20の姿勢状態が、特定の姿勢状態であることである。   For example, the motion processing unit 204 determines that the user's posture is the base posture when both of the following two conditions (condition A and condition B) are satisfied, and satisfies at least one of the two conditions. If not, it may be determined that the posture is not the base posture. Here, the condition A is that the mobile terminal 20 is in a stationary state. The condition B is that the posture state of the mobile terminal 20 is a specific posture state.

ここで、上記の内容についてより詳細に説明する。今、携帯端末20の座標系(つまり、後述するセンサ部222に含まれる3軸加速度センサまたはジャイロセンサの座標系)が図4に示したようなxyz座標系として設定されているとする。この場合、条件Aは、例えば3軸加速度センサにより測定されるx、y、zの3軸方向にかかる加速度がそれぞれ一定の値に収束しており(または、ある範囲内に収まっており)、かつ、3軸回りにかかる角加速度(角速度)の値が全て「0」である(または「0」を基点としてある範囲内に収まっている)状態であることである。   Here, the above contents will be described in more detail. Assume that the coordinate system of the mobile terminal 20 (that is, the coordinate system of a three-axis acceleration sensor or gyro sensor included in the sensor unit 222 described later) is set as an xyz coordinate system as shown in FIG. In this case, the condition A is, for example, that accelerations in the three-axis directions of x, y, and z measured by a three-axis acceleration sensor converge to a certain value (or fall within a certain range), respectively. In addition, the values of the angular accelerations (angular velocities) about the three axes are all “0” (or are within a certain range with “0” as a base point).

ところで、ベース姿勢が、図2の左図に示したようなユーザが携帯端末20の表示画面を見ている姿勢として定められているとすると、携帯端末20は、ベース姿勢時において、例えば図5に示したような方向にユーザにより傾けられている。このため、携帯端末20には、重力加速度G(gx,gy,gz)が図5に示した実線の矢印のような方向にかかる。そこで、ベース姿勢が図2の左図に示したような姿勢と定められている場合には、上記の条件Bは、下記の2つの条件(条件B‐1、および条件B‐2)をともに満たす状態であると定められ得る。   By the way, if the base posture is determined as a posture in which the user is looking at the display screen of the mobile terminal 20 as shown in the left diagram of FIG. It is tilted by the user in the direction as shown in FIG. For this reason, the gravitational acceleration G (gx, gy, gz) is applied to the mobile terminal 20 in the direction indicated by the solid line arrow shown in FIG. Therefore, when the base posture is determined to be the posture shown in the left diagram of FIG. 2, the above condition B includes both of the following two conditions (condition B-1 and condition B-2). It can be determined that the condition is satisfied.

Figure 2016181234
Figure 2016181234

なお、条件B‐1は、携帯端末20の表示部228が上方を向いていることを判定するための条件である。また、条件B‐2は、(ユーザが表示部228を見やすいように)表示部228がユーザの胸部側に傾けられていることを判定するための条件である。   The condition B-1 is a condition for determining that the display unit 228 of the mobile terminal 20 is facing upward. The condition B-2 is a condition for determining that the display unit 228 is tilted toward the chest of the user (so that the user can easily see the display unit 228).

なお、変形例として、空間上での携帯端末20の姿勢によって表示画面の表示方向を4方向に変化可能な機能を携帯端末20が有している場合には、条件B‐2の代わりに、図6に示したような、表示画面の表示方向ごとに定められた判定式が用いられてもよい。例えば表示部228におけるY軸の負方向と表示画面の表示の上方向とが一致するように携帯端末20が傾けられている場合には、条件B‐2の代わりに、下記の判定式が用いられる。   As a modification, when the mobile terminal 20 has a function that can change the display direction of the display screen in four directions depending on the attitude of the mobile terminal 20 in space, instead of the condition B-2, A determination formula defined for each display direction of the display screen as shown in FIG. 6 may be used. For example, when the mobile terminal 20 is tilted so that the negative direction of the Y axis in the display unit 228 matches the upward direction of the display screen, the following determination formula is used instead of the condition B-2. It is done.

Figure 2016181234
Figure 2016181234

‐‐携帯端末20の位置変化の特定
また、動作処理部204は、センサ部222により検出される加速度の変化に基づいて、携帯端末20の位置の変化を特定する。例えば、動作処理部204は、検出された加速度の変化の方向と逆の方向に携帯端末20が移動したことを特定する。
--Identification of position change of portable terminal 20 In addition, the operation processing unit 204 identifies a change in position of the portable terminal 20 based on a change in acceleration detected by the sensor unit 222. For example, the motion processing unit 204 specifies that the mobile terminal 20 has moved in a direction opposite to the direction of the detected acceleration change.

ここで、図7を参照して、上記の内容についてより詳細に説明する。図7は、ユーザにより携帯端末20が移動された場合において、センサ部222により検出された加速度の変化方向が(表示装置30における)後述する表示部326上に投影された様子を示した説明図である。なお、図7における(a)は、携帯端末20が表示部326にタッチされる際に、矢印で示したように、加速度が「左上」方向に変化したことが検出された場合の投影例を示している。同様に、図7の(b)は加速度が「上」方向に変化したことが検出された場合、(c)は加速度が「左下」方向に変化したことが検出された場合、また(d)は加速度が「右」方向に変化したことが検出された場合の投影例をそれぞれ示している。   Here, the above content will be described in more detail with reference to FIG. FIG. 7 is an explanatory diagram illustrating a state in which the change direction of acceleration detected by the sensor unit 222 is projected on a display unit 326 described later (in the display device 30) when the mobile terminal 20 is moved by the user. It is. 7A shows an example of projection when it is detected that the acceleration has changed in the “upper left” direction as indicated by the arrow when the mobile terminal 20 is touched on the display unit 326. Show. Similarly, (b) in FIG. 7 is when the acceleration is detected to change in the “up” direction, (c) is when the acceleration is detected to change in the “lower left” direction, and (d) Respectively show projection examples when it is detected that the acceleration has changed in the “right” direction.

図7の(a)の例では、動作処理部204は、携帯端末20の移動方向を(加速度の変化方向とは逆方向である)「右下」と判定する。同様に、動作処理部204は、携帯端末20の移動方向を、図7の(b)の例では「下」、図7の(c)の例では「右上」、また、図7の(d)の例では「左」とそれぞれ判定する。   In the example of FIG. 7A, the motion processing unit 204 determines that the moving direction of the mobile terminal 20 is “lower right” (which is a direction opposite to the acceleration changing direction). Similarly, the motion processing unit 204 sets the movement direction of the mobile terminal 20 to “down” in the example of FIG. 7B, “upper right” in the example of FIG. 7C, and (d) of FIG. In the example of), it is determined as “left”.

‐処理結果の送信
また、動作処理部204は、ユーザの姿勢の判定結果や携帯端末20の位置変化情報をサーバ10‐1へ、後述する通信部224に送信させる。
-Transmission of processing result The operation processing unit 204 also transmits the determination result of the posture of the user and the position change information of the mobile terminal 20 to the server 10-1 to the communication unit 224 described later.

(2−1−1−4.表示制御部206)
表示制御部206は、例えばGUI(Graphical User Interface)などの各種の表示情報を表示部228に表示させる。
(2-1-1-4. Display control unit 206)
The display control unit 206 causes the display unit 228 to display various display information such as GUI (Graphical User Interface).

(2−1−1−5.連携制御部208)
連携制御部208は、後述する入力部220に対するユーザの入力に基づいて、表示装置30との間での情報連携の確立に関する要求処理を行う。例えば、連携制御部208は、入力部220に対してユーザにより入力された、表示装置30との間の情報連携の確立の要求信号、および、処理時刻を含む第1のペアリング要求をサーバ10‐1へ通信部224に送信させる。ここで、第1のペアリング要求は、(例えば携帯端末20の移動が停止した場合に)センサ部222に含まれる3軸加速度センサにより測定された3軸方向の加速度成分をさらに含んでもよい。
(2-1-1-5. Coordination control unit 208)
The cooperation control unit 208 performs a request process related to establishment of information cooperation with the display device 30 based on a user input to the input unit 220 described later. For example, the cooperation control unit 208 sends a first pairing request including a request signal for establishing information cooperation with the display device 30 and a processing time, which is input by the user to the input unit 220 and the processing time. -1 is transmitted to the communication unit 224. Here, the first pairing request may further include a triaxial acceleration component measured by the triaxial acceleration sensor included in the sensor unit 222 (for example, when the movement of the mobile terminal 20 stops).

(2−1−1−6.入力部220)
入力部220は、携帯端末20に対するユーザの操作を検出する機能を有する。例えば、入力部220は、表示部228に表示されているGUIに対するユーザの操作を検出可能なタッチパネルを含んでもよい。また、入力部220は、ユーザのジェスチャーを検出可能なカメラを含んでもよい。また、入力部220は、ユーザの発声を検出可能なマイクロフォンを含んでもよい。
(2-1-1-6. Input unit 220)
The input unit 220 has a function of detecting a user operation on the mobile terminal 20. For example, the input unit 220 may include a touch panel that can detect a user's operation on the GUI displayed on the display unit 228. The input unit 220 may include a camera that can detect a user's gesture. The input unit 220 may include a microphone that can detect a user's utterance.

(2−1−1−7.センサ部222)
センサ部222は、携帯端末20の加速度、または角加速度を検出する機能を有する。例えば、センサ部222は、3軸加速度センサを含み、かつ、携帯端末20にかかる3軸方向の加速度を検出する。なお、携帯端末20におけるx、y、zの3軸(座標系)は、例えば図4に示したようにそれぞれ設定され得る。また、センサ部222は、ジャイロセンサを含み、かつ、携帯端末20における3軸回りの角加速度を検出する。
(2-1-1-7. Sensor unit 222)
The sensor unit 222 has a function of detecting the acceleration or angular acceleration of the mobile terminal 20. For example, the sensor unit 222 includes a triaxial acceleration sensor and detects the triaxial acceleration applied to the mobile terminal 20. Note that the three axes (coordinate system) of x, y, and z in the mobile terminal 20 can be set, for example, as shown in FIG. The sensor unit 222 includes a gyro sensor and detects angular acceleration around the three axes in the mobile terminal 20.

なお、センサ部222は、基本的には携帯端末20の内部に備えられる。但し、かかる例に限定されず、センサ部222は、携帯端末20の外部に備えられてもよい。   The sensor unit 222 is basically provided inside the mobile terminal 20. However, the sensor unit 222 may be provided outside the mobile terminal 20 without being limited to such an example.

(2−1−1−8.通信部224)
通信部224は、通信網32aに接続されている他の装置との間で情報の送受信を行う。例えば、通信部224は、動作処理部204の制御に従って、携帯端末20の位置変化情報をサーバ10‐1へ送信する。
(2-1-1-8. Communication unit 224)
The communication unit 224 transmits / receives information to / from other devices connected to the communication network 32a. For example, the communication unit 224 transmits the position change information of the mobile terminal 20 to the server 10-1 according to the control of the operation processing unit 204.

なお、携帯端末20と表示装置30との間の情報連携がサーバ10‐1により確立された場合には、通信部224は、表示装置30との間で情報の送受信を行うことも可能である。   Note that when the information link between the portable terminal 20 and the display device 30 is established by the server 10-1, the communication unit 224 can also transmit and receive information to and from the display device 30. .

(2−1−1−9.記憶部226)
記憶部226は、例えば、制御部200の動作に関するソフトウェアやデータなどを記憶する。
(2-1-1-9. Storage Unit 226)
The storage unit 226 stores, for example, software and data related to the operation of the control unit 200.

(2−1−1−10.表示部228)
表示部228は、例えば液晶ディスプレイなどにより構成される。この表示部228は、表示制御部206の制御に従って、表示画面を表示する。
(2-1-1-10. Display unit 228)
The display unit 228 is configured by a liquid crystal display, for example. The display unit 228 displays a display screen according to the control of the display control unit 206.

[2−1−2.表示装置30]
また、図8は、第1の実施形態による表示装置30の構成を示した機能ブロック図である。図8に示したように、表示装置30は、制御部300、入力部320、通信部322、記憶部324、および表示部326を有する。
[2-1-2. Display device 30]
FIG. 8 is a functional block diagram showing the configuration of the display device 30 according to the first embodiment. As illustrated in FIG. 8, the display device 30 includes a control unit 300, an input unit 320, a communication unit 322, a storage unit 324, and a display unit 326.

(2−1−2−1.制御部300)
制御部300は、表示装置30に内蔵される例えばCPU、RAM、またはROMなどのハードウェアを用いて、表示装置30の動作を全般的に制御する。また、図8に示したように、制御部300は、操作処理部302、表示制御部304、および、連携制御部306を有する。
(2-1-2-1. Control unit 300)
The controller 300 generally controls the operation of the display device 30 using hardware such as a CPU, RAM, or ROM built in the display device 30. As illustrated in FIG. 8, the control unit 300 includes an operation processing unit 302, a display control unit 304, and a cooperation control unit 306.

(2−1−2−2.操作処理部302)
操作処理部302は、後述する入力部320により検出されたユーザの入力操作の処理を行う。例えば、操作処理部302は、表示部326に表示されているコンテンツに対するユーザの選択操作を特定する。
(2-1-2-2. Operation processing unit 302)
The operation processing unit 302 performs user input operation processing detected by the input unit 320 described later. For example, the operation processing unit 302 specifies the user's selection operation for the content displayed on the display unit 326.

(2−1−2−3.表示制御部304)
表示制御部304は、例えばサーバ10‐1から受信される表示制御情報に従って、コンテンツなどの表示情報を表示部326に表示させる。また、表示制御部304は、コンテンツの表示態様を制御する。
(2-1-2-3. Display control unit 304)
The display control unit 304 causes the display unit 326 to display display information such as content in accordance with display control information received from the server 10-1, for example. The display control unit 304 controls the display mode of content.

(2−1−2−4.連携制御部306)
連携制御部306は、携帯端末20がユーザにより片手で把持された状態での表示部326に対するタッチ入力が、後述する入力部320により検出された場合には、携帯端末20との間での情報連携の確立に関する要求処理を行う。
(2-1-2-4. Cooperation control unit 306)
When the touch input to the display unit 326 in a state where the mobile terminal 20 is held with one hand by the user is detected by the input unit 320 described later, the cooperation control unit 306 performs information with the mobile terminal 20. Request processing related to establishment of cooperation.

‐静電容量方式タッチパネル
例えば、上記の場合で、かつ、後述する表示部326が静電容量方式タッチパネルを含む場合には、連携制御部306は、まず、入力部320により検出された2タッチ点の中点(タッチ点の組が複数存在する場合には各タッチ点の組の中点の重心)を表示部326に対する接触点として特定する。そして、連携制御部306は、特定した接触点、および、処理時刻を含む第2のペアリング要求をサーバ10‐1へ通信部322に送信させる。
-Capacitive touch panel For example, in the above case, and when the display unit 326 described later includes a capacitive touch panel, the cooperation control unit 306 first detects the two touch points detected by the input unit 320. Is specified as a contact point with respect to the display unit 326 (if there are a plurality of sets of touch points, the center of gravity of the center point of each set of touch points). Then, the cooperation control unit 306 causes the communication unit 322 to transmit the second pairing request including the identified contact point and the processing time to the server 10-1.

‐赤外線遮断方式タッチパネル
また、上記の場合で、かつ、表示部326が赤外線遮断方式タッチパネルを含む場合には、連携制御部306は、まず、表示部326にタッチされた携帯端末20の領域を含む最小の矩形領域の中心を表示部326に対する接触点として特定する。次に、連携制御部306は、表示装置30に内蔵される3軸加速度センサ(図示省略)により計測される、表示部326にかかる重力加速度の3軸方向成分を取得する。次に、連携制御部306は、表示部326に対する携帯端末20の傾きを算出する。そして、連携制御部306は、特定した接触点、取得した3軸加速度の計測情報、算出した携帯端末20の傾き、および、処理時刻を含む第2のペアリング要求をサーバ10‐1へ通信部322に送信させる。
-Infrared shielding type touch panel In the above case and when the display unit 326 includes an infrared shielding type touch panel, the cooperation control unit 306 first includes the area of the mobile terminal 20 touched by the display unit 326. The center of the smallest rectangular area is specified as a contact point with respect to the display unit 326. Next, the cooperation control unit 306 acquires a triaxial component of the gravitational acceleration applied to the display unit 326, which is measured by a triaxial acceleration sensor (not shown) built in the display device 30. Next, the cooperation control unit 306 calculates the inclination of the mobile terminal 20 with respect to the display unit 326. Then, the cooperation control unit 306 communicates the second pairing request including the specified contact point, the acquired measurement information of the triaxial acceleration, the calculated inclination of the mobile terminal 20, and the processing time to the server 10-1. 322 is transmitted.

(2−1−2−5.入力部320)
‐入力例1
入力部320は、表示装置30に対するユーザの操作を検出する機能を有する。例えば、入力部320は、表示部326に対するユーザのタッチ入力を検出する。
(2-1-2-5. Input unit 320)
-Input example 1
The input unit 320 has a function of detecting a user operation on the display device 30. For example, the input unit 320 detects a user's touch input on the display unit 326.

‐‐静電容量方式タッチパネル
例えば、表示部326が静電容量方式タッチパネルを含む場合には、このタッチパネルは、パネル形状で構成される静電容量方式(例えば、格子状に配置された電極と電極との交点に形成されるコンデンサの静電容量が、例えば人体などの導電性物体が接近または接触することにより変化する原理)を利用した、いわゆる投影型静電容量方式を備える。この場合、入力部320は、当該タッチパネルに対する導電性物体の接近または接触により変化する静電容量を計測し、そして、計測した情報に基づいて、表示部326に対するタッチの有無、および、タッチ位置を検出する。
--Capacitance type touch panel For example, when the display unit 326 includes a capacitance type touch panel, the touch panel has a capacitance type configured with a panel shape (for example, electrodes and electrodes arranged in a grid shape). A so-called projected capacitance method that utilizes the principle that the capacitance of the capacitor formed at the intersection of the first and second electrodes changes when a conductive object such as a human body approaches or comes into contact therewith. In this case, the input unit 320 measures the capacitance that changes due to the approach or contact of the conductive object with respect to the touch panel, and based on the measured information, determines whether or not the display unit 326 is touched and the touch position. To detect.

‐‐赤外線遮断方式タッチパネル
または、表示部326が赤外線遮断方式タッチパネルを含む場合には、このタッチパネルでは、ベゼルの長辺および短辺のそれぞれ一辺には赤外線LED(Light Emitting Diode)、対向する辺には赤外線センサがそれぞれ敷設されており、そして、赤外線LEDを順次発光させることにより、タッチパネルの表面上に赤外線のマトリクスを形成する。この場合、入力部320は、当該タッチパネルに敷設されている赤外線センサの受光レベルに基づいて、表示部326に対するタッチの有無、および、タッチ位置を検出する。例えば、当該タッチパネルが指などでタッチされた場合、タッチされた部分を通る赤外線が遮断され、そして、対応する箇所の赤外線センサの受光レベルが低下することにより、入力部320は、タッチ位置を検出する。なお、入力部320は、当該タッチパネル上に物体(例えば携帯端末20など)が配置された場合、配置された物体によって覆われる領域を含む最小の矩形領域のサイズ(縦×横)も検出可能である。
--Infrared shielding type touch panel Or, when the display unit 326 includes an infrared shielding type touch panel, the touch panel has an infrared LED (Light Emitting Diode) on one side of the long side and a short side of the bezel, and an opposite side. Infrared sensors are respectively laid, and an infrared matrix is formed on the surface of the touch panel by sequentially emitting infrared LEDs. In this case, the input unit 320 detects the presence / absence of a touch on the display unit 326 and the touch position based on the light reception level of the infrared sensor laid on the touch panel. For example, when the touch panel is touched with a finger or the like, the infrared ray passing through the touched portion is blocked, and the light receiving level of the infrared sensor at the corresponding location is lowered, so that the input unit 320 detects the touch position. To do. The input unit 320 can also detect the size (vertical x horizontal) of the smallest rectangular area including the area covered by the arranged object when an object (for example, the mobile terminal 20) is arranged on the touch panel. is there.

‐入力例2
また、携帯端末20と表示装置30との間で情報連携が確立した場合には、入力部320は、当該情報連携が実現可能な範囲において任意の入力方法を受け付け可能である。
-Input example 2
In addition, when information cooperation is established between the mobile terminal 20 and the display device 30, the input unit 320 can accept any input method within a range where the information cooperation can be realized.

(2−1−2−6.通信部322)
通信部322は、通信網32bに接続されている他の装置との間で情報の送受信を行う。例えば、通信部322は、コンテンツを表示部326に表示させるための表示制御情報をサーバ10‐1から受信する。
(2-1-2-6. Communication unit 322)
The communication unit 322 transmits / receives information to / from other devices connected to the communication network 32b. For example, the communication unit 322 receives display control information for causing the display unit 326 to display content from the server 10-1.

また、携帯端末20と表示装置30との間で情報連携が確立された場合には、通信部322は、携帯端末20との間で情報の送受信を行うことも可能である。   In addition, when information cooperation is established between the mobile terminal 20 and the display device 30, the communication unit 322 can transmit and receive information to and from the mobile terminal 20.

(2−1−2−7.記憶部324)
記憶部324は、例えば、制御部300の動作に関するソフトウェアやデータなどを記憶する。
(2-1-2-7. Storage Unit 324)
The storage unit 324 stores, for example, software and data related to the operation of the control unit 300.

(2−1−2−8.表示部326)
表示部326は、タッチパネルを含む例えば液晶ディスプレイにより構成される。この表示部326は、表示制御部304の制御に従って、表示画面を表示する。
(2-1-2-8. Display unit 326)
The display unit 326 is configured by a liquid crystal display including a touch panel, for example. The display unit 326 displays a display screen according to the control of the display control unit 304.

[2−1−3.サーバ10‐1]
また、図9は、第1の実施形態によるサーバ10‐1の構成を示した機能ブロック図である。図9に示したように、サーバ10‐1は、制御部100‐1、通信部120、および記憶部122‐1を有する。
[2-1-3. Server 10-1]
FIG. 9 is a functional block diagram showing the configuration of the server 10-1 according to the first embodiment. As shown in FIG. 9, the server 10-1 includes a control unit 100-1, a communication unit 120, and a storage unit 122-1.

(2−1−3−1.制御部100‐1)
制御部100‐1は、サーバ10‐1に内蔵される、後述するCPU150、ROM152、RAM154などのハードウェアを用いて、サーバ10‐1の動作を全般的に制御する。また、図9に示したように、制御部100‐1は、連携処理部102、人物位置推測部104、および、表示制御部106を有する。
(2-1-3-1. Control unit 100-1)
The control unit 100-1 generally controls the operation of the server 10-1 using hardware such as a CPU 150, a ROM 152, and a RAM 154, which will be described later, built in the server 10-1. Further, as illustrated in FIG. 9, the control unit 100-1 includes a cooperation processing unit 102, a person position estimation unit 104, and a display control unit 106.

(2−1−3−2.連携処理部102)
‐情報連携の確立処理
連携処理部102は、携帯端末20から受信される第1のペアリング要求と、表示装置30から受信される第2のペアリング要求との比較に基づいて、携帯端末20と表示装置30との間の情報連携の確立に関する制御を行う。
(2-1-3-2. Cooperation processing unit 102)
-Process for Establishing Information Cooperation The cooperation processing unit 102 is based on a comparison between the first pairing request received from the portable terminal 20 and the second pairing request received from the display device 30. And control related to establishment of information linkage between the display device 30 and the display device 30.

‐‐静電容量方式タッチパネル
例えば、表示部326が静電容量方式タッチパネルを含む場合には、連携処理部102は、受信された第1のペアリング要求に含まれる処理時刻と、受信された第2のペアリング要求に含まれる処理時刻との差分が所定の時間内に収まる場合に、携帯端末20と表示装置30との間で情報連携(ペアリング)を確立させる。
--Capacitive touch panel For example, when the display unit 326 includes a capacitive touch panel, the cooperation processing unit 102 receives the processing time included in the received first pairing request and the received first When the difference from the processing time included in the pairing request 2 falls within a predetermined time, information cooperation (pairing) is established between the mobile terminal 20 and the display device 30.

‐‐赤外線遮断方式タッチパネル
また、表示部326が赤外線遮断方式タッチパネルを含む場合には、連携処理部102は、下記の2つの条件(条件C、および条件D)を満たす場合にのみ、携帯端末20と表示装置30との間で情報連携を確立させる。ここで、条件Cは、受信された第1のペアリング要求に含まれる処理時刻と、受信された第2のペアリング要求に含まれる処理時刻との差分が所定の時間内に収まることである。また、条件Dは、第1のペアリング要求に含まれる携帯端末20の姿勢情報(3軸方向の加速度成分)、および第2のペアリング要求に含まれる表示装置30の姿勢情報(3軸方向の加速度成分)に基づいて連携処理部102により算出される表示部326上での携帯端末20の傾きと、第2のペアリング要求に含まれる表示装置30により算出された表示部326上での携帯端末20(と推測される物体)の傾きとの差分が所定の閾値以内に収まることである。このように、条件Cだけでなく、条件Dを追加して判定を行うことにより、ペアリングの精度を向上させることができる。
--Infrared shielding type touch panel When the display unit 326 includes an infrared shielding type touch panel, the cooperation processing unit 102 can perform the portable terminal 20 only when the following two conditions (condition C and condition D) are satisfied. And information display are established between the display device 30 and the display device 30. Here, the condition C is that the difference between the processing time included in the received first pairing request and the processing time included in the received second pairing request falls within a predetermined time. . In addition, the condition D includes the posture information of the mobile terminal 20 included in the first pairing request (acceleration component in three axes direction) and the posture information of the display device 30 included in the second pairing request (three axes direction). Of the mobile terminal 20 on the display unit 326 calculated by the cooperation processing unit 102 based on the acceleration component) and the display unit 326 calculated by the display device 30 included in the second pairing request. That is, the difference between the inclination of the portable terminal 20 (presumed object) falls within a predetermined threshold. In this way, not only the condition C but also the condition D is added for the determination, so that the pairing accuracy can be improved.

なお、例えば表示装置30がテーブル型の装置であり、かつ、表示部326がテーブルの天板である場合や、表示装置30が壁に取り付けられる場合など、空間における表示部326の姿勢は多様であり得る。しかし、条件Dでは、表示部326の姿勢に依存せずに判定を行うことができる。   Note that, for example, when the display device 30 is a table-type device and the display unit 326 is a table top, or when the display device 30 is mounted on a wall, the posture of the display unit 326 in the space varies. possible. However, in the condition D, the determination can be performed without depending on the posture of the display unit 326.

‐タッチ姿勢の判定処理
また、連携処理部102は、携帯端末20から受信される携帯端末20の位置変化情報に基づいて、ユーザの姿勢がタッチ姿勢であるか否かの判定を行う。
-Touch Posture Determination Processing Further, the cooperation processing unit 102 determines whether or not the user posture is the touch posture based on the position change information of the mobile terminal 20 received from the mobile terminal 20.

例えば、連携処理部102は、下記の2つの条件(条件E、および条件F)をともに満たす場合にはユーザの姿勢がタッチ姿勢であると判定し、かつ、2つの条件のうち少なくとも一方を満たさない場合にはタッチ姿勢ではないと判定する。ここで、条件Eは、携帯端末20から受信された携帯端末20の位置変化情報が、携帯端末20が静止状態であることを示すことである。また、条件Fは、携帯端末20と表示装置30との間の情報連携がすでに確立しており、かつ、表示部326に対する携帯端末20の接触が検出されていることが表示装置30から受信されていることである。   For example, the cooperation processing unit 102 determines that the user's posture is a touch posture when both of the following two conditions (condition E and condition F) are satisfied, and satisfies at least one of the two conditions. If not, it is determined that the touch posture is not set. Here, the condition E is that the position change information of the mobile terminal 20 received from the mobile terminal 20 indicates that the mobile terminal 20 is in a stationary state. The condition F is received from the display device 30 that information cooperation between the mobile terminal 20 and the display device 30 has already been established, and that the contact of the mobile terminal 20 with the display unit 326 is detected. It is that.

(2−1−3−3.人物位置推測部104)
人物位置推測部104は、携帯端末20から受信される位置変化情報、および、連携処理部102による情報連携の確立時(または確立後)に表示装置30から受信される携帯端末20のタッチ位置に基づいて、表示部326に対するユーザの相対位置を推測する。ここで、対象となる位置変化情報は、例えば、表示部326に携帯端末20がタッチされる直前もしくは表示部326から携帯端末20が離された直後における携帯端末20の位置と、表示部326における携帯端末20のタッチ位置との間の位置変化を示す情報であってもよい。または、当該位置変化情報は、ユーザの姿勢がベース姿勢からタッチ姿勢へ移行する際、もしくは、タッチ姿勢からベース姿勢へ移行する際における携帯端末20の位置変化を示す情報であってもよい。
(2-1-3-3. Person position estimation unit 104)
The person position estimation unit 104 receives the position change information received from the mobile terminal 20 and the touch position of the mobile terminal 20 received from the display device 30 when the information processing unit 102 establishes (or after) information cooperation. Based on this, the user's relative position with respect to the display unit 326 is estimated. Here, the target position change information includes, for example, the position of the mobile terminal 20 immediately before the mobile terminal 20 is touched on the display unit 326 or immediately after the mobile terminal 20 is released from the display unit 326, and the display unit 326. The information which shows the position change between the touch positions of the portable terminal 20 may be sufficient. Alternatively, the position change information may be information indicating a position change of the mobile terminal 20 when the user's posture shifts from the base posture to the touch posture, or when the user's posture changes from the touch posture to the base posture.

例えば、人物位置推測部104は、さらに、人体モデルDB124に格納されている例えば腕の長さなどの人体モデル情報に基づいて、表示部326に対するユーザの相対位置を推測する。なお、ユーザの相対位置は、表示部326に対するユーザの胸部の相対位置であってもよいし、ユーザの顔部または眼部正面の相対位置であってもよい。   For example, the person position estimation unit 104 further estimates the relative position of the user with respect to the display unit 326 based on the human body model information such as the arm length stored in the human body model DB 124. Note that the relative position of the user may be a relative position of the chest of the user with respect to the display unit 326, or may be a relative position of the front of the user's face or eyes.

‐‐人体モデルDB124
人体モデルDB124は、例えば人体の身長、各部位の長さ、および各部位の位置関係などの平均データが格納されているデータベースである。また、人体モデルDB124は、例えば、記憶部122‐1に記憶されている。
-Human model DB124
The human body model DB 124 is a database that stores average data such as the height of the human body, the length of each part, and the positional relationship between the parts. The human body model DB 124 is stored in the storage unit 122-1, for example.

(2−1−3−4.表示制御部106)
表示制御部106は、人物位置推測部104により推測されたユーザの相対位置に基づいて、表示装置30(の表示部326)に表示されているコンテンツの表示態様を変化させるための表示制御情報を表示装置30へ、後述する通信部120に送信させる。
(2-1-3-4. Display control unit 106)
The display control unit 106 displays display control information for changing the display mode of the content displayed on the display device 30 (the display unit 326) based on the relative position of the user estimated by the person position estimation unit 104. The display device 30 is caused to transmit to the communication unit 120 described later.

例えば、表示制御部106は、推測されたユーザの相対位置に基づいて、表示部326に現在表示されているコンテンツの表示位置を変更したり、または、新たにコンテンツを表示させるための表示制御情報を表示装置30へ通信部120に送信させる。一例として、表示制御部106は、推測されたユーザの胸部の相対位置が表示部326上に投影された位置である胸部投影位置の周辺に表示されているコンテンツを胸部投影位置よりも上方に移動させて表示させる。また、表示制御部106は、表示部326に新たにコンテンツを表示させる際に、当該コンテンツを胸部投影位置よりも上方に表示させる。これらの表示例によれば、ユーザにとってコンテンツがより見やすくなる。例えば、ユーザの眼部はユーザの胸部よりも上に位置するので、ユーザは視線を下げずにコンテンツを見ることができるようになる。   For example, the display control unit 106 changes the display position of the content currently displayed on the display unit 326 based on the estimated relative position of the user, or displays control information for newly displaying the content. Is transmitted to the communication unit 120 to the display device 30. As an example, the display control unit 106 moves the content displayed around the chest projection position, which is a position where the estimated relative position of the user's chest is projected on the display unit 326, to a position higher than the chest projection position. To display. Further, when the display control unit 106 newly displays content on the display unit 326, the display control unit 106 displays the content above the chest projection position. According to these display examples, it becomes easier for the user to see the content. For example, since the user's eyes are positioned above the user's chest, the user can view the content without lowering his line of sight.

または、表示制御部106は、表示部326に表示されている複数のコンテンツのうちユーザがインタラクションを行ったコンテンツ、および当該コンテンツに関連するコンテンツを、表示部326においてユーザの顔部または眼部正面が投影された位置または領域(以下、顔部投影位置/領域とも称する)を中心として集まるように移動させたり、または、顔部投影位置/領域に新たに表示させる。   Alternatively, the display control unit 106 displays, in the display unit 326, the content that the user has interacted among the plurality of contents displayed on the display unit 326 and the content related to the content on the display unit 326. Are moved around the projected position or area (hereinafter also referred to as face projection position / area), or are newly displayed at the face projection position / area.

または、表示制御部106は、表示部326において顔部投影位置/領域に表示されているコンテンツの密度が他の領域よりも高くなるようにコンテンツの表示位置を移動させたり、または、新たにコンテンツを表示させる。   Alternatively, the display control unit 106 moves the display position of the content so that the density of the content displayed in the face projection position / region on the display unit 326 is higher than the other regions, or newly displays the content. Is displayed.

(2−1−3−5.通信部120)
通信部120は、例えば通信網32を介して、他の装置との間で情報の送受信を行う。例えば、通信部120は、携帯端末20の位置変化情報、および、ユーザのベース姿勢の判定結果を携帯端末20から受信する。また、通信部120は、表示制御部106の制御に従って、表示制御情報を表示装置30へ送信する。
(2-1-3-5. Communication unit 120)
The communication unit 120 transmits and receives information to and from other devices via the communication network 32, for example. For example, the communication unit 120 receives the position change information of the mobile terminal 20 and the determination result of the user's base posture from the mobile terminal 20. In addition, the communication unit 120 transmits display control information to the display device 30 according to the control of the display control unit 106.

(2−1−3−6.記憶部122‐1)
記憶部122‐1は、例えば人体モデルDB124などの各種のデータを記憶する。
(2-1-3-6. Storage Unit 122-1)
The storage unit 122-1 stores various data such as the human body model DB 124, for example.

なお、第1の実施形態によるサーバ10‐1の構成は、上述した構成に限定されない。例えば、人体モデルDB124は、記憶部122‐1に記憶される代わりに、サーバ10‐1と通信可能な他の装置(図示省略)に記憶されることも可能である。   The configuration of the server 10-1 according to the first embodiment is not limited to the configuration described above. For example, instead of being stored in the storage unit 122-1, the human body model DB 124 can be stored in another device (not shown) that can communicate with the server 10-1.

<2−2.動作>
以上、第1の実施形態による構成について説明した。続いて、第1の実施形態による動作について説明する。図10は、第1の実施形態による動作の一部を示したシーケンス図である。図10に示したように、まず、サーバ10‐1の通信部120は、表示制御部106の制御に従って、1以上のコンテンツを表示させるための表示制御情報を表示装置30へ送信する(S101)。そして、表示装置30の表示制御部304は、受信された表示制御情報に従って、表示画面を表示部326に表示させる(S103)。
<2-2. Operation>
The configuration according to the first embodiment has been described above. Subsequently, an operation according to the first embodiment will be described. FIG. 10 is a sequence diagram showing a part of the operation according to the first embodiment. As shown in FIG. 10, first, the communication unit 120 of the server 10-1 transmits display control information for displaying one or more contents to the display device 30 according to the control of the display control unit 106 (S101). . Then, the display control unit 304 of the display device 30 displays a display screen on the display unit 326 according to the received display control information (S103).

また、携帯端末20の動作処理部204は、センサ部222による検出結果に基づいて、ユーザの姿勢がベース姿勢であるか否かを例えば定期的に判定する。そして、動作処理部204は、例えばベース姿勢であると判定した場合には、判定結果をサーバ10‐1へ通信部224に送信させる(S105)。   Further, the operation processing unit 204 of the mobile terminal 20 periodically determines whether or not the user's posture is the base posture based on the detection result by the sensor unit 222, for example. For example, when the motion processing unit 204 determines that the posture is the base posture, the operation processing unit 204 causes the server 10-1 to transmit the determination result to the communication unit 224 (S105).

その後、ユーザの姿勢がベース姿勢からタッチ姿勢へ移行する際に、携帯端末20の動作処理部204は、センサ部222による検出結果に基づいて、携帯端末20の位置の変化を検出する(S107)。   Thereafter, when the user's posture shifts from the base posture to the touch posture, the motion processing unit 204 of the mobile terminal 20 detects a change in the position of the mobile terminal 20 based on the detection result by the sensor unit 222 (S107). .

その後、ユーザは、携帯端末20を把持した手で(表示装置30の)表示部326をタッチしながら、例えば携帯端末20に表示されているGUIのボタンを押下するなど、表示装置30との間の情報連携の確立の要求を入力部220に対して入力する(S109)。その後、表示装置30の入力部320は、表示部326に対する携帯端末20のタッチ位置を検出する(S111)。   Thereafter, the user touches the display unit 326 (of the display device 30) with the hand holding the mobile terminal 20, and presses a GUI button displayed on the mobile terminal 20, for example, with the display device 30. A request for establishment of the information linkage is input to the input unit 220 (S109). Thereafter, the input unit 320 of the display device 30 detects the touch position of the mobile terminal 20 with respect to the display unit 326 (S111).

また、携帯端末20の通信部224は、連携制御部208の制御に従って、S109で入力された要求信号、および、処理時刻を含む第1のペアリング要求をサーバ10‐1へ送信する(S113)。   Further, the communication unit 224 of the portable terminal 20 transmits the request signal input in S109 and the first pairing request including the processing time to the server 10-1 according to the control of the cooperation control unit 208 (S113). .

その後、表示装置30の通信部322は、連携制御部306の制御に従って、S111で検出されたタッチ位置、および、処理時刻を含む第2のペアリング要求をサーバ10‐1へ送信する(S115)。   Thereafter, the communication unit 322 of the display device 30 transmits the second pairing request including the touch position detected in S111 and the processing time to the server 10-1 according to the control of the cooperation control unit 306 (S115). .

その後、サーバ10‐1の連携処理部102は、S113で受信された第1のペアリング要求と、S115で受信された第2のペアリング要求との比較に基づいて、携帯端末20と表示装置30との間の情報連携の確立に関する制御を行う(S117)。   Thereafter, the cooperation processing unit 102 of the server 10-1 determines whether the portable terminal 20 and the display device are based on the comparison between the first pairing request received in S113 and the second pairing request received in S115. Control relating to establishment of information cooperation with 30 is performed (S117).

S117において情報連携が確立された場合には、携帯端末20の通信部224は、動作処理部204の制御に従って、S107で検出された携帯端末20の位置変化情報をサーバ10‐1へ送信する(S119)。   When the information linkage is established in S117, the communication unit 224 of the mobile terminal 20 transmits the position change information of the mobile terminal 20 detected in S107 to the server 10-1 according to the control of the operation processing unit 204 ( S119).

ここで、図11を参照して、S119より後の動作について説明する。図11に示したように、S119の後、サーバ10‐1の人物位置推測部104は、S119で受信された位置変化情報、S115で受信されたタッチ位置、および、人体モデルDB124に格納されている人体モデル情報に基づいて、表示部326に対するユーザの相対位置を推測する(S121)。   Here, the operation after S119 will be described with reference to FIG. As shown in FIG. 11, after S119, the person position estimation unit 104 of the server 10-1 stores the position change information received in S119, the touch position received in S115, and the human body model DB 124. The relative position of the user with respect to the display unit 326 is estimated based on the human body model information (S121).

続いて、表示制御部106は、S121で推測されたユーザの相対位置に基づいて、表示部326に現在表示されているコンテンツの表示位置を変更させるための表示制御情報を生成する(S123)。そして、通信部120は、表示制御部106の制御に従って、生成された表示制御情報を表示装置30へ送信する(S125)。   Subsequently, the display control unit 106 generates display control information for changing the display position of the content currently displayed on the display unit 326 based on the relative position of the user estimated in S121 (S123). And the communication part 120 transmits the produced | generated display control information to the display apparatus 30 according to control of the display control part 106 (S125).

その後、表示装置30の表示制御部304は、受信された表示制御情報に従って表示画面の表示内容を更新し、そして、更新後の表示画面を表示部326に表示させる(S127)。   Thereafter, the display control unit 304 of the display device 30 updates the display content of the display screen according to the received display control information, and causes the display unit 326 to display the updated display screen (S127).

<2−3.効果>
[2−3−1.効果1]
以上、例えば図9〜図11などを参照して説明したように、第1の実施形態によるサーバ10‐1は、携帯端末20により検出される携帯端末20の位置変化、および、携帯端末20と表示装置30との間の情報連携の確立時に表示部326により検出される携帯端末20のタッチ位置に基づいて、表示部326に対するユーザの相対位置を推測する。このため、第1の実施形態によれば、携帯端末20および表示装置30による計測結果だけで、表示部326に対するユーザの相対位置を推測することができる。つまり、ユーザの状態を計測するための専用の計測機器が不要であるので、情報処理システムがシンプルな構成になり、かつ、安価に構成することができる。
<2-3. Effect>
[2-3-1. Effect 1]
As described above, for example, as described with reference to FIGS. 9 to 11, the server 10-1 according to the first embodiment includes the position change of the mobile terminal 20 detected by the mobile terminal 20 and the mobile terminal 20. The relative position of the user with respect to the display unit 326 is estimated based on the touch position of the mobile terminal 20 detected by the display unit 326 when the information cooperation with the display device 30 is established. For this reason, according to the first embodiment, the relative position of the user with respect to the display unit 326 can be estimated only from the measurement results obtained by the mobile terminal 20 and the display device 30. That is, since a dedicated measuring device for measuring the user's state is not required, the information processing system can be configured simply and inexpensively.

[2−3−2.効果2]
また、サーバ10‐1は、推測したユーザの相対位置に応じて、表示部326に表示されているコンテンツの表示位置を変化させることが可能である。例えば、サーバ10‐1は、現在表示されているコンテンツを顔部投影位置/領域に移動させて表示させたり、または、新たにコンテンツを表示させる際に当該コンテンツを顔部投影位置/領域に表示させる。このため、ユーザは視線を下げずにコンテンツを見ることができ、コンテンツが見やすくなる。
[2-3-2. Effect 2]
In addition, the server 10-1 can change the display position of the content displayed on the display unit 326 according to the estimated relative position of the user. For example, the server 10-1 moves the currently displayed content to the face projection position / area and displays it, or displays the content at the face projection position / area when newly displaying the content. Let For this reason, the user can view the content without lowering the line of sight, and the content becomes easy to see.

<2−4.変形例>
[2−4−1.変形例1]
なお、第1の実施形態は、上述した説明に限定されない。例えば、変形例1として、推測されたユーザの相対位置に基づいてコンテンツの表示位置を変化させた後に、例えばユーザの次の入力が一定時間行われない場合には、表示制御部106は、コンテンツの表示位置を元の位置に戻してもよい。ここで、ユーザの次の入力の例は、表示部326に対する指によるタッチ操作(例えばコンテンツの選択操作など)であってもよいし、または、ユーザにより新たなタッチ姿勢がなされること(つまり、表示部326に対してユーザが携帯端末20を新たにタッチすること)であってもよい。また、携帯端末20と表示装置30との間で情報連携が確立している場合には、ユーザの次の入力は、例えば表示部326に表示されている表示情報に関連した内容の、携帯端末20に対する入力であってもよい。
<2-4. Modification>
[2-4-1. Modification 1]
Note that the first embodiment is not limited to the above description. For example, as a first modification, after changing the display position of the content based on the estimated relative position of the user, for example, when the user's next input is not performed for a certain time, the display control unit 106 The display position may be returned to the original position. Here, an example of the next input by the user may be a touch operation (for example, a content selection operation) with the finger on the display unit 326, or a new touch posture is made by the user (that is, The user may newly touch the mobile terminal 20 with respect to the display unit 326). When information cooperation is established between the mobile terminal 20 and the display device 30, the user's next input is, for example, a mobile terminal having contents related to display information displayed on the display unit 326. 20 may be input.

[2−4−2.変形例2]
また、上記の説明では、ユーザの姿勢がベース姿勢であるか否かの判定は携帯端末20が行う例について説明したが、かかる例に限定されず、サーバ10‐1が判定を行うことも可能である。具体的には、携帯端末20は、センサ部222により計測された例えば加速度や角加速度の計測結果などの情報をサーバ10‐1へ送信し、そして、サーバ10‐1は、受信された情報に基づいて、ユーザの姿勢がベース姿勢であるか否かの判定を行ってもよい。
[2-4-2. Modification 2]
In the above description, the example in which the mobile terminal 20 determines whether or not the user's posture is the base posture has been described. However, the present invention is not limited to this example, and the server 10-1 can also perform the determination. It is. Specifically, the mobile terminal 20 transmits information such as measurement results of acceleration and angular acceleration measured by the sensor unit 222 to the server 10-1, and the server 10-1 transmits the received information to the received information. Based on this, it may be determined whether or not the user's posture is the base posture.

[2−4−3.変形例3]
また、例えば、携帯端末20のセンサ部222に含まれる3軸加速度センサやジャイロセンサの精度、および、位置変化や姿勢変化の算出処理の精度が高い場合には、携帯端末20は、計測値変化の積分値などを用いて、(携帯端末20の移動方向だけでなく)携帯端末20の移動距離も算出することが可能である。そして、サーバ10‐1は、算出した移動距離にさらに基づいてユーザの相対位置を推測し、そして、推測した相対位置に基づいてコンテンツの表示態様を変化させることが可能である。
[2-4-3. Modification 3]
For example, when the accuracy of the triaxial acceleration sensor and the gyro sensor included in the sensor unit 222 of the mobile terminal 20 and the accuracy of the calculation process of the position change and the posture change are high, the mobile terminal 20 It is possible to calculate the moving distance of the portable terminal 20 (not only the moving direction of the portable terminal 20) using the integrated value of Then, the server 10-1 can estimate the relative position of the user based on the calculated moving distance, and can change the display mode of the content based on the estimated relative position.

[2−4−4.変形例4]
また、携帯端末20がインカメラ機能を有し、かつ、ベース姿勢が、図2の左図に示したような、ユーザが携帯端末20の表示画面を見ている姿勢であると定められている場合には、ベース姿勢を判定するための条件として、インカメラの視野内にユーザの顔が認識できること(条件G)を追加してもよい。つまり、携帯端末20の動作処理部204は、3つの条件(条件A、条件B、および条件G)の全てを満たす場合にはユーザの姿勢がベース姿勢であると判定し、かつ、3つの条件のうち少なくとも一つを満たさない場合にはベース姿勢ではないと判定してもよい。この変形例によれば、ベース姿勢が図2の左図に示したような姿勢と定められている場合に、ベース姿勢を精度高く判定することができる。
[2-4-4. Modification 4]
Further, the mobile terminal 20 has an in-camera function, and the base posture is determined to be a posture in which the user is looking at the display screen of the mobile terminal 20 as shown in the left diagram of FIG. In this case, a condition that the user's face can be recognized within the field of view of the in-camera (condition G) may be added as a condition for determining the base posture. That is, the operation processing unit 204 of the mobile terminal 20 determines that the user's posture is the base posture when all three conditions (condition A, condition B, and condition G) are satisfied, and the three conditions If at least one of them is not satisfied, it may be determined that the posture is not the base posture. According to this modification, when the base posture is determined as the posture shown in the left diagram of FIG. 2, the base posture can be determined with high accuracy.

[2−4−5.変形例5]
また、ベース姿勢が、図2の左図に示したような姿勢であると定められている場合には、携帯端末20は、インカメラ機能を利用して、ベース姿勢状態時のユーザの顔部、または、顔部と携帯端末20との位置関係を推測することも可能である。例えば、インカメラの視野内にユーザの顔が認識できる場合には、携帯端末20は、インカメラの視野領域内を占めるユーザの顔領域のサイズに基づいて、ユーザの顔部または眼部と携帯端末20との位置関係(または距離)を算出してもよい。
[2-4-5. Modification 5]
If the base posture is determined to be the posture shown in the left diagram of FIG. 2, the mobile terminal 20 uses the in-camera function to make the user's face in the base posture state. Alternatively, the positional relationship between the face portion and the mobile terminal 20 can be estimated. For example, when the user's face can be recognized within the field of view of the in-camera, the mobile terminal 20 carries the user's face or eyes and the mobile phone based on the size of the user's face area that occupies the field of view of the in-camera. The positional relationship (or distance) with the terminal 20 may be calculated.

<<3.第2の実施形態>>
以上、第1の実施形態について説明した。次に、第2の実施形態について説明する。まず、第2の実施形態を創作するに至った背景について説明する。
<< 3. Second Embodiment >>
The first embodiment has been described above. Next, a second embodiment will be described. First, the background that led to the creation of the second embodiment will be described.

上述したタッチ姿勢時には、携帯端末20を把持するユーザの腕によって、表示部326の表示領域のうちの一部がユーザの視界から遮蔽され得る。このため、遮蔽される領域(以下、遮蔽領域と称する)に表示されているコンテンツをユーザが見ることができない、もしくは、見辛いという問題が生じる。   In the touch posture described above, a part of the display area of the display unit 326 can be shielded from the user's view by the user's arm holding the mobile terminal 20. For this reason, there is a problem that the user cannot see the content displayed in the shielded area (hereinafter referred to as a shielded area) or is difficult to see.

後述するように、第2の実施形態によるサーバ10‐2は、遮蔽領域を推測すること、および、遮蔽領域に表示されているコンテンツを遮蔽領域外に表示させることが可能である。   As will be described later, the server 10-2 according to the second embodiment can estimate the shielding area and display the content displayed in the shielding area outside the shielding area.

<3−1.構成>
[3−1−1.携帯端末20、表示装置30]
第2の実施形態による携帯端末20および表示装置30の構成については、第1の実施形態と同様である。
<3-1. Configuration>
[3-1-1. Mobile terminal 20, display device 30]
The configurations of the mobile terminal 20 and the display device 30 according to the second embodiment are the same as those in the first embodiment.

[3−1−2.サーバ10‐2]
図12は、第2の実施形態によるサーバ10‐2の構成を示した機能ブロック図である。図12に示したように、サーバ10‐2は、第1の実施形態と比較して、制御部100‐1および記憶部122‐1の代わりに、制御部100‐2および記憶部122‐2を有する。なお、以下では、第1の実施形態と重複する内容については説明を省略する。
[3-1-2. Server 10-2]
FIG. 12 is a functional block diagram showing the configuration of the server 10-2 according to the second embodiment. As shown in FIG. 12, the server 10-2 is different from the first embodiment in that instead of the control unit 100-1 and the storage unit 122-1, the control unit 100-2 and the storage unit 122-2 are used. Have In addition, below, description is abbreviate | omitted about the content which overlaps with 1st Embodiment.

(3−1−2−1.制御部100‐2)
制御部100‐2は、図12に示したように、制御部100‐1と比較して、人物姿勢推測部108、および、遮蔽領域推測部110をさらに有する。
(3-1-2-1. Control unit 100-2)
As illustrated in FIG. 12, the control unit 100-2 further includes a person posture estimation unit 108 and a shielding area estimation unit 110, as compared with the control unit 100-1.

(3−1−2−2.人物姿勢推測部108)
人物姿勢推測部108は、携帯端末20のタッチ位置、表示部326に対する携帯端末20の傾き、および、人物位置推測部104により推測されたユーザの相対位置に基づいて、ユーザが携帯端末20を把持する把持腕が左手と右手とのいずれであるかを推測する。例えば、人物姿勢推測部108は、携帯端末20のタッチ位置とユーザの相対位置との位置関係に対応付けて、後述する把持腕判定条件DB126に格納されている把持腕判定条件に基づいて、把持腕が左手と右手とのいずれであるかを推測する。
(3-1-2-2. Person Posture Estimation Unit 108)
Based on the touch position of the mobile terminal 20, the inclination of the mobile terminal 20 with respect to the display unit 326, and the relative position of the user estimated by the person position estimation unit 104, the person posture estimation unit 108 holds the mobile terminal 20. It is estimated whether the holding arm to be operated is the left hand or the right hand. For example, the person posture estimation unit 108 associates with the positional relationship between the touch position of the mobile terminal 20 and the relative position of the user, based on the gripping arm determination condition stored in the gripping arm determination condition DB 126 described later. Guess whether the arm is left hand or right hand.

より具体的には、人物姿勢推測部108は、まず、携帯端末20のタッチ位置と、推測されたユーザの相対位置との位置関係に対応付けて把持腕判定条件DB126に格納されている、把持腕の判定領域の区分を把持腕判定条件DB126から抽出する。そして、人物姿勢推測部108は、抽出した区分に対応づけて把持腕判定条件DB126に格納されている把持腕判定条件、および、表示部326に対する携帯端末20の傾きに基づいて、把持腕が左手と右手とのいずれであるかを推測する。   More specifically, the person posture estimation unit 108 first stores the gripping arm determination condition DB 126 in association with the positional relationship between the touch position of the mobile terminal 20 and the estimated relative position of the user. The classification of the arm determination area is extracted from the gripping arm determination condition DB 126. Then, based on the gripping arm determination condition stored in the gripping arm determination condition DB 126 in association with the extracted category and the inclination of the mobile terminal 20 with respect to the display unit 326, the person posture estimation unit 108 determines that the gripping arm is in the left hand. Guess which is the right hand or the right hand.

ここで、図13〜図18を参照して、上記の機能についてより詳細に説明する。一般的に、携帯端末20を把持する手の稼働範囲(回転可能な範囲)は、人体の構造上、ある範囲内に制限される。例えば、携帯端末20の把持腕の手首の自由度は、図13に示したような、直行する3軸Y、R、P回りになり得る。   Here, the above functions will be described in more detail with reference to FIGS. Generally, the operating range (rotatable range) of the hand holding the mobile terminal 20 is limited to a certain range due to the structure of the human body. For example, the degree of freedom of the wrist of the grip arm of the mobile terminal 20 can be around three axes Y, R, and P that are orthogonal as shown in FIG.

このため、タッチ姿勢時における携帯端末20の把持腕の手掌部分の無理のない自然な姿勢は、例えば図14に示したようになる。図14に示したように、把持腕およびタッチ位置が決定された場合には、表示部326に対する携帯端末20の傾きはある程度特定可能である。なお、図14では、携帯端末20を右手で把持している場合の例を示しており、左手で把持している場合に関しては、図14と対照の図になる。   For this reason, the natural posture of the palm of the grip arm of the mobile terminal 20 in the touch posture is as shown in FIG. 14, for example. As shown in FIG. 14, when the gripping arm and the touch position are determined, the inclination of the mobile terminal 20 with respect to the display unit 326 can be specified to some extent. Note that FIG. 14 shows an example in which the portable terminal 20 is held with the right hand, and the case where the portable terminal 20 is held with the left hand is a diagram in contrast to FIG.

また、図15〜図17は、タッチ姿勢時における携帯端末20の把持腕と携帯端末20の傾きとの関係例を示した説明図である。なお、図15〜図17は、携帯端末20のタッチ位置とユーザの相対位置との位置関係、および、把持腕(左手、右手)ごとに、表示部326に対する携帯端末20の傾きの例を矢印で示している。ここで、携帯端末20の傾きとは、表示部326上における携帯端末20のY軸の方向である。なお、図15における(a)、(b)、(c)、図16における(d)、(e)、(f)、および、図17における(g)、(h)、(i)では、携帯端末20のタッチ位置40に対するユーザの相対位置がそれぞれ「左上」、「上」、「右上」、「左」、「同一」、「右」、「左下」、「下」、または「右下」に位置している場合の例を示している。   15 to 17 are explanatory diagrams illustrating an example of the relationship between the gripping arm of the mobile terminal 20 and the inclination of the mobile terminal 20 in the touch posture. 15 to 17 are examples of the positional relationship between the touch position of the mobile terminal 20 and the relative position of the user and the inclination of the mobile terminal 20 with respect to the display unit 326 for each gripping arm (left hand, right hand). Is shown. Here, the inclination of the mobile terminal 20 is the Y-axis direction of the mobile terminal 20 on the display unit 326. In addition, in (a), (b), (c) in FIG. 15, (d), (e), (f) in FIG. 16, and (g), (h), (i) in FIG. The relative position of the user with respect to the touch position 40 of the mobile terminal 20 is “upper left”, “up”, “upper right”, “left”, “same”, “right”, “lower left”, “lower”, or “lower right”, respectively. The example in the case of being located is shown.

図15〜図17において矢印で示したように、表示部326に対する携帯端末20の傾きは、反時計回りを正の向きとした場合、通常、
右手で把持している場合の傾き > 左手で把持している場合の傾き
の関係になる。
As shown by the arrows in FIGS. 15 to 17, the inclination of the mobile terminal 20 with respect to the display unit 326 is normally set to be positive when counterclockwise is set to a positive direction.
Tilt when holding with right hand> Tilt when holding with left hand.

‐把持腕判定条件DB126
把持腕判定条件DB126は、ユーザの相対位置とタッチ位置との位置関係による表示画面の区分け方、および各区分における把持腕の判定条件が定められているデータベースである。図18は、把持腕判定条件DB126に格納されている、ユーザの相対位置42を基点として表示画面が9個の領域に区分される方法の例を示した説明図である。
-Grasping arm determination condition DB 126
The gripping arm determination condition DB 126 is a database in which the display screen classification method based on the positional relationship between the relative position of the user and the touch position and the determination condition of the gripping arm in each section are defined. FIG. 18 is an explanatory diagram showing an example of a method of dividing the display screen into nine regions based on the user's relative position 42 stored in the gripping arm determination condition DB 126.

図18に示した例では、タッチ位置とユーザの相対位置42との間の距離が所定の値以下である領域が区分Eであり、また、区分E以外の領域はユーザの相対位置42を中心として8分割され、それぞれ区分A〜D、F〜Iと定められている。   In the example illustrated in FIG. 18, an area where the distance between the touch position and the user's relative position 42 is equal to or less than a predetermined value is the section E, and areas other than the section E are centered on the user's relative position 42. Are divided into 8 and are defined as sections A to D and F to I, respectively.

また、把持腕判定条件DB126では、例えば、図18に示した区分Aの領域では閾値としてX(degree)が設定されており、かつ、
携帯端末20の傾き ≧ Xである場合には、把持腕は右手、
携帯端末20の傾き < Xである場合には、把持腕は左手、
とそれぞれ判定することが定められている。
Further, in the gripping arm determination condition DB 126, for example, X (degree) is set as a threshold value in the area of the section A shown in FIG.
When the inclination of the mobile terminal 20 is equal to or greater than X, the gripping arm is the right hand,
When the inclination of the mobile terminal 20 <X, the gripping arm is the left hand,
Are determined to be determined.

なお、区分ごとの閾値の決定方法は、例えばサーバ10‐2の開発者が予め複数のユーザを対象としたテストを実施することにより、適切な値が定められ得る。   For example, the developer of the server 10-2 can determine an appropriate value by executing a test for a plurality of users in advance.

なお、図18は、ユーザの相対位置42を中心とした場合の図であるのに対して、上述した図15〜図17は、携帯端末20のタッチ位置を中心とした場合の図である。つまり、図18と図15〜図17との対応関係は、区分Aが図17の(i)、区分Bが図17の(h)、区分Cが図17の(g)、区分Dが図16の(f)、区分Eが図16の(e)、区分Fが図16の(d)、区分Gが図15の(c)、区分Hが図15の(b)、区分Iが図15の(a)に、それぞれ対応する。   FIG. 18 is a diagram when the user's relative position 42 is the center, whereas FIGS. 15 to 17 described above are diagrams when the touch position of the mobile terminal 20 is the center. That is, the correspondence between FIG. 18 and FIGS. 15 to 17 is as follows: section A is (i) in FIG. 17, section B is (h) in FIG. 17, section C is (g) in FIG. 16 (f), section E is FIG. 16 (e), section F is FIG. 16 (d), section G is FIG. 15 (c), section H is FIG. 15 (b), and section I is the figure. This corresponds to (a) of 15 respectively.

‐‐変形例1
なお、上記の説明では、把持腕判定条件DB126において区分ごとに一つの閾値が定められており、この閾値を用いて把持腕を判定する方法の例を示したが、かかる例に限定されない。例えば、閾値の代わりに、把持腕が右手と左手とのいずれであるかを判定するための角度の範囲が区分ごとに定められていてもよい。一例として、図18に示した区分Aの領域では把持腕が左手であると判定する角度の範囲(以下、範囲Aとも称する)が[a1、a2]、把持腕が右手であると判定する角度の範囲(以下、範囲Bとも称する)が[b1、b2]であり、かつ、a2 < b1であることが定められていてもよい。つまり、
b1 ≦ 携帯端末20の傾き ≦ b2である場合には、把持腕は右手、
a1 ≦ 携帯端末20の傾き ≦ a2である場合には、把持腕は左手、
とそれぞれ判定することが定められていてもよい。
--- Modification 1
In the above description, one threshold value is set for each section in the gripping arm determination condition DB 126, and an example of a method for determining a gripping arm using this threshold value is shown, but the present invention is not limited to this example. For example, instead of the threshold value, an angle range for determining whether the gripping arm is the right hand or the left hand may be determined for each section. As an example, in the area of section A shown in FIG. 18, the angle range (hereinafter also referred to as range A) for determining that the gripping arm is the left hand is [a1, a2], and the angle for determining that the gripping arm is the right hand. May be defined as [b1, b2] and a2 <b1. That means
If b1 ≦ tilt of mobile terminal 20 ≦ b2, the gripping arm is the right hand,
If a1 ≦ tilt of mobile terminal 20 ≦ a2, the gripping arm is the left hand,
It may be determined that each of these is determined.

なお、携帯端末20の傾きが範囲Aまたは範囲Bの範囲外である場合には、人物姿勢推測部108は、所定の基準に従って、把持腕が右手と左手とのいずれであるかを判定することが可能である。ここで、所定の基準は、例えば、過去にユーザが携帯端末20を表示部326にタッチさせた際の把持腕の判定履歴であってもよい。   When the inclination of the mobile terminal 20 is out of the range A or the range B, the person posture estimation unit 108 determines whether the holding arm is the right hand or the left hand according to a predetermined criterion. Is possible. Here, the predetermined reference may be, for example, a determination history of the gripping arm when the user touches the display unit 326 in the past.

‐‐変形例2
また、図18では、表示画面が9個の領域に区分される方法の例を示したが、かかる例に限定されず、任意の個数の領域に区分可能である。
--- Modification 2
FIG. 18 shows an example of a method in which the display screen is divided into nine areas. However, the method is not limited to this example, and the display screen can be divided into an arbitrary number of areas.

(3−1−2−3.遮蔽領域推測部110)
遮蔽領域推測部110は、携帯端末20が表示部326にタッチされている間に、人物位置推測部104により推測されたユーザの相対位置、人物姿勢推測部108により推測された把持腕、および、表示装置30から受信される携帯端末20のタッチ位置に基づいて、遮蔽領域を推測する。例えば、遮蔽領域推測部110は、推測されたユーザの相対位置とタッチ位置との位置関係、および、推測された把持腕に対応づけて、後述する遮蔽領域DB128に格納されている領域を、遮蔽領域として推測する。または、遮蔽領域推測部110は、推測されたユーザの相対位置とタッチ位置との位置関係、および、推測された把持腕に対応づけて人体モデルDB124に格納されている腕の情報(腕の形状や長さなど)を人体モデルDB124から抽出し、そして、抽出した腕の情報を用いて遮蔽領域を算出してもよい。
(3-1-2-3. Shielding region estimation unit 110)
The occlusion area estimation unit 110 includes a user's relative position estimated by the person position estimation unit 104 while the mobile terminal 20 is touching the display unit 326, a gripping arm estimated by the person posture estimation unit 108, and Based on the touch position of the mobile terminal 20 received from the display device 30, the shielding area is estimated. For example, the shielding area estimation unit 110 shields the area stored in the shielding area DB 128 described later in association with the positional relationship between the estimated relative position of the user and the touch position and the estimated gripping arm. Guess as an area. Alternatively, the shielding area estimation unit 110 may include the positional relationship between the estimated relative position of the user and the touch position, and arm information (arm shape) stored in the human body model DB 124 in association with the estimated gripping arm. May be extracted from the human body model DB 124, and the shielding area may be calculated using the extracted arm information.

ここで、図19および図20を参照して、上記の機能についてより詳細に説明する。図19は、ユーザの相対位置42と携帯端末20のタッチ位置40との位置関係の4つの例を示した図である。図19における(a)は、ユーザの相対位置42に対するタッチ位置40の方向が「左上」である例を示している。同様に、ユーザの相対位置42に対するタッチ位置40の方向が、図19の(b)は「上」、図19の(c)は「左下」、図19の(d)は「右」である例をそれぞれ示している。   Here, the above functions will be described in more detail with reference to FIGS. 19 and 20. FIG. 19 is a diagram illustrating four examples of the positional relationship between the relative position 42 of the user and the touch position 40 of the mobile terminal 20. FIG. 19A shows an example in which the direction of the touch position 40 with respect to the relative position 42 of the user is “upper left”. Similarly, the direction of the touch position 40 relative to the relative position 42 of the user is “up” in FIG. 19B, “lower left” in FIG. 19 and “right” in FIG. 19D. Each example is shown.

また、図20は、図19に示した、ユーザの相対位置42と携帯端末20のタッチ位置40との4種類の位置関係に関して、遮蔽領域推測部110により推測される把持腕ごとの遮蔽領域50をそれぞれ示した説明図である。なお、図20の(a)〜(d)では、遮蔽領域50aは把持腕が右手である場合の遮蔽領域であり、また、遮蔽領域50bは把持腕が左手である場合の遮蔽領域を示している。   20 shows the shielding area 50 for each gripping arm estimated by the shielding area estimation unit 110 regarding the four types of positional relationships between the relative position 42 of the user and the touch position 40 of the mobile terminal 20 shown in FIG. It is explanatory drawing which each showed. In FIGS. 20A to 20D, the shielding area 50a is a shielding area when the gripping arm is the right hand, and the shielding area 50b is a shielding area when the gripping arm is the left hand. Yes.

例えば、推測されたユーザの相対位置42とタッチ位置40との位置関係が図19の(a)に示した位置関係であり、かつ、推測された把持腕が右手である場合には、遮蔽領域推測部110は、図20の(a)に示した遮蔽領域50aを遮蔽領域として推測する。   For example, when the estimated positional relationship between the relative position 42 of the user and the touch position 40 is the positional relationship shown in FIG. 19A and the estimated gripping arm is the right hand, The estimation unit 110 estimates the shielding area 50a illustrated in FIG. 20A as a shielding area.

‐遮蔽領域DB128
遮蔽領域DB128は、ユーザの相対位置とタッチ位置との位置関係、および、把持腕(右手または左手)に対応づけて、遮蔽領域のテンプレートが格納されているデータベースである。なお、遮蔽領域DB128に格納されている遮蔽領域のテンプレートは、例えば図20に示したような矩形領域であってもよい。
-Shielding area DB128
The shielding area DB 128 is a database in which a shielding area template is stored in association with the positional relationship between the relative position of the user and the touch position, and the grip arm (right hand or left hand). Note that the shielding area template stored in the shielding area DB 128 may be a rectangular area as shown in FIG. 20, for example.

(3−1−2−4.表示制御部106)
‐表示例1
第2の実施形態による表示制御部106は、人物位置推測部104により推測されたユーザの相対位置、および、遮蔽領域推測部110により推測された遮蔽領域に基づいて、表示部326におけるコンテンツの表示位置を制御するための表示制御情報を表示装置30へ通信部120に送信させる。例えば、表示制御部106は、携帯端末20が表示部326にタッチされている場合に、遮蔽領域推測部110により推測された遮蔽領域に表示されているコンテンツを遮蔽領域外に移動させて表示させる。または、表示制御部106は、携帯端末20が表示部326にタッチされている間に表示部326に新たにコンテンツを表示させる際に、当該コンテンツを遮蔽領域外の領域に表示させる。
(3-1-2-4. Display control unit 106)
-Display example 1
The display control unit 106 according to the second embodiment displays content on the display unit 326 based on the relative position of the user estimated by the person position estimation unit 104 and the shielding area estimated by the shielding region estimation unit 110. Display control information for controlling the position is transmitted to the communication device 120 to the display device 30. For example, when the mobile terminal 20 is touched on the display unit 326, the display control unit 106 moves the content displayed in the shielding area estimated by the shielding area estimation unit 110 to the outside of the shielding area and displays the content. . Alternatively, when the display unit 326 newly displays content on the display unit 326 while the mobile terminal 20 is touching the display unit 326, the display control unit 106 displays the content in an area outside the shielding area.

ここで、図21を参照して、上記の機能についてより詳細に説明する。図21の(α)および(β)は、遮蔽領域推測部110により推測された遮蔽領域50と、表示制御部106によりコンテンツが非表示にされる領域(非表示領域52)との関係の例を示した説明図である。例えば、図21の(α)に示したように、表示制御部106は、遮蔽領域50の全てを含む例えば楕円形などの領域を非表示領域52とする。そして、表示制御部106は、非表示領域52に表示されているコンテンツを非表示領域52外に移動させて表示させる。   Here, the above function will be described in more detail with reference to FIG. (Α) and (β) in FIG. 21 are examples of the relationship between the shielding area 50 estimated by the shielding area estimation unit 110 and the area where the content is hidden by the display control unit 106 (non-display area 52). It is explanatory drawing which showed. For example, as illustrated in (α) of FIG. 21, the display control unit 106 sets an area such as an ellipse including the entire shielding area 50 as the non-display area 52. Then, the display control unit 106 moves the content displayed in the non-display area 52 to the outside of the non-display area 52 and displays it.

または、図21の(β)に示したように、表示制御部106は、遮蔽領域50の相対する短辺の中点を結ぶ直線を境界として、ユーザの顔部(または眼部)と反対側の領域を非表示領域52とする。なお、図21の(β)では、非表示領域52が三角形である例を示しているが、かかる例に限定されず、台形であってもよい。なお、この台形は、遮蔽領域50に含まれる二つの短辺の中点のうち上方の点が上底の一頂点であり、かつ、上底は、表示部326の水平な線と平行であるような台形であってもよい。   Alternatively, as illustrated in (β) of FIG. 21, the display control unit 106 is on the opposite side of the user's face (or eye) with a straight line connecting the midpoints of the short sides of the shielding region 50 as the boundary. This area is referred to as a non-display area 52. In FIG. 21, (β) shows an example in which the non-display area 52 is a triangle, but the invention is not limited to this example, and a trapezoid may be used. In this trapezoid, the upper point of the midpoints of the two short sides included in the shielding region 50 is one vertex of the upper base, and the upper base is parallel to the horizontal line of the display unit 326. Such a trapezoid may be used.

これらの表示例によれば、遮蔽領域を含むユーザが見辛い領域にコンテンツが表示されなくなるので、表示部326に表示されている全てのコンテンツをユーザは容易に見ることができる。   According to these display examples, content is not displayed in a region that is difficult for the user including the shielded region to view, so that the user can easily view all the content displayed on the display unit 326.

‐表示例2
また、携帯端末20が表示部326から離された場合には、表示制御部106は、表示位置を移動させていたコンテンツを元の位置(つまり遮蔽領域であった領域内)に戻して表示させてもよい。または、上記の場合には、表示制御部106は、携帯端末20のタッチ時に遮蔽領域外に表示させたコンテンツの一部を、遮蔽領域であった領域内に移動させて表示させてもよい。これらの表示例によれば、携帯端末20が表示部326から離された場合において、遮蔽領域であった領域が空白領域とならないようにコンテンツを表示させることができる。このため、空白領域がユーザに見えてしまい、ユーザに不自然に思われることを避けることができる。
-Display example 2
In addition, when the mobile terminal 20 is separated from the display unit 326, the display control unit 106 displays the content whose display position has been moved back to the original position (that is, in the area that was the shielding area). May be. Alternatively, in the above case, the display control unit 106 may move and display a part of the content displayed outside the shielding area when the mobile terminal 20 is touched within the area that was the shielding area. According to these display examples, when the mobile terminal 20 is separated from the display unit 326, the content can be displayed so that the area that was the shielding area does not become a blank area. For this reason, it can be avoided that the blank area is seen by the user and seems unnatural to the user.

(3−1−2−5.記憶部122‐2)
記憶部122‐2は、記憶部122‐1と比較して、さらに、把持腕判定条件DB126、および、遮蔽領域DB128を記憶することが可能である。
(3-1-2-5. Storage unit 122-2)
The storage unit 122-2 can further store a gripping arm determination condition DB 126 and a shielding region DB 128 compared to the storage unit 122-1.

なお、サーバ10‐2に含まれる他の構成要素の機能については、第1の実施形態と同様である。   Note that functions of other components included in the server 10-2 are the same as those in the first embodiment.

なお、第2の実施形態によるサーバ10‐2の構成は、上述した構成に限定されない。例えば、把持腕判定条件DB126、および、遮蔽領域DB128は、記憶部122‐2に記憶される代わりに、サーバ10‐2と通信可能な他の装置に記憶されてもよい。   Note that the configuration of the server 10-2 according to the second embodiment is not limited to the configuration described above. For example, the gripping arm determination condition DB 126 and the shielding area DB 128 may be stored in another device that can communicate with the server 10-2 instead of being stored in the storage unit 122-2.

<3−2.動作>
以上、第2の実施形態による構成について説明した。続いて、第2の実施形態による動作について、図22を参照して説明する。なお、図10に示した、第1の実施形態によるS101〜S119の動作に関しては、第2の実施形態でも概略同様である。但し、第2の実施形態によるS115では、表示装置30の通信部322は、S111で検出される表示部326に対する携帯端末20の傾きをさらに含む第2のペアリング要求をサーバ10‐2へ送信する点が、第1の実施形態とは相違する。
<3-2. Operation>
The configuration according to the second embodiment has been described above. Next, the operation according to the second embodiment will be described with reference to FIG. Note that the operations in S101 to S119 according to the first embodiment shown in FIG. 10 are substantially the same in the second embodiment. However, in S115 according to the second embodiment, the communication unit 322 of the display device 30 transmits a second pairing request further including the inclination of the mobile terminal 20 with respect to the display unit 326 detected in S111 to the server 10-2. This is different from the first embodiment.

また、図22に示したS221の動作は、図11に示した、第1の実施形態によるS121と同様である。以下では、S221より後の動作について説明を行う。   Further, the operation of S221 shown in FIG. 22 is the same as that of S121 according to the first embodiment shown in FIG. Hereinafter, the operation after S221 will be described.

図22に示したように、S221の後、サーバ10‐2の人物姿勢推測部108は、S115で受信された第2のペアリング要求に含まれる携帯端末20のタッチ位置および表示部326に対する携帯端末20の傾きと、S221で推測されたユーザの相対位置とに基づいて、ユーザの把持腕が左手と右手とのいずれであるかを推測する(S223)。   As shown in FIG. 22, after S221, the human posture estimation unit 108 of the server 10-2 performs the touch position of the mobile terminal 20 included in the second pairing request received in S115 and the mobile unit for the display unit 326. Based on the inclination of the terminal 20 and the relative position of the user estimated in S221, it is estimated whether the user's gripping arm is the left hand or the right hand (S223).

続いて、遮蔽領域推測部110は、S115で受信された携帯端末20のタッチ位置、S221で推測されたユーザの相対位置、および、S223で推測された把持腕に基づいて、遮蔽領域を推測する(S225)。   Subsequently, the shielding area estimation unit 110 estimates the shielding area based on the touch position of the mobile terminal 20 received in S115, the relative position of the user estimated in S221, and the gripping arm estimated in S223. (S225).

続いて、表示制御部106は、S225で推測された遮蔽領域に表示されているコンテンツを遮蔽領域外に移動させるための表示制御情報を生成する(S227)。そして、通信部120は、表示制御部106の制御に従って、生成された表示制御情報を表示装置30へ送信する(S229)。   Subsequently, the display control unit 106 generates display control information for moving the content displayed in the shielding area estimated in S225 to the outside of the shielding area (S227). And the communication part 120 transmits the produced | generated display control information to the display apparatus 30 according to control of the display control part 106 (S229).

その後、表示装置30の表示制御部304は、受信された表示制御情報に従って表示画面の表示内容を更新し、そして、更新後の表示画面を表示部326に表示させる(S231)。   Thereafter, the display control unit 304 of the display device 30 updates the display content of the display screen according to the received display control information, and causes the display unit 326 to display the updated display screen (S231).

<3−3.効果>
以上、例えば図12および図22などを参照して説明したように、第2の実施形態によるサーバ10‐2は、携帯端末20が表示部326にタッチされている間に、推測されたユーザの相対位置、推測されたユーザの把持腕、および、携帯端末20のタッチ位置に基づいて遮蔽領域を推測し、そして、推測した遮蔽領域にコンテンツが表示されないようにコンテンツの表示位置を制御する。このため、第2の実施形態によれば、遮蔽領域にコンテンツが表示されなくなるので、表示部326に表示されている全てのコンテンツをユーザは容易に見ることができる。
<3-3. Effect>
As described above, for example, as described with reference to FIGS. 12 and 22, the server 10-2 according to the second embodiment allows the user's estimated user terminal 20 to touch the display unit 326 while the mobile terminal 20 is touched. The shielding area is estimated based on the relative position, the estimated user's gripping arm, and the touch position of the mobile terminal 20, and the display position of the content is controlled so that the content is not displayed in the estimated shielding area. For this reason, according to the second embodiment, no content is displayed in the shielding area, so that the user can easily see all the content displayed on the display unit 326.

<3−4.変形例>
なお、第2の実施形態は、上述した説明に限定されない。例えば、人物姿勢推測部108がユーザの把持腕を一度推測した場合には、表示制御部106は、以後ユーザが当該把持腕で携帯端末20を把持してインタラクションを行う(つまり、携帯端末20を他方の腕で把持しない)ものと判断してもよい。そして、表示制御部106は、表示部326において当該把持腕により携帯端末20がタッチされた際に発生する遮蔽領域が少なくなるような位置にコンテンツを表示させることが可能である。
<3-4. Modification>
Note that the second embodiment is not limited to the above description. For example, when the human posture estimation unit 108 once estimates the user's gripping arm, the display control unit 106 subsequently performs the interaction by holding the mobile terminal 20 by the user with the gripping arm (that is, the mobile terminal 20 It may be determined that it is not gripped by the other arm. Then, the display control unit 106 can display the content at a position where the shielding area generated when the mobile terminal 20 is touched by the grip arm on the display unit 326 is reduced.

<<4.ハードウェア構成>>
次に、各実施形態に共通するサーバ10のハードウェア構成について、図23を参照して説明する。図23に示したように、サーバ10は、CPU150、ROM152、RAM154、内部バス156、入出力インターフェース158、HDD(Hard Disk Drive)160、およびネットワークインターフェース162を備える。
<< 4. Hardware configuration >>
Next, a hardware configuration of the server 10 common to each embodiment will be described with reference to FIG. As illustrated in FIG. 23, the server 10 includes a CPU 150, a ROM 152, a RAM 154, an internal bus 156, an input / output interface 158, an HDD (Hard Disk Drive) 160, and a network interface 162.

<4−1.CPU150>
CPU150は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ10内の動作全般を制御する。また、CPU150は、サーバ10において制御部100‐1または制御部100‐2の機能を実現する。なお、CPU150は、マイクロプロセッサなどのプロセッサにより構成される。
<4-1. CPU 150>
The CPU 150 functions as an arithmetic processing device and a control device, and controls the overall operation in the server 10 according to various programs. In addition, the CPU 150 realizes the function of the control unit 100-1 or 100-2 in the server 10. The CPU 150 is configured by a processor such as a microprocessor.

<4−2.ROM152>
ROM152は、CPU150が使用するプログラムや演算パラメータなどを記憶する。
<4-2. ROM152>
The ROM 152 stores programs and calculation parameters used by the CPU 150.

<4−3.RAM154>
RAM154は、CPU150の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時記憶する。
<4-3. RAM154>
The RAM 154 temporarily stores programs used in the execution of the CPU 150, parameters that change as appropriate during the execution, and the like.

<4−4.内部バス156>
内部バス156は、CPUバスなどから構成される。この内部バス156は、CPU150、ROM152、およびRAM154を相互に接続する。
<4-4. Internal bus 156>
The internal bus 156 is composed of a CPU bus and the like. The internal bus 156 connects the CPU 150, the ROM 152, and the RAM 154 to each other.

<4−5.入出力インターフェース158>
入出力インターフェース158は、HDD160、およびネットワークインターフェース162を、内部バス156と接続する。例えばHDD160は、この入出力インターフェース158および内部バス156を介して、RAM154などとの間でデータをやり取りする。
<4-5. Input / output interface 158>
The input / output interface 158 connects the HDD 160 and the network interface 162 to the internal bus 156. For example, the HDD 160 exchanges data with the RAM 154 or the like via the input / output interface 158 and the internal bus 156.

<4−6.HDD160>
HDD160は、記憶部122‐1または記憶部122‐2として機能する、データ格納用の装置である。このHDD160は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、および記憶媒体に記録されたデータを削除する削除装置などを含む。また、HDD160は、CPU150が実行するプログラムや各種データを格納する。
<4-6. HDD 160>
The HDD 160 is a data storage device that functions as the storage unit 122-1 or the storage unit 122-2. The HDD 160 includes, for example, a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, and a deletion device that deletes data recorded on the storage medium. The HDD 160 stores programs executed by the CPU 150 and various data.

<4−7.ネットワークインターフェース162>
ネットワークインターフェース162は、例えばインターネットなどの通信網に接続するための通信デバイスなどで構成された通信インターフェースである。このネットワークインターフェース162は、通信部120として機能する。なお、ネットワークインターフェース162は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。
<4-7. Network Interface 162>
The network interface 162 is a communication interface including a communication device for connecting to a communication network such as the Internet. This network interface 162 functions as the communication unit 120. The network interface 162 may be a wireless LAN compatible communication device, a LTE (Long Term Evolution) compatible communication device, or a wire communication device that performs wired communication.

<<5.変形例>>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<< 5. Modification >>
The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

<5−1.変形例1>
例えば、上述した各実施形態では、サーバ10が表示制御を行う例について説明したが、かかる例に限定されず、表示装置30が表示制御を行ってもよい。この変形例の場合、例えば、サーバ10‐1またはサーバ10‐2は、推測したユーザの相対位置(および推測した遮蔽領域)を表示装置30へ送信する。そして、表示装置30の表示制御部304は、サーバ10から受信されるユーザの相対位置(および遮蔽領域)に基づいて、表示部326に表示させるコンテンツの表示位置を変化させる。
<5-1. Modification 1>
For example, in each embodiment described above, an example in which the server 10 performs display control has been described. However, the present invention is not limited to such an example, and the display device 30 may perform display control. In the case of this modification, for example, the server 10-1 or the server 10-2 transmits the estimated relative position of the user (and the estimated shielding area) to the display device 30. Then, the display control unit 304 of the display device 30 changes the display position of the content displayed on the display unit 326 based on the relative position (and shielding area) of the user received from the server 10.

<5−2.変形例2>
また、上述した各実施形態では、ユーザが一名である例について説明したが、かかる例に限定されない。携帯端末20を有する複数のユーザが同時に表示装置30とインタラクションを行う場面にも本発明は適用可能である。例えば、ユーザが2名である場合には、サーバ10は、一人のユーザの位置推測を行った段階で、表示部326の表示領域内に当該ユーザ用の領域を割り当て、かつ、割り当てた領域内において当該ユーザに対するコンテンツの表示制御を行ってもよい。この変形例によれば、一人のユーザが行っているインタラクションが、他のユーザのインタラクションへ影響することを抑制することができる。
<5-2. Modification 2>
Moreover, although each embodiment mentioned above demonstrated the example in which a user is one person, it is not limited to this example. The present invention can also be applied to a scene where a plurality of users having the mobile terminal 20 interact with the display device 30 at the same time. For example, when there are two users, the server 10 allocates an area for the user in the display area of the display unit 326 at the stage of estimating the position of one user, and within the allocated area The display control of the content for the user may be performed. According to this modification, it is possible to suppress an interaction performed by one user from affecting other users' interactions.

<5−3.変形例3>
また、上述した各実施形態では、本発明における情報処理装置がサーバ10である例について説明したが、かかる例に限定されない。例えば制御部100‐1および記憶部122‐1(または制御部100‐2および記憶部122‐2)に含まれる全ての構成要素が携帯端末20に含まれる場合には、当該情報処理装置は、携帯端末20であってもよい。また、当該全ての構成要素が表示装置30に含まれる場合には、当該情報処理装置は、表示装置30であってもよい。なお、この変形例3では、サーバ10は設置されなくてもよい。
<5-3. Modification 3>
Moreover, although each embodiment mentioned above demonstrated the example whose information processing apparatus in this invention is the server 10, it is not limited to this example. For example, when all the components included in the control unit 100-1 and the storage unit 122-1 (or the control unit 100-2 and the storage unit 122-2) are included in the mobile terminal 20, the information processing apparatus The portable terminal 20 may be sufficient. Further, when all the components are included in the display device 30, the information processing device may be the display device 30. In the third modification, the server 10 may not be installed.

<5−4.変形例4>
また、上述した各実施形態では、携帯端末20が携帯電話である例を中心として説明したが、かかる例に限定されない。例えば、携帯端末20は、腕時計型コンピュータや服コンピュータなどのウェアラブルコンピュータであってもよい。
<5-4. Modification 4>
Moreover, although each embodiment mentioned above demonstrated centering on the example whose portable terminal 20 is a mobile telephone, it is not limited to this example. For example, the portable terminal 20 may be a wearable computer such as a wristwatch computer or a clothing computer.

<5−5.変形例5>
また、各実施形態によれば、CPU150、ROM152、およびRAM154などのハードウェアを、上述した各実施形態によるサーバ10の構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
<5-5. Modification 5>
Further, according to each embodiment, it is also possible to provide a computer program for causing hardware such as the CPU 150, the ROM 152, and the RAM 154 to perform the same function as the configuration of the server 10 according to each embodiment described above. A recording medium on which the computer program is recorded is also provided.

10‐1、10‐2 サーバ
20 携帯端末
30 表示装置
32 通信網
100‐1、100‐2、200、300 制御部
102 連携処理部
104 人物位置推測部
106、206、304 表示制御部
108 人物姿勢推測部
110 遮蔽領域推測部
120、224、322 通信部
122‐1、122‐2、226、324 記憶部
124 人体モデルDB
126 把持腕判定条件DB
128 遮蔽領域DB
202、302 操作処理部
204 動作処理部
208、306 連携制御部
220、320 入力部
222 センサ部
228、326 表示部
10-1, 10-2 Server 20 Mobile terminal 30 Display device 32 Communication network 100-1, 100-2, 200, 300 Control unit 102 Cooperation processing unit 104 Human position estimation unit 106, 206, 304 Display control unit 108 Human posture Estimating unit 110 Shielded region estimating unit 120, 224, 322 Communication unit 122-1, 122-2, 226, 324 Storage unit 124 Human body model DB
126 Grasping arm determination condition DB
128 Shielding area DB
202, 302 Operation processing unit 204 Operation processing unit 208, 306 Cooperation control unit 220, 320 Input unit 222 Sensor unit 228, 326 Display unit

Claims (16)

携帯端末と表示部との間の情報連携の確立に関する判定を行う連携処理部と、
前記携帯端末により検出される前記携帯端末の位置変化と、前記情報連携の確立が判定された場合に前記表示部により検出される前記表示部における前記携帯端末の接触位置とに基づいて、前記携帯端末を携帯するユーザの前記表示部に対する相対位置を推測する位置推測部と、
を備える、情報処理装置。
A cooperation processing unit that performs a determination on establishment of information cooperation between the mobile terminal and the display unit;
Based on a change in position of the portable terminal detected by the portable terminal and a contact position of the portable terminal in the display unit detected by the display unit when it is determined that the information cooperation is established. A position estimation unit that estimates a relative position of the user carrying the terminal with respect to the display unit;
An information processing apparatus comprising:
前記携帯端末の位置変化は、前記携帯端末が前記表示部に接触された際の前記携帯端末の位置と、前記携帯端末が前記表示部に接触される前もしくは前記表示部から離れた後における前記携帯端末の位置との間の変化である、請求項1に記載の情報処理装置。   The change in the position of the portable terminal includes the position of the portable terminal when the portable terminal is in contact with the display unit, and the position of the portable terminal before or after the portable terminal is contacted with the display unit. The information processing apparatus according to claim 1, wherein the information processing apparatus is a change between the position of the mobile terminal. 前記携帯端末の位置変化は、前記ユーザの姿勢が第1の姿勢から、前記ユーザが前記携帯端末を前記表示部に接触させる際の姿勢であるタッチ姿勢へ移行する際、もしくは、前記タッチ姿勢から前記第1の姿勢へ移行する際における前記携帯端末の位置の変化である、請求項2に記載の情報処理装置。   The position change of the mobile terminal is performed when the user's posture shifts from the first posture to a touch posture that is a posture when the user brings the mobile terminal into contact with the display unit, or from the touch posture. The information processing apparatus according to claim 2, wherein the information processing apparatus is a change in the position of the mobile terminal when shifting to the first posture. 前記ユーザの姿勢は、前記携帯端末により検出される前記携帯端末の加速度または前記携帯端末の角加速度に基づいて判定される、請求項3に記載の情報処理装置。   The information processing apparatus according to claim 3, wherein the posture of the user is determined based on an acceleration of the mobile terminal detected by the mobile terminal or an angular acceleration of the mobile terminal. 前記位置推測部は、さらに、記憶部に格納されている人体モデル情報に基づいて、前記表示部に対する前記ユーザの相対位置を推測する、請求項1〜4のいずれか一項に記載の情報処理装置。   The information processing according to any one of claims 1 to 4, wherein the position estimation unit further estimates a relative position of the user with respect to the display unit based on human body model information stored in a storage unit. apparatus. 前記情報連携は、前記携帯端末が前記ユーザにより把持された状態で前記携帯端末が前記表示部に接触された場合に確立される、請求項1〜5のいずれか一項に記載の情報処理装置。   The information processing apparatus according to any one of claims 1 to 5, wherein the information cooperation is established when the mobile terminal is in contact with the display unit while the mobile terminal is held by the user. . 前記情報処理装置は、前記位置推測部により前記ユーザの相対位置が推測された場合に、推測された前記ユーザの相対位置に基づいて、前記表示部に表示されているコンテンツの表示態様を変化させる表示制御部をさらに備える、請求項1〜6のいずれか一項に記載の情報処理装置。   When the relative position of the user is estimated by the position estimation unit, the information processing apparatus changes a display mode of content displayed on the display unit based on the estimated relative position of the user. The information processing apparatus according to any one of claims 1 to 6, further comprising a display control unit. 前記表示制御部は、前記ユーザの相対位置に基づいて、表示されているコンテンツの表示位置を変更する、請求項7に記載の情報処理装置。   The information processing apparatus according to claim 7, wherein the display control unit changes a display position of the displayed content based on the relative position of the user. 前記表示制御部は、前記ユーザの相対位置が前記表示部上に投影された位置である投影位置の周辺に表示されているコンテンツを前記投影位置の上方に移動し、表示させる、請求項8に記載の情報処理装置。   9. The display control unit according to claim 8, wherein the display unit moves the content displayed around the projection position, which is a position where the relative position of the user is projected on the display unit, to the upper side of the projection position and displays the content. The information processing apparatus described. 前記情報処理装置は、前記携帯端末の接触位置、前記携帯端末が前記表示部に接触された際における前記表示部に対する前記携帯端末の傾き、および、前記ユーザの相対位置に基づいて、前記ユーザが前記携帯端末を把持する把持腕が左腕と右腕とのいずれであるかを推測する姿勢推測部をさらに備え、
前記表示制御部は、さらに、推測された前記ユーザの把持腕に基づいて、表示されているコンテンツの表示態様を変化させる、請求項7〜9のいずれか一項に記載の情報処理装置。
Based on the contact position of the mobile terminal, the inclination of the mobile terminal with respect to the display unit when the mobile terminal is in contact with the display unit, and the relative position of the user, A posture estimation unit that estimates whether a gripping arm that grips the mobile terminal is a left arm or a right arm;
The information processing apparatus according to claim 7, wherein the display control unit further changes a display mode of the displayed content based on the estimated gripping arm of the user.
前記姿勢推測部は、前記携帯端末の接触位置と推測された前記ユーザの相対位置との位置関係に対応付けてデータベースに登録されている把持腕判定条件が示す傾きの閾値と、前記携帯端末の傾きとを比較することにより、前記把持腕が左腕と右腕とのいずれであるかを推測する、請求項10に記載の情報処理装置。   The posture estimation unit includes an inclination threshold value indicated by a gripping arm determination condition registered in a database in association with a positional relationship between the contact position of the mobile terminal and the estimated relative position of the user, and the mobile terminal The information processing apparatus according to claim 10, wherein the information processing apparatus estimates whether the gripping arm is a left arm or a right arm by comparing with an inclination. 前記情報処理装置は、前記携帯端末が前記表示部に接触されている場合に、前記姿勢推測部により推測された把持腕、推測された前記ユーザの相対位置、および、前記携帯端末の接触位置に基づいて、前記表示部において前記把持腕により前記ユーザの視界から遮蔽される領域である遮蔽領域を推測する遮蔽領域推測部をさらに備え、
前記表示制御部は、推測された遮蔽領域に表示されているコンテンツの表示位置を変更する、請求項10または11に記載の情報処理装置。
When the portable terminal is in contact with the display unit, the information processing apparatus is configured to detect the gripping arm estimated by the posture estimation unit, the estimated relative position of the user, and the contact position of the portable terminal. Based on the above, the display unit further includes a shielding region estimation unit that estimates a shielding region that is a region shielded from the user's field of view by the gripping arm,
The information processing apparatus according to claim 10 or 11, wherein the display control unit changes a display position of content displayed in the estimated shielding area.
前記表示制御部は、前記遮蔽領域に表示されているコンテンツを前記遮蔽領域外の領域に表示させる、請求項12に記載の情報処理装置。   The information processing apparatus according to claim 12, wherein the display control unit displays content displayed in the shielding area in an area outside the shielding area. コンピュータを、
携帯端末と表示部との間の情報連携の確立に関する判定を行う連携処理部と、
前記携帯端末により検出される前記携帯端末の位置変化と、前記情報連携の確立が判定された場合に前記表示部により検出される前記表示部における前記携帯端末の接触位置とに基づいて、前記携帯端末を携帯するユーザの前記表示部に対する相対位置を推測する位置推測部、
として機能させるための、プログラム。
Computer
A cooperation processing unit that performs a determination on establishment of information cooperation between the mobile terminal and the display unit;
Based on a change in position of the portable terminal detected by the portable terminal and a contact position of the portable terminal in the display unit detected by the display unit when it is determined that the information cooperation is established. A position estimation unit that estimates a relative position of the user carrying the terminal with respect to the display unit;
Program to function as
携帯端末であって、
ユーザにより把持された状態で前記携帯端末が表示部に接触された場合に前記表示部との間での情報連携の確立の要求を情報処理装置へ送信部に送信させる連携制御部と、
前記携帯端末が前記表示部に接触された際の前記携帯端末の位置と、前記表示部に接触される前もしくは前記表示部から離れた後における前記携帯端末の位置との間の位置変化を検出し、検出した位置変化を前記情報処理装置へ前記送信部に送信させる動作制御部と、
を備える、携帯端末。
A mobile device,
A linkage control unit that transmits a request for establishment of information linkage with the display unit to the information processing apparatus when the portable terminal is in contact with the display unit while being held by a user;
Detects a change in position between the position of the portable terminal when the portable terminal is in contact with the display unit and the position of the portable terminal before being contacted with the display unit or after being separated from the display unit An operation control unit that causes the information processing apparatus to transmit the detected position change to the transmission unit;
A portable terminal.
携帯端末と、
コンテンツを表示する表示部と、
前記携帯端末と前記表示部との間の情報連携の確立に関する判定を行う連携処理部と、
前記携帯端末により検出される前記携帯端末の位置変化と、前記情報連携の確立が判定された場合に前記表示部により検出される前記表示部における前記携帯端末の接触位置とに基づいて、前記携帯端末を携帯するユーザの前記表示部に対する相対位置を推測する位置推測部と、
を備える、情報処理システム。
A mobile device,
A display for displaying content;
A cooperation processing unit that performs a determination on establishment of information cooperation between the mobile terminal and the display unit;
Based on a change in position of the portable terminal detected by the portable terminal and a contact position of the portable terminal in the display unit detected by the display unit when it is determined that the information cooperation is established. A position estimation unit that estimates a relative position of the user carrying the terminal with respect to the display unit;
An information processing system comprising:
JP2015062568A 2015-03-25 2015-03-25 Information processing apparatus, program, portable terminal, and information processing system Active JP6384376B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015062568A JP6384376B2 (en) 2015-03-25 2015-03-25 Information processing apparatus, program, portable terminal, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015062568A JP6384376B2 (en) 2015-03-25 2015-03-25 Information processing apparatus, program, portable terminal, and information processing system

Publications (2)

Publication Number Publication Date
JP2016181234A true JP2016181234A (en) 2016-10-13
JP6384376B2 JP6384376B2 (en) 2018-09-05

Family

ID=57132575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015062568A Active JP6384376B2 (en) 2015-03-25 2015-03-25 Information processing apparatus, program, portable terminal, and information processing system

Country Status (1)

Country Link
JP (1) JP6384376B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018107510A (en) * 2016-12-22 2018-07-05 コニカミノルタ株式会社 Information processing device, coordination method, and coordination program
KR20210018992A (en) * 2018-04-20 2021-02-19 인터렉티브 스케이프 게엠베하 Control and processing unit for touch screen, system including same and method of use

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319217A (en) * 2000-05-09 2001-11-16 Fuji Photo Film Co Ltd Image display method
JP2004302124A (en) * 2003-03-31 2004-10-28 Toshiba Corp Display device
WO2010007765A1 (en) * 2008-07-15 2010-01-21 パナソニック株式会社 Mobile terminal and method for identifying position of the mobile terminal
JP2010056642A (en) * 2008-08-26 2010-03-11 Nec Corp Pairing method utilizing acceleration sensor, system and apparatus, and program for pairing utilizing acceleration sensor
JP2011258146A (en) * 2010-06-11 2011-12-22 Nec Corp Information processing terminal, holding hand discrimination method and program
JP2012023554A (en) * 2010-07-14 2012-02-02 Panasonic Corp Portable terminal, display control method, and display control program
US20120208466A1 (en) * 2011-02-15 2012-08-16 Lg Electronics Inc. Method of transmitting and receiving data, display device and mobile terminal using the same
JP2014089501A (en) * 2012-10-29 2014-05-15 Nec Casio Mobile Communications Ltd Display device, display system, display control method, program, portable terminal and server device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319217A (en) * 2000-05-09 2001-11-16 Fuji Photo Film Co Ltd Image display method
JP2004302124A (en) * 2003-03-31 2004-10-28 Toshiba Corp Display device
WO2010007765A1 (en) * 2008-07-15 2010-01-21 パナソニック株式会社 Mobile terminal and method for identifying position of the mobile terminal
JP2010056642A (en) * 2008-08-26 2010-03-11 Nec Corp Pairing method utilizing acceleration sensor, system and apparatus, and program for pairing utilizing acceleration sensor
JP2011258146A (en) * 2010-06-11 2011-12-22 Nec Corp Information processing terminal, holding hand discrimination method and program
JP2012023554A (en) * 2010-07-14 2012-02-02 Panasonic Corp Portable terminal, display control method, and display control program
US20120208466A1 (en) * 2011-02-15 2012-08-16 Lg Electronics Inc. Method of transmitting and receiving data, display device and mobile terminal using the same
JP2014089501A (en) * 2012-10-29 2014-05-15 Nec Casio Mobile Communications Ltd Display device, display system, display control method, program, portable terminal and server device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018107510A (en) * 2016-12-22 2018-07-05 コニカミノルタ株式会社 Information processing device, coordination method, and coordination program
KR20210018992A (en) * 2018-04-20 2021-02-19 인터렉티브 스케이프 게엠베하 Control and processing unit for touch screen, system including same and method of use
JP2021522624A (en) * 2018-04-20 2021-08-30 インタラクティブ スケープ ゲーエムベーハーInteractive Scape Gmbh Control and processing units for touch-sensitive screens, systems with such control and processing units, and usage
JP7237143B2 (en) 2018-04-20 2023-03-10 インタラクティブ スケープ ゲーエムベーハー Control and processing unit for touch sensitive screen, system with such control and processing unit and method of use
KR102566520B1 (en) 2018-04-20 2023-08-11 인터렉티브 스케이프 게엠베하 Control and processing unit for touch screen, system including the same and method of use

Also Published As

Publication number Publication date
JP6384376B2 (en) 2018-09-05

Similar Documents

Publication Publication Date Title
CN109074217B (en) Application for multi-touch input detection
CN105378595B (en) The method for calibrating eyes tracking system by touch input
US10275046B2 (en) Accessing and interacting with information
TWI546724B (en) Apparatus and method for transferring information items between communications devices
CN103713737B (en) Virtual keyboard system used for Google glasses
US8976136B2 (en) Proximity-aware multi-touch tabletop
US20170090666A1 (en) Application programming interface for multi-touch input detection
US20140184494A1 (en) User Centric Interface for Interaction with Visual Display that Recognizes User Intentions
JP2016534481A (en) System and method for providing a response to user input using information regarding state changes and predictions of future user input
CN106471442A (en) The user interface control of wearable device
CN108027657A (en) Context sensitive user interfaces activation in enhancing and/or reality environment
CN109074154A (en) Hovering touch input compensation in enhancing and/or virtual reality
JP6483556B2 (en) Operation recognition device, operation recognition method and program
CN103365411A (en) Information input apparatus, information input method, and computer program
US20170144042A1 (en) Mobile terminal, training management program and training management method
US20150227789A1 (en) Information processing apparatus, information processing method, and program
US11687427B2 (en) Multiple XR extended reality application validation process and testing
US20170010695A1 (en) Enhanced multi-touch input detection
JP6127564B2 (en) Touch determination device, touch determination method, and touch determination program
US20220276698A1 (en) IMU for Touch Detection
CN107102802A (en) Overlay target system of selection and device, storage medium, electronic equipment
US20200348836A1 (en) Intended Input to a User Interface from Detected Gesture Positions
US20170010733A1 (en) User-identifying application programming interface (api)
JP6384376B2 (en) Information processing apparatus, program, portable terminal, and information processing system
JP6816727B2 (en) Information processing equipment, information processing methods and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180723

R150 Certificate of patent or registration of utility model

Ref document number: 6384376

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150