JP6384376B2 - 情報処理装置、プログラム、携帯端末、及び情報処理システム - Google Patents

情報処理装置、プログラム、携帯端末、及び情報処理システム Download PDF

Info

Publication number
JP6384376B2
JP6384376B2 JP2015062568A JP2015062568A JP6384376B2 JP 6384376 B2 JP6384376 B2 JP 6384376B2 JP 2015062568 A JP2015062568 A JP 2015062568A JP 2015062568 A JP2015062568 A JP 2015062568A JP 6384376 B2 JP6384376 B2 JP 6384376B2
Authority
JP
Japan
Prior art keywords
unit
display
mobile terminal
user
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015062568A
Other languages
English (en)
Other versions
JP2016181234A (ja
Inventor
寛之 福島
寛之 福島
茂 立澤
茂 立澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2015062568A priority Critical patent/JP6384376B2/ja
Publication of JP2016181234A publication Critical patent/JP2016181234A/ja
Application granted granted Critical
Publication of JP6384376B2 publication Critical patent/JP6384376B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Description

本発明は、情報処理装置、プログラム、携帯端末、及び情報処理システムに関する。
従来、例えば駅、空港、またはショッピングモールなどの施設には、ディスプレイを用いて利用者に対して情報提供を行うデジタルサイネージが設置されている。例えば、特許文献1には、ディスプレイに表示されている複数のコンテンツのうちいずれかがユーザにより選択された場合に、選択されたコンテンツと関連したコンテンツをディスプレイに表示させる技術が記載されている。
また、ディスプレイに表示されているコンテンツとユーザとの間での直感的なインタラクションを可能とするための技術も提案されている。例えば、特許文献2には、ディスプレイに表示されている複数の概略情報のうちのいずれかに対するユーザの手の接近が超音波センサにより検出された場合には、該当の概略情報に対応付けられた詳細情報をディスプレイに表示させる技術が記載されている。
特開2015−15005号公報 特開2006−301534号公報
しかしながら、特許文献2に記載の技術では、システムの構成が複雑になる。例えば、特許文献2に記載の技術では、ディスプレイに対するユーザの相対位置を推測するために、ディスプレイごとに専用の計測機器が必要である。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、専用の計測機器による計測結果を用いることなく、表示部に対するユーザの相対位置を推測することが可能な、新規かつ改良された情報処理装置、プログラム、携帯端末、及び情報処理システムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、携帯端末と表示部との間の情報連携の確立に関する判定を行う連携処理部と、前記携帯端末により検出される前記携帯端末の位置変化と、前記情報連携の確立が判定された場合に前記表示部により検出される前記表示部における前記携帯端末の接触位置とに基づいて、前記携帯端末を携帯するユーザの前記表示部に対する相対位置を推測する位置推測部と、を備える、情報処理装置が提供される。
前記携帯端末の位置変化は、前記携帯端末が前記表示部に接触された際の前記携帯端末の位置と、前記携帯端末が前記表示部に接触される前もしくは前記表示部から離れた後における前記携帯端末の位置との間の変化であってもよい。
前記携帯端末の位置変化は、前記ユーザの姿勢が第1の姿勢から、前記ユーザが前記携帯端末を前記表示部に接触させる際の姿勢であるタッチ姿勢へ移行する際、もしくは、前記タッチ姿勢から前記第1の姿勢へ移行する際における前記携帯端末の位置の変化であってもよい。
前記ユーザの姿勢は、前記携帯端末により検出される前記携帯端末の加速度または前記携帯端末の角加速度に基づいて判定されてもよい。
前記位置推測部は、さらに、記憶部に格納されている人体モデル情報に基づいて、前記表示部に対する前記ユーザの相対位置を推測してもよい。
前記情報連携は、前記携帯端末が前記ユーザにより把持された状態で前記携帯端末が前記表示部に接触された場合に確立されてもよい。
前記情報処理装置は、前記位置推測部により前記ユーザの相対位置が推測された場合に、推測された前記ユーザの相対位置に基づいて、前記表示部に表示されているコンテンツの表示態様を変化させる表示制御部をさらに備えてもよい。
前記表示制御部は、前記ユーザの相対位置に基づいて、表示されているコンテンツの表示位置を変更してもよい。
前記表示制御部は、前記ユーザの相対位置が前記表示部上に投影された位置である投影位置の周辺に表示されているコンテンツを前記投影位置の上方に移動し、表示させてもよい。
前記情報処理装置は、前記携帯端末の接触位置、前記携帯端末が前記表示部に接触された際における前記表示部に対する前記携帯端末の傾き、および、前記ユーザの相対位置に基づいて、前記ユーザが前記携帯端末を把持する把持腕が左腕と右腕とのいずれであるかを推測する姿勢推測部をさらに備え、前記表示制御部は、さらに、推測された前記ユーザの把持腕に基づいて、表示されているコンテンツの表示態様を変化させてもよい。
前記姿勢推測部は、前記携帯端末の接触位置と推測された前記ユーザの相対位置との位置関係に対応付けてデータベースに登録されている把持腕判定条件が示す傾きの閾値と、前記携帯端末の傾きとを比較することにより、前記把持腕が左腕と右腕とのいずれであるかを推測してもよい。
前記情報処理装置は、前記携帯端末が前記表示部に接触されている場合に、前記姿勢推測部により推測された把持腕、推測された前記ユーザの相対位置、および、前記携帯端末の接触位置に基づいて、前記表示部において前記把持腕により前記ユーザの視界から遮蔽される領域である遮蔽領域を推測する遮蔽領域推測部をさらに備え、前記表示制御部は、推測された遮蔽領域に表示されているコンテンツの表示位置を変更してもよい。
前記表示制御部は、前記遮蔽領域に表示されているコンテンツを前記遮蔽領域外の領域に表示させてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、携帯端末と表示部との間の情報連携の確立に関する判定を行う連携処理部と、前記携帯端末により検出される前記携帯端末の位置変化と、前記情報連携の確立が判定された場合に前記表示部により検出される前記表示部における前記携帯端末の接触位置とに基づいて、前記携帯端末を携帯するユーザの前記表示部に対する相対位置を推測する位置推測部、として機能させるための、プログラムが提供される。
また、上記課題を解決するために、本発明の別の観点によれば、携帯端末であって、ユーザにより把持された状態で前記携帯端末が表示部に接触された場合に前記表示部との間での情報連携の確立の要求を情報処理装置へ送信部に送信させる連携制御部と、前記携帯端末が前記表示部に接触された際の前記携帯端末の位置と、前記表示部に接触される前もしくは前記表示部から離れた後における前記携帯端末の位置との間の位置変化を検出し、検出した位置変化を前記情報処理装置へ前記送信部に送信させる動作制御部と、を備える、携帯端末が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、携帯端末と、コンテンツを表示する表示部と、前記携帯端末と前記表示部との間の情報連携の確立に関する判定を行う連携処理部と、前記携帯端末により検出される前記携帯端末の位置変化と、前記情報連携の確立が判定された場合に前記表示部により検出される前記表示部における前記携帯端末の接触位置とに基づいて、前記携帯端末を携帯するユーザの前記表示部に対する相対位置を推測する位置推測部と、を備える、情報処理システムが提供される。
以上説明したように本発明によれば、専用の計測機器による計測結果を用いることなく、表示部に対するユーザの相対位置を推測することができる。
本発明の第1の実施形態による情報処理システムの構成例を示した説明図である。 ベース姿勢およびタッチ姿勢の例を示した説明図である。 同実施形態による携帯端末20の構成を示した機能ブロック図である。 携帯端末20において設定されている座標系の例を示した説明図である。 携帯端末20を傾けた場面において携帯端末20にかかる重力加速度の方向を示した説明図である。 同実施形態による携帯端末20の表示方向ごとの、ベース姿勢に関する一部の判定方法の例を示した説明図である。 携帯端末20により検出された加速度の変化方向を表示部326上に投影した様子を示した説明図である。 同実施形態による表示装置30の構成を示した機能ブロック図である。 同実施形態によるサーバ10‐1の構成を示した機能ブロック図である。 同実施形態による動作の一部を示したシーケンス図である。 同実施形態による動作の一部を示したシーケンス図である。 本発明の第2の実施形態によるサーバ10‐2の構成を示した機能ブロック図である。 携帯端末20の把持腕の回転の自由度を示した説明図である。 タッチ姿勢時における携帯端末20の把持腕の手掌部分の無理のない姿勢の例を示した説明図である。 タッチ姿勢時における携帯端末20の把持腕と、表示部に対する携帯端末20の傾きとの関係例を示した説明図である。 タッチ姿勢時における携帯端末20の把持腕と、表示部に対する携帯端末20の傾きとの関係例を示した説明図である。 タッチ姿勢時における携帯端末20の把持腕と、表示部に対する携帯端末20の傾きとの関係例を示した説明図である。 同実施形態による把持腕の判定条件が異なる領域の区分例を示した説明図である。 ユーザの相対位置とタッチ位置との関係の例を示した説明図である。 ユーザの相対位置とタッチ位置との位置関係および把持腕の組み合わせと、遮蔽領域との関係の例を示した説明図である。 遮蔽領域と、コンテンツが非表示にされる領域との関係の例を示した説明図である。 同実施形態による動作の一部を示したシーケンス図である。 各実施形態に共通するサーバ10のハードウェア構成を示した説明図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成を、必要に応じて通信網32aおよび通信網32bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、通信網32aおよび通信網32bを特に区別する必要が無い場合には、単に通信網32と称する。
また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.情報処理システムの基本構成
2.第1の実施形態
3.第2の実施形態
4.ハードウェア構成
5.変形例
なお、本明細書及び図面において、第1の実施形態によるサーバ10‐1と第2の実施形態によるサーバ10‐2とを特に区別する必要がない場合には、総称的にサーバ10と記載する場合がある。
<<1.情報処理システムの基本構成>>
まず、各実施形態に共通する情報処理システムの基本構成について、図1を参照して説明する。図1に示したように、各実施形態に共通する情報処理システムは、サーバ10、携帯端末20、表示装置30、および通信網32を含む。
[1−1−1.サーバ10]
サーバ10は、本発明における情報処理装置の一例である。このサーバ10は、例えば携帯端末20がユーザにより表示装置30にタッチされた場合に、携帯端末20と表示装置30との間の情報連携(ペアリング)の確立処理を行うための装置である。また、サーバ10は、表示装置30に対する表示制御を行うことが可能である。
[1−1−2.携帯端末20]
携帯端末20は、ユーザが携帯する通信端末である。この携帯端末20は、例えば、スマートフォンなどの携帯電話である。
また、携帯端末20は、サーバ10との間で通信網32aを介して各種情報の送受信を行うことが可能である。なお、携帯端末20と表示装置30とは、初期状態では互いに通信相手として特定されていない状態であり、通信が不可能となっている。
[1−1−3.表示装置30]
表示装置30は、例えば静電容量方式または赤外線遮断方式のタッチパネルを含むディスプレイを有する。この表示装置30は、例えば、デジタルサイネージ用の装置である。
表示装置30は、サーバ10から受信される表示制御情報に従って、画像などの複数のコンテンツを表示する。また、表示装置30は、例えば図2の右図に示したような、ユーザが携帯端末20を表示装置30のディスプレイに接触させた場合(タッチ姿勢時)に、ディスプレイにおける携帯端末20のタッチ位置を検出することが可能である。
[1−1−4.通信網32]
通信網32は、通信網32に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網32は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網32は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
<1−2.課題の整理>
ところで、表示装置30に表示されているコンテンツとユーザとの間で直感的なインタラクションが可能であることが望まれる。例えば図2の右図に示したようにユーザが携帯端末20をディスプレイにタッチした場合には、携帯端末20のタッチ位置に応じて、表示されているコンテンツの表示態様を変化可能であることが望ましい。
公知の技術では、ユーザの状態を計測するためだけに使用される専用の計測機器を使用することにより、インタラクション時におけるユーザとディスプレイとの位置関係や姿勢関係を計測する技術が提案されている。しかしながら、この技術では、専用の計測機器が必要となるので、システムの構成が複雑になったり、システムの導入コストが高くなる。
そこで、上記事情を一着眼点にして、各実施形態によるサーバ10を創作するに至った。各実施形態によるサーバ10は、携帯端末20および表示装置30による計測結果だけで、ディスプレイに対するユーザの相対位置を推測することが可能である。また、サーバ10は、推測したユーザの相対位置に応じて、表示装置30に表示されているコンテンツの表示態様を変化させることが可能である。
<<2.第1の実施形態>>
<2−1.構成>
[2−1−1.携帯端末20]
次に、第1の実施形態による構成について詳細に説明する。図3は、第1の実施形態による携帯端末20の構成を示した機能ブロック図である。図3に示したように、携帯端末20は、制御部200、入力部220、センサ部222、通信部224、記憶部226、および表示部228を有する。
(2−1−1−1.制御部200)
制御部200は、携帯端末20に内蔵される例えばCPU(Central Processing Unit)、RAM(Random Access Memory)、またはROM(Read Only Memory)などのハードウェアを用いて、携帯端末20の動作を全般的に制御する。また、図3に示したように、制御部200は、操作処理部202、動作処理部204、表示制御部206、および、連携制御部208を有する。
(2−1−1−2.操作処理部202)
操作処理部202は、後述する入力部220により検出されたユーザの入力操作の処理を行う。
(2−1−1−3.動作処理部204)
‐動作の導出
動作処理部204は、後述するセンサ部222による検出結果に基づいて、ユーザの動作またはユーザに把持された携帯端末20の動作を示す動作情報を導出する処理を行う。
‐‐ユーザの姿勢(ベース姿勢)の判定
例えば、動作処理部204は、センサ部222による加速度または角加速度の検出結果に基づいて、ユーザの姿勢がベース姿勢であるか否かの判定を行う。ここで、ベース姿勢は、本発明における第1の姿勢の一例である。ベース姿勢は、タッチ姿勢との間での姿勢の切り替えを識別可能な任意の姿勢である。また、タッチ姿勢は、例えば図2の右図に示したような、ユーザが携帯端末20を表示装置30のディスプレイにタッチさせる際の姿勢である。
例えば、ベース姿勢は、図2の左図に示したように、ユーザが携帯端末20を胸部前方に傾けて保持し、かつ、携帯端末20の表示画面を見ている姿勢であってもよい。または、ベース姿勢は、ユーザが表示装置30に正対し、かつ、携帯端末20を手に把持した状態で手を下ろしている姿勢であってもよい。または、ベース姿勢は、ユーザが表示装置30に向かって歩いている際の姿勢であってもよい。
例えば、動作処理部204は、下記の2つの条件(条件A、および条件B)をともに満たす場合にはユーザの姿勢がベース姿勢であると判定し、かつ、2つの条件のうち少なくとも一方を満たさない場合にはベース姿勢ではないと判定してもよい。ここで、条件Aは、携帯端末20が静止状態であることである。また、条件Bは、携帯端末20の姿勢状態が、特定の姿勢状態であることである。
ここで、上記の内容についてより詳細に説明する。今、携帯端末20の座標系(つまり、後述するセンサ部222に含まれる3軸加速度センサまたはジャイロセンサの座標系)が図4に示したようなxyz座標系として設定されているとする。この場合、条件Aは、例えば3軸加速度センサにより測定されるx、y、zの3軸方向にかかる加速度がそれぞれ一定の値に収束しており(または、ある範囲内に収まっており)、かつ、3軸回りにかかる角加速度(角速度)の値が全て「0」である(または「0」を基点としてある範囲内に収まっている)状態であることである。
ところで、ベース姿勢が、図2の左図に示したようなユーザが携帯端末20の表示画面を見ている姿勢として定められているとすると、携帯端末20は、ベース姿勢時において、例えば図5に示したような方向にユーザにより傾けられている。このため、携帯端末20には、重力加速度G(gx,gy,gz)が図5に示した実線の矢印のような方向にかかる。そこで、ベース姿勢が図2の左図に示したような姿勢と定められている場合には、上記の条件Bは、下記の2つの条件(条件B‐1、および条件B‐2)をともに満たす状態であると定められ得る。
Figure 0006384376
なお、条件B‐1は、携帯端末20の表示部228が上方を向いていることを判定するための条件である。また、条件B‐2は、(ユーザが表示部228を見やすいように)表示部228がユーザの胸部側に傾けられていることを判定するための条件である。
なお、変形例として、空間上での携帯端末20の姿勢によって表示画面の表示方向を4方向に変化可能な機能を携帯端末20が有している場合には、条件B‐2の代わりに、図6に示したような、表示画面の表示方向ごとに定められた判定式が用いられてもよい。例えば表示部228におけるY軸の負方向と表示画面の表示の上方向とが一致するように携帯端末20が傾けられている場合には、条件B‐2の代わりに、下記の判定式が用いられる。
Figure 0006384376
‐‐携帯端末20の位置変化の特定
また、動作処理部204は、センサ部222により検出される加速度の変化に基づいて、携帯端末20の位置の変化を特定する。例えば、動作処理部204は、検出された加速度の変化の方向と逆の方向に携帯端末20が移動したことを特定する。
ここで、図7を参照して、上記の内容についてより詳細に説明する。図7は、ユーザにより携帯端末20が移動された場合において、センサ部222により検出された加速度の変化方向が(表示装置30における)後述する表示部326上に投影された様子を示した説明図である。なお、図7における(a)は、携帯端末20が表示部326にタッチされる際に、矢印で示したように、加速度が「左上」方向に変化したことが検出された場合の投影例を示している。同様に、図7の(b)は加速度が「上」方向に変化したことが検出された場合、(c)は加速度が「左下」方向に変化したことが検出された場合、また(d)は加速度が「右」方向に変化したことが検出された場合の投影例をそれぞれ示している。
図7の(a)の例では、動作処理部204は、携帯端末20の移動方向を(加速度の変化方向とは逆方向である)「右下」と判定する。同様に、動作処理部204は、携帯端末20の移動方向を、図7の(b)の例では「下」、図7の(c)の例では「右上」、また、図7の(d)の例では「左」とそれぞれ判定する。
‐処理結果の送信
また、動作処理部204は、ユーザの姿勢の判定結果や携帯端末20の位置変化情報をサーバ10‐1へ、後述する通信部224に送信させる。
(2−1−1−4.表示制御部206)
表示制御部206は、例えばGUI(Graphical User Interface)などの各種の表示情報を表示部228に表示させる。
(2−1−1−5.連携制御部208)
連携制御部208は、後述する入力部220に対するユーザの入力に基づいて、表示装置30との間での情報連携の確立に関する要求処理を行う。例えば、連携制御部208は、入力部220に対してユーザにより入力された、表示装置30との間の情報連携の確立の要求信号、および、処理時刻を含む第1のペアリング要求をサーバ10‐1へ通信部224に送信させる。ここで、第1のペアリング要求は、(例えば携帯端末20の移動が停止した場合に)センサ部222に含まれる3軸加速度センサにより測定された3軸方向の加速度成分をさらに含んでもよい。
(2−1−1−6.入力部220)
入力部220は、携帯端末20に対するユーザの操作を検出する機能を有する。例えば、入力部220は、表示部228に表示されているGUIに対するユーザの操作を検出可能なタッチパネルを含んでもよい。また、入力部220は、ユーザのジェスチャーを検出可能なカメラを含んでもよい。また、入力部220は、ユーザの発声を検出可能なマイクロフォンを含んでもよい。
(2−1−1−7.センサ部222)
センサ部222は、携帯端末20の加速度、または角加速度を検出する機能を有する。例えば、センサ部222は、3軸加速度センサを含み、かつ、携帯端末20にかかる3軸方向の加速度を検出する。なお、携帯端末20におけるx、y、zの3軸(座標系)は、例えば図4に示したようにそれぞれ設定され得る。また、センサ部222は、ジャイロセンサを含み、かつ、携帯端末20における3軸回りの角加速度を検出する。
なお、センサ部222は、基本的には携帯端末20の内部に備えられる。但し、かかる例に限定されず、センサ部222は、携帯端末20の外部に備えられてもよい。
(2−1−1−8.通信部224)
通信部224は、通信網32aに接続されている他の装置との間で情報の送受信を行う。例えば、通信部224は、動作処理部204の制御に従って、携帯端末20の位置変化情報をサーバ10‐1へ送信する。
なお、携帯端末20と表示装置30との間の情報連携がサーバ10‐1により確立された場合には、通信部224は、表示装置30との間で情報の送受信を行うことも可能である。
(2−1−1−9.記憶部226)
記憶部226は、例えば、制御部200の動作に関するソフトウェアやデータなどを記憶する。
(2−1−1−10.表示部228)
表示部228は、例えば液晶ディスプレイなどにより構成される。この表示部228は、表示制御部206の制御に従って、表示画面を表示する。
[2−1−2.表示装置30]
また、図8は、第1の実施形態による表示装置30の構成を示した機能ブロック図である。図8に示したように、表示装置30は、制御部300、入力部320、通信部322、記憶部324、および表示部326を有する。
(2−1−2−1.制御部300)
制御部300は、表示装置30に内蔵される例えばCPU、RAM、またはROMなどのハードウェアを用いて、表示装置30の動作を全般的に制御する。また、図8に示したように、制御部300は、操作処理部302、表示制御部304、および、連携制御部306を有する。
(2−1−2−2.操作処理部302)
操作処理部302は、後述する入力部320により検出されたユーザの入力操作の処理を行う。例えば、操作処理部302は、表示部326に表示されているコンテンツに対するユーザの選択操作を特定する。
(2−1−2−3.表示制御部304)
表示制御部304は、例えばサーバ10‐1から受信される表示制御情報に従って、コンテンツなどの表示情報を表示部326に表示させる。また、表示制御部304は、コンテンツの表示態様を制御する。
(2−1−2−4.連携制御部306)
連携制御部306は、携帯端末20がユーザにより片手で把持された状態での表示部326に対するタッチ入力が、後述する入力部320により検出された場合には、携帯端末20との間での情報連携の確立に関する要求処理を行う。
‐静電容量方式タッチパネル
例えば、上記の場合で、かつ、後述する表示部326が静電容量方式タッチパネルを含む場合には、連携制御部306は、まず、入力部320により検出された2タッチ点の中点(タッチ点の組が複数存在する場合には各タッチ点の組の中点の重心)を表示部326に対する接触点として特定する。そして、連携制御部306は、特定した接触点、および、処理時刻を含む第2のペアリング要求をサーバ10‐1へ通信部322に送信させる。
‐赤外線遮断方式タッチパネル
また、上記の場合で、かつ、表示部326が赤外線遮断方式タッチパネルを含む場合には、連携制御部306は、まず、表示部326にタッチされた携帯端末20の領域を含む最小の矩形領域の中心を表示部326に対する接触点として特定する。次に、連携制御部306は、表示装置30に内蔵される3軸加速度センサ(図示省略)により計測される、表示部326にかかる重力加速度の3軸方向成分を取得する。次に、連携制御部306は、表示部326に対する携帯端末20の傾きを算出する。そして、連携制御部306は、特定した接触点、取得した3軸加速度の計測情報、算出した携帯端末20の傾き、および、処理時刻を含む第2のペアリング要求をサーバ10‐1へ通信部322に送信させる。
(2−1−2−5.入力部320)
‐入力例1
入力部320は、表示装置30に対するユーザの操作を検出する機能を有する。例えば、入力部320は、表示部326に対するユーザのタッチ入力を検出する。
‐‐静電容量方式タッチパネル
例えば、表示部326が静電容量方式タッチパネルを含む場合には、このタッチパネルは、パネル形状で構成される静電容量方式(例えば、格子状に配置された電極と電極との交点に形成されるコンデンサの静電容量が、例えば人体などの導電性物体が接近または接触することにより変化する原理)を利用した、いわゆる投影型静電容量方式を備える。この場合、入力部320は、当該タッチパネルに対する導電性物体の接近または接触により変化する静電容量を計測し、そして、計測した情報に基づいて、表示部326に対するタッチの有無、および、タッチ位置を検出する。
‐‐赤外線遮断方式タッチパネル
または、表示部326が赤外線遮断方式タッチパネルを含む場合には、このタッチパネルでは、ベゼルの長辺および短辺のそれぞれ一辺には赤外線LED(Light Emitting Diode)、対向する辺には赤外線センサがそれぞれ敷設されており、そして、赤外線LEDを順次発光させることにより、タッチパネルの表面上に赤外線のマトリクスを形成する。この場合、入力部320は、当該タッチパネルに敷設されている赤外線センサの受光レベルに基づいて、表示部326に対するタッチの有無、および、タッチ位置を検出する。例えば、当該タッチパネルが指などでタッチされた場合、タッチされた部分を通る赤外線が遮断され、そして、対応する箇所の赤外線センサの受光レベルが低下することにより、入力部320は、タッチ位置を検出する。なお、入力部320は、当該タッチパネル上に物体(例えば携帯端末20など)が配置された場合、配置された物体によって覆われる領域を含む最小の矩形領域のサイズ(縦×横)も検出可能である。
‐入力例2
また、携帯端末20と表示装置30との間で情報連携が確立した場合には、入力部320は、当該情報連携が実現可能な範囲において任意の入力方法を受け付け可能である。
(2−1−2−6.通信部322)
通信部322は、通信網32bに接続されている他の装置との間で情報の送受信を行う。例えば、通信部322は、コンテンツを表示部326に表示させるための表示制御情報をサーバ10‐1から受信する。
また、携帯端末20と表示装置30との間で情報連携が確立された場合には、通信部322は、携帯端末20との間で情報の送受信を行うことも可能である。
(2−1−2−7.記憶部324)
記憶部324は、例えば、制御部300の動作に関するソフトウェアやデータなどを記憶する。
(2−1−2−8.表示部326)
表示部326は、タッチパネルを含む例えば液晶ディスプレイにより構成される。この表示部326は、表示制御部304の制御に従って、表示画面を表示する。
[2−1−3.サーバ10‐1]
また、図9は、第1の実施形態によるサーバ10‐1の構成を示した機能ブロック図である。図9に示したように、サーバ10‐1は、制御部100‐1、通信部120、および記憶部122‐1を有する。
(2−1−3−1.制御部100‐1)
制御部100‐1は、サーバ10‐1に内蔵される、後述するCPU150、ROM152、RAM154などのハードウェアを用いて、サーバ10‐1の動作を全般的に制御する。また、図9に示したように、制御部100‐1は、連携処理部102、人物位置推測部104、および、表示制御部106を有する。
(2−1−3−2.連携処理部102)
‐情報連携の確立処理
連携処理部102は、携帯端末20から受信される第1のペアリング要求と、表示装置30から受信される第2のペアリング要求との比較に基づいて、携帯端末20と表示装置30との間の情報連携の確立に関する制御を行う。
‐‐静電容量方式タッチパネル
例えば、表示部326が静電容量方式タッチパネルを含む場合には、連携処理部102は、受信された第1のペアリング要求に含まれる処理時刻と、受信された第2のペアリング要求に含まれる処理時刻との差分が所定の時間内に収まる場合に、携帯端末20と表示装置30との間で情報連携(ペアリング)を確立させる。
‐‐赤外線遮断方式タッチパネル
また、表示部326が赤外線遮断方式タッチパネルを含む場合には、連携処理部102は、下記の2つの条件(条件C、および条件D)を満たす場合にのみ、携帯端末20と表示装置30との間で情報連携を確立させる。ここで、条件Cは、受信された第1のペアリング要求に含まれる処理時刻と、受信された第2のペアリング要求に含まれる処理時刻との差分が所定の時間内に収まることである。また、条件Dは、第1のペアリング要求に含まれる携帯端末20の姿勢情報(3軸方向の加速度成分)、および第2のペアリング要求に含まれる表示装置30の姿勢情報(3軸方向の加速度成分)に基づいて連携処理部102により算出される表示部326上での携帯端末20の傾きと、第2のペアリング要求に含まれる表示装置30により算出された表示部326上での携帯端末20(と推測される物体)の傾きとの差分が所定の閾値以内に収まることである。このように、条件Cだけでなく、条件Dを追加して判定を行うことにより、ペアリングの精度を向上させることができる。
なお、例えば表示装置30がテーブル型の装置であり、かつ、表示部326がテーブルの天板である場合や、表示装置30が壁に取り付けられる場合など、空間における表示部326の姿勢は多様であり得る。しかし、条件Dでは、表示部326の姿勢に依存せずに判定を行うことができる。
‐タッチ姿勢の判定処理
また、連携処理部102は、携帯端末20から受信される携帯端末20の位置変化情報に基づいて、ユーザの姿勢がタッチ姿勢であるか否かの判定を行う。
例えば、連携処理部102は、下記の2つの条件(条件E、および条件F)をともに満たす場合にはユーザの姿勢がタッチ姿勢であると判定し、かつ、2つの条件のうち少なくとも一方を満たさない場合にはタッチ姿勢ではないと判定する。ここで、条件Eは、携帯端末20から受信された携帯端末20の位置変化情報が、携帯端末20が静止状態であることを示すことである。また、条件Fは、携帯端末20と表示装置30との間の情報連携がすでに確立しており、かつ、表示部326に対する携帯端末20の接触が検出されていることが表示装置30から受信されていることである。
(2−1−3−3.人物位置推測部104)
人物位置推測部104は、携帯端末20から受信される位置変化情報、および、連携処理部102による情報連携の確立時(または確立後)に表示装置30から受信される携帯端末20のタッチ位置に基づいて、表示部326に対するユーザの相対位置を推測する。ここで、対象となる位置変化情報は、例えば、表示部326に携帯端末20がタッチされる直前もしくは表示部326から携帯端末20が離された直後における携帯端末20の位置と、表示部326における携帯端末20のタッチ位置との間の位置変化を示す情報であってもよい。または、当該位置変化情報は、ユーザの姿勢がベース姿勢からタッチ姿勢へ移行する際、もしくは、タッチ姿勢からベース姿勢へ移行する際における携帯端末20の位置変化を示す情報であってもよい。
例えば、人物位置推測部104は、さらに、人体モデルDB124に格納されている例えば腕の長さなどの人体モデル情報に基づいて、表示部326に対するユーザの相対位置を推測する。なお、ユーザの相対位置は、表示部326に対するユーザの胸部の相対位置であってもよいし、ユーザの顔部または眼部正面の相対位置であってもよい。
‐‐人体モデルDB124
人体モデルDB124は、例えば人体の身長、各部位の長さ、および各部位の位置関係などの平均データが格納されているデータベースである。また、人体モデルDB124は、例えば、記憶部122‐1に記憶されている。
(2−1−3−4.表示制御部106)
表示制御部106は、人物位置推測部104により推測されたユーザの相対位置に基づいて、表示装置30(の表示部326)に表示されているコンテンツの表示態様を変化させるための表示制御情報を表示装置30へ、後述する通信部120に送信させる。
例えば、表示制御部106は、推測されたユーザの相対位置に基づいて、表示部326に現在表示されているコンテンツの表示位置を変更したり、または、新たにコンテンツを表示させるための表示制御情報を表示装置30へ通信部120に送信させる。一例として、表示制御部106は、推測されたユーザの胸部の相対位置が表示部326上に投影された位置である胸部投影位置の周辺に表示されているコンテンツを胸部投影位置よりも上方に移動させて表示させる。また、表示制御部106は、表示部326に新たにコンテンツを表示させる際に、当該コンテンツを胸部投影位置よりも上方に表示させる。これらの表示例によれば、ユーザにとってコンテンツがより見やすくなる。例えば、ユーザの眼部はユーザの胸部よりも上に位置するので、ユーザは視線を下げずにコンテンツを見ることができるようになる。
または、表示制御部106は、表示部326に表示されている複数のコンテンツのうちユーザがインタラクションを行ったコンテンツ、および当該コンテンツに関連するコンテンツを、表示部326においてユーザの顔部または眼部正面が投影された位置または領域(以下、顔部投影位置/領域とも称する)を中心として集まるように移動させたり、または、顔部投影位置/領域に新たに表示させる。
または、表示制御部106は、表示部326において顔部投影位置/領域に表示されているコンテンツの密度が他の領域よりも高くなるようにコンテンツの表示位置を移動させたり、または、新たにコンテンツを表示させる。
(2−1−3−5.通信部120)
通信部120は、例えば通信網32を介して、他の装置との間で情報の送受信を行う。例えば、通信部120は、携帯端末20の位置変化情報、および、ユーザのベース姿勢の判定結果を携帯端末20から受信する。また、通信部120は、表示制御部106の制御に従って、表示制御情報を表示装置30へ送信する。
(2−1−3−6.記憶部122‐1)
記憶部122‐1は、例えば人体モデルDB124などの各種のデータを記憶する。
なお、第1の実施形態によるサーバ10‐1の構成は、上述した構成に限定されない。例えば、人体モデルDB124は、記憶部122‐1に記憶される代わりに、サーバ10‐1と通信可能な他の装置(図示省略)に記憶されることも可能である。
<2−2.動作>
以上、第1の実施形態による構成について説明した。続いて、第1の実施形態による動作について説明する。図10は、第1の実施形態による動作の一部を示したシーケンス図である。図10に示したように、まず、サーバ10‐1の通信部120は、表示制御部106の制御に従って、1以上のコンテンツを表示させるための表示制御情報を表示装置30へ送信する(S101)。そして、表示装置30の表示制御部304は、受信された表示制御情報に従って、表示画面を表示部326に表示させる(S103)。
また、携帯端末20の動作処理部204は、センサ部222による検出結果に基づいて、ユーザの姿勢がベース姿勢であるか否かを例えば定期的に判定する。そして、動作処理部204は、例えばベース姿勢であると判定した場合には、判定結果をサーバ10‐1へ通信部224に送信させる(S105)。
その後、ユーザの姿勢がベース姿勢からタッチ姿勢へ移行する際に、携帯端末20の動作処理部204は、センサ部222による検出結果に基づいて、携帯端末20の位置の変化を検出する(S107)。
その後、ユーザは、携帯端末20を把持した手で(表示装置30の)表示部326をタッチしながら、例えば携帯端末20に表示されているGUIのボタンを押下するなど、表示装置30との間の情報連携の確立の要求を入力部220に対して入力する(S109)。その後、表示装置30の入力部320は、表示部326に対する携帯端末20のタッチ位置を検出する(S111)。
また、携帯端末20の通信部224は、連携制御部208の制御に従って、S109で入力された要求信号、および、処理時刻を含む第1のペアリング要求をサーバ10‐1へ送信する(S113)。
その後、表示装置30の通信部322は、連携制御部306の制御に従って、S111で検出されたタッチ位置、および、処理時刻を含む第2のペアリング要求をサーバ10‐1へ送信する(S115)。
その後、サーバ10‐1の連携処理部102は、S113で受信された第1のペアリング要求と、S115で受信された第2のペアリング要求との比較に基づいて、携帯端末20と表示装置30との間の情報連携の確立に関する制御を行う(S117)。
S117において情報連携が確立された場合には、携帯端末20の通信部224は、動作処理部204の制御に従って、S107で検出された携帯端末20の位置変化情報をサーバ10‐1へ送信する(S119)。
ここで、図11を参照して、S119より後の動作について説明する。図11に示したように、S119の後、サーバ10‐1の人物位置推測部104は、S119で受信された位置変化情報、S115で受信されたタッチ位置、および、人体モデルDB124に格納されている人体モデル情報に基づいて、表示部326に対するユーザの相対位置を推測する(S121)。
続いて、表示制御部106は、S121で推測されたユーザの相対位置に基づいて、表示部326に現在表示されているコンテンツの表示位置を変更させるための表示制御情報を生成する(S123)。そして、通信部120は、表示制御部106の制御に従って、生成された表示制御情報を表示装置30へ送信する(S125)。
その後、表示装置30の表示制御部304は、受信された表示制御情報に従って表示画面の表示内容を更新し、そして、更新後の表示画面を表示部326に表示させる(S127)。
<2−3.効果>
[2−3−1.効果1]
以上、例えば図9〜図11などを参照して説明したように、第1の実施形態によるサーバ10‐1は、携帯端末20により検出される携帯端末20の位置変化、および、携帯端末20と表示装置30との間の情報連携の確立時に表示部326により検出される携帯端末20のタッチ位置に基づいて、表示部326に対するユーザの相対位置を推測する。このため、第1の実施形態によれば、携帯端末20および表示装置30による計測結果だけで、表示部326に対するユーザの相対位置を推測することができる。つまり、ユーザの状態を計測するための専用の計測機器が不要であるので、情報処理システムがシンプルな構成になり、かつ、安価に構成することができる。
[2−3−2.効果2]
また、サーバ10‐1は、推測したユーザの相対位置に応じて、表示部326に表示されているコンテンツの表示位置を変化させることが可能である。例えば、サーバ10‐1は、現在表示されているコンテンツを顔部投影位置/領域に移動させて表示させたり、または、新たにコンテンツを表示させる際に当該コンテンツを顔部投影位置/領域に表示させる。このため、ユーザは視線を下げずにコンテンツを見ることができ、コンテンツが見やすくなる。
<2−4.変形例>
[2−4−1.変形例1]
なお、第1の実施形態は、上述した説明に限定されない。例えば、変形例1として、推測されたユーザの相対位置に基づいてコンテンツの表示位置を変化させた後に、例えばユーザの次の入力が一定時間行われない場合には、表示制御部106は、コンテンツの表示位置を元の位置に戻してもよい。ここで、ユーザの次の入力の例は、表示部326に対する指によるタッチ操作(例えばコンテンツの選択操作など)であってもよいし、または、ユーザにより新たなタッチ姿勢がなされること(つまり、表示部326に対してユーザが携帯端末20を新たにタッチすること)であってもよい。また、携帯端末20と表示装置30との間で情報連携が確立している場合には、ユーザの次の入力は、例えば表示部326に表示されている表示情報に関連した内容の、携帯端末20に対する入力であってもよい。
[2−4−2.変形例2]
また、上記の説明では、ユーザの姿勢がベース姿勢であるか否かの判定は携帯端末20が行う例について説明したが、かかる例に限定されず、サーバ10‐1が判定を行うことも可能である。具体的には、携帯端末20は、センサ部222により計測された例えば加速度や角加速度の計測結果などの情報をサーバ10‐1へ送信し、そして、サーバ10‐1は、受信された情報に基づいて、ユーザの姿勢がベース姿勢であるか否かの判定を行ってもよい。
[2−4−3.変形例3]
また、例えば、携帯端末20のセンサ部222に含まれる3軸加速度センサやジャイロセンサの精度、および、位置変化や姿勢変化の算出処理の精度が高い場合には、携帯端末20は、計測値変化の積分値などを用いて、(携帯端末20の移動方向だけでなく)携帯端末20の移動距離も算出することが可能である。そして、サーバ10‐1は、算出した移動距離にさらに基づいてユーザの相対位置を推測し、そして、推測した相対位置に基づいてコンテンツの表示態様を変化させることが可能である。
[2−4−4.変形例4]
また、携帯端末20がインカメラ機能を有し、かつ、ベース姿勢が、図2の左図に示したような、ユーザが携帯端末20の表示画面を見ている姿勢であると定められている場合には、ベース姿勢を判定するための条件として、インカメラの視野内にユーザの顔が認識できること(条件G)を追加してもよい。つまり、携帯端末20の動作処理部204は、3つの条件(条件A、条件B、および条件G)の全てを満たす場合にはユーザの姿勢がベース姿勢であると判定し、かつ、3つの条件のうち少なくとも一つを満たさない場合にはベース姿勢ではないと判定してもよい。この変形例によれば、ベース姿勢が図2の左図に示したような姿勢と定められている場合に、ベース姿勢を精度高く判定することができる。
[2−4−5.変形例5]
また、ベース姿勢が、図2の左図に示したような姿勢であると定められている場合には、携帯端末20は、インカメラ機能を利用して、ベース姿勢状態時のユーザの顔部、または、顔部と携帯端末20との位置関係を推測することも可能である。例えば、インカメラの視野内にユーザの顔が認識できる場合には、携帯端末20は、インカメラの視野領域内を占めるユーザの顔領域のサイズに基づいて、ユーザの顔部または眼部と携帯端末20との位置関係(または距離)を算出してもよい。
<<3.第2の実施形態>>
以上、第1の実施形態について説明した。次に、第2の実施形態について説明する。まず、第2の実施形態を創作するに至った背景について説明する。
上述したタッチ姿勢時には、携帯端末20を把持するユーザの腕によって、表示部326の表示領域のうちの一部がユーザの視界から遮蔽され得る。このため、遮蔽される領域(以下、遮蔽領域と称する)に表示されているコンテンツをユーザが見ることができない、もしくは、見辛いという問題が生じる。
後述するように、第2の実施形態によるサーバ10‐2は、遮蔽領域を推測すること、および、遮蔽領域に表示されているコンテンツを遮蔽領域外に表示させることが可能である。
<3−1.構成>
[3−1−1.携帯端末20、表示装置30]
第2の実施形態による携帯端末20および表示装置30の構成については、第1の実施形態と同様である。
[3−1−2.サーバ10‐2]
図12は、第2の実施形態によるサーバ10‐2の構成を示した機能ブロック図である。図12に示したように、サーバ10‐2は、第1の実施形態と比較して、制御部100‐1および記憶部122‐1の代わりに、制御部100‐2および記憶部122‐2を有する。なお、以下では、第1の実施形態と重複する内容については説明を省略する。
(3−1−2−1.制御部100‐2)
制御部100‐2は、図12に示したように、制御部100‐1と比較して、人物姿勢推測部108、および、遮蔽領域推測部110をさらに有する。
(3−1−2−2.人物姿勢推測部108)
人物姿勢推測部108は、携帯端末20のタッチ位置、表示部326に対する携帯端末20の傾き、および、人物位置推測部104により推測されたユーザの相対位置に基づいて、ユーザが携帯端末20を把持する把持腕が左手と右手とのいずれであるかを推測する。例えば、人物姿勢推測部108は、携帯端末20のタッチ位置とユーザの相対位置との位置関係に対応付けて、後述する把持腕判定条件DB126に格納されている把持腕判定条件に基づいて、把持腕が左手と右手とのいずれであるかを推測する。
より具体的には、人物姿勢推測部108は、まず、携帯端末20のタッチ位置と、推測されたユーザの相対位置との位置関係に対応付けて把持腕判定条件DB126に格納されている、把持腕の判定領域の区分を把持腕判定条件DB126から抽出する。そして、人物姿勢推測部108は、抽出した区分に対応づけて把持腕判定条件DB126に格納されている把持腕判定条件、および、表示部326に対する携帯端末20の傾きに基づいて、把持腕が左手と右手とのいずれであるかを推測する。
ここで、図13〜図18を参照して、上記の機能についてより詳細に説明する。一般的に、携帯端末20を把持する手の稼働範囲(回転可能な範囲)は、人体の構造上、ある範囲内に制限される。例えば、携帯端末20の把持腕の手首の自由度は、図13に示したような、直行する3軸Y、R、P回りになり得る。
このため、タッチ姿勢時における携帯端末20の把持腕の手掌部分の無理のない自然な姿勢は、例えば図14に示したようになる。図14に示したように、把持腕およびタッチ位置が決定された場合には、表示部326に対する携帯端末20の傾きはある程度特定可能である。なお、図14では、携帯端末20を右手で把持している場合の例を示しており、左手で把持している場合に関しては、図14と対照の図になる。
また、図15〜図17は、タッチ姿勢時における携帯端末20の把持腕と携帯端末20の傾きとの関係例を示した説明図である。なお、図15〜図17は、携帯端末20のタッチ位置とユーザの相対位置との位置関係、および、把持腕(左手、右手)ごとに、表示部326に対する携帯端末20の傾きの例を矢印で示している。ここで、携帯端末20の傾きとは、表示部326上における携帯端末20のY軸の方向である。なお、図15における(a)、(b)、(c)、図16における(d)、(e)、(f)、および、図17における(g)、(h)、(i)では、携帯端末20のタッチ位置40に対するユーザの相対位置がそれぞれ「左上」、「上」、「右上」、「左」、「同一」、「右」、「左下」、「下」、または「右下」に位置している場合の例を示している。
図15〜図17において矢印で示したように、表示部326に対する携帯端末20の傾きは、反時計回りを正の向きとした場合、通常、
右手で把持している場合の傾き > 左手で把持している場合の傾き
の関係になる。
‐把持腕判定条件DB126
把持腕判定条件DB126は、ユーザの相対位置とタッチ位置との位置関係による表示画面の区分け方、および各区分における把持腕の判定条件が定められているデータベースである。図18は、把持腕判定条件DB126に格納されている、ユーザの相対位置42を基点として表示画面が9個の領域に区分される方法の例を示した説明図である。
図18に示した例では、タッチ位置とユーザの相対位置42との間の距離が所定の値以下である領域が区分Eであり、また、区分E以外の領域はユーザの相対位置42を中心として8分割され、それぞれ区分A〜D、F〜Iと定められている。
また、把持腕判定条件DB126では、例えば、図18に示した区分Aの領域では閾値としてX(degree)が設定されており、かつ、
携帯端末20の傾き ≧ Xである場合には、把持腕は右手、
携帯端末20の傾き < Xである場合には、把持腕は左手、
とそれぞれ判定することが定められている。
なお、区分ごとの閾値の決定方法は、例えばサーバ10‐2の開発者が予め複数のユーザを対象としたテストを実施することにより、適切な値が定められ得る。
なお、図18は、ユーザの相対位置42を中心とした場合の図であるのに対して、上述した図15〜図17は、携帯端末20のタッチ位置を中心とした場合の図である。つまり、図18と図15〜図17との対応関係は、区分Aが図17の(i)、区分Bが図17の(h)、区分Cが図17の(g)、区分Dが図16の(f)、区分Eが図16の(e)、区分Fが図16の(d)、区分Gが図15の(c)、区分Hが図15の(b)、区分Iが図15の(a)に、それぞれ対応する。
‐‐変形例1
なお、上記の説明では、把持腕判定条件DB126において区分ごとに一つの閾値が定められており、この閾値を用いて把持腕を判定する方法の例を示したが、かかる例に限定されない。例えば、閾値の代わりに、把持腕が右手と左手とのいずれであるかを判定するための角度の範囲が区分ごとに定められていてもよい。一例として、図18に示した区分Aの領域では把持腕が左手であると判定する角度の範囲(以下、範囲Aとも称する)が[a1、a2]、把持腕が右手であると判定する角度の範囲(以下、範囲Bとも称する)が[b1、b2]であり、かつ、a2 < b1であることが定められていてもよい。つまり、
b1 ≦ 携帯端末20の傾き ≦ b2である場合には、把持腕は右手、
a1 ≦ 携帯端末20の傾き ≦ a2である場合には、把持腕は左手、
とそれぞれ判定することが定められていてもよい。
なお、携帯端末20の傾きが範囲Aまたは範囲Bの範囲外である場合には、人物姿勢推測部108は、所定の基準に従って、把持腕が右手と左手とのいずれであるかを判定することが可能である。ここで、所定の基準は、例えば、過去にユーザが携帯端末20を表示部326にタッチさせた際の把持腕の判定履歴であってもよい。
‐‐変形例2
また、図18では、表示画面が9個の領域に区分される方法の例を示したが、かかる例に限定されず、任意の個数の領域に区分可能である。
(3−1−2−3.遮蔽領域推測部110)
遮蔽領域推測部110は、携帯端末20が表示部326にタッチされている間に、人物位置推測部104により推測されたユーザの相対位置、人物姿勢推測部108により推測された把持腕、および、表示装置30から受信される携帯端末20のタッチ位置に基づいて、遮蔽領域を推測する。例えば、遮蔽領域推測部110は、推測されたユーザの相対位置とタッチ位置との位置関係、および、推測された把持腕に対応づけて、後述する遮蔽領域DB128に格納されている領域を、遮蔽領域として推測する。または、遮蔽領域推測部110は、推測されたユーザの相対位置とタッチ位置との位置関係、および、推測された把持腕に対応づけて人体モデルDB124に格納されている腕の情報(腕の形状や長さなど)を人体モデルDB124から抽出し、そして、抽出した腕の情報を用いて遮蔽領域を算出してもよい。
ここで、図19および図20を参照して、上記の機能についてより詳細に説明する。図19は、ユーザの相対位置42と携帯端末20のタッチ位置40との位置関係の4つの例を示した図である。図19における(a)は、ユーザの相対位置42に対するタッチ位置40の方向が「左上」である例を示している。同様に、ユーザの相対位置42に対するタッチ位置40の方向が、図19の(b)は「上」、図19の(c)は「左下」、図19の(d)は「右」である例をそれぞれ示している。
また、図20は、図19に示した、ユーザの相対位置42と携帯端末20のタッチ位置40との4種類の位置関係に関して、遮蔽領域推測部110により推測される把持腕ごとの遮蔽領域50をそれぞれ示した説明図である。なお、図20の(a)〜(d)では、遮蔽領域50aは把持腕が右手である場合の遮蔽領域であり、また、遮蔽領域50bは把持腕が左手である場合の遮蔽領域を示している。
例えば、推測されたユーザの相対位置42とタッチ位置40との位置関係が図19の(a)に示した位置関係であり、かつ、推測された把持腕が右手である場合には、遮蔽領域推測部110は、図20の(a)に示した遮蔽領域50aを遮蔽領域として推測する。
‐遮蔽領域DB128
遮蔽領域DB128は、ユーザの相対位置とタッチ位置との位置関係、および、把持腕(右手または左手)に対応づけて、遮蔽領域のテンプレートが格納されているデータベースである。なお、遮蔽領域DB128に格納されている遮蔽領域のテンプレートは、例えば図20に示したような矩形領域であってもよい。
(3−1−2−4.表示制御部106)
‐表示例1
第2の実施形態による表示制御部106は、人物位置推測部104により推測されたユーザの相対位置、および、遮蔽領域推測部110により推測された遮蔽領域に基づいて、表示部326におけるコンテンツの表示位置を制御するための表示制御情報を表示装置30へ通信部120に送信させる。例えば、表示制御部106は、携帯端末20が表示部326にタッチされている場合に、遮蔽領域推測部110により推測された遮蔽領域に表示されているコンテンツを遮蔽領域外に移動させて表示させる。または、表示制御部106は、携帯端末20が表示部326にタッチされている間に表示部326に新たにコンテンツを表示させる際に、当該コンテンツを遮蔽領域外の領域に表示させる。
ここで、図21を参照して、上記の機能についてより詳細に説明する。図21の(α)および(β)は、遮蔽領域推測部110により推測された遮蔽領域50と、表示制御部106によりコンテンツが非表示にされる領域(非表示領域52)との関係の例を示した説明図である。例えば、図21の(α)に示したように、表示制御部106は、遮蔽領域50の全てを含む例えば楕円形などの領域を非表示領域52とする。そして、表示制御部106は、非表示領域52に表示されているコンテンツを非表示領域52外に移動させて表示させる。
または、図21の(β)に示したように、表示制御部106は、遮蔽領域50の相対する短辺の中点を結ぶ直線を境界として、ユーザの顔部(または眼部)と反対側の領域を非表示領域52とする。なお、図21の(β)では、非表示領域52が三角形である例を示しているが、かかる例に限定されず、台形であってもよい。なお、この台形は、遮蔽領域50に含まれる二つの短辺の中点のうち上方の点が上底の一頂点であり、かつ、上底は、表示部326の水平な線と平行であるような台形であってもよい。
これらの表示例によれば、遮蔽領域を含むユーザが見辛い領域にコンテンツが表示されなくなるので、表示部326に表示されている全てのコンテンツをユーザは容易に見ることができる。
‐表示例2
また、携帯端末20が表示部326から離された場合には、表示制御部106は、表示位置を移動させていたコンテンツを元の位置(つまり遮蔽領域であった領域内)に戻して表示させてもよい。または、上記の場合には、表示制御部106は、携帯端末20のタッチ時に遮蔽領域外に表示させたコンテンツの一部を、遮蔽領域であった領域内に移動させて表示させてもよい。これらの表示例によれば、携帯端末20が表示部326から離された場合において、遮蔽領域であった領域が空白領域とならないようにコンテンツを表示させることができる。このため、空白領域がユーザに見えてしまい、ユーザに不自然に思われることを避けることができる。
(3−1−2−5.記憶部122‐2)
記憶部122‐2は、記憶部122‐1と比較して、さらに、把持腕判定条件DB126、および、遮蔽領域DB128を記憶することが可能である。
なお、サーバ10‐2に含まれる他の構成要素の機能については、第1の実施形態と同様である。
なお、第2の実施形態によるサーバ10‐2の構成は、上述した構成に限定されない。例えば、把持腕判定条件DB126、および、遮蔽領域DB128は、記憶部122‐2に記憶される代わりに、サーバ10‐2と通信可能な他の装置に記憶されてもよい。
<3−2.動作>
以上、第2の実施形態による構成について説明した。続いて、第2の実施形態による動作について、図22を参照して説明する。なお、図10に示した、第1の実施形態によるS101〜S119の動作に関しては、第2の実施形態でも概略同様である。但し、第2の実施形態によるS115では、表示装置30の通信部322は、S111で検出される表示部326に対する携帯端末20の傾きをさらに含む第2のペアリング要求をサーバ10‐2へ送信する点が、第1の実施形態とは相違する。
また、図22に示したS221の動作は、図11に示した、第1の実施形態によるS121と同様である。以下では、S221より後の動作について説明を行う。
図22に示したように、S221の後、サーバ10‐2の人物姿勢推測部108は、S115で受信された第2のペアリング要求に含まれる携帯端末20のタッチ位置および表示部326に対する携帯端末20の傾きと、S221で推測されたユーザの相対位置とに基づいて、ユーザの把持腕が左手と右手とのいずれであるかを推測する(S223)。
続いて、遮蔽領域推測部110は、S115で受信された携帯端末20のタッチ位置、S221で推測されたユーザの相対位置、および、S223で推測された把持腕に基づいて、遮蔽領域を推測する(S225)。
続いて、表示制御部106は、S225で推測された遮蔽領域に表示されているコンテンツを遮蔽領域外に移動させるための表示制御情報を生成する(S227)。そして、通信部120は、表示制御部106の制御に従って、生成された表示制御情報を表示装置30へ送信する(S229)。
その後、表示装置30の表示制御部304は、受信された表示制御情報に従って表示画面の表示内容を更新し、そして、更新後の表示画面を表示部326に表示させる(S231)。
<3−3.効果>
以上、例えば図12および図22などを参照して説明したように、第2の実施形態によるサーバ10‐2は、携帯端末20が表示部326にタッチされている間に、推測されたユーザの相対位置、推測されたユーザの把持腕、および、携帯端末20のタッチ位置に基づいて遮蔽領域を推測し、そして、推測した遮蔽領域にコンテンツが表示されないようにコンテンツの表示位置を制御する。このため、第2の実施形態によれば、遮蔽領域にコンテンツが表示されなくなるので、表示部326に表示されている全てのコンテンツをユーザは容易に見ることができる。
<3−4.変形例>
なお、第2の実施形態は、上述した説明に限定されない。例えば、人物姿勢推測部108がユーザの把持腕を一度推測した場合には、表示制御部106は、以後ユーザが当該把持腕で携帯端末20を把持してインタラクションを行う(つまり、携帯端末20を他方の腕で把持しない)ものと判断してもよい。そして、表示制御部106は、表示部326において当該把持腕により携帯端末20がタッチされた際に発生する遮蔽領域が少なくなるような位置にコンテンツを表示させることが可能である。
<<4.ハードウェア構成>>
次に、各実施形態に共通するサーバ10のハードウェア構成について、図23を参照して説明する。図23に示したように、サーバ10は、CPU150、ROM152、RAM154、内部バス156、入出力インターフェース158、HDD(Hard Disk Drive)160、およびネットワークインターフェース162を備える。
<4−1.CPU150>
CPU150は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ10内の動作全般を制御する。また、CPU150は、サーバ10において制御部100‐1または制御部100‐2の機能を実現する。なお、CPU150は、マイクロプロセッサなどのプロセッサにより構成される。
<4−2.ROM152>
ROM152は、CPU150が使用するプログラムや演算パラメータなどを記憶する。
<4−3.RAM154>
RAM154は、CPU150の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時記憶する。
<4−4.内部バス156>
内部バス156は、CPUバスなどから構成される。この内部バス156は、CPU150、ROM152、およびRAM154を相互に接続する。
<4−5.入出力インターフェース158>
入出力インターフェース158は、HDD160、およびネットワークインターフェース162を、内部バス156と接続する。例えばHDD160は、この入出力インターフェース158および内部バス156を介して、RAM154などとの間でデータをやり取りする。
<4−6.HDD160>
HDD160は、記憶部122‐1または記憶部122‐2として機能する、データ格納用の装置である。このHDD160は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、および記憶媒体に記録されたデータを削除する削除装置などを含む。また、HDD160は、CPU150が実行するプログラムや各種データを格納する。
<4−7.ネットワークインターフェース162>
ネットワークインターフェース162は、例えばインターネットなどの通信網に接続するための通信デバイスなどで構成された通信インターフェースである。このネットワークインターフェース162は、通信部120として機能する。なお、ネットワークインターフェース162は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。
<<5.変形例>>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<5−1.変形例1>
例えば、上述した各実施形態では、サーバ10が表示制御を行う例について説明したが、かかる例に限定されず、表示装置30が表示制御を行ってもよい。この変形例の場合、例えば、サーバ10‐1またはサーバ10‐2は、推測したユーザの相対位置(および推測した遮蔽領域)を表示装置30へ送信する。そして、表示装置30の表示制御部304は、サーバ10から受信されるユーザの相対位置(および遮蔽領域)に基づいて、表示部326に表示させるコンテンツの表示位置を変化させる。
<5−2.変形例2>
また、上述した各実施形態では、ユーザが一名である例について説明したが、かかる例に限定されない。携帯端末20を有する複数のユーザが同時に表示装置30とインタラクションを行う場面にも本発明は適用可能である。例えば、ユーザが2名である場合には、サーバ10は、一人のユーザの位置推測を行った段階で、表示部326の表示領域内に当該ユーザ用の領域を割り当て、かつ、割り当てた領域内において当該ユーザに対するコンテンツの表示制御を行ってもよい。この変形例によれば、一人のユーザが行っているインタラクションが、他のユーザのインタラクションへ影響することを抑制することができる。
<5−3.変形例3>
また、上述した各実施形態では、本発明における情報処理装置がサーバ10である例について説明したが、かかる例に限定されない。例えば制御部100‐1および記憶部122‐1(または制御部100‐2および記憶部122‐2)に含まれる全ての構成要素が携帯端末20に含まれる場合には、当該情報処理装置は、携帯端末20であってもよい。また、当該全ての構成要素が表示装置30に含まれる場合には、当該情報処理装置は、表示装置30であってもよい。なお、この変形例3では、サーバ10は設置されなくてもよい。
<5−4.変形例4>
また、上述した各実施形態では、携帯端末20が携帯電話である例を中心として説明したが、かかる例に限定されない。例えば、携帯端末20は、腕時計型コンピュータや服コンピュータなどのウェアラブルコンピュータであってもよい。
<5−5.変形例5>
また、各実施形態によれば、CPU150、ROM152、およびRAM154などのハードウェアを、上述した各実施形態によるサーバ10の構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
10‐1、10‐2 サーバ
20 携帯端末
30 表示装置
32 通信網
100‐1、100‐2、200、300 制御部
102 連携処理部
104 人物位置推測部
106、206、304 表示制御部
108 人物姿勢推測部
110 遮蔽領域推測部
120、224、322 通信部
122‐1、122‐2、226、324 記憶部
124 人体モデルDB
126 把持腕判定条件DB
128 遮蔽領域DB
202、302 操作処理部
204 動作処理部
208、306 連携制御部
220、320 入力部
222 センサ部
228、326 表示部

Claims (16)

  1. 携帯端末と表示部との間の情報連携の確立に関する判定を行う連携処理部と、
    前記携帯端末により検出される前記携帯端末の位置変化と、前記情報連携の確立が判定された場合に前記表示部により検出される前記表示部における前記携帯端末の接触位置とに基づいて、前記携帯端末を携帯するユーザの前記表示部に対する相対位置を推測する位置推測部と、
    を備える、情報処理装置。
  2. 前記携帯端末の位置変化は、前記携帯端末が前記表示部に接触された際の前記携帯端末の位置と、前記携帯端末が前記表示部に接触される前もしくは前記表示部から離れた後における前記携帯端末の位置との間の変化である、請求項1に記載の情報処理装置。
  3. 前記携帯端末の位置変化は、前記ユーザの姿勢が第1の姿勢から、前記ユーザが前記携帯端末を前記表示部に接触させる際の姿勢であるタッチ姿勢へ移行する際、もしくは、前記タッチ姿勢から前記第1の姿勢へ移行する際における前記携帯端末の位置の変化である、請求項2に記載の情報処理装置。
  4. 前記ユーザの姿勢は、前記携帯端末により検出される前記携帯端末の加速度または前記携帯端末の角加速度に基づいて判定される、請求項3に記載の情報処理装置。
  5. 前記位置推測部は、さらに、記憶部に格納されている人体モデル情報に基づいて、前記表示部に対する前記ユーザの相対位置を推測する、請求項1〜4のいずれか一項に記載の情報処理装置。
  6. 前記情報連携は、前記携帯端末が前記ユーザにより把持された状態で前記携帯端末が前記表示部に接触された場合に確立される、請求項1〜5のいずれか一項に記載の情報処理装置。
  7. 前記情報処理装置は、前記位置推測部により前記ユーザの相対位置が推測された場合に、推測された前記ユーザの相対位置に基づいて、前記表示部に表示されているコンテンツの表示態様を変化させる表示制御部をさらに備える、請求項1〜6のいずれか一項に記載の情報処理装置。
  8. 前記表示制御部は、前記ユーザの相対位置に基づいて、表示されているコンテンツの表示位置を変更する、請求項7に記載の情報処理装置。
  9. 前記表示制御部は、前記ユーザの相対位置が前記表示部上に投影された位置である投影位置の周辺に表示されているコンテンツを前記投影位置の上方に移動し、表示させる、請求項8に記載の情報処理装置。
  10. 前記情報処理装置は、前記携帯端末の接触位置、前記携帯端末が前記表示部に接触された際における前記表示部に対する前記携帯端末の傾き、および、前記ユーザの相対位置に基づいて、前記ユーザが前記携帯端末を把持する把持腕が左腕と右腕とのいずれであるかを推測する姿勢推測部をさらに備え、
    前記表示制御部は、さらに、推測された前記ユーザの把持腕に基づいて、表示されているコンテンツの表示態様を変化させる、請求項7〜9のいずれか一項に記載の情報処理装置。
  11. 前記姿勢推測部は、前記携帯端末の接触位置と推測された前記ユーザの相対位置との位置関係に対応付けてデータベースに登録されている把持腕判定条件が示す傾きの閾値と、前記携帯端末の傾きとを比較することにより、前記把持腕が左腕と右腕とのいずれであるかを推測する、請求項10に記載の情報処理装置。
  12. 前記情報処理装置は、前記携帯端末が前記表示部に接触されている場合に、前記姿勢推測部により推測された把持腕、推測された前記ユーザの相対位置、および、前記携帯端末の接触位置に基づいて、前記表示部において前記把持腕により前記ユーザの視界から遮蔽される領域である遮蔽領域を推測する遮蔽領域推測部をさらに備え、
    前記表示制御部は、推測された遮蔽領域に表示されているコンテンツの表示位置を変更する、請求項10または11に記載の情報処理装置。
  13. 前記表示制御部は、前記遮蔽領域に表示されているコンテンツを前記遮蔽領域外の領域に表示させる、請求項12に記載の情報処理装置。
  14. コンピュータを、
    携帯端末と表示部との間の情報連携の確立に関する判定を行う連携処理部と、
    前記携帯端末により検出される前記携帯端末の位置変化と、前記情報連携の確立が判定された場合に前記表示部により検出される前記表示部における前記携帯端末の接触位置とに基づいて、前記携帯端末を携帯するユーザの前記表示部に対する相対位置を推測する位置推測部、
    として機能させるための、プログラム。
  15. 携帯端末であって、
    ユーザにより把持された状態で前記携帯端末が表示部に接触された場合に前記表示部との間での情報連携の確立の要求を情報処理装置へ送信部に送信させる連携制御部と、
    前記携帯端末が前記表示部に接触された際の前記携帯端末の位置と、前記表示部に接触される前もしくは前記表示部から離れた後における前記携帯端末の位置との間の位置変化を検出し、検出した位置変化を前記情報処理装置へ前記送信部に送信させる動作制御部と、
    を備える、携帯端末。
  16. 携帯端末と、
    コンテンツを表示する表示部と、
    前記携帯端末と前記表示部との間の情報連携の確立に関する判定を行う連携処理部と、
    前記携帯端末により検出される前記携帯端末の位置変化と、前記情報連携の確立が判定された場合に前記表示部により検出される前記表示部における前記携帯端末の接触位置とに基づいて、前記携帯端末を携帯するユーザの前記表示部に対する相対位置を推測する位置推測部と、
    を備える、情報処理システム。
JP2015062568A 2015-03-25 2015-03-25 情報処理装置、プログラム、携帯端末、及び情報処理システム Active JP6384376B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015062568A JP6384376B2 (ja) 2015-03-25 2015-03-25 情報処理装置、プログラム、携帯端末、及び情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015062568A JP6384376B2 (ja) 2015-03-25 2015-03-25 情報処理装置、プログラム、携帯端末、及び情報処理システム

Publications (2)

Publication Number Publication Date
JP2016181234A JP2016181234A (ja) 2016-10-13
JP6384376B2 true JP6384376B2 (ja) 2018-09-05

Family

ID=57132575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015062568A Active JP6384376B2 (ja) 2015-03-25 2015-03-25 情報処理装置、プログラム、携帯端末、及び情報処理システム

Country Status (1)

Country Link
JP (1) JP6384376B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6878876B2 (ja) * 2016-12-22 2021-06-02 コニカミノルタ株式会社 情報処理装置、連携方法および連携プログラム
EP3557397A1 (de) * 2018-04-20 2019-10-23 Interactive Scape GmbH Steuer- und verarbeitungseinheit für einen berührungsempfindlichen bildschirm, system damit und verfahren zur verwendung

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319217A (ja) * 2000-05-09 2001-11-16 Fuji Photo Film Co Ltd 画像表示方法
JP3874737B2 (ja) * 2003-03-31 2007-01-31 株式会社東芝 表示装置
JP4628483B2 (ja) * 2008-07-15 2011-02-09 パナソニック株式会社 携帯装置及びその位置特定方法
JP5272583B2 (ja) * 2008-08-26 2013-08-28 日本電気株式会社 加速度センサ利用ペアリング方法、システム、及び装置、並びに加速度センサ利用ペアリング用プログラム
JP5605001B2 (ja) * 2010-06-11 2014-10-15 日本電気株式会社 情報処理端末、持ち手判別方法及びプログラム
JP2012023554A (ja) * 2010-07-14 2012-02-02 Panasonic Corp 携帯端末、表示制御方法、及び表示制御プログラム
US9055162B2 (en) * 2011-02-15 2015-06-09 Lg Electronics Inc. Method of transmitting and receiving data, display device and mobile terminal using the same
JP2014089501A (ja) * 2012-10-29 2014-05-15 Nec Casio Mobile Communications Ltd 表示装置、表示システム、表示制御方法、プログラム、携帯端末及びサーバ装置

Also Published As

Publication number Publication date
JP2016181234A (ja) 2016-10-13

Similar Documents

Publication Publication Date Title
CN109074217B (zh) 用于多点触摸输入检测的应用
CN105378595B (zh) 通过触摸输入校准眼睛跟踪系统的方法
US10275046B2 (en) Accessing and interacting with information
TWI546724B (zh) 用以在通訊設備間傳送資訊項目之裝置及方法
US10289239B2 (en) Application programming interface for multi-touch input detection
KR101542625B1 (ko) 제스처를 수행함으로써 사용자 인터페이스 내 오브젝트를 선택하기 위한 방법 및 장치
CN105308538B (zh) 基于所检测到的示意动作执行装置动作的系统和方法
JP2016534481A (ja) 状態変化および将来のユーザ入力の予想に関する情報を使用するユーザ入力に対する応答を提供するためのシステムおよび方法
CN108027657A (zh) 增强和/或虚拟现实环境中的场境敏感用户界面激活
US20130100057A1 (en) Proximity-aware multi-touch tabletop
CN109074154A (zh) 增强和/或虚拟现实中的悬停触摸输入补偿
US10296096B2 (en) Operation recognition device and operation recognition method
US20170010695A1 (en) Enhanced multi-touch input detection
JP6127564B2 (ja) タッチ判定装置、タッチ判定方法、およびタッチ判定プログラム
US11687427B2 (en) Multiple XR extended reality application validation process and testing
US11301128B2 (en) Intended input to a user interface from detected gesture positions
CN107102802A (zh) 重叠目标选择方法及装置、存储介质、电子设备
US20170010733A1 (en) User-identifying application programming interface (api)
JP6384376B2 (ja) 情報処理装置、プログラム、携帯端末、及び情報処理システム
JP6816727B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2018042948A1 (en) Information processing system, method of information processing, and program
CN109833624A (zh) 用于虚拟地图上行军线信息的显示方法及装置
JP2019096182A (ja) 電子装置、表示方法、およびプログラム
US11054941B2 (en) Information processing system, information processing method, and program for correcting operation direction and operation amount
JP6523509B1 (ja) ゲームプログラム、方法、および情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180723

R150 Certificate of patent or registration of utility model

Ref document number: 6384376

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150