JP6384376B2 - 情報処理装置、プログラム、携帯端末、及び情報処理システム - Google Patents
情報処理装置、プログラム、携帯端末、及び情報処理システム Download PDFInfo
- Publication number
- JP6384376B2 JP6384376B2 JP2015062568A JP2015062568A JP6384376B2 JP 6384376 B2 JP6384376 B2 JP 6384376B2 JP 2015062568 A JP2015062568 A JP 2015062568A JP 2015062568 A JP2015062568 A JP 2015062568A JP 6384376 B2 JP6384376 B2 JP 6384376B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- display
- mobile terminal
- user
- display unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Telephonic Communication Services (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Description
1.情報処理システムの基本構成
2.第1の実施形態
3.第2の実施形態
4.ハードウェア構成
5.変形例
まず、各実施形態に共通する情報処理システムの基本構成について、図1を参照して説明する。図1に示したように、各実施形態に共通する情報処理システムは、サーバ10、携帯端末20、表示装置30、および通信網32を含む。
サーバ10は、本発明における情報処理装置の一例である。このサーバ10は、例えば携帯端末20がユーザにより表示装置30にタッチされた場合に、携帯端末20と表示装置30との間の情報連携(ペアリング)の確立処理を行うための装置である。また、サーバ10は、表示装置30に対する表示制御を行うことが可能である。
携帯端末20は、ユーザが携帯する通信端末である。この携帯端末20は、例えば、スマートフォンなどの携帯電話である。
表示装置30は、例えば静電容量方式または赤外線遮断方式のタッチパネルを含むディスプレイを有する。この表示装置30は、例えば、デジタルサイネージ用の装置である。
通信網32は、通信網32に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網32は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網32は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
ところで、表示装置30に表示されているコンテンツとユーザとの間で直感的なインタラクションが可能であることが望まれる。例えば図2の右図に示したようにユーザが携帯端末20をディスプレイにタッチした場合には、携帯端末20のタッチ位置に応じて、表示されているコンテンツの表示態様を変化可能であることが望ましい。
<2−1.構成>
[2−1−1.携帯端末20]
次に、第1の実施形態による構成について詳細に説明する。図3は、第1の実施形態による携帯端末20の構成を示した機能ブロック図である。図3に示したように、携帯端末20は、制御部200、入力部220、センサ部222、通信部224、記憶部226、および表示部228を有する。
制御部200は、携帯端末20に内蔵される例えばCPU(Central Processing Unit)、RAM(Random Access Memory)、またはROM(Read Only Memory)などのハードウェアを用いて、携帯端末20の動作を全般的に制御する。また、図3に示したように、制御部200は、操作処理部202、動作処理部204、表示制御部206、および、連携制御部208を有する。
操作処理部202は、後述する入力部220により検出されたユーザの入力操作の処理を行う。
‐動作の導出
動作処理部204は、後述するセンサ部222による検出結果に基づいて、ユーザの動作またはユーザに把持された携帯端末20の動作を示す動作情報を導出する処理を行う。
例えば、動作処理部204は、センサ部222による加速度または角加速度の検出結果に基づいて、ユーザの姿勢がベース姿勢であるか否かの判定を行う。ここで、ベース姿勢は、本発明における第1の姿勢の一例である。ベース姿勢は、タッチ姿勢との間での姿勢の切り替えを識別可能な任意の姿勢である。また、タッチ姿勢は、例えば図2の右図に示したような、ユーザが携帯端末20を表示装置30のディスプレイにタッチさせる際の姿勢である。
また、動作処理部204は、センサ部222により検出される加速度の変化に基づいて、携帯端末20の位置の変化を特定する。例えば、動作処理部204は、検出された加速度の変化の方向と逆の方向に携帯端末20が移動したことを特定する。
また、動作処理部204は、ユーザの姿勢の判定結果や携帯端末20の位置変化情報をサーバ10‐1へ、後述する通信部224に送信させる。
表示制御部206は、例えばGUI(Graphical User Interface)などの各種の表示情報を表示部228に表示させる。
連携制御部208は、後述する入力部220に対するユーザの入力に基づいて、表示装置30との間での情報連携の確立に関する要求処理を行う。例えば、連携制御部208は、入力部220に対してユーザにより入力された、表示装置30との間の情報連携の確立の要求信号、および、処理時刻を含む第1のペアリング要求をサーバ10‐1へ通信部224に送信させる。ここで、第1のペアリング要求は、(例えば携帯端末20の移動が停止した場合に)センサ部222に含まれる3軸加速度センサにより測定された3軸方向の加速度成分をさらに含んでもよい。
入力部220は、携帯端末20に対するユーザの操作を検出する機能を有する。例えば、入力部220は、表示部228に表示されているGUIに対するユーザの操作を検出可能なタッチパネルを含んでもよい。また、入力部220は、ユーザのジェスチャーを検出可能なカメラを含んでもよい。また、入力部220は、ユーザの発声を検出可能なマイクロフォンを含んでもよい。
センサ部222は、携帯端末20の加速度、または角加速度を検出する機能を有する。例えば、センサ部222は、3軸加速度センサを含み、かつ、携帯端末20にかかる3軸方向の加速度を検出する。なお、携帯端末20におけるx、y、zの3軸(座標系)は、例えば図4に示したようにそれぞれ設定され得る。また、センサ部222は、ジャイロセンサを含み、かつ、携帯端末20における3軸回りの角加速度を検出する。
通信部224は、通信網32aに接続されている他の装置との間で情報の送受信を行う。例えば、通信部224は、動作処理部204の制御に従って、携帯端末20の位置変化情報をサーバ10‐1へ送信する。
記憶部226は、例えば、制御部200の動作に関するソフトウェアやデータなどを記憶する。
表示部228は、例えば液晶ディスプレイなどにより構成される。この表示部228は、表示制御部206の制御に従って、表示画面を表示する。
また、図8は、第1の実施形態による表示装置30の構成を示した機能ブロック図である。図8に示したように、表示装置30は、制御部300、入力部320、通信部322、記憶部324、および表示部326を有する。
制御部300は、表示装置30に内蔵される例えばCPU、RAM、またはROMなどのハードウェアを用いて、表示装置30の動作を全般的に制御する。また、図8に示したように、制御部300は、操作処理部302、表示制御部304、および、連携制御部306を有する。
操作処理部302は、後述する入力部320により検出されたユーザの入力操作の処理を行う。例えば、操作処理部302は、表示部326に表示されているコンテンツに対するユーザの選択操作を特定する。
表示制御部304は、例えばサーバ10‐1から受信される表示制御情報に従って、コンテンツなどの表示情報を表示部326に表示させる。また、表示制御部304は、コンテンツの表示態様を制御する。
連携制御部306は、携帯端末20がユーザにより片手で把持された状態での表示部326に対するタッチ入力が、後述する入力部320により検出された場合には、携帯端末20との間での情報連携の確立に関する要求処理を行う。
例えば、上記の場合で、かつ、後述する表示部326が静電容量方式タッチパネルを含む場合には、連携制御部306は、まず、入力部320により検出された2タッチ点の中点(タッチ点の組が複数存在する場合には各タッチ点の組の中点の重心)を表示部326に対する接触点として特定する。そして、連携制御部306は、特定した接触点、および、処理時刻を含む第2のペアリング要求をサーバ10‐1へ通信部322に送信させる。
また、上記の場合で、かつ、表示部326が赤外線遮断方式タッチパネルを含む場合には、連携制御部306は、まず、表示部326にタッチされた携帯端末20の領域を含む最小の矩形領域の中心を表示部326に対する接触点として特定する。次に、連携制御部306は、表示装置30に内蔵される3軸加速度センサ(図示省略)により計測される、表示部326にかかる重力加速度の3軸方向成分を取得する。次に、連携制御部306は、表示部326に対する携帯端末20の傾きを算出する。そして、連携制御部306は、特定した接触点、取得した3軸加速度の計測情報、算出した携帯端末20の傾き、および、処理時刻を含む第2のペアリング要求をサーバ10‐1へ通信部322に送信させる。
‐入力例1
入力部320は、表示装置30に対するユーザの操作を検出する機能を有する。例えば、入力部320は、表示部326に対するユーザのタッチ入力を検出する。
例えば、表示部326が静電容量方式タッチパネルを含む場合には、このタッチパネルは、パネル形状で構成される静電容量方式(例えば、格子状に配置された電極と電極との交点に形成されるコンデンサの静電容量が、例えば人体などの導電性物体が接近または接触することにより変化する原理)を利用した、いわゆる投影型静電容量方式を備える。この場合、入力部320は、当該タッチパネルに対する導電性物体の接近または接触により変化する静電容量を計測し、そして、計測した情報に基づいて、表示部326に対するタッチの有無、および、タッチ位置を検出する。
または、表示部326が赤外線遮断方式タッチパネルを含む場合には、このタッチパネルでは、ベゼルの長辺および短辺のそれぞれ一辺には赤外線LED(Light Emitting Diode)、対向する辺には赤外線センサがそれぞれ敷設されており、そして、赤外線LEDを順次発光させることにより、タッチパネルの表面上に赤外線のマトリクスを形成する。この場合、入力部320は、当該タッチパネルに敷設されている赤外線センサの受光レベルに基づいて、表示部326に対するタッチの有無、および、タッチ位置を検出する。例えば、当該タッチパネルが指などでタッチされた場合、タッチされた部分を通る赤外線が遮断され、そして、対応する箇所の赤外線センサの受光レベルが低下することにより、入力部320は、タッチ位置を検出する。なお、入力部320は、当該タッチパネル上に物体(例えば携帯端末20など)が配置された場合、配置された物体によって覆われる領域を含む最小の矩形領域のサイズ(縦×横)も検出可能である。
また、携帯端末20と表示装置30との間で情報連携が確立した場合には、入力部320は、当該情報連携が実現可能な範囲において任意の入力方法を受け付け可能である。
通信部322は、通信網32bに接続されている他の装置との間で情報の送受信を行う。例えば、通信部322は、コンテンツを表示部326に表示させるための表示制御情報をサーバ10‐1から受信する。
記憶部324は、例えば、制御部300の動作に関するソフトウェアやデータなどを記憶する。
表示部326は、タッチパネルを含む例えば液晶ディスプレイにより構成される。この表示部326は、表示制御部304の制御に従って、表示画面を表示する。
また、図9は、第1の実施形態によるサーバ10‐1の構成を示した機能ブロック図である。図9に示したように、サーバ10‐1は、制御部100‐1、通信部120、および記憶部122‐1を有する。
制御部100‐1は、サーバ10‐1に内蔵される、後述するCPU150、ROM152、RAM154などのハードウェアを用いて、サーバ10‐1の動作を全般的に制御する。また、図9に示したように、制御部100‐1は、連携処理部102、人物位置推測部104、および、表示制御部106を有する。
‐情報連携の確立処理
連携処理部102は、携帯端末20から受信される第1のペアリング要求と、表示装置30から受信される第2のペアリング要求との比較に基づいて、携帯端末20と表示装置30との間の情報連携の確立に関する制御を行う。
例えば、表示部326が静電容量方式タッチパネルを含む場合には、連携処理部102は、受信された第1のペアリング要求に含まれる処理時刻と、受信された第2のペアリング要求に含まれる処理時刻との差分が所定の時間内に収まる場合に、携帯端末20と表示装置30との間で情報連携(ペアリング)を確立させる。
また、表示部326が赤外線遮断方式タッチパネルを含む場合には、連携処理部102は、下記の2つの条件(条件C、および条件D)を満たす場合にのみ、携帯端末20と表示装置30との間で情報連携を確立させる。ここで、条件Cは、受信された第1のペアリング要求に含まれる処理時刻と、受信された第2のペアリング要求に含まれる処理時刻との差分が所定の時間内に収まることである。また、条件Dは、第1のペアリング要求に含まれる携帯端末20の姿勢情報(3軸方向の加速度成分)、および第2のペアリング要求に含まれる表示装置30の姿勢情報(3軸方向の加速度成分)に基づいて連携処理部102により算出される表示部326上での携帯端末20の傾きと、第2のペアリング要求に含まれる表示装置30により算出された表示部326上での携帯端末20(と推測される物体)の傾きとの差分が所定の閾値以内に収まることである。このように、条件Cだけでなく、条件Dを追加して判定を行うことにより、ペアリングの精度を向上させることができる。
また、連携処理部102は、携帯端末20から受信される携帯端末20の位置変化情報に基づいて、ユーザの姿勢がタッチ姿勢であるか否かの判定を行う。
人物位置推測部104は、携帯端末20から受信される位置変化情報、および、連携処理部102による情報連携の確立時(または確立後)に表示装置30から受信される携帯端末20のタッチ位置に基づいて、表示部326に対するユーザの相対位置を推測する。ここで、対象となる位置変化情報は、例えば、表示部326に携帯端末20がタッチされる直前もしくは表示部326から携帯端末20が離された直後における携帯端末20の位置と、表示部326における携帯端末20のタッチ位置との間の位置変化を示す情報であってもよい。または、当該位置変化情報は、ユーザの姿勢がベース姿勢からタッチ姿勢へ移行する際、もしくは、タッチ姿勢からベース姿勢へ移行する際における携帯端末20の位置変化を示す情報であってもよい。
人体モデルDB124は、例えば人体の身長、各部位の長さ、および各部位の位置関係などの平均データが格納されているデータベースである。また、人体モデルDB124は、例えば、記憶部122‐1に記憶されている。
表示制御部106は、人物位置推測部104により推測されたユーザの相対位置に基づいて、表示装置30(の表示部326)に表示されているコンテンツの表示態様を変化させるための表示制御情報を表示装置30へ、後述する通信部120に送信させる。
通信部120は、例えば通信網32を介して、他の装置との間で情報の送受信を行う。例えば、通信部120は、携帯端末20の位置変化情報、および、ユーザのベース姿勢の判定結果を携帯端末20から受信する。また、通信部120は、表示制御部106の制御に従って、表示制御情報を表示装置30へ送信する。
記憶部122‐1は、例えば人体モデルDB124などの各種のデータを記憶する。
以上、第1の実施形態による構成について説明した。続いて、第1の実施形態による動作について説明する。図10は、第1の実施形態による動作の一部を示したシーケンス図である。図10に示したように、まず、サーバ10‐1の通信部120は、表示制御部106の制御に従って、1以上のコンテンツを表示させるための表示制御情報を表示装置30へ送信する(S101)。そして、表示装置30の表示制御部304は、受信された表示制御情報に従って、表示画面を表示部326に表示させる(S103)。
[2−3−1.効果1]
以上、例えば図9〜図11などを参照して説明したように、第1の実施形態によるサーバ10‐1は、携帯端末20により検出される携帯端末20の位置変化、および、携帯端末20と表示装置30との間の情報連携の確立時に表示部326により検出される携帯端末20のタッチ位置に基づいて、表示部326に対するユーザの相対位置を推測する。このため、第1の実施形態によれば、携帯端末20および表示装置30による計測結果だけで、表示部326に対するユーザの相対位置を推測することができる。つまり、ユーザの状態を計測するための専用の計測機器が不要であるので、情報処理システムがシンプルな構成になり、かつ、安価に構成することができる。
また、サーバ10‐1は、推測したユーザの相対位置に応じて、表示部326に表示されているコンテンツの表示位置を変化させることが可能である。例えば、サーバ10‐1は、現在表示されているコンテンツを顔部投影位置/領域に移動させて表示させたり、または、新たにコンテンツを表示させる際に当該コンテンツを顔部投影位置/領域に表示させる。このため、ユーザは視線を下げずにコンテンツを見ることができ、コンテンツが見やすくなる。
[2−4−1.変形例1]
なお、第1の実施形態は、上述した説明に限定されない。例えば、変形例1として、推測されたユーザの相対位置に基づいてコンテンツの表示位置を変化させた後に、例えばユーザの次の入力が一定時間行われない場合には、表示制御部106は、コンテンツの表示位置を元の位置に戻してもよい。ここで、ユーザの次の入力の例は、表示部326に対する指によるタッチ操作(例えばコンテンツの選択操作など)であってもよいし、または、ユーザにより新たなタッチ姿勢がなされること(つまり、表示部326に対してユーザが携帯端末20を新たにタッチすること)であってもよい。また、携帯端末20と表示装置30との間で情報連携が確立している場合には、ユーザの次の入力は、例えば表示部326に表示されている表示情報に関連した内容の、携帯端末20に対する入力であってもよい。
また、上記の説明では、ユーザの姿勢がベース姿勢であるか否かの判定は携帯端末20が行う例について説明したが、かかる例に限定されず、サーバ10‐1が判定を行うことも可能である。具体的には、携帯端末20は、センサ部222により計測された例えば加速度や角加速度の計測結果などの情報をサーバ10‐1へ送信し、そして、サーバ10‐1は、受信された情報に基づいて、ユーザの姿勢がベース姿勢であるか否かの判定を行ってもよい。
また、例えば、携帯端末20のセンサ部222に含まれる3軸加速度センサやジャイロセンサの精度、および、位置変化や姿勢変化の算出処理の精度が高い場合には、携帯端末20は、計測値変化の積分値などを用いて、(携帯端末20の移動方向だけでなく)携帯端末20の移動距離も算出することが可能である。そして、サーバ10‐1は、算出した移動距離にさらに基づいてユーザの相対位置を推測し、そして、推測した相対位置に基づいてコンテンツの表示態様を変化させることが可能である。
また、携帯端末20がインカメラ機能を有し、かつ、ベース姿勢が、図2の左図に示したような、ユーザが携帯端末20の表示画面を見ている姿勢であると定められている場合には、ベース姿勢を判定するための条件として、インカメラの視野内にユーザの顔が認識できること(条件G)を追加してもよい。つまり、携帯端末20の動作処理部204は、3つの条件(条件A、条件B、および条件G)の全てを満たす場合にはユーザの姿勢がベース姿勢であると判定し、かつ、3つの条件のうち少なくとも一つを満たさない場合にはベース姿勢ではないと判定してもよい。この変形例によれば、ベース姿勢が図2の左図に示したような姿勢と定められている場合に、ベース姿勢を精度高く判定することができる。
また、ベース姿勢が、図2の左図に示したような姿勢であると定められている場合には、携帯端末20は、インカメラ機能を利用して、ベース姿勢状態時のユーザの顔部、または、顔部と携帯端末20との位置関係を推測することも可能である。例えば、インカメラの視野内にユーザの顔が認識できる場合には、携帯端末20は、インカメラの視野領域内を占めるユーザの顔領域のサイズに基づいて、ユーザの顔部または眼部と携帯端末20との位置関係(または距離)を算出してもよい。
以上、第1の実施形態について説明した。次に、第2の実施形態について説明する。まず、第2の実施形態を創作するに至った背景について説明する。
[3−1−1.携帯端末20、表示装置30]
第2の実施形態による携帯端末20および表示装置30の構成については、第1の実施形態と同様である。
図12は、第2の実施形態によるサーバ10‐2の構成を示した機能ブロック図である。図12に示したように、サーバ10‐2は、第1の実施形態と比較して、制御部100‐1および記憶部122‐1の代わりに、制御部100‐2および記憶部122‐2を有する。なお、以下では、第1の実施形態と重複する内容については説明を省略する。
制御部100‐2は、図12に示したように、制御部100‐1と比較して、人物姿勢推測部108、および、遮蔽領域推測部110をさらに有する。
人物姿勢推測部108は、携帯端末20のタッチ位置、表示部326に対する携帯端末20の傾き、および、人物位置推測部104により推測されたユーザの相対位置に基づいて、ユーザが携帯端末20を把持する把持腕が左手と右手とのいずれであるかを推測する。例えば、人物姿勢推測部108は、携帯端末20のタッチ位置とユーザの相対位置との位置関係に対応付けて、後述する把持腕判定条件DB126に格納されている把持腕判定条件に基づいて、把持腕が左手と右手とのいずれであるかを推測する。
右手で把持している場合の傾き > 左手で把持している場合の傾き
の関係になる。
把持腕判定条件DB126は、ユーザの相対位置とタッチ位置との位置関係による表示画面の区分け方、および各区分における把持腕の判定条件が定められているデータベースである。図18は、把持腕判定条件DB126に格納されている、ユーザの相対位置42を基点として表示画面が9個の領域に区分される方法の例を示した説明図である。
携帯端末20の傾き ≧ Xである場合には、把持腕は右手、
携帯端末20の傾き < Xである場合には、把持腕は左手、
とそれぞれ判定することが定められている。
なお、上記の説明では、把持腕判定条件DB126において区分ごとに一つの閾値が定められており、この閾値を用いて把持腕を判定する方法の例を示したが、かかる例に限定されない。例えば、閾値の代わりに、把持腕が右手と左手とのいずれであるかを判定するための角度の範囲が区分ごとに定められていてもよい。一例として、図18に示した区分Aの領域では把持腕が左手であると判定する角度の範囲(以下、範囲Aとも称する)が[a1、a2]、把持腕が右手であると判定する角度の範囲(以下、範囲Bとも称する)が[b1、b2]であり、かつ、a2 < b1であることが定められていてもよい。つまり、
b1 ≦ 携帯端末20の傾き ≦ b2である場合には、把持腕は右手、
a1 ≦ 携帯端末20の傾き ≦ a2である場合には、把持腕は左手、
とそれぞれ判定することが定められていてもよい。
また、図18では、表示画面が9個の領域に区分される方法の例を示したが、かかる例に限定されず、任意の個数の領域に区分可能である。
遮蔽領域推測部110は、携帯端末20が表示部326にタッチされている間に、人物位置推測部104により推測されたユーザの相対位置、人物姿勢推測部108により推測された把持腕、および、表示装置30から受信される携帯端末20のタッチ位置に基づいて、遮蔽領域を推測する。例えば、遮蔽領域推測部110は、推測されたユーザの相対位置とタッチ位置との位置関係、および、推測された把持腕に対応づけて、後述する遮蔽領域DB128に格納されている領域を、遮蔽領域として推測する。または、遮蔽領域推測部110は、推測されたユーザの相対位置とタッチ位置との位置関係、および、推測された把持腕に対応づけて人体モデルDB124に格納されている腕の情報(腕の形状や長さなど)を人体モデルDB124から抽出し、そして、抽出した腕の情報を用いて遮蔽領域を算出してもよい。
遮蔽領域DB128は、ユーザの相対位置とタッチ位置との位置関係、および、把持腕(右手または左手)に対応づけて、遮蔽領域のテンプレートが格納されているデータベースである。なお、遮蔽領域DB128に格納されている遮蔽領域のテンプレートは、例えば図20に示したような矩形領域であってもよい。
‐表示例1
第2の実施形態による表示制御部106は、人物位置推測部104により推測されたユーザの相対位置、および、遮蔽領域推測部110により推測された遮蔽領域に基づいて、表示部326におけるコンテンツの表示位置を制御するための表示制御情報を表示装置30へ通信部120に送信させる。例えば、表示制御部106は、携帯端末20が表示部326にタッチされている場合に、遮蔽領域推測部110により推測された遮蔽領域に表示されているコンテンツを遮蔽領域外に移動させて表示させる。または、表示制御部106は、携帯端末20が表示部326にタッチされている間に表示部326に新たにコンテンツを表示させる際に、当該コンテンツを遮蔽領域外の領域に表示させる。
また、携帯端末20が表示部326から離された場合には、表示制御部106は、表示位置を移動させていたコンテンツを元の位置(つまり遮蔽領域であった領域内)に戻して表示させてもよい。または、上記の場合には、表示制御部106は、携帯端末20のタッチ時に遮蔽領域外に表示させたコンテンツの一部を、遮蔽領域であった領域内に移動させて表示させてもよい。これらの表示例によれば、携帯端末20が表示部326から離された場合において、遮蔽領域であった領域が空白領域とならないようにコンテンツを表示させることができる。このため、空白領域がユーザに見えてしまい、ユーザに不自然に思われることを避けることができる。
記憶部122‐2は、記憶部122‐1と比較して、さらに、把持腕判定条件DB126、および、遮蔽領域DB128を記憶することが可能である。
以上、第2の実施形態による構成について説明した。続いて、第2の実施形態による動作について、図22を参照して説明する。なお、図10に示した、第1の実施形態によるS101〜S119の動作に関しては、第2の実施形態でも概略同様である。但し、第2の実施形態によるS115では、表示装置30の通信部322は、S111で検出される表示部326に対する携帯端末20の傾きをさらに含む第2のペアリング要求をサーバ10‐2へ送信する点が、第1の実施形態とは相違する。
以上、例えば図12および図22などを参照して説明したように、第2の実施形態によるサーバ10‐2は、携帯端末20が表示部326にタッチされている間に、推測されたユーザの相対位置、推測されたユーザの把持腕、および、携帯端末20のタッチ位置に基づいて遮蔽領域を推測し、そして、推測した遮蔽領域にコンテンツが表示されないようにコンテンツの表示位置を制御する。このため、第2の実施形態によれば、遮蔽領域にコンテンツが表示されなくなるので、表示部326に表示されている全てのコンテンツをユーザは容易に見ることができる。
なお、第2の実施形態は、上述した説明に限定されない。例えば、人物姿勢推測部108がユーザの把持腕を一度推測した場合には、表示制御部106は、以後ユーザが当該把持腕で携帯端末20を把持してインタラクションを行う(つまり、携帯端末20を他方の腕で把持しない)ものと判断してもよい。そして、表示制御部106は、表示部326において当該把持腕により携帯端末20がタッチされた際に発生する遮蔽領域が少なくなるような位置にコンテンツを表示させることが可能である。
次に、各実施形態に共通するサーバ10のハードウェア構成について、図23を参照して説明する。図23に示したように、サーバ10は、CPU150、ROM152、RAM154、内部バス156、入出力インターフェース158、HDD(Hard Disk Drive)160、およびネットワークインターフェース162を備える。
CPU150は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ10内の動作全般を制御する。また、CPU150は、サーバ10において制御部100‐1または制御部100‐2の機能を実現する。なお、CPU150は、マイクロプロセッサなどのプロセッサにより構成される。
ROM152は、CPU150が使用するプログラムや演算パラメータなどを記憶する。
RAM154は、CPU150の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時記憶する。
内部バス156は、CPUバスなどから構成される。この内部バス156は、CPU150、ROM152、およびRAM154を相互に接続する。
入出力インターフェース158は、HDD160、およびネットワークインターフェース162を、内部バス156と接続する。例えばHDD160は、この入出力インターフェース158および内部バス156を介して、RAM154などとの間でデータをやり取りする。
HDD160は、記憶部122‐1または記憶部122‐2として機能する、データ格納用の装置である。このHDD160は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、および記憶媒体に記録されたデータを削除する削除装置などを含む。また、HDD160は、CPU150が実行するプログラムや各種データを格納する。
ネットワークインターフェース162は、例えばインターネットなどの通信網に接続するための通信デバイスなどで構成された通信インターフェースである。このネットワークインターフェース162は、通信部120として機能する。なお、ネットワークインターフェース162は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上述した各実施形態では、サーバ10が表示制御を行う例について説明したが、かかる例に限定されず、表示装置30が表示制御を行ってもよい。この変形例の場合、例えば、サーバ10‐1またはサーバ10‐2は、推測したユーザの相対位置(および推測した遮蔽領域)を表示装置30へ送信する。そして、表示装置30の表示制御部304は、サーバ10から受信されるユーザの相対位置(および遮蔽領域)に基づいて、表示部326に表示させるコンテンツの表示位置を変化させる。
また、上述した各実施形態では、ユーザが一名である例について説明したが、かかる例に限定されない。携帯端末20を有する複数のユーザが同時に表示装置30とインタラクションを行う場面にも本発明は適用可能である。例えば、ユーザが2名である場合には、サーバ10は、一人のユーザの位置推測を行った段階で、表示部326の表示領域内に当該ユーザ用の領域を割り当て、かつ、割り当てた領域内において当該ユーザに対するコンテンツの表示制御を行ってもよい。この変形例によれば、一人のユーザが行っているインタラクションが、他のユーザのインタラクションへ影響することを抑制することができる。
また、上述した各実施形態では、本発明における情報処理装置がサーバ10である例について説明したが、かかる例に限定されない。例えば制御部100‐1および記憶部122‐1(または制御部100‐2および記憶部122‐2)に含まれる全ての構成要素が携帯端末20に含まれる場合には、当該情報処理装置は、携帯端末20であってもよい。また、当該全ての構成要素が表示装置30に含まれる場合には、当該情報処理装置は、表示装置30であってもよい。なお、この変形例3では、サーバ10は設置されなくてもよい。
また、上述した各実施形態では、携帯端末20が携帯電話である例を中心として説明したが、かかる例に限定されない。例えば、携帯端末20は、腕時計型コンピュータや服コンピュータなどのウェアラブルコンピュータであってもよい。
また、各実施形態によれば、CPU150、ROM152、およびRAM154などのハードウェアを、上述した各実施形態によるサーバ10の構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
20 携帯端末
30 表示装置
32 通信網
100‐1、100‐2、200、300 制御部
102 連携処理部
104 人物位置推測部
106、206、304 表示制御部
108 人物姿勢推測部
110 遮蔽領域推測部
120、224、322 通信部
122‐1、122‐2、226、324 記憶部
124 人体モデルDB
126 把持腕判定条件DB
128 遮蔽領域DB
202、302 操作処理部
204 動作処理部
208、306 連携制御部
220、320 入力部
222 センサ部
228、326 表示部
Claims (16)
- 携帯端末と表示部との間の情報連携の確立に関する判定を行う連携処理部と、
前記携帯端末により検出される前記携帯端末の位置変化と、前記情報連携の確立が判定された場合に前記表示部により検出される前記表示部における前記携帯端末の接触位置とに基づいて、前記携帯端末を携帯するユーザの前記表示部に対する相対位置を推測する位置推測部と、
を備える、情報処理装置。 - 前記携帯端末の位置変化は、前記携帯端末が前記表示部に接触された際の前記携帯端末の位置と、前記携帯端末が前記表示部に接触される前もしくは前記表示部から離れた後における前記携帯端末の位置との間の変化である、請求項1に記載の情報処理装置。
- 前記携帯端末の位置変化は、前記ユーザの姿勢が第1の姿勢から、前記ユーザが前記携帯端末を前記表示部に接触させる際の姿勢であるタッチ姿勢へ移行する際、もしくは、前記タッチ姿勢から前記第1の姿勢へ移行する際における前記携帯端末の位置の変化である、請求項2に記載の情報処理装置。
- 前記ユーザの姿勢は、前記携帯端末により検出される前記携帯端末の加速度または前記携帯端末の角加速度に基づいて判定される、請求項3に記載の情報処理装置。
- 前記位置推測部は、さらに、記憶部に格納されている人体モデル情報に基づいて、前記表示部に対する前記ユーザの相対位置を推測する、請求項1〜4のいずれか一項に記載の情報処理装置。
- 前記情報連携は、前記携帯端末が前記ユーザにより把持された状態で前記携帯端末が前記表示部に接触された場合に確立される、請求項1〜5のいずれか一項に記載の情報処理装置。
- 前記情報処理装置は、前記位置推測部により前記ユーザの相対位置が推測された場合に、推測された前記ユーザの相対位置に基づいて、前記表示部に表示されているコンテンツの表示態様を変化させる表示制御部をさらに備える、請求項1〜6のいずれか一項に記載の情報処理装置。
- 前記表示制御部は、前記ユーザの相対位置に基づいて、表示されているコンテンツの表示位置を変更する、請求項7に記載の情報処理装置。
- 前記表示制御部は、前記ユーザの相対位置が前記表示部上に投影された位置である投影位置の周辺に表示されているコンテンツを前記投影位置の上方に移動し、表示させる、請求項8に記載の情報処理装置。
- 前記情報処理装置は、前記携帯端末の接触位置、前記携帯端末が前記表示部に接触された際における前記表示部に対する前記携帯端末の傾き、および、前記ユーザの相対位置に基づいて、前記ユーザが前記携帯端末を把持する把持腕が左腕と右腕とのいずれであるかを推測する姿勢推測部をさらに備え、
前記表示制御部は、さらに、推測された前記ユーザの把持腕に基づいて、表示されているコンテンツの表示態様を変化させる、請求項7〜9のいずれか一項に記載の情報処理装置。 - 前記姿勢推測部は、前記携帯端末の接触位置と推測された前記ユーザの相対位置との位置関係に対応付けてデータベースに登録されている把持腕判定条件が示す傾きの閾値と、前記携帯端末の傾きとを比較することにより、前記把持腕が左腕と右腕とのいずれであるかを推測する、請求項10に記載の情報処理装置。
- 前記情報処理装置は、前記携帯端末が前記表示部に接触されている場合に、前記姿勢推測部により推測された把持腕、推測された前記ユーザの相対位置、および、前記携帯端末の接触位置に基づいて、前記表示部において前記把持腕により前記ユーザの視界から遮蔽される領域である遮蔽領域を推測する遮蔽領域推測部をさらに備え、
前記表示制御部は、推測された遮蔽領域に表示されているコンテンツの表示位置を変更する、請求項10または11に記載の情報処理装置。 - 前記表示制御部は、前記遮蔽領域に表示されているコンテンツを前記遮蔽領域外の領域に表示させる、請求項12に記載の情報処理装置。
- コンピュータを、
携帯端末と表示部との間の情報連携の確立に関する判定を行う連携処理部と、
前記携帯端末により検出される前記携帯端末の位置変化と、前記情報連携の確立が判定された場合に前記表示部により検出される前記表示部における前記携帯端末の接触位置とに基づいて、前記携帯端末を携帯するユーザの前記表示部に対する相対位置を推測する位置推測部、
として機能させるための、プログラム。 - 携帯端末であって、
ユーザにより把持された状態で前記携帯端末が表示部に接触された場合に前記表示部との間での情報連携の確立の要求を情報処理装置へ送信部に送信させる連携制御部と、
前記携帯端末が前記表示部に接触された際の前記携帯端末の位置と、前記表示部に接触される前もしくは前記表示部から離れた後における前記携帯端末の位置との間の位置変化を検出し、検出した位置変化を前記情報処理装置へ前記送信部に送信させる動作制御部と、
を備える、携帯端末。 - 携帯端末と、
コンテンツを表示する表示部と、
前記携帯端末と前記表示部との間の情報連携の確立に関する判定を行う連携処理部と、
前記携帯端末により検出される前記携帯端末の位置変化と、前記情報連携の確立が判定された場合に前記表示部により検出される前記表示部における前記携帯端末の接触位置とに基づいて、前記携帯端末を携帯するユーザの前記表示部に対する相対位置を推測する位置推測部と、
を備える、情報処理システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015062568A JP6384376B2 (ja) | 2015-03-25 | 2015-03-25 | 情報処理装置、プログラム、携帯端末、及び情報処理システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015062568A JP6384376B2 (ja) | 2015-03-25 | 2015-03-25 | 情報処理装置、プログラム、携帯端末、及び情報処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016181234A JP2016181234A (ja) | 2016-10-13 |
JP6384376B2 true JP6384376B2 (ja) | 2018-09-05 |
Family
ID=57132575
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015062568A Active JP6384376B2 (ja) | 2015-03-25 | 2015-03-25 | 情報処理装置、プログラム、携帯端末、及び情報処理システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6384376B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6878876B2 (ja) * | 2016-12-22 | 2021-06-02 | コニカミノルタ株式会社 | 情報処理装置、連携方法および連携プログラム |
EP3557397A1 (de) * | 2018-04-20 | 2019-10-23 | Interactive Scape GmbH | Steuer- und verarbeitungseinheit für einen berührungsempfindlichen bildschirm, system damit und verfahren zur verwendung |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001319217A (ja) * | 2000-05-09 | 2001-11-16 | Fuji Photo Film Co Ltd | 画像表示方法 |
JP3874737B2 (ja) * | 2003-03-31 | 2007-01-31 | 株式会社東芝 | 表示装置 |
JP4628483B2 (ja) * | 2008-07-15 | 2011-02-09 | パナソニック株式会社 | 携帯装置及びその位置特定方法 |
JP5272583B2 (ja) * | 2008-08-26 | 2013-08-28 | 日本電気株式会社 | 加速度センサ利用ペアリング方法、システム、及び装置、並びに加速度センサ利用ペアリング用プログラム |
JP5605001B2 (ja) * | 2010-06-11 | 2014-10-15 | 日本電気株式会社 | 情報処理端末、持ち手判別方法及びプログラム |
JP2012023554A (ja) * | 2010-07-14 | 2012-02-02 | Panasonic Corp | 携帯端末、表示制御方法、及び表示制御プログラム |
US9055162B2 (en) * | 2011-02-15 | 2015-06-09 | Lg Electronics Inc. | Method of transmitting and receiving data, display device and mobile terminal using the same |
JP2014089501A (ja) * | 2012-10-29 | 2014-05-15 | Nec Casio Mobile Communications Ltd | 表示装置、表示システム、表示制御方法、プログラム、携帯端末及びサーバ装置 |
-
2015
- 2015-03-25 JP JP2015062568A patent/JP6384376B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016181234A (ja) | 2016-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109074217B (zh) | 用于多点触摸输入检测的应用 | |
CN105378595B (zh) | 通过触摸输入校准眼睛跟踪系统的方法 | |
US10275046B2 (en) | Accessing and interacting with information | |
TWI546724B (zh) | 用以在通訊設備間傳送資訊項目之裝置及方法 | |
US10289239B2 (en) | Application programming interface for multi-touch input detection | |
KR101542625B1 (ko) | 제스처를 수행함으로써 사용자 인터페이스 내 오브젝트를 선택하기 위한 방법 및 장치 | |
CN105308538B (zh) | 基于所检测到的示意动作执行装置动作的系统和方法 | |
JP2016534481A (ja) | 状態変化および将来のユーザ入力の予想に関する情報を使用するユーザ入力に対する応答を提供するためのシステムおよび方法 | |
CN108027657A (zh) | 增强和/或虚拟现实环境中的场境敏感用户界面激活 | |
US20130100057A1 (en) | Proximity-aware multi-touch tabletop | |
CN109074154A (zh) | 增强和/或虚拟现实中的悬停触摸输入补偿 | |
US10296096B2 (en) | Operation recognition device and operation recognition method | |
US20170010695A1 (en) | Enhanced multi-touch input detection | |
JP6127564B2 (ja) | タッチ判定装置、タッチ判定方法、およびタッチ判定プログラム | |
US11687427B2 (en) | Multiple XR extended reality application validation process and testing | |
US11301128B2 (en) | Intended input to a user interface from detected gesture positions | |
CN107102802A (zh) | 重叠目标选择方法及装置、存储介质、电子设备 | |
US20170010733A1 (en) | User-identifying application programming interface (api) | |
JP6384376B2 (ja) | 情報処理装置、プログラム、携帯端末、及び情報処理システム | |
JP6816727B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2018042948A1 (en) | Information processing system, method of information processing, and program | |
CN109833624A (zh) | 用于虚拟地图上行军线信息的显示方法及装置 | |
JP2019096182A (ja) | 電子装置、表示方法、およびプログラム | |
US11054941B2 (en) | Information processing system, information processing method, and program for correcting operation direction and operation amount | |
JP6523509B1 (ja) | ゲームプログラム、方法、および情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180710 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180723 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6384376 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |