JP2015186183A - 通信端末及び通信方法 - Google Patents

通信端末及び通信方法 Download PDF

Info

Publication number
JP2015186183A
JP2015186183A JP2014063217A JP2014063217A JP2015186183A JP 2015186183 A JP2015186183 A JP 2015186183A JP 2014063217 A JP2014063217 A JP 2014063217A JP 2014063217 A JP2014063217 A JP 2014063217A JP 2015186183 A JP2015186183 A JP 2015186183A
Authority
JP
Japan
Prior art keywords
gesture
terminal
user
information
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014063217A
Other languages
English (en)
Inventor
希樹 若山
Mareki Wakayama
希樹 若山
流布一 澤田
Ryuichi Sawada
流布一 澤田
真人 堅田
Naoto Katada
真人 堅田
智彦 金井
Tomohiko Kanai
智彦 金井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2014063217A priority Critical patent/JP2015186183A/ja
Publication of JP2015186183A publication Critical patent/JP2015186183A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephone Function (AREA)

Abstract

【課題】複数種類のデータを交換可能な通信端末及び通信方法を提供する。
【解決手段】人体通信を行う通信端末1であって、自端末又は自端末の周囲の状態を検出して当該状態を示す情報をセンサ情報として取得するセンサ情報取得部3と、センサ情報取得手段により取得されたセンサ情報に基づいて、自端末のユーザーが実行したジェスチャーを決定するジェスチャー決定部5と、ジェスチャー決定部5により決定されたジェスチャーに対応するデータを人体通信により送信するデータ送受信部7と、を備える。
【選択図】図1

Description

本発明は、人体通信を行う通信端末及び通信方法に関する。
従来、人体通信として、人体を伝送路として用いて、その近傍の限られた領域内で通信を行う技術が知られている。例えば、特許文献1には、握手による人体通信により自分の携帯電話と相手の携帯電話との間で電子的に名刺情報を交換することが記載されている。
特開2009−164740号公報
上記特許文献1に記載の技術では、自分の携帯電話と相手の携帯電話との間で、名刺情報という一種類の情報しか交換されておらず、ユーザーが積極的に送信する情報の種類を変えることはできない。通信相手や場合に応じて送信する情報の種類を変えるためには、通信相手や場合毎に対応した情報を予め機器に設定しておかねばならず、手間が生じる。
本発明は上記実情に鑑みてなされたものであり、複数種類のデータを容易に交換可能な通信端末及び通信方法を提供することを目的とする。
本発明に係る通信端末は、人体通信を行う通信端末であって、自端末又は自端末の周囲の状態を検出して当該状態を示す情報をセンサ情報として取得するセンサ情報取得手段と、センサ情報取得手段により取得されたセンサ情報に基づいて、自端末のユーザーが実行したジェスチャーを決定するジェスチャー決定手段と、ジェスチャー決定手段により決定されたジェスチャーに対応するデータを人体通信により送信するデータ送信手段と、を備える。
また、本発明に係る通信方法は、人体通信を行う通信方法であって、自端末又は自端末の周囲の状態を検出して当該状態を示す情報をセンサ情報として取得するセンサ情報取得ステップと、センサ情報取得ステップにおいて取得されたセンサ情報に基づいて、自端末のユーザーが実行したジェスチャーを決定するジェスチャー決定ステップと、ジェスチャー決定ステップにおいて決定された自端末のユーザーが実行したジェスチャーに対応するデータを人体通信により送信するデータ送信ステップと、を含む。
本発明に係る通信端末及び通信方法では、自端末又は自端末の周囲の状態を示すセンサ情報に基づいて、自端末のユーザーが実行したジェスチャーが決定され、このジェスチャーに対応するデータが送信される。よって、決定されたジェスチャー毎に送信するデータを変えることができるので、複数種類のデータを容易に交換可能である。
また、人体通信の相手端末から当該相手端末のユーザーが実行したジェスチャーを示すジェスチャー情報を受信するジェスチャー情報受信手段と、ジェスチャー情報受信手段により受信したジェスチャー情報で示される相手端末のユーザーが実行したジェスチャーと、ジェスチャー決定手段により決定された自端末のユーザーが実行したジェスチャーとが対応しているかどうかを判定する判定手段と、を更に備え、データ送信手段は、判定手段による判定に基づいて、自端末のユーザーが実行したジェスチャーに対応するデータを送信してよい。この場合、自端末と相手端末とにおいてそれぞれユーザーが実行したジェスチャーの対応関係に基づいてデータが送信されるので、自端末と相手端末との間で互いに意図するデータを精度良く交換することができる。
また、ジェスチャー決定手段により決定された自端末のユーザーが実行したジェスチャーを示すジェスチャー情報を出力する出力手段を更に備えてよい。この場合、出力されたジェスチャー情報から、決定されたジェスチャーがユーザーの意図するジェスチャーであるかどうかをユーザーが確認することができる。
また、ユーザーが意図するジェスチャーを示すジェスチャー情報を入力する入力手段と、センサ情報取得手段により取得されたセンサ情報を、入力手段により入力されたジェスチャー情報で示されるジェスチャーに関する履歴情報として記憶する記憶手段と、を更に備え、ジェスチャー決定手段は、記憶手段により記憶された履歴情報に基づいて自端末のユーザーが実行したジェスチャーを決定してよい。この場合、センサ情報がユーザーの意図するジェスチャーに関する履歴情報として記憶され、この履歴情報に基づいて決定されるジェスチャーをユーザーが意図するジェスチャーとすることができる。
センサ情報取得手段は、ユーザーがジェスチャーを行ったときの自端末の加速度を検出して加速度情報として取得する加速度センサ、及び、ユーザーがジェスチャーを行ったときの自端末又は自端末の周囲で発生する音を検出して音情報として取得する集音センサの何れかであってよい。この場合、加速度センサにより取得された加速度情報及び集音センサにより取得された音情報の何れかに基づいて、適切に自端末のユーザーが実行したジェスチャーを決定することができる。
本発明によれば、複数種類のデータを容易に交換可能な通信端末及び通信方法を提供することができる。
本発明に係る通信端末の一実施形態を示す図である。 図1に示す通信端末の機能的構成を示すブロック図である。 図1に示す通信端末のハードウェア構成を示すブロック図である。 図2に示すジェスチャー決定部によるジェスチャーの決定に用いる判断区域を示す分布図である。 図1に示す通信端末の動作手順を示すフロー図である。 図4に示す判断区域の再設定を行うための動作手順を示すフロー図である。
以下、添付図面を参照して、本発明の好適な実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。
本発明の一実施形態に係る通信端末は、人体を伝送路としてデータを送受信する人体通信を行う通信端末である。図1は、本発明に係る通信端末の一実施形態を示す図である。図1に示すように、本発明の一実施形態に係る通信端末1は、例えばリストバンド型のウェアラブルデバイスとして構成され、ユーザーの手首に装着された状態で用いられる。
図2は、図1に示す通信端末1の機能的構成を示すブロック図である。図2に示すように、通信端末1は、センサ情報取得部3(センサ情報取得手段)と、ジェスチャー決定部5(ジェスチャー決定手段)と、データ送受信部7(データ送信手段)と、ジェスチャー情報送受信部9(ジェスチャー情報受信手段)と、判定部11(判定手段)と、出力部13(出力手段)と、入力部15(入力手段)と、記憶部17(記憶手段)とを備えている。
図3は、図1に示す通信端末1のハードウェア構成を示すブロック図である。図3に示すように、通信端末1は、物理的には、CPU19、RAM20、ROM21、入力モジュール22、集音センサ23、無線通信モジュール24、アンテナ25、ディスプレイ26、加速度センサ27、人体通信モジュール28等を含んで構成されている。通信端末1の各機能は、CPU19、RAM20等のハードウェア上に所定のソフトウェアを読み込ませることにより、CPU19の制御にもとで、入力モジュール22、集音センサ23、無線通信モジュール24、アンテナ25、ディスプレイ26、加速度センサ27、及び人体通信モジュール28等を動作させるとともに、RAM20におけるデータの読み出し及び書き込みを行うことで実現される。
以下、図2を参照して、通信端末1の各機能について詳細に説明する。
センサ情報取得部3は、通信端末1(自端末)又は通信端末1の周囲の状態を検出して当該状態を示す情報をセンサ情報として取得する。センサ情報取得部3は、例えば加速度センサ27及び集音センサ23を含んで構成されている。加速度センサ27及び集音センサ23は、例えば通信端末1において、ユーザーにより(ジェスチャーが行われる前に)ボタン等が押されたことを検出すると、これをトリガとして作動する。
これにより、例えば、加速度センサ27は、ユーザーがジェスチャーを行ったときに、当該ユーザーに装着された通信端末1の加速度を検出して加速度情報として取得する。また、集音センサ23は、ユーザーがジェスチャーを行ったときに、当該ユーザーに装着された通信端末1又は通信端末1の周囲で発生する音を検出して音量等の音情報として取得する。ユーザーが行うジェスチャーとは、例えば握手、ハグ、又はハイタッチ等といった身振り手振りである。
加速度センサ27により加速度の測定及び集音センサ23による音量の測定は、ユーザーによってボタン等が押されたことを検出してから通信端末1のユーザーと相手端末のユーザーとが接触したことが検出されるまでの時間内で行う。例えば、通信端末1から相手端末へ人体通信を介して出力された信号に対し、相手端末から人体通信を介して通信端末1へ応答があったとき、通信端末1のユーザーと相手端末のユーザーとの接触があったと検出される。当該時間内で行われた測定値のうち、最も大きい値をセンサ情報(加速度及び音量)として取得する。
なお、加速度センサ27及び集音センサ23の作動は、ユーザーによってボタン等が押されたことの検出をトリガとするだけでなく、その他の検出をトリガとしてもよい。例えば、加速度センサ27を常に作動させておき、加速度センサ27によってリストバンド型のウェアラブルデバイスが2回叩かれた事を検出し、これをトリガとして集音センサを作動させてもよい。また、ボタン等が押されたことを検出してから又はウェアラブルデバイスが2回叩かれたことを検出してから例えば10秒経過してもセンサ情報(加速度及び音量)が取得できない場合には、測定値がないものとしてもよい。センサ情報取得部3は、以上のようにして取得したセンサ情報(加速度及び音量)を、ジェスチャー決定部5へ出力する。
ジェスチャー決定部5は、センサ情報取得部3から出力されたセンサ情報(加速度及び音量)に基づいて、通信端末1のユーザーが実行したジェスチャーを決定する。ジェスチャー決定部5には、例えば図4に示されるような、センサ情報による領域に対応したジェスチャー毎の判断区域が予め設定されている。ジェスチャー決定部5は、この判断区域に基づいて、通信端末1のユーザーが実行したジェスチャーを決定する。ジェスチャー決定部5には、例えば、「握手」、「ハイタッチ」、「ハグ」等のジェスチャーの種類が予め記憶されている。ジェスチャー決定部5に記憶されたジェスチャーの種類は、ユーザーによって登録及び変更可能である。
例えば、ジェスチャー決定部5は、センサ情報取得部3から出力されたセンサ情報(加速度及び音量)が、図4の判断区域Aに入っている場合にはジェスチャーの種類を「握手」、図4の判断区域Bに入っている場合にはジェスチャーの種類を「ハイタッチ」、図4の判断区域Cに入っている場合にはジェスチャーの種類を「ハグ」とする。また、ジェスチャー決定部5は、センサ情報取得部3から出力されたセンサ情報が、図4の判断区域A〜Cのいずれにも入っていない場合にはジェスチャーの種類は判断不可とする。なお、図4の分布図の詳細は、後述する。
また、ジェスチャー決定部5は、後述する記憶部17により記憶された履歴情報に基づいて、通信端末1のユーザーが実行したジェスチャーを決定してもよい。すなわち、ジェスチャー決定部5は、記憶部17により記憶された履歴情報を用いて再設定された判断区域に基づいて、それ以降に(履歴情報に係るジェスチャーが実行された後に)通信端末1のユーザーが実行したジェスチャーを決定する。
ジェスチャー決定部5は、決定したジェスチャーを示すジェスチャー情報をデータ送受信部7、ジェスチャー情報送受信部9、判定部11、及び出力部13へ出力する。なお、ジェスチャー決定部5は、センサ情報が判断区域A〜Cのいずれにも入っていない場合には、ジェスチャーが判断不可である旨の情報をデータ送受信部7、ジェスチャー情報送受信部9、判定部11、及び出力部13へ出力する。
データ送受信部7は、通信端末1のユーザーに相手端末のユーザーが接触すると、人体通信により、ジェスチャー決定部5から出力されたジェスチャー情報が示すジェスチャーに対応するデータを相手端末へ送信する。なお、人体通信は、従来と同様の方法(人間の体に微弱な電流を流す方法)で行われる。送信するデータは、ジェスチャーの種類毎に対応付けられて、通信端末1に予め記憶されている。例えば、握手に対応して電話番号、ハイタッチに対応してメールアドレス、ハグに対応して通話アプリケーションのID、等のように、ジェスチャーの種類毎に各種のユーザーデータが対応付けられている。
データ送受信部7は、判定部11による判定結果に基づいて、通信端末1のユーザーが実行したジェスチャーに対応するデータを送信してもよい。より具体的には、データ送受信部7は、ジェスチャー情報送受信部9から出力されたジェスチャー情報で示される相手端末のユーザーが実行したジェスチャー(以下、単に相手のジェスチャーともいう)と、ジェスチャー決定部5から出力された通信端末1のユーザーが実行したジェスチャー(以下、単に自分のジェスチャーともいう)とが対応している場合に、通信端末1のユーザーが実行したジェスチャーに対応するデータを送信する。
相手のジェスチャーと自分のジェスチャーとが対応している場合とは、例えば互いのジェスチャーが一致している場合である。また、相手のジェスチャーと自分のジェスチャーとが対応している場合には、相手のジェスチャーと自分のジェスチャーとが予め設定された所定の対応関係を満たす場合を含んでもよい。
データ送受信部7は、相手のジェスチャーと自分のジェスチャーとが対応している場合に、相手のジェスチャー(自分のジェスチャー)に対応するデータを人体通信によって受信する。これにより、通信端末1のユーザーと相手端末のユーザーとの間で、ジェスチャーに対応するデータが交換される。すなわち、交換するデータはジェスチャーの種類に応じて変更可能である。
ジェスチャー情報送受信部9は、ジェスチャー決定部5から出力された自分のジェスチャーを示すジェスチャー情報を、人体通信により相手端末へ送信する。また、ジェスチャー情報送受信部9は、人体通信の相手端末から、当該相手端末のユーザーが実行したジェスチャーを示すジェスチャー情報を人体通信により受信する。
この受信は、例えば、加速度センサ27及び集音センサ23の作動のためトリガとなる情報が検出されてから、自分のジェスチャーを示すジェスチャー情報が通信端末1から相手端末へ送信された後に5秒経過するまでの間に行われる。このとき、加速度センサ27及び集音センサ23の作動のためのトリガとなる情報が検出されてから、自分のジェスチャーを示すジェスチャー情報が通信端末1から相手端末へ送信された後に5秒経過しても相手のジェスチャーを示すジェスチャー情報を受信できない場合には、受信データがないものとする。
判定部11は、ジェスチャー情報送受信部9から出力されたジェスチャー情報及びジェスチャー決定部5から出力されたジェスチャー情報に基づき、相手端末のユーザーが実行したジェスチャーと、通信端末1のユーザーが実行したジェスチャーとが対応しているかどうかを判定する。判定部11には、自分のジェスチャーの種類と相手のジェスチャーの種類とが対応する場合の対応関係が予め記憶されている。これに基づき、判定部11は、自分のジェスチャーの種類と相手のジェスチャーの種類とを照らし合わせて、互いのジェスチャーが対応しているかどうかを判定する。判定部11は、判定結果をデータ送受信部7及び出力部13へ出力する。
出力部13は、ジェスチャー決定部5により決定された自端末のユーザーが実行したジェスチャーを示すジェスチャー情報を出力する。出力部13は、例えばディスプレイであり、ジェスチャー決定部5により決定されたジェスチャー情報(握手、ハグ、又はハイタッチ等のジェスチャーの種別)をディスプレイ上に表示する。また、出力部13は、例えば音声出力により、ユーザーが実行したジェスチャー情報をユーザーに報知してもよい。
また、出力部13は、ジェスチャー決定部5によりジェスチャーが判断不可である旨の情報が出力された場合、この情報を出力してもよい。また、出力部13は、判定部11により相手端末のユーザーが実行したジェスチャーと通信端末1のユーザーが実行したジェスチャーとが対応していない旨の判定結果が判定部11より出力された場合には、その判定結果を出力してもよい。
入力部15は、ユーザーが意図するジェスチャーを示すジェスチャー情報を入力する。入力部15は、例えばタッチパネル式のディスプレイやボタン等で構成される。例えば、ユーザーにより、ユーザーが意図したジェスチャーがハグである旨を示す操作がディスプレイやボタン等に対して行われると、入力部15が当該操作を検出して、ハグを示すジェスチャー情報を受け付ける。入力部15は、受け付けたジェスチャー情報を記憶部17へ出力する。
記憶部17は、センサ情報取得部3により取得されたセンサ情報を、ユーザーが意図したジェスチャーに関する履歴情報として記憶する。例えば、ユーザーが意図したジェスチャーをタッチパネルディスプレイやボタン等の入力部15から入力すると、記憶部17は、センサ情報取得部3により取得されたセンサ情報を、入力部15により入力されたジェスチャー(ユーザーが意図したジェスチャー)に関する履歴情報として記憶する。記憶部17は、記憶した履歴情報をジェスチャー決定部5へ出力する。
次に、図4を参照して、ジェスチャー決定部5によるジェスチャーの決定に用いる判断区域を示す分布図の詳細について説明する。図4は、図2に示すジェスチャー決定部5によるジェスチャーの決定に用いる判断区域を示す分布図である。図4の横軸は集音センサ23により取得された音量(dB)を示し、図4の縦軸は加速度センサ27により取得された加速度(m/sec2)を示す。
図4に示す分布図は、例えば予め記録されたセンサ情報と各ジェスチャー(握手、ハグ、又はハイタッチ)との対応関係に基づき作成される。例えば、図4に示すように、まず各ジェスチャーを行ったときの各ジェスチャーに対応したセンサ情報が記録され、記録結果がそれぞれプロットされる。
例えばジェスチャーを握手と判断するための判断区域Aは、握手を行ったときにプロットされた各点のうち、任意の点を中心として、当該任意の点に最も近い点までの距離を半径とする円の集まりによって構成されている。同様に、ジェスチャーをハグと判断するための判断区域Bは、ハグを行ったときにプロットされた各点のうち、任意の点を中心として、当該任意の点に最も近い点までの距離を半径とする円の集まりによって構成されている。同様に、ジェスチャーをハイタッチと判断するための判断区域Cは、ハイタッチを行ったときにプロットされた各点のうち、任意の点を中心として、当該任意の点に最も近い点までの距離を半径とする円の集まりによって構成されている。
また、図4に示す判断区域A〜Cは、記憶部17における履歴情報に基づいて再設定されてもよい。例えば、判断区域A〜Cによる判断に基づき決定されたジェスチャーがユーザーの意図したジェスチャーと異なる場合、記憶部17における履歴情報(センサ情報を、ユーザーが意図したジェスチャーと関連付けた情報)に基づき、判断区域A〜Cが変更される。
次に、図5を参照して、通信端末1の動作について説明する。図5は、図1に示す通信端末1の動作手順を示すフロー図である。なお、図5は、通信端末1において人体通信を開始するためのトリガとなる情報が検出されてから、人体通信を終了するまでの動作手順(処理)を示している。
通信端末1では、人体通信を開始するためのボタン等がユーザーによって押されたことが検出されると、加速度センサ27及び集音センサ23が作動される。このとき、ユーザーはジェスチャーを行う。この状態において、図5に示すように、加速度センサ27及び集音センサ23により、ユーザーによってジェスチャーが行われたときの各センサ情報(加速度及び音量)が取得される(ステップS1:センサ情報取得ステップ)。各センサ情報の取得は、人体通信を開始するためのボタン等がユーザーによって押されたことが検出されてから、通信端末1のユーザーと相手端末のユーザーとの接触が検出されるまでの時間内で行われる。当該時間内で行われた測定値のうち、最も大きい値がセンサ情報(加速度及び音量)として取得される。
続いて、取得された各センサ情報(加速度及び音量)に基づいて、ユーザーが実行したジェスチャーが決定される(ステップS2:ジェスチャー決定ステップ)。例えば、図4に示す分布図に基づいて、ユーザーが実行したジェスチャーが決定される。決定したジェスチャーを示すジェスチャー情報は、人体通信により相手端末へ送信される(ステップS3)。
続いて、通信端末1は、相手端末のユーザーが実行したジェスチャーを示すジェスチャー情報を受信する(ステップS4)。この受信は、例えば人体通信を開始するためのボタン等がユーザーによって押されたことが検出されてから、自分のジェスチャーを示すジェスチャー情報が通信端末1から相手端末へ送信された後に5秒経過するまでの間に行われる。
続いて、相手端末と通信端末1(自端末)とでそれぞれのユーザーが実行したジェスチャーが一致するかが判定される(S5:判定ステップ)。相手端末と通信端末1(自端末)とでユーザーが実行したジェスチャーが一致する場合(ステップS5;Yes)には、通信端末1のユーザーが実行したジェスチャーに対応するデータが人体通信により相手端末へ送信されると共に、通信端末1は、相手端末のユーザーが実行したジェスチャーに対応するデータを人体通信により受信する(ステップS6:データ送信ステップ)。これにより、通信端末1は、人体通信を終了する。
一方、相手端末と通信端末1(自端末)とでユーザーが実行したジェスチャーが一致しない場合(ステップS5;Nо)には、その旨が例えば通信端末1のディスプレイ等に表示されることでユーザーに報知される。また、この場合、人体通信を開始するためのボタン等がユーザーによって押されたことが検出された状態と同じ状態となり、ステップS1に戻る。ユーザーは、再度人体通信を試みる場合には、再度ジェスチャーを行う。なお、相手端末と通信端末1(自端末)とでユーザーが実行したジェスチャーが一致しない場合(ステップS5;Nо)には、通信端末1は、そのまま処理を終了してもよい。
続いて、図6を参照して、例えば相手端末と通信端末1(自端末)とでそれぞれのユーザーのジェスチャーが一致していない場合において、図4に示す判断区域の再設定を行うための動作を説明する。図6は、図4に示す判断区域の再設定を行うための動作手順を示すフロー図である。なお、図6では、図5に示すステップS5において相手端末と通信端末1とでそれぞれのユーザーが実行したジェスチャーが一致しないと判定されてから、図4に示す判断区域の再設定が行われるまでの動作手順を示している。
図6に示すように、図5に示すステップS5における判定において相手端末と通信端末1とでそれぞれのユーザーが実行したジェスチャーが一致しないと判定されると、図5に示すステップS2において決定されたジェスチャーを示すジェスチャー情報が報知される(ステップS7)。この報知は、例えば通信端末1のタッチパネルディスプレイ等に表示されることで行われる。表示されたジェスチャー情報で示されるジェスチャーがユーザーの意図したジェスチャーと異なる場合、ユーザーが意図したジェスチャーを示すジェスチャー情報を入力する操作がユーザーによって行われる。通信端末1において、当該操作が検出されることにより、ユーザーが意図したジェスチャーを示すジェスチャー情報の入力が受け付けられる(ステップS8)。
続いて、図5に示すステップS1において取得されたセンサ情報が、ユーザーが意図したジェスチャーの履歴情報として記憶される(ステップS9)。そして、履歴情報に基づき、図4に示すジェスチャーの種類を判断する判断区域A〜Cが再設定される(ステップS10)。再設定された判断区域は、次回以降のユーザーのジェスチャーの決定に用いられる。
すなわち、ステップS10により判断区域A〜Cが再設定された後、入力されたジェスチャー情報で示されるジェスチャーを自分のジェスチャーとして、再び図4に示すステップS5における判定を行ってもよい。当該判定により、相手端末と通信端末1とでユーザーが実行したジェスチャーが一致する場合(ステップS5;Yes)には、通信端末1と相手端末との間でジェスチャーに対応するデータが人体通信により送受信される(ステップS6:データ送信ステップ)。
以上、本実施形態に係る通信端末1及び通信方法によれば、通信端末1又は通信端末1の周囲の状態を示すセンサ情報に基づいて、通信端末1のユーザーが実行したジェスチャーが決定され、このジェスチャーに対応するデータが送信される。よって、決定されたジェスチャー毎に送信するデータを変えることができるので、複数種類のデータを容易に交換可能である。
また、データ送受信部7は、判定部11による判定に基づいて、通信端末1のユーザーが実行したジェスチャーに対応するデータを送信する。このため、通信端末1と相手端末とにおいてそれぞれユーザーが実行したジェスチャーの対応関係に基づいてデータが送信されるので、通信端末1と相手端末との間で互いに意図するデータを精度良く交換することができる。
また、ジェスチャー決定部5により決定された通信端末1のユーザーが実行したジェスチャーを示すジェスチャー情報が、出力部13によって出力される。このため、出力されたジェスチャー情報から、決定されたジェスチャーがユーザーの意図するジェスチャーであるかどうかをユーザーが確認することができる。
また、記憶部17により、センサ情報がユーザーの意図するジェスチャーに関する履歴情報として記憶されるので、この履歴情報に基づいて決定されるジェスチャーをユーザーが意図するジェスチャーとすることができる。
また、加速度センサにより取得された加速度情報及び集音センサにより取得された音情報の何れかに基づいて、適切に通信端末1のユーザーが実行したジェスチャーを決定することができる。
以上、本発明の好適な実施形態について説明してきたが、本発明は必ずしも上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲で様々な変更が可能である。
例えば、判定部11による判定を行わずに自分のジェスチャーに対応するデータを送信してもよい。
また、人体通信は一対一のユーザー間だけでなく複数のユーザー間で行われてもよい。
1…通信端末、3…センサ情報取得部、5…ジェスチャー決定部、7…データ送受信部、9…ジェスチャー情報送受信部、11…判定部、13…出力部、15…入力部、17…記憶部、23…集音センサ、27…加速度センサ。

Claims (6)

  1. 人体通信を行う通信端末であって、
    自端末又は自端末の周囲の状態を検出して当該状態を示す情報をセンサ情報として取得するセンサ情報取得手段と、
    前記センサ情報取得手段により取得されたセンサ情報に基づいて、自端末のユーザーが実行したジェスチャーを決定するジェスチャー決定手段と、
    前記ジェスチャー決定手段により決定された自端末のユーザーが実行したジェスチャーに対応するデータを人体通信により送信するデータ送信手段と、
    を備える通信端末。
  2. 人体通信の相手端末から当該相手端末のユーザーが実行したジェスチャーを示すジェスチャー情報を受信するジェスチャー情報受信手段と、
    前記ジェスチャー情報受信手段により受信したジェスチャー情報で示される前記相手端末のユーザーが実行したジェスチャーと、前記ジェスチャー決定手段により決定された自端末のユーザーが実行したジェスチャーとが対応しているかどうかを判定する判定手段と、
    を更に備え、
    前記データ送信手段は、前記判定手段による判定に基づいて、自端末のユーザーが実行したジェスチャーに対応するデータを送信する、
    請求項1に記載の通信端末。
  3. 前記ジェスチャー決定手段により決定された自端末のユーザーが実行したジェスチャーを示すジェスチャー情報を出力する出力手段を更に備える、
    請求項1又は2に記載の通信端末。
  4. ユーザーが意図するジェスチャーを示すジェスチャー情報を入力する入力手段と、
    前記センサ情報取得手段により取得されたセンサ情報を、前記入力手段により入力されたジェスチャー情報で示されるジェスチャーに関する履歴情報として記憶する記憶手段と、
    を更に備え、
    前記ジェスチャー決定手段は、前記記憶手段により記憶された履歴情報に基づいて自端末のユーザーが実行したジェスチャーを決定する、
    請求項1〜3の何れか一項に記載の通信端末。
  5. 前記センサ情報取得手段は、ユーザーがジェスチャーを行ったときの自端末の加速度を検出して加速度情報として取得する加速度センサ、及び、ユーザーがジェスチャーを行ったときの自端末又は自端末の周囲で発生する音を検出して音情報として取得する集音センサの何れかである、
    請求項1〜4の何れか一項に記載の通信端末。
  6. 人体通信を行う通信方法であって、
    自端末又は自端末の周囲の状態を検出して当該状態を示す情報をセンサ情報として取得するセンサ情報取得ステップと、
    前記センサ情報取得ステップにおいて取得されたセンサ情報に基づいて、自端末のユーザーが実行したジェスチャーを決定するジェスチャー決定ステップと、
    前記ジェスチャー決定ステップにおいて決定された自端末のユーザーが実行したジェスチャーに対応するデータを人体通信により送信するデータ送信ステップと、
    を含む通信方法。
JP2014063217A 2014-03-26 2014-03-26 通信端末及び通信方法 Pending JP2015186183A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014063217A JP2015186183A (ja) 2014-03-26 2014-03-26 通信端末及び通信方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014063217A JP2015186183A (ja) 2014-03-26 2014-03-26 通信端末及び通信方法

Publications (1)

Publication Number Publication Date
JP2015186183A true JP2015186183A (ja) 2015-10-22

Family

ID=54352250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014063217A Pending JP2015186183A (ja) 2014-03-26 2014-03-26 通信端末及び通信方法

Country Status (1)

Country Link
JP (1) JP2015186183A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018020792A1 (ja) * 2016-07-25 2018-02-01 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018020792A1 (ja) * 2016-07-25 2018-02-01 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JPWO2018020792A1 (ja) * 2016-07-25 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11216072B2 (en) 2016-07-25 2022-01-04 Sony Corporation Information processing apparatus, information processing method, and program

Similar Documents

Publication Publication Date Title
US9891719B2 (en) Impact and contactless gesture inputs for electronic devices
US20160335410A1 (en) System and Method for Monitoring Activities through Portable Devices
US20150341481A1 (en) System and method of providing voice-message call service
TWI528265B (zh) 行動裝置及相關配置一遠端裝置之方法
CN107743178B (zh) 一种消息播放方法及移动终端
CN107566604B (zh) 一种消息提醒的控制方法及用户终端
US9699595B2 (en) Method and wearable device for interworking with a portable terminal
US20160112988A1 (en) Method for indicating alarm by portable terminal and accessory in conjunction with each other, and apparatus and application for the same
CN111357006A (zh) 一种疲劳提示方法和终端
JP6368096B2 (ja) 現在位置特定プログラム、および現在位置特定装置
JP2016019160A (ja) 電子機器、方法およびプログラム
EP3319304B1 (en) Terminal control method and accessory device
KR20170054080A (ko) 전자장치 및 그의 동작 방법
WO2013187138A1 (ja) 電子機器
CN108683812B (zh) 音量调节方法、装置以及移动终端
JP2012039282A (ja) 電子機器、その情報表示プログラム及びその情報表示方法
EP2789154A1 (fr) Telephone cellulaire et programme informatique comprenant des moyens pour la generation et l'emission d'un message d'alarme
KR101266814B1 (ko) 긴급구조 시스템
JP2015186183A (ja) 通信端末及び通信方法
CN111819831B (zh) 消息接收通知方法及支持该方法的电子设备
CN107613093A (zh) 一种通信消息的显示方法及用户终端
CN109041212B (zh) 一种定位方法及可穿戴设备
EP3214527A1 (en) Electronic instrument and feedback provision method
KR20120033470A (ko) 스마트폰 기반 응급 상황 탐지 장치 및 그 방법
CN110719361A (zh) 信息发送方法、移动终端和存储介质