JP2013255192A - Electronic apparatus - Google Patents
Electronic apparatus Download PDFInfo
- Publication number
- JP2013255192A JP2013255192A JP2012131183A JP2012131183A JP2013255192A JP 2013255192 A JP2013255192 A JP 2013255192A JP 2012131183 A JP2012131183 A JP 2012131183A JP 2012131183 A JP2012131183 A JP 2012131183A JP 2013255192 A JP2013255192 A JP 2013255192A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- user
- detection result
- unit
- clothes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Telephone Set Structure (AREA)
- Telephone Function (AREA)
Abstract
Description
本発明は、電子機器に関する。 The present invention relates to an electronic device.
従来、利用者による自主的な操作が行われなくても、利用者の状況(体内アルコール濃度やアルコール摂取時刻)を自動的に記録する技術が提案されている(例えば、特許文献1参照)。 Conventionally, there has been proposed a technique for automatically recording a user's situation (in-body alcohol concentration and alcohol intake time) even if the user does not perform voluntary operations (see, for example, Patent Document 1).
しかしながら、特許文献1の技術は利用可能な状況・分野が限定的であり、汎用性に欠けていた。また、特許文献1のような機能のほか、携帯機器に搭載される機能(例えば歩数計機能)の精度を高めるためには、ユーザが携帯機器を保持している位置を精度よく判別することが重要である。
However, the technology of
本発明は上記の課題に鑑みてなされたものであり、ユーザが保持している位置を精度よく判別可能な電子機器を提供することを目的とする。 The present invention has been made in view of the above problems, and an object thereof is to provide an electronic apparatus that can accurately determine a position held by a user.
本発明の電子機器は、本体部(11)と、前記本体部内又は近傍においてユーザの体の動きを検出する第1センサ(27,28)の検出結果を入力する入力部(60)と、前記入力部が入力した前記第1センサの検出結果に応じて、前記ユーザの体のどの位置で前記本体部が保持されているかを判別する第1判別部(60)と、を備えている。 The electronic device of the present invention includes a main body (11), an input unit (60) for inputting a detection result of a first sensor (27, 28) that detects a movement of a user's body in or near the main body, A first discriminating unit (60) for discriminating at which position of the user's body the main body unit is held according to the detection result of the first sensor input by the input unit.
この場合において、前記入力部は、前記ユーザの体に接触又は近接していることを検出する第2センサ(25)の検出結果を入力し、前記第1判別部は、前記第2センサの検出結果に応じて前記ユーザの体のどの位置で前記本体部が保持されているかを判別することとしてもよい。また、前記入力部は、前記本体部近傍におけるにおいを検出する第3センサ(26)の検出結果を入力し、前記第3センサの検出結果と前記第1判別部の判別結果とに応じて、前記においの発生位置を判別する第2判別部(60)を備えていてもよい。この場合、前記第3センサの検出結果と、前記第2判別部の判別結果とに基づいて、前記ユーザに防臭に関する報知を行なう報知部(12,15)を備えていてもよい。また、前記ユーザが前記本体部を使用しているタイミングで、前記ユーザが着用している衣服を撮像する撮像部(30)を備えていてもよい。 In this case, the input unit inputs a detection result of the second sensor (25) that detects contact or proximity to the user's body, and the first determination unit detects the second sensor. It may be determined at which position of the user's body the body is held according to the result. Further, the input unit inputs a detection result of the third sensor (26) for detecting an odor in the vicinity of the main body, and according to the detection result of the third sensor and the determination result of the first determination unit, You may provide the 2nd discrimination | determination part (60) which discriminate | determines the generation | occurrence | production position of the said smell. In this case, you may provide the alerting | reporting part (12,15) which alert | reports the said deodorant to the said user based on the detection result of a said 3rd sensor, and the discrimination | determination result of a said 2nd discrimination | determination part. Moreover, you may provide the imaging part (30) which images the clothes which the said user wears at the timing when the said user is using the said main-body part.
本発明の電子機器が撮像部を備える場合、前記撮像部による撮像結果と、前記第2判別部の判別結果に基づいて、前記衣服のクリーニング時期を報知する報知部(12,15)を備えていてもよい。この場合、前記本体部の位置を検出する位置センサ(21)を備え、前記報知部は、前記位置センサの検出結果に応じて、前記衣服のクリーニング時期を報知することとしてもよい。 When the electronic apparatus of the present invention includes an imaging unit, the electronic device includes an informing unit (12, 15) that notifies the cleaning time of the clothes based on the imaging result of the imaging unit and the determination result of the second determination unit. May be. In this case, a position sensor (21) for detecting the position of the main body may be provided, and the notification unit may notify the clothing cleaning time according to the detection result of the position sensor.
本発明の電子機器が第2センサを備える場合、前記第2センサは、ユーザの体の周辺に存在する電界の変化を検出することとしてもよい。また、前記第2センサは、電極部(70)を有し、前記電極部とユーザの体とを介した他の機器(100)との通信が可能か否かを検出することとしてもよい。 When the electronic device of the present invention includes the second sensor, the second sensor may detect a change in the electric field existing around the user's body. The second sensor may include an electrode unit (70), and may detect whether or not communication with the other device (100) via the electrode unit and a user's body is possible.
本発明の電子機器において、前記第1判別部は、前記本体部がユーザの上半身と下半身とのいずれにおいて保持されているかを判別することとしてもよい。また、前記入力部は、前記本体部近傍の明るさを検出する第4センサ(29)の検出結果を入力し、前記第1判別部は、前記第4センサの検出結果に応じて前記ユーザの体のどの位置で前記本体部が保持されているかを判別することとしてもよい。 In the electronic apparatus according to the aspect of the invention, the first determination unit may determine whether the main body is held on an upper body or a lower body of the user. In addition, the input unit inputs a detection result of a fourth sensor (29) that detects brightness in the vicinity of the main body, and the first determination unit is configured to input the user's detection result according to the detection result of the fourth sensor. It may be determined at which position of the body the main body is held.
なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。 In addition, in order to explain the present invention in an easy-to-understand manner, the above description has been made in association with the reference numerals of the drawings representing one embodiment. However, the present invention is not limited to this, and the configuration of an embodiment described later is provided. May be modified as appropriate, or at least a part thereof may be replaced with another component. Further, the configuration requirements that are not particularly limited with respect to the arrangement are not limited to the arrangement disclosed in the embodiment, and can be arranged at a position where the function can be achieved.
本発明の電子機器は、ユーザが保持している位置を精度よく判別できるという効果を奏する。 The electronic device of the present invention has an effect that the position held by the user can be accurately determined.
以下、一実施形態に係る携帯機器10について、図1〜図10に基づいて、詳細に説明する。図1には、携帯機器10の構成がブロック図にて示されている。
Hereinafter, the
携帯機器10は、ユーザにより携帯された状態で利用される情報機器である。携帯機器10としては、携帯電話、スマートフォン、PHS(Personal Handy-phone System)、PDA(Personal Digital Assistant)等を採用することができるが、本実施形態では、携帯機器10は、スマートフォンであるものとする。携帯機器10は、電話機能やインターネット等に接続するための通信機能、および、プログラムを実行するためのデータ処理機能等を有する。
The
携帯機器10は、図1に示すように、ディスプレイ12と、タッチパネル14と、スピーカ15と、カレンダ部16と、センサ部20と、撮像部30と、服装検出部41と、フラッシュメモリ50と、制御部60と、を有する。なお、上記各部は、図4に示す本体部(筐体)11内部又は外表面に設けられているものとする。
As shown in FIG. 1, the
ディスプレイ12は、画像、各種情報およびボタン等の操作入力用画像を表示するものであり、一例として、液晶表示素子を用いたデバイスであるものとする。
The
タッチパネル14は、ユーザが触れたことに応じた情報を制御部60に対して入力することが可能なインタフェースである。タッチパネル14は、ディスプレイ12表面またはディスプレイ12内に組み込まれているため、ユーザは、ディスプレイ12の表面をタッチすることにより、種々の情報を直感的に入力することができる。
The
カレンダ部16は、年、月、日、時刻といった時間情報を取得して、制御部60に対して出力する。なお、カレンダ部16は、更に計時機能を有しているものとする。
The
センサ部20は、各種センサを有している。本実施形態においては、センサ部20は、位置センサ21、生体センサ22、姿勢センサ23、温湿度計24、電界センサ25、匂いセンサ26、加速度センサ27、角速度センサ28、明るさセンサ29を有しているものとする。
The
位置センサ21は、GPS(Global Positioning System)モジュールを含む。GPSモジュールは、携帯機器10の位置(例えば緯度や経度)を検出するセンサである。また、位置センサ21は、無線LAN基地局との通信結果に基づいて、携帯機器10の位置を検出するセンサを含んでいてもよい。
The
生体センサ22は、携帯機器10の本体部11の一部(ユーザの手が触れやすい部分)に設けられ、携帯機器10を保持するユーザの状態を取得するセンサである。生体センサ22は、一例として、ユーザの体温、血圧、脈拍および発汗量等を取得する。このような生体センサ22としては、一例として、特開2001−276012号公報(米国特許6,526,315号)に開示されているような、発光ダイオードからユーザに向けて光を照射し、この光に応じてユーザから反射した光を受光することにより、脈拍を検出するセンサや、特開2007−215749号公報(米国公開2007−191718号)に開示されているような腕時計型の生体センサを採用することができる。
The
また、生体センサ22としては、ユーザが携帯機器10を保持している力に関する情報(例えば握力)を取得するセンサ(圧力センサ)を有しているものとする。このような圧力センサは、ユーザが携帯機器10を保持したことや、携帯機器10を保持する力の大きさを検出することができる。なお、後述する制御部60は、圧力センサによりユーザが携帯機器10を保持したことを検出した段階で、他の生体センサによる情報の取得を開始するようにしてもよい。また、制御部60は、電源がオンとなっている状態において、圧力センサによりユーザが携帯機器10を保持したことを検出した段階で、その他の機能をオンにする(あるいはスリープ状態から復帰する)ような制御を行うこととしてもよい。また、生体センサ22として発汗センサや心拍数を検出する心拍センサを設けてもよい。
The
姿勢センサ23は、携帯機器10の内部に設けられ、携帯機器10の姿勢を検出することにより、後述する撮像部30の姿勢を検出するものである。姿勢センサ23としては、フォトインタラプタの赤外光を、重力によって移動する小球が遮断するか否かにより一軸方向の姿勢を検出するセンサを複数組み合わせた構成を採用することができる。ただし、これに限らず、姿勢センサ23としては、3軸加速度センサやジャイロセンサなどを採用することとしてもよい。
The
温湿度計24は、携帯機器10の周囲の温度や湿度を検出する環境センサである。なお、温湿度計24に代えて、温度計及び湿度計が携帯機器10に別々に設けられてもよい。なお、温湿度計24は、生体センサ22によるユーザの体温を検出する機能と兼用される構成であってもよい。
The
電界センサ25は、人体周辺に存在する電界を検出するセンサである。人体周辺の電界は、筋肉の伸縮等で変化することから、電界センサ25で検出される電界が所定の変動を示す場合には、携帯機器10が人体付近に存在している(例えば、上着の胸ポケットやズボンのポケットで保持されている)ことがわかる。なお、電界センサ25で検出される電界が変動しない場合には、携帯機器10が人体付近にない(例えば、カバンなどに収納されていたり、机の上に置いてある)ということがわかる。なお、電界センサ25としては、電圧変化を光の強弱に置換して電気信号を検出する光学式電界センサを用いてもよく、電圧変化を磁気の強弱に置換して電気信号を検出するトライデント電界センサを用いてもよい。
The
匂いセンサ26は、金属酸化物半導体を備え、特定の臭気成分を検出することが可能なセンサであり、本実施形態では、例えば、汗のにおい(アンモニア成分)を検出することが可能なセンサであるものとする。匂いセンサ26による検出結果は、衣服のクリーニング時期の判定に用いられる。
The
加速度センサ27としては、圧電素子や歪ゲージなどを用いることができる。加速度センサ27の検出軸は、3軸方向とすることができる。角速度センサ28は、ジャイロセンサを含み、携帯機器10の角速度を検出する。ここで、本実施形態では、加速度センサ27と角速度センサ28の検出結果を用いて、ユーザが携帯機器10を上着の胸ポケット(図2(a)のA点)に入れて歩いているのか、ズボンのポケット(図2(a)のB点)に入れて歩いているのかを判別するものとする。具体的には、ユーザが歩いている場合、進行方向と鉛直方向を含む面に垂直な軸回りの角速度(図2(b)参照)は、胸ポケットで携帯機器10が保持されている場合にはほぼ0となるが(図2(c))、ズボンのポケットで保持されている場合には角速度は正負の値で振動する。このように、角速度の変化をモニタすることで、携帯機器10の保持位置を判別することができる。なお、ユーザの進行方向については、制御部60が、ユーザの歩き出し時の加速度の変化に基づいて判断するようにすればよい。
As the
なお、加速度センサ27のみを用いても、ユーザが携帯機器10を上着のポケットに入れて歩いているのか、ズボンのポケットに入れて歩いているのかを判別することができる。具体的には、図3(a)に示すように、歩き出しから所定時間経過後には、ユーザの胸ポケット部分の加速度はほぼ0になるが、ズボンのポケット部分の加速度は、図3(b)に示すように、頻繁に変動する。このように、加速度の変化をモニタすることで、携帯機器10の保持位置を判別することができる。
Even if only the
図1に戻り、明るさセンサ29は、照度計等を含み、携帯機器10がポケットの中に入っているのか、手で持たれているのかを判別するのに用いられる。
Returning to FIG. 1, the
撮像部30は、カメラを有し、ユーザからのタッチパネルを介した撮像指示や、制御部60からの撮像指示に応じて撮像を行う。なお、撮像部30は、図4に示すように、ユーザが携帯機器10を操作している状態で、顔及び胸元までの範囲(例えば、図4に示す500mm四方の範囲)を撮像できるようにディスプレイ12やタッチパネル14と同じ面に設けられ、撮像方向や画角が調整・設定されているものとする。なお、ディスプレイ12やタッチパネル14とは異なる面(例えば裏面)に撮像部30を設けて、ユーザが図4に示す状態のときにユーザのズボンを撮像するようにしてもよい。
The
服装検出部41は、撮像部30により撮像されたユーザの衣服を検出するものであり、後述のフラッシュメモリ50に記憶されている服装データと比較され、フラッシュメモリ50の服装データに記憶されていない場合は、ユーザが新しく購入した服装としてフラッシュメモリ50に記憶される。
The
フラッシュメモリ50は、不揮発性の半導体メモリである。フラッシュメモリ50は、制御部60によって実行される携帯機器10を制御するためのプログラム、および、携帯機器10を制御するための各種パラメータ、後述するデータベース(図6,図9参照)等を記憶する。
The
制御部60は、CPUを有し、携帯機器10全体を統括的に制御する。本実施形態においては、制御部60は、ユーザの服装を適切なタイミングで撮像したり、ユーザの衣服のにおいを判定したり、ユーザの衣服のクリーニング時期を予測したりする。
The control unit 60 has a CPU and controls the entire
次に、本実施形態の制御部60による処理((1)撮像処理、(2)におい判定処理、(3)クリーニング時期予測処理)について詳細に説明する。なお、各処理は、同時並行的に実行されるものとする。 Next, processing ((1) imaging processing, (2) odor determination processing, (3) cleaning time prediction processing) by the control unit 60 of the present embodiment will be described in detail. Each process is executed in parallel.
(1)撮像処理
まず、制御部60による撮像処理について、図5のフローチャートに沿って詳細に説明する。なお、図5の処理は、ユーザの服装を撮像できるタイミングで、撮像部30による撮像を行い、当該撮像結果に基づく情報を服装DB(図6)に記録する処理である。
(1) Imaging Process First, the imaging process by the control unit 60 will be described in detail along the flowchart of FIG. Note that the processing in FIG. 5 is processing in which imaging by the
図5の処理では、ステップS10において、制御部60が、前回撮像から所定時間経過するまで待機する。ここでは、所定時間として、例えば30分が設定されているものとする。ステップS10の判断が肯定された場合には、ステップS12に移行する。 In the process of FIG. 5, in step S <b> 10, the control unit 60 stands by until a predetermined time elapses from the previous imaging. Here, it is assumed that, for example, 30 minutes is set as the predetermined time. If the determination in step S10 is affirmative, the process proceeds to step S12.
ステップS12に移行すると、制御部60は、生体センサ22、姿勢センサ23の検出結果に基づいて、ユーザの服装を撮像可能か否かを判断する。より具体的には、制御部60は、生体センサ22の検出結果に基づいて、ユーザが携帯機器10を保持しているか否か、及び姿勢センサ23の検出結果に基づいて、ユーザを撮像可能な方向を向いているか否かを判断する。ステップS12の判断が肯定された場合には、ステップS14に移行するが、否定された場合には、ステップS12の判断を繰り返す。
If transfering it to step S12, the control part 60 will judge whether a user's clothes can be imaged based on the detection result of the
ステップS14に移行すると、制御部60は、撮像部30に指示を出し、ユーザの服装を撮像するとともに、カレンダ部16から日時情報を取得する。
If transfering it to step S14, the control part 60 will instruct | indicate the
次いで、ステップS16では、制御部60は、服装検出部41に対して服装IDを特定するよう指示を出す。服装検出部41は、撮像部30によって撮像された服装の画像と、過去に撮像されて服装IDが既に割り振られている服装の画像とのパターンマッチングにより、服装IDを特定する。なお、過去に既に撮像されている服装と一致しない(新しい服装である)場合には、服装検出部41は、新たな服装IDを割り当てるものとする。
Next, in step S <b> 16, the control unit 60 instructs the
次いで、ステップS18では、制御部60は、服装DB(図6(a)参照)を参照し、特定された服装IDが、前回撮像時と同じ服装IDであるか否かを判断する。なお、服装DBは、図6(a)に示すように、日時と、服装IDと、経過時間と、補正経過時間の各フィールドを有する。日時のフィールドには、画像の撮像日時が入力される。服装IDのフィールドには、ステップS16で特定された服装IDが入力される。経過時間のフィールドには、同一の服装を着用した時間が入力される。補正経過時間のフィールドには、同一の服装を着用した時間を次に撮像された画像に基づいて事後的に補正した値が入力される。 Next, in step S18, the control unit 60 refers to the clothes DB (see FIG. 6A), and determines whether or not the specified clothes ID is the same clothes ID as that at the previous imaging. Note that the clothing DB includes fields for date and time, clothing ID, elapsed time, and corrected elapsed time, as shown in FIG. In the date / time field, the date / time of image capturing is input. In the clothes ID field, the clothes ID specified in step S16 is input. In the elapsed time field, the time of wearing the same clothes is entered. In the correction elapsed time field, a value obtained by correcting the time when the same clothes are worn on the basis of the next imaged image is input.
ステップS18の判断が肯定された場合には、ステップS20に移行し、制御部60は、服装DBの経過時間を加算し、記憶する。より具体的には、例えば、図6(a)において、「2012/07/01 11:00:00」のデータまでが服装DBに格納されていた状態で、新たに「2012/07/01 14:30:00」の撮像が行われたとする。この場合には、制御部60は、経過時間3.5hを、これまでの経過時間1.0hに加算した4.5hを服装DBに記憶するようにする。なお、ステップS20の処理が行われた後は、ステップS10に戻る。 When the determination in step S18 is affirmed, the process proceeds to step S20, and the control unit 60 adds and stores the elapsed time of the clothes DB. More specifically, for example, in FIG. 6A, in the state where data up to “2012/07/01 11:00:00” is stored in the clothes DB, “2012/07/01 14 : 30: 00 "is captured. In this case, the control unit 60 stores 4.5h obtained by adding the elapsed time 3.5h to the past elapsed time 1.0h in the clothing DB. In addition, after the process of step S20 is performed, it returns to step S10.
一方、ステップS18の判断が否定された場合、すなわち、前回撮像時とは異なる服装であった場合には、ステップS22に移行し、制御部60は、過去の同じ服装IDの経過時間を読み出す。なお、図6(b)に示すように、過去に同じ服装(服装ID=B)の情報がなければ、経過時間として0.0hを読み出す。 On the other hand, if the determination in step S18 is negative, that is, if the clothes are different from those at the previous imaging, the process proceeds to step S22, and the control unit 60 reads the past elapsed time of the same clothes ID. As shown in FIG. 6B, if there is no information about the same clothes (clothes ID = B) in the past, 0.0h is read as the elapsed time.
次いで、ステップS24では、制御部60が、1つ前の服装の経過時間を補正する。この場合、制御部60は、例えば、図6(b)に示す、服装ID=Aの服装を最後に撮像した日時「2012/07/01 14:30:00」と、服装ID=Bの服装を最初に撮像した日時「2012/07/01 18:00:00」との間の時間(3.5h)は、服装ID=Aの服装を着ていたものとみなし、補正経過時間として、経過時間4.5hに3.5hを加算した8.0hを設定する。ただし、これに限らず、上述した時間3.5hのうちの半分において服装ID=Aの服装を着ていて、残り半分において服装ID=Bの服装を着ていたものと推定するなどしてもよい。なお、ステップS24の処理が行われた後は、ステップS10に戻る。 Next, in step S24, the control unit 60 corrects the elapsed time of the previous clothing. In this case, the control unit 60, for example, the date and time “2012/07/01 14:30:00” at which the clothing ID = A was last imaged and the clothing ID = B clothing shown in FIG. The time (3.5h) between the date and time when the image was first imaged “2012/07/01 18:00:00” is considered to be wearing the clothes with the clothes ID = A, and the elapsed time is corrected. Set 8.0h by adding 3.5h to time 4.5h. However, the present invention is not limited to this, and it may be estimated that the clothes having the clothes ID = A are worn in the half of the time 3.5h described above and the clothes having the clothes ID = B are worn in the other half. Good. In addition, after the process of step S24 is performed, it returns to step S10.
ステップS10に戻った後は、ステップS10〜S24の処理・判断が繰り返され、服装DBには、服装の情報が随時追加されるようになっている。 After returning to step S10, the processes and determinations of steps S10 to S24 are repeated, and clothes information is added to the clothes DB as needed.
なお、図7(a)には、日時「2012/07/02 08:00:00」において服装ID=Aの服装が撮像された場合(ステップS22,S24を経た場合)が示され、図7(b)には、日時「2012/07/02 10:00:00」において服装ID=Aの服装が撮像された場合(ステップS20を経た場合)が示されている。 FIG. 7A shows the case where the clothes with clothes ID = A are captured at the date “2012/07/02 08:00:00” (after steps S22 and S24). (B) shows a case where the clothes of clothes ID = A are imaged at the date “2012/07/02 10:00:00” (when step S20 is performed).
(2)におい判定処理
次に、制御部60による、におい判定処理について、図8のフローチャートに沿って詳細に説明する。
(2) Odor Determination Processing Next, the odor determination processing by the control unit 60 will be described in detail along the flowchart of FIG.
図8の処理では、ステップS30において、制御部60は、電界センサ25の検出値に所定の変化があり、明るさが所定値以下であるか否かを判断する。ここでの判断が肯定された場合、すなわち、携帯機器10が人体付近で保持され、かつポケットの中に入れられていると判断できる場合には、ステップS34に移行し、制御部60は、衣服近辺に携帯機器が存在していると判定し、ステップS36に移行する。なお、ステップS30の判断が否定された場合には、ステップS32に移行し、制御部60は、衣服近辺に携帯機器が存在していないと判定し、ステップS30に戻る。
In the process of FIG. 8, in step S30, the control unit 60 determines whether or not there is a predetermined change in the detection value of the
ステップS34を経て、ステップS36に移行すると、制御部60は、匂いセンサ26を用いてにおい(汗のにおいなど)を検出する。次いで、ステップS38では、制御部60は、におうか否か、すなわち、においが予め定められた許容範囲を超えているか否かを判断する。ここでの判断が否定された場合には、ステップS30に戻るが、肯定された場合には、ステップS40に移行する。
After proceeding to step S36 via step S34, the control unit 60 detects an odor (such as the smell of sweat) using the
ステップS40に移行した場合、制御部60は、角速度センサ28及び加速度センサ27を用いて、携帯機器10の保持位置(上着の胸ポケットか、ズボンのポケットか)を検出する(図2参照)。なお、ステップS40では、制御部60は、加速度センサ27を用いて、携帯機器10の保持位置を検出する(図3参照)こととしてもよい。
When the process proceeds to step S40, the control unit 60 uses the
次いで、ステップS42では、制御部60は、携帯機器10が上着の胸ポケットにて保持されているか否かを判断する。ここでの判断が肯定された場合には、ステップS44に移行し、制御部60は、「上着がにおう」と判定する。一方、ステップS42の判断が否定された場合には、ステップS46に移行し、制御部60は、「ズボンがにおう」と判定する。なお、ステップS44,S46を経た後は、ステップS48に移行する。
Next, in step S42, the control unit 60 determines whether or not the
ステップS48では、制御部60は、服装DBを参照し、服装ID及び経過時間と対応付けて、においDB(図9(a))にステップS44又はS46の判定結果を記録する。ここで、においDBは、図9(a)に示すように、におい検出日時と、服装IDと、上下判定と、着用時間の各フィールドを有する。におい検出日時のフィールドには、ステップS38が肯定された日時が入力され、服装IDのフィールドには、におい検出日時に対応する服装ID(服装DBに記録されている最新の服装ID)が入力される。また、上下判定のフィールドには、上着又はズボン(ステップS44,S46の判定結果)が入力され、着用時間のフィールドには、服装DBに記録されている最新の経過時間が入力される。 In step S48, the control unit 60 refers to the clothing DB, and records the determination result of step S44 or S46 in the odor DB (FIG. 9A) in association with the clothing ID and the elapsed time. Here, as shown in FIG. 9A, the odor DB has fields of odor detection date / time, clothing ID, up / down determination, and wearing time. In the odor detection date / time field, the date / time when step S38 was affirmed is input, and in the clothing ID field, the clothing ID corresponding to the odor detection date / time (the latest clothing ID recorded in the clothing DB) is input. The In addition, a jacket or trousers (determination result in steps S44 and S46) is input in the up / down determination field, and the latest elapsed time recorded in the clothes DB is input in the wearing time field.
次いで、ステップS50に移行すると、制御部60は、ディスプレイ12やスピーカ15を介して、クリーニング時期到来や防臭処置到来時期を報知する。この場合、制御部60は、ディスプレイ12上に、例えば「現在着用している上着のクリーニング時期が到来しました」などのメッセージを表示するなどすればよい。また、制御部60は、スピーカ15から警告音を出力するようにすればよい。また、制御部60は、ユーザに対して防臭処置(スキンケア、入浴、シャワー)を報知するようにしてもよい。
Next, when the process proceeds to step S50, the control unit 60 notifies the cleaning time and the deodorization treatment time via the
次いで、ステップS52では、制御部60は、におい発生予測時間DB(図9(b)参照)を更新する。ここで、におい発生予測時間DBは、図9(b)に示すように、服装IDと、上下判定と、予測時間のフィールドを有する。予測時間は、各服装においてにおいが発生するまでの実際の時間の平均となっている。したがって、ステップS52では、制御部60は、においDBの最新の着用時間を用いて予測時間を再計算して、におい発生予測時間DBを更新するものとする。なお、におい発生予測時間DB(図9(b)参照)は、カレンダ部16による季節情報や、温湿度計24により計測される温度・湿度に基づいて、発汗しやすい環境であれば予測時間を短くする補正値(または補正係数)を用意し、発汗しにくい環境であれば予測時間を長くする補正値(または補正係数)を用意してもよい。これに代えて、または、これに加えて、生体センサ22の発汗センサや、心拍センサの値が大きくなるに連れて予測時間を短くするような補正値(または補正係数)を用意してもよい。
Next, in step S52, the control unit 60 updates the predicted odor occurrence time DB (see FIG. 9B). Here, as shown in FIG. 9B, the odor occurrence prediction time DB includes fields of clothes ID, up / down determination, and prediction time. The predicted time is an average of the actual time until an odor occurs in each dress. Therefore, in step S52, the control unit 60 recalculates the predicted time using the latest wearing time of the odor DB, and updates the odor occurrence predicted time DB. The predicted odor generation time DB (see FIG. 9B) is based on the seasonal information by the
その後は、ステップS30に戻り、以降においては、ステップS30〜S50の処理・判断が繰り返されることになる。 Thereafter, the process returns to step S30, and thereafter, the processes and determinations of steps S30 to S50 are repeated.
なお、一度においが検出された服装において、においが検出されなくなった場合には、クリーニングや防臭処置が行われたと考えられる。このような場合には、制御部60は、服装DBから当該服装のデータを削除(経過時間をリセット)するようにしてもよい。また、においが検出されず、服装DBの経過時間が長時間となる場合もある。このような場合には、経過時間が所定の閾値を超えた段階で、服装DBから当該服装のデータを削除(経過時間をリセット)するようにしてもよい。 It should be noted that if the odor is no longer detected in the clothes once the odor has been detected, it is considered that cleaning or deodorizing treatment has been performed. In such a case, the control unit 60 may delete the clothing data from the clothing DB (reset the elapsed time). Further, there are cases where the smell is not detected and the elapsed time of the clothes DB becomes long. In such a case, the clothing data may be deleted from the clothing DB (elapsed time is reset) when the elapsed time exceeds a predetermined threshold.
(3)クリーニング時期予測処理
次に、制御部60によるクリーニング時期予測処理について、図10に基づいて説明する。図10の処理は、衣服ににおいが発生する前に衣服ににおいが発生する時期を予測し、ユーザに報知する処理である。
(3) Cleaning Time Prediction Processing Next, cleaning time prediction processing by the control unit 60 will be described with reference to FIG. The process in FIG. 10 is a process for predicting the time when the odor occurs in the clothes before the odor is generated in the clothes and informing the user.
図10の処理では、ステップS60において、制御部60は、服装の撮像が行われるまで待機する。この場合、制御部60は、図5のステップS14の処理が行われた段階で、ステップS62に移行する。 In the process of FIG. 10, in step S <b> 60, the control unit 60 waits until clothing is imaged. In this case, the control unit 60 proceeds to step S62 when the process of step S14 of FIG. 5 is performed.
ステップS62に移行すると、制御部60は、服装DB(図7(b)等)を参照する。次いで、ステップS64では、制御部60は、におい発生予測時間DBを参照し、現在の服装の着用時間が予想時間を超えたか否かを判断する。ここでの判断が肯定された場合には、近い将来、においが発生する可能性が高いと判断できるので、ステップS66において、制御部60は、クリーニング時期到来を報知する。その後は、ステップS60に戻る。 If transfering it to step S62, the control part 60 will refer to clothing DB (FIG.7 (b) etc.). Next, in step S64, the control unit 60 refers to the predicted odor occurrence time DB and determines whether or not the current wearing time of the clothes has exceeded the expected time. If the determination here is affirmative, it can be determined that there is a high possibility that an odor will occur in the near future. Therefore, in step S66, the control unit 60 notifies the arrival of the cleaning time. Thereafter, the process returns to step S60.
一方、ステップS64の判断が否定された場合には、制御部60は、ステップS68に移行し、位置センサ21(例えばGPSモジュール)を用いて位置取得を行う。なお、詳細な位置(例えば、建物内における位置)を取得する場合には、GPSモジュールとともに、無線LAN基地局との通信結果を利用して位置を検出するセンサを用いて、位置取得を行うこととしてもよい。 On the other hand, if the determination in step S64 is negative, the control unit 60 proceeds to step S68 and performs position acquisition using the position sensor 21 (for example, a GPS module). In addition, when acquiring a detailed position (for example, a position in a building), the position is acquired using a sensor that detects a position using a communication result with the wireless LAN base station together with the GPS module. It is good.
次いで、ステップS70では、制御部60は、フラッシュメモリ50に格納されている地図DB(緯度や経度の情報と、建物等の情報とが関連付けられている)を参照して、ユーザの居場所を特定する。なお、建物内において位置センサを用いた位置取得ができない場合には、建物に入る直前に得られた位置情報を利用することとすればよい。 Next, in step S70, the control unit 60 refers to the map DB stored in the flash memory 50 (latitude and longitude information is associated with information such as a building) and identifies the user's whereabouts. To do. In addition, when position acquisition using a position sensor cannot be performed in a building, the position information obtained immediately before entering the building may be used.
次いで、ステップS72では、制御部60は、ユーザがにおいのつきやすい場所(例えば、居酒屋やパチンコ店、駅のスモーキングエリアなど)に存在しているか否かを判断する。ここでの判断が否定された場合には、ステップS60に戻るが、肯定された場合には、ステップS74に移行する。 Next, in step S72, the control unit 60 determines whether or not the user exists in a place where the user can easily smell (for example, a pub, a pachinko shop, a station smoking area, or the like). If the determination is negative, the process returns to step S60. If the determination is positive, the process proceeds to step S74.
ステップS74に移行した場合、制御部60は、場所を考慮して、服装の着用時間を補正する。例えば、制御部60は、ユーザがにおいのつきやすい場所にいた時間を所定数倍して、着用時間を補正するようにしてもよいし、ユーザがにおいのつきやすい場所にいた段階で、着用時間に所定数を加算する補正を行うこととしてもよい。 When the process proceeds to step S74, the control unit 60 corrects the wearing time of the clothes in consideration of the place. For example, the control unit 60 may correct the wearing time by multiplying the time at which the user was easily smelled by a predetermined number of times. It is also possible to perform correction by adding a predetermined number to.
次いで、ステップS76に移行すると、制御部60は、補正後の着用時間がにおい発生予想時間を超えたか否かを判断する。ここでの判断が否定された場合には、制御部60は、ステップS60に戻るが、肯定された場合には、ステップS66においてクリーニング時期到来をユーザに報知した後、ステップS60に戻る。なお、クリーニング時期到来に代えて衣服の防臭処置時期の到来を報知してもよい。 Next, when the process proceeds to step S76, the control unit 60 determines whether or not the corrected wearing time exceeds the expected odor occurrence time. If the determination is negative, the control unit 60 returns to step S60. If the determination is positive, the control unit 60 notifies the user of the arrival of the cleaning time in step S66, and then returns to step S60. Note that the arrival of the deodorizing treatment time of the clothes may be notified instead of the arrival of the cleaning time.
なお、ステップS60に戻った後は、ステップS60〜S76の処理・判断が繰り返される。そして、クリーニング時期が到来する度に、ユーザに対する報知が行われるようになっている。 In addition, after returning to step S60, the processes and determinations of steps S60 to S76 are repeated. And whenever a cleaning time comes, the alert | report to a user is performed.
以上、詳細に説明したように、本実施形態によると、制御部60は、ユーザの体の動きを検出する加速度センサ27、角速度センサ28の検出結果に応じて、ユーザの体のどの位置で携帯機器10が保持されているかを判別するので、携帯機器10の保持位置(例えば上着の胸ポケットやズボンのポケット)を、ユーザの動きに基づいて高精度に判別することができる。このように判別された携帯機器10の保持位置は、携帯機器10の種々の機能を実現する際に利用することができる。
As described above in detail, according to the present embodiment, the control unit 60 can be carried at any position of the user's body according to the detection results of the
また、本実施形態では、制御部60は、電界センサ25による電界の検出結果に基づいて、ユーザの体に接触又は近接していることを検出するので、ユーザが体近傍(服のポケットなど)で携帯機器10を保持しているのか、鞄の中で携帯機器10を保持しているのか等を高精度に判別することができる。
In the present embodiment, the control unit 60 detects that the user is in contact with or close to the user's body based on the detection result of the electric field by the
また、本実施形態では、制御部60は、匂いセンサ26の検出結果を取得するので、携帯機器10が保持されている位置と匂いセンサ26の検出結果を利用することで、においの発生位置を高精度に判別することができる。この場合、ユーザが携帯機器10を自主的に服装に近づけるなどする必要がないので、ユーザにとって使い勝手がよい。また、制御部60は、ディスプレイ12やスピーカ15を介して、クリーニング時期到来(防臭に関する情報)を報知するので、ユーザは適切なタイミングで衣服のクリーニングを行うことができる。また、本実施形態では、ユーザが携帯機器10を使用しているタイミングで、ユーザが着用している衣服を撮像部30が撮像するので、制御部60は、どの衣服からにおいが発生しているかを特定することができる。
In this embodiment, since the control unit 60 acquires the detection result of the
また、本実施形態では、携帯機器10が位置センサ21を備えており、制御部60は、位置センサ21の検出結果に基づいてユーザの居場所を特定し、当該居場所を考慮して衣服のクリーニング時期を報知するので、においのつきやすい場所にユーザがいる場合等を考慮した、適切なクリーニング時期の予測及び予測結果に基づく報知を行うことができる。
In the present embodiment, the
また、本実施形態では、制御部60は、携帯機器10近傍の明るさを検出する明るさセンサ29の検出結果に応じてユーザの体のどの位置で携帯機器10が保持されているかを判別している。この場合、ユーザが、ズボンのポケットに携帯機器10を入れて歩行している場合と、手に持って歩行している場合とでは、角速度センサ28や加速度センサ27の検出結果の波形(図2,図3参照)は近似するものと考えられる。したがって、明るさセンサを用いることで、ユーザが、ズボンのポケットに携帯機器10を入れて歩行しているのか、手に持って歩行しているのかを、精度よく判別することができる。
In the present embodiment, the control unit 60 determines in which position of the user's body the
なお、上記実施形態では、携帯機器10がユーザの体に接触した状態又は近傍で保持されているか否かを、電界センサ25の検出結果に基づいて判定する場合について説明したが、これに限られるものではない。例えば、図11に示すように、靴用モジュール100を靴の中に仕込んでおき、当該靴用モジュール100と携帯機器10との人体通信が成立しているか否かに基づいて、携帯機器10がユーザの体に接触した状態又は近傍で保持されているか否かを判定するようにしてもよい。なお、携帯機器10には、電極部70と受信部18を設けるものとする。また、靴用モジュール100は、電極部110、送信部112、制御部114、メモリ116を有しているものとする。
In the above-described embodiment, a case has been described in which it is determined based on the detection result of the
電極部70は、信号電極とグラウンド電極とを有し、ユーザを介して靴用モジュール100と人体通信するための電極である。なお、携帯機器10がユーザに接触している場合はもちろん、胸ポケットなどに携帯機器10が収納されている場合(すなわち、ユーザの体と携帯機器10が対向している場合)にも、人体通信は可能である。受信部18はバンドパスフィルタを有する電気回路から構成され、靴用モジュール100から送信される各種データを受信するものである。
The
電極部110は、信号電極とグラウンド電極とを有し、ユーザを介して携帯機器10と通信を行うための電極である。この電極部110は、靴のうち、ユーザの足に触れやすい位置に設けられている。なお、電極部110を用いた人体通信は、ユーザの足と電極部110が接触している場合はもちろん、ユーザが靴下を履いている場合(すなわち、ユーザの足と電極部110が対向している場合)であっても、実現可能である。送信部112は、バンドパスフィルタを有した電気回路から構成され、メモリ116に記憶されているデータを、電極部110や人体を介して携帯機器10に送信するものである。制御部114は、携帯機器10へのデータ送信を制御する。メモリ116は、靴用モジュール100の個体番号等を記憶している。この場合、制御部114は、電極部110を介した携帯機器10との人体通信が可能な場合に、送信部112を制御して、メモリ116に記憶されている個体番号を携帯機器10に対して送信する。
The
なお、制御部60は、靴用モジュール100との人体通信の結果と、電界センサの検出結果をと併用して、携帯機器10が人体に接触している又は近接しているか否かを判別してもよい。
The control unit 60 uses the result of the human body communication with the
なお、図11のような靴用モジュール100に代えて、時計に装着可能な時計用モジュールやアクセサリ(ネックレスなど)に装着可能なアクセサリ用モジュール(いずれも靴用モジュール100と同様の構成を有するものとする)など、ユーザが身につけるものに装着可能な人体通信用モジュールを用いることとしてもよい。
In place of the
なお、上記実施形態では、制御部60は、生体センサ22や姿勢センサ23の検出結果に基づいて、ユーザが携帯機器10を操作しているか否かを判断し、当該判断結果に基づいてユーザの服装の撮影が可能か否かを判断する(S12)場合について説明した。しかしながら、これに限られるものではなく、制御部60は、ユーザが例えばWebブラウザを利用している場合、電話帳検索をしている場合、メール文書を作成している場合などにおいて、ユーザの服装の撮影が可能と判断することとしてもよい。なお、図5のように制御部60が撮像タイミングを判断し自動的に服装の撮像を行う場合に限らず、ユーザが自らの操作で意図的に服装を撮像することとしてもよい。
In the above embodiment, the control unit 60 determines whether the user is operating the
なお、上記実施形態では、図8のステップS38において、制御部60は、におうかにおわないかを判断することとしたが、これに限られるものではない。例えば、制御部60は、においのレベルを「におわない」、「少しにおう」、「におう」、「非常ににおう」というように段階的に設定し、「におう」や「非常ににおう」のときにクリーニング時期到来を報知するようにしてもよい。 In the above embodiment, the control unit 60 determines whether or not it is unpleasant in step S38 of FIG. 8, but the present invention is not limited to this. For example, the control unit 60 sets the odor level step by step such as “not smelling”, “smelling slightly”, “smelling”, “very smelling”, “smelling”, “very smelling”. You may make it alert | report the cleaning time arrival at the time of "a smell".
なお、上記実施形態では、制御部60は、図10のステップS70において、フラッシュメモリ50に格納されている地図DBを参照する場合について説明したが、これに限られるものではなく、インターネット上の情報を参照することとしてもよい。
In the above embodiment, the case where the control unit 60 refers to the map DB stored in the
なお、上記実施形態では、センサ部20に含まれるセンサが全て本体部11に搭載されている場合について説明したが、これに限らず、少なくとも1つのセンサが、入出力インタフェース等を介して本体部に着脱可能に接続され、本体部近傍に存在していてもよい。
In the above embodiment, the case where all the sensors included in the
なお、上記実施形態では、図5、図8、図10の処理が同時並行的に実行される場合について説明したが、これに限られるものではない。例えば、図5と図8の処理のみを行うこととしてもよい。また、画像を取得せずに、においに関する処理のみを行うこととしてもよい。 In the above embodiment, the case where the processes of FIGS. 5, 8, and 10 are executed in parallel has been described. However, the present invention is not limited to this. For example, only the processing in FIGS. 5 and 8 may be performed. Moreover, it is good also as performing only the process regarding an odor, without acquiring an image.
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.
10 携帯機器
11 本体部
12 ディスプレイ
15 スピーカ
21 位置センサ
25 電界センサ
26 匂いセンサ
27 加速度センサ
28 角速度センサ
29 明るさセンサ
30 撮像部
60 制御部
70 電極部
100 靴用モジュール
DESCRIPTION OF
Claims (11)
前記本体部内又は近傍においてユーザの体の動きを検出する第1センサの検出結果を入力する入力部と、
前記入力部が入力した前記第1センサの検出結果に応じて、前記ユーザの体のどの位置で前記本体部が保持されているかを判別する第1判別部と、を備えたことを特徴とする電子機器。 The main body,
An input unit for inputting a detection result of a first sensor that detects a movement of a user's body in or near the main body;
A first determination unit configured to determine at which position of the user's body the body is held according to a detection result of the first sensor input by the input unit; Electronics.
前記第1判別部は、前記第2センサの検出結果に応じて前記ユーザの体のどの位置で前記本体部が保持されているかを判別することを特徴とする請求項1に記載の電子機器。 The input unit inputs a detection result of a second sensor that detects contact or proximity to the user's body,
2. The electronic apparatus according to claim 1, wherein the first determination unit determines at which position of the user's body the body is held according to a detection result of the second sensor.
前記第3センサの検出結果と前記第1判別部の判別結果とに応じて、前記においの発生位置を判別する第2判別部を備えたことを特徴とする請求項1又は2に記載の電子機器。 The input unit inputs a detection result of a third sensor that detects an odor in the vicinity of the main body,
3. The electronic device according to claim 1, further comprising a second determination unit configured to determine the odor generation position based on a detection result of the third sensor and a determination result of the first determination unit. machine.
前記報知部は、前記位置センサの検出結果に応じて、前記衣服のクリーニング時期を報知することを特徴とする請求項6に記載の電子機器。 A position sensor for detecting the position of the main body,
The electronic device according to claim 6, wherein the notification unit notifies a cleaning time of the clothes according to a detection result of the position sensor.
前記第1判別部は、前記第4センサの検出結果に応じて前記ユーザの体のどの位置で前記本体部が保持されているかを判別することを特徴とする請求項1〜10のいずれか一項に記載の電子機器。
The input unit inputs a detection result of a fourth sensor that detects brightness in the vicinity of the main body,
The said 1st discrimination | determination part discriminate | determines from which position of the said user's body the said main-body part is hold | maintained according to the detection result of the said 4th sensor. The electronic device as described in the paragraph.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012131183A JP2013255192A (en) | 2012-06-08 | 2012-06-08 | Electronic apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012131183A JP2013255192A (en) | 2012-06-08 | 2012-06-08 | Electronic apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013255192A true JP2013255192A (en) | 2013-12-19 |
Family
ID=49952341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012131183A Pending JP2013255192A (en) | 2012-06-08 | 2012-06-08 | Electronic apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013255192A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015164253A (en) * | 2014-02-28 | 2015-09-10 | シャープ株式会社 | Communication terminal and control method |
US10375226B2 (en) | 2014-08-27 | 2019-08-06 | Kyocera Corporation | Mobile electronic device and control method |
US10582039B2 (en) | 2014-08-27 | 2020-03-03 | Kyocera Corporation | Mobile electronic device and control method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003345476A (en) * | 2002-04-17 | 2003-12-05 | Microsoft Corp | Improved system and method for reducing power consumption of network type battery-driven device using sensor |
JP2007014068A (en) * | 2005-06-29 | 2007-01-18 | Casio Hitachi Mobile Communications Co Ltd | Fuel cell built-in type portable terminal device and program |
JP2007189310A (en) * | 2006-01-11 | 2007-07-26 | Nippon Telegr & Teleph Corp <Ntt> | Mobile storage device and mobile storage system |
WO2010007765A1 (en) * | 2008-07-15 | 2010-01-21 | パナソニック株式会社 | Mobile terminal and method for identifying position of the mobile terminal |
JP2012099908A (en) * | 2010-10-29 | 2012-05-24 | Toshiba Corp | Portable terminal with data protection function, data protection method for the same portable terminal, and program therefor |
-
2012
- 2012-06-08 JP JP2012131183A patent/JP2013255192A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003345476A (en) * | 2002-04-17 | 2003-12-05 | Microsoft Corp | Improved system and method for reducing power consumption of network type battery-driven device using sensor |
JP2007014068A (en) * | 2005-06-29 | 2007-01-18 | Casio Hitachi Mobile Communications Co Ltd | Fuel cell built-in type portable terminal device and program |
JP2007189310A (en) * | 2006-01-11 | 2007-07-26 | Nippon Telegr & Teleph Corp <Ntt> | Mobile storage device and mobile storage system |
WO2010007765A1 (en) * | 2008-07-15 | 2010-01-21 | パナソニック株式会社 | Mobile terminal and method for identifying position of the mobile terminal |
JP2012099908A (en) * | 2010-10-29 | 2012-05-24 | Toshiba Corp | Portable terminal with data protection function, data protection method for the same portable terminal, and program therefor |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015164253A (en) * | 2014-02-28 | 2015-09-10 | シャープ株式会社 | Communication terminal and control method |
US10375226B2 (en) | 2014-08-27 | 2019-08-06 | Kyocera Corporation | Mobile electronic device and control method |
US10582039B2 (en) | 2014-08-27 | 2020-03-03 | Kyocera Corporation | Mobile electronic device and control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10001386B2 (en) | Automatic track selection for calibration of pedometer devices | |
JP6629860B2 (en) | First aid kit wearable device | |
US20220291820A1 (en) | Sedentary Notification Management System for Portable Biometric Devices | |
KR101861608B1 (en) | Apparel and location information system | |
US20170227375A1 (en) | Calibration of a primary pedometer device using a secondary pedometer device | |
CN107223247A (en) | Method, system and wearable device for obtaining multiple health parameters | |
US11759127B2 (en) | Authentication device, authentication system, authentication method, and non-transitory storage medium storing program | |
JP5670071B2 (en) | Mobile device | |
JP6365031B2 (en) | Activity amount measuring device, activity amount measuring method, activity amount measuring program | |
WO2013179883A1 (en) | Electronic apparatus and garment | |
JP2016154578A (en) | Electronic apparatus | |
JP2013255192A (en) | Electronic apparatus | |
JP2016054788A (en) | Action information measurement device, game control program, and action information measurement program | |
JP6642515B2 (en) | Electronic device, selection control system, selection method, and program | |
JP6229830B2 (en) | Exercise support device, exercise support method, and exercise support program | |
JP2008276581A (en) | Pedometer and step count management system | |
JP5757982B2 (en) | Activity support device, portable terminal, and activity support system | |
Rakhecha | Reliable and secure body fall detection algorithm in a wireless mesh network | |
EP3308705A1 (en) | Body composition measuring device | |
JP6398743B2 (en) | Exercise information measuring device, exercise information measuring device control method, exercise information measuring device control program | |
JP2016183895A (en) | Route guide device | |
US10327696B2 (en) | Action notification system, exercise information measurement apparatus, electronic device, action notification method, and action notification program | |
JP2017221350A (en) | Support information provision device, support information provision system, support information provision method, and support information provision program | |
JP6790456B2 (en) | Biometric device and biometric method | |
JP2020160506A (en) | Measurement promotion device, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150420 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151222 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160531 |