JP2013153329A - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP2013153329A
JP2013153329A JP2012013157A JP2012013157A JP2013153329A JP 2013153329 A JP2013153329 A JP 2013153329A JP 2012013157 A JP2012013157 A JP 2012013157A JP 2012013157 A JP2012013157 A JP 2012013157A JP 2013153329 A JP2013153329 A JP 2013153329A
Authority
JP
Japan
Prior art keywords
imaging unit
user
unit
image
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012013157A
Other languages
English (en)
Inventor
Yukio Kubota
幸雄 久保田
Satoshi Ejima
聡 江島
Takeo Motohashi
武男 本橋
Mitsuko Matsumura
光子 松村
Hiroki Ono
広起 小野
Masaichi Sekiguchi
政一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012013157A priority Critical patent/JP2013153329A/ja
Publication of JP2013153329A publication Critical patent/JP2013153329A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Cameras In General (AREA)

Abstract

【課題】使い勝手のよい電子機器を提供する。
【解決手段】電子機器は、ユーザと対向可能な第1面側に設けられ、前記ユーザによる操作に用いられる操作部と、前記ユーザと対向可能に前記操作部の近傍に設けられ、撮像を行う第1撮像部と、前記ユーザと対向可能に前記第1撮像部とは異なる位置に設けられ、撮像を行う第2撮像部と、を備えている。
【選択図】図2

Description

本発明は、電子機器に関する。
従来より、人生の行いを記録に残すライフログシステムが提案されている。ライフログシステムにおいては、ユーザの動きや状態を利用して、行動の候補を提示するシステムが提案されている(例えば、特許文献1参照)。
特開2010-146221号公報
しかしながら、従来のライフログシステムではユーザの煩雑さの軽減が十分に図られておらず、使い勝手がよいものではなかった。
本発明は上記の課題に鑑みてなされたものであり、使い勝手のよい電子機器を提供することを目的とする。
本発明の電子機器は、ユーザと対向可能な第1面側に設けられ、前記ユーザによる操作に用いられる操作部(14)と、前記ユーザと対向可能に前記操作部の近傍に設けられ、撮像を行う第1撮像部(16a)と、前記ユーザと対向可能に前記第1撮像部とは異なる位置に設けられ、撮像を行う第2撮像部(16b)と、を備えている。
この場合において、前記第1撮像部と前記第2撮像部とは、画角が異なっていてもよい。また、前記第1撮像部と前記第2撮像部との一方が撮像した顔に関する第1画像と、前記第1撮像部と前記第2撮像部との他方が撮像した前記第1画像とは異なる第2画像と、を記憶する画像記憶装置(40、34)を備えていてもよい。この場合、前記第1画像を撮像する前記第1撮像部及び前記第2撮像部の一方の画角は、前記第1撮像部及び前記第2撮像部の他方の画角よりも狭いこととしてもよい。また、前記画像記録装置は、前記操作部が操作されている間に、前記第1画像と、前記第2画像とを記憶することとしてもよい。
本発明の電子機器は、生体情報を検出する生体センサ(22)を備えていてもよい。この場合において、前記生体センサの少なくとも一部は、前記第1撮像部と前記第2撮像部との間に配置されていてもよい。また、前記生体センサが検出した前記生体情報を記憶する生体情報記憶装置(34)を備えていてもよい。この場合、前記生体情報記録装置は、前記操作部が操作されている間に、前記生体情報を記憶することとしてもよい。
本発明の電子機器は、音声を集音する音声集音部(20)と、音声を出力する音声出力部(18)と、を備え、前記第1撮像部及び前記第2撮像部の一方は、前記音声集音部近傍に配置され、前記第1撮像部及び前記第2撮像部の他方は、前記音声出力部近傍に配置されていてもよい。また、前記操作部の少なくとも一部は、前記第1撮像部と前記第2撮像部との間に配置されていてもよい。
また、本発明の電子機器は、前記第1撮像部が撮像した画像と、前記第2撮像部が撮像した画像とを合成する画像合成部(38a)を備えていてもよい。また、本発明の電子機器は、前記電子機器に作用する物理量を検出する物理量センサ(22、26)と、前記物理量センサの検出結果に基づいて、前記第1撮像部と前記第2撮像部とによる撮像を行うかどうかを制御する制御部(40)と、を備えていてもよい。また、本発明の電子機器は、前記第1撮像部と、前記第2撮像部との撮像に基づいて、服装に関するデータを記憶する記憶装置(34)を備えていてもよい。
なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。
本発明によれば、使い勝手のよい電子機器を実現することができる。
一実施形態に係る携帯端末の構成を示す図である。 一実施形態に係る携帯端末のブロック図である。 ジャンル判定処理を示すフローチャートである。 図4(a)は、ユーザ情報DBを示す図であり、図4(b)は、ジャンル判定画像DBを示す図であり、図4(c)は、ジャンルリストを示す図である。 図5(a)は、第1内蔵カメラを用いて撮像される画像の一例を示す図であり、図5(b)は、第2内蔵カメラを用いて撮像される画像の一例を示す図であり、図5(c)は、図5(a)と図5(b)の合成画像の一例を示す図である。 計画作成/表示処理を示すフローチャートである。 図7(a)は、店舗リストの一例を示す図であり、図7(b)は、現在位置と店舗の位置関係とを示す図である。 図8(a)は、計画リストを示す図であり、図8(b)は、未追加店舗リストを示す図である。 計画リスト更新処理を示すフローチャートである。 図10(a)、図10(b)は、計画リストの更新例を示す図であり、図10(c)は、未追加店舗リストの更新例を示す図である。 ユーザ感情DBを示す図である。
以下、一実施形態に係る携帯端末100について、図1〜図11に基づいて、詳細に説明する。図1には、一実施形態に係る携帯端末100が示されている。携帯端末100は、スマートフォン、携帯電話機、PHSなどの端末であり、図1に示すように、ディスプレイ12、タッチパネル14、第1内蔵カメラ16a、第2内蔵カメラ16b、スピーカ18、マイク20、生体センサ22を備えている。また、携帯端末100は、図2のブロック図に示すように、GPSモジュール24、加速度センサ26、温度計28、湿度計30、カレンダ部32、内蔵メモリ34、画像処理部36、CPU40、及び通信部42を備えている。
ディスプレイ12は、液晶ディスプレイや有機ELディスプレイ等であり、CPU40の制御の下、画像データや文字データなどのデータを表示したり、ユーザが操作を行うためのメニュー表示をしたりする。
タッチパネル14は、ユーザが操作する操作部であり、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式のいずれの方式タッチパネルを採用してもよい。
第1内蔵カメラ16aは、携帯端末100のタッチパネル14(ディスプレイ12)が設けられている面と同一の面の、タッチパネル14(ディスプレイ12)の近傍(図1の上側近傍)に設けられている。また、第2内蔵カメラ16bは、第1内蔵カメラ16aが設けられている面と同一の面の、タッチパネル14(ディスプレイ12)の近傍(図1の下側近傍)に設けられている。第1、第2内蔵カメラ16a,16bは、撮影レンズ、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、及び撮像素子を制御する制御回路などを有する。上述のように、第1内蔵カメラ16aと第2内蔵カメラ16bとを携帯端末100の操作面に設けるとともに、ユーザが携帯端末100を操作しているときに第1内蔵カメラ16aと第2内蔵カメラ16bとを用いて撮像するようにすれば、ユーザを撮像することができるとともに、他の人を撮像する(例えば盗撮)行為を防ぐことができる。
本実施形態では、第1内蔵カメラ16aの焦点距離は、例えば、35mm版カメラに換算して28mm相当であり、第2内蔵カメラ16bの焦点距離は、例えば、35mm版カメラに換算して20mm相当であるものとする。すなわち、第1、第2内蔵カメラ16a,16bの画角は異なっている。より具体的には、第2内蔵カメラ16bの画角は、第1内蔵カメラ16aの画角よりも広くなっている。また、本実施形態においては、第1内蔵カメラ16aと第2内蔵カメラ16bとは、X座標の位置が同じでY座標の位置が異なるように設けられている(図1参照)。このため、第1内蔵カメラ16aと第2内蔵カメラ16bとのY軸方向の距離を機械定数として内蔵メモリ34に記憶させることにより後述する画像の合成を行うことができる。
スピーカ18は、携帯端末100のタッチパネル14(ディスプレイ12)が設けられている面と同一の面の、第1内蔵カメラ16a近傍に設けられ、音声や音を出力する。
マイク20は、携帯端末100のタッチパネル14(ディスプレイ12)が設けられている面と同一の面の、第2内蔵カメラ16b近傍に設けられ、音声や音を取得して、CPU40に入力する。
生体センサ22は、図1に示すように、携帯端末100のタッチパネル14(ディスプレイ12)が設けられている面と反対側の面の、ユーザの手に触れやすい位置(第1内蔵カメラ16aと第2内蔵カメラ16bとの間)に設けられるセンサであり、携帯端末100を操作しているユーザの生体情報を検出するものである。生体センサ22としては、例えば、LEDにより生体に向けて照射光を照射し、この照射光に対して生体から反射した光を受光することにより、脈拍を検出する脈拍センサを含む。なお、脈拍センサについては、例えば、特開2006-80946号に開示されている。なお、生体センサ22としては、脈拍センサ以外に、複数の電極を配した発汗センサを採用することもできる。発汗センサを用いれば、ユーザの発汗量を検出することができる。更には、生体センサ22としては、体温を測る温度センサや、血圧を測る血圧センサを採用することもできる。なお、生体センサ22は、携帯端末100に設けるタイプのセンサに限らず、特開2005−270543号に開示されているような腕時計型の生体センサを採用することとしてもよい。
GPSモジュール24は、携帯端末100の位置(すなわち、ユーザの位置)を検出する位置検出装置である。GPSモジュール24により検出される位置情報(ユーザの現在位置情報)は、CPU40に入力される。
加速度センサ26は、圧電素子や歪ゲージなどを用いることができ、本実施形態ではユーザの足の動き(歩行動作)に関連した加速度を検出するものである。加速度センサ26の軸数としては1〜3軸のいずれかを適宜選択すればよく、その数も任意に設定することができる。また、加速度センサ26に代えて、もしくは加速度センサ26と併用してジャイロセンサを用いて角速度を検出し、この角速度からユーザの足の動き(歩行速度)を検出するようにしてもよい。
温度計28は、携帯端末100周辺の気温を検出するためのものである。湿度計30は、携帯端末100周辺の気温を検出するためのものである。
カレンダ部32は、年、月、日、時、分、秒といったカレンダ情報を取得するとともに、時間を計時する機能を有している。内蔵メモリ34は、種々のデータを格納するメモリである。なお、内蔵メモリ34に格納されるデータの詳細については後述する。
画像処理部36は、画像合成部38aと、顔認識部38bと、表情検出部38cと、服装検出部38dとを有する。
画像合成部38aは、第1内蔵カメラ16aで撮像された画像と、第2内蔵カメラ16bで撮像された画像を合成する。例えば、携帯端末100を操作しているユーザの顔付近を第1内蔵カメラ16aで撮像し、ユーザの首から下側を第2内蔵カメラ16bで撮像した場合には、画像合成部38aは、各画像を合成して、ユーザの全身画像等を生成する。
顔認識部38bは、画像合成部38aで合成された画像から、ユーザの顔を認識する。顔認識部38bは、携帯端末100を利用する可能性のある人の顔画像(予め登録されているものとする)を用いたテンプレートマッチングにより、ユーザが誰であるかを識別する。
表情検出部38cは、第1内蔵カメラ16aで撮像された画像又は画像合成部38aで合成された画像からユーザの表情を検出するものであり、眉間に皺がある表情や、笑顔ではなく目を細めている表情を検出し、ユーザが困惑しているかどうかを判別する。ここで、表情検出部38cは、眉間に皺のある画像をリファレンス画像として内蔵メモリ34に記憶させておき、当該リファレンス画像と撮像画像とのパターンマッチングを行うことで、眉間の皺を検出することができる。また、表情検出部38cは、左目と右目との間の部分の陰影分布から、眉間の皺を検出することとしてもよい。なお、眉間の皺の検出については、米国特許出願公開第2008−292148号にも開示されている。
また、表情検出部38cは、第1内蔵カメラ16aにより撮像される平均的な目の大きさを内蔵メモリ34に記憶させておき、この記憶されている目の大きさに対して撮像された目の大きさを比較することにより、目を細めている表情を検出することができる。なお、特開2002−258682号公報に記載されているように、ユーザの動画像中における顔構成要素の特徴点座標変化から顔面筋の収縮量を検出して、ユーザが困惑しているかどうかを判別してもよい。
服装検出部38dは、画像合成部38aで合成された画像に基づいて、ユーザの服装のジャンル判定や身なり判定を行う。なお、服装検出部38dの具体的な処理については、後述する。
CPU40は、携帯端末100を統括的に制御するものであり、本実施形態においては、携帯端末100による各種機能(通話機能やインターネット機能、メール機能、楽曲や動画の再生機能など)を実行するほか、ユーザのショッピングを支援する機能についても実行する。
通信部42は、電話回線に接続する接続ユニット、インターネットに接続するための接続ユニット、WiFi通信でアクセスポイントへアクセスするための無線LANユニット、等を有している。CPU40は、通信部42を介して外部装置(外部情報源)との通信を行うことで、種々の情報を取得する。
次に、本実施形態における処理について説明する。本実施形態では、携帯端末100が、ユーザのショッピングを支援する処理を行う。ユーザのショッピングを支援する処理には、ジャンル判定処理(図3)、計画作成/表示処理(図6)、計画更新処理(図9)、の各処理が含まれる。以下、各処理について説明する。
<ジャンル判定処理>
本処理は、ユーザが携帯端末100を使用しているときに、バックグラウンドで実行される処理である。この処理は、ユーザの曜日毎の服装のジャンルを判定し、ジャンル情報の保存を行う処理であり、図3のフローチャートに沿って実行される。なお、図3の処理は、少なくとも1日1回ジャンル情報の保存が行われるまで、所定時間毎に繰返し実行されるものとする。
図3の処理では、まず、ステップS10において、CPU40が、ユーザによりタッチパネル14が操作されているか否かを判断する。ここでの判断が否定されている間は、CPU40は、ステップS10を繰り返すが、判断が肯定された場合には、ステップS11に移行する。なお、ステップS10の判断が否定された場合には、図3の全処理を終了するようにしてもよい。
ステップS11に移行すると、CPU40は、第1内蔵カメラ16aを用いて、ユーザの顔の画像(図5(a)参照)を撮像する。次いで、ステップS12では、CPU40が、第2内蔵カメラ16bを用いて、ユーザの服装の画像(図5(b)参照)を撮像する。この場合、第2内蔵カメラ16bの画角によっては、ユーザの顔を除く全身画像(靴やバッグなども含む)を撮像することができる。
次いで、ステップS14では、CPU40は、画像合成部38aを用いてステップS11とステップS12で撮像された画像を合成して、1枚の画像(図5(c)参照)を取得する。この場合、第1内蔵カメラ16aと、第2内蔵カメラ16bの取り付け位置の違いや、それぞれのカメラの焦点距離などのデータを内部メモリ34に記憶しておき、これらのデータに基づいて画像を合成すればよい。また、第1内蔵カメラ16aと、第2内蔵カメラ16bのそれぞれが撮像した画像のパターンマッチングを行い、共通の画像(例えば、洋服の襟の形状)パターンを検出して画像合成したり、それぞれの方法を組合せて画像合成してもよい。なお、以下においては、図5(c)の画像を合成画像と呼ぶものとする。
次いで、ステップS16では、CPU40は、顔認識部38bを用いて、ステップS14で取得された合成画像から、ユーザが誰であるかを認識する。この場合、顔認識部38bは、合成画像と、内蔵メモリ34に格納されているユーザ情報DB50(図4(a))の顔画像データとの比較(テンプレートマッチング)により、ユーザを認識する。なお、ユーザ情報DB50には、ユーザ名と、当該ユーザの顔画像と、自宅位置とが格納されている。このユーザ情報DB50は、ユーザの入力に基づいて、事前に作成されているものとする。なお、本ステップS16では、合成画像を用いずに、ステップS11において撮像された顔画像を用いることとしてもよい。
次いで、ステップS18では、CPU40は、GPSモジュール24を用いてユーザの現在位置を取得する。
次いで、ステップS20では、CPU40は、ステップS18で取得されたユーザの現在位置が、ユーザ情報DB50に格納されている自宅位置と一致しているか否かを判断する。ここでの判断が肯定された場合、すなわち、ユーザが自宅にいる場合には、図3の全処理を終了する。なお、本実施形態では、ユーザが自宅にいる場合、部屋着等の楽な服装をしていることが多いため、服装のジャンル判定処理を行わないこととしている。一方、ステップS20の判断が否定された場合、すなわちユーザが外出していると判断された場合には、ステップS22に移行する。
ステップS22では、CPU40は、服装検出部38dを用いて、ステップS14で取得した画像に基づくユーザの服装のジャンル判定を行う。この場合、服装検出部38dは、内蔵メモリ34に格納されているジャンル判定画像DB52(図4(b))を用いて、ジャンル判定を行うものとする。なお、図4(b)のジャンル判定画像DB52には、ジャンル名(例えばガーリー、コンサバ、ナチュラル等の服装の傾向を一言で表すことのできるキーワード)と、当該ジャンルの代表的な多数の画像と、が格納されているものとする。したがって、服装検出部38dは、ステップS14で取得した画像と、ジャンル判定画像DB52に格納されている各画像とのテンプレートマッチングにより、服装のジャンルを総合的に判定する。なお、服装検出部38dは、ジャンル判定画像DB52を用いた判定に代えて、各ジャンルにおける服の形(服全体の形や襟などの部分的な形)や色、光沢感などを定義したデータベースに基づいた判定を行うこととしてもよい。
次いで、ステップS24では、CPU40は、ステップS22の判定結果であるジャンルのデータを、内蔵メモリ34に格納されているジャンルリスト54(図4(c)参照)に保存する。この場合、CPU40は、カレンダ部32から現在の曜日や時刻を取得し、当該曜日に対応するジャンル名の欄への入力を行う。また、曜日や日時に加えて、GPSモジュール24により取得位置を記憶するようにしてもよい。なお、現在の曜日に対応するジャンル名の欄に既にジャンル名が入力されている場合には、新たなジャンル名で上書きするようにする。なお、これに限らず、1つの曜日のジャンル名の欄に複数のジャンルを入力するようにしてもよい。また、ユーザの携帯機器100の操作時間が短かったり、ユーザが歩きながら携帯機器100を操作していて、ユーザの服装のジャンル判定をできないときは、同じ日に何度が撮像して、複数回の撮像結果からジャンル判定を行ってもよい。この場合、CPU40は、最終的にユーザのジャンル判定を行った日時と場所とをジャンルリスト54に記憶するようにしてもよい。また、CPU40は、加速度センサ26や、ジャイロセンサの出力からユーザの服装の判定が難しいと判断される場合には、第1内蔵カメラ16aと、第2内蔵カメラ16bとによる撮像をやめるようにしてもよい。
以上の処理を、1週間以上行うことで、図4(c)に示すようなジャンルリスト54が生成される。なお、ジャンルリスト54が生成された後に、第1内蔵カメラ16aと、第2内蔵カメラ16bとにより撮像された画像データは、削除してもよい。
<計画作成/表示処理>
次に、CPU40による、計画作成/表示処理について図6のフローチャートを用いて説明する。本処理は、ユーザが、タッチパネル14を用いて、ショッピング計画の作成を携帯端末100に対して指示したタイミングで実行される処理である。
まず、ステップS30では、CPU40が、ディスプレイ12上にユーザの情報(年齢、性別情報など)や、ショッピングの終了時刻などを入力するための情報入力画面を表示する。
次いで、ステップS32では、CPU40が、ユーザによるタッチパネル14の操作により、情報入力画面に対する入力が行われるまで待機する。そして、情報入力画面に対する入力がなされると、ステップS34に移行する。
ステップS34では、CPU40が、ユーザによって入力された情報を取得し、内蔵メモリ34に保存する。
次いで、ステップS36では、CPU40が、ジャンルリスト54から、対象ジャンルを選択する。具体的には、CPU40は、ジャンルリスト54に登録されている服装のジャンルの中から、登録数の多い所定数(例えば2つ)のジャンルを対象ジャンルとして選択する。図4(c)の場合、コンサバとナチュラルが選択されることになる。なお、対象ジャンルの選択方法としては、上記の方法に限らず、例えば、平日において登録数の多いジャンルを所定数選択し、さらに土日のジャンルの少なくとも1つを選択することとしてもよい。なお、CPU40は、ジャンルリスト54に登録されている全てのジャンルをディスプレイ12上に表示し、その中からユーザによって選択されたジャンルを対象ジャンルとしてもよい。
次いで、ステップS38では、CPU40は、GPSモジュール24を用いて、携帯端末100(すなわち、ユーザ)の現在位置の情報を取得する。
次いで、ステップS40では、CPU40は、通信部42を用いて、外部情報源にアクセスして、以下の条件(a)〜(c)に合致する店舗情報を取得し、内蔵メモリ34内の店舗リスト56(図7(a)参照)に登録する。
(a) 現在位置から徒歩で行ける距離の店舗
(b) 扱っている商品の傾向が、対象ジャンルと一致する店舗
(c) 扱っている商品の対象が、ユーザの年齢、性別と合致する店舗
なお、(a)の条件については、現在位置から店舗までの直線距離を用いて換算した距離に基づいて判断することとしてもよい。なお、店舗リスト56には、図7(a)に示すように、店舗名、地図リンク、ホームページ、位置などの情報が登録される。本実施形態では、一例として、店舗リスト56に登録された各店舗の位置と現在位置が、図7(b)に示すような位置関係にあるものとする。
なお、これ以降の処理(ステップS42〜S48)では、図8(a)に示す計画リスト58と、図8(b)に示す未追加店舗リスト60に対する店舗の登録処理が行われる。計画リスト58には、ユーザがショッピングの際に訪れるべき店舗の店舗名、地図リンク、ホームページ、位置(緯度、経度)などの情報が登録される。また、未追加店舗リスト60には、店舗リスト56(図7(a))には含まれているが計画リスト58に登録されなかった店舗の店舗名、地図リンク、ホームページ、位置(緯度、経度)などの情報が登録される。なお、ステップS42が一度も行われていない段階では、計画リスト58及び未追加店舗リスト60は空の状態であるものとする。
ステップS42では、CPU40は、計画リスト58の末尾の店舗(計画リスト58が空であればユーザの現在の位置)から最も近い店舗を店舗リスト56から削除し、計画リスト58に登録する。本実施形態では、図7(b)に示すように、現在位置から最も近いA店が計画リスト58に登録されることになる。
次いで、ステップS44では、CPU40が、店舗リスト56が空であるか否かを判断する。ここでの判断が否定された場合には、ステップS46に移行する。
ステップS46に移行すると、CPU40が、カレンダ部32から現在時刻を取得し、以下の式(1)に基づいて、ショッピングの予想終了時刻を算出する。
予想終了時刻=現在時刻+計画リスト58の店舗数×所定時間 …(1)
なお、上式(1)の所定時間としては、例えば、10分や20分などの時間とすることができる。そして、CPU40は、上式(1)で算出されたショッピングの予想終了時刻が、ユーザによって入力された終了時刻を超えたか否かを判断する。ここでの判断が否定された場合には、ステップS42に戻る。
その後、ステップS42を繰り返すことで、計画リスト58には、現在位置から近い順に店舗が登録されることになる。そして、予想終了時刻が入力された終了時刻を超えた場合には、ステップS46の判断が肯定されて、ステップS48に移行する。
ステップS48に移行した場合には、CPU40は、店舗リスト56に残っている各店舗の情報を未追加店舗リスト60に登録し、ステップS50に移行する。なお、未追加店舗リスト60には、店舗リスト56に登録されている順で、店舗の情報を登録すればよい。
一方、ステップS42の処理を繰り返すことで、店舗リスト56が空になった場合には、ステップS44の判断が肯定されるので、ステップS48を経ることなく(未追加店舗リスト60に対する店舗の情報の登録を行わずに)、ステップS50に移行する。
ステップS50に移行した場合には、CPU40は、計画リスト58をディスプレイ12上に表示する。そして、図6の全処理を終了する。なお、図8(a)の例では、ステップS42の繰返しにより、A店、C店、F店、B店が計画リスト58に登録され、B店の登録がされた後に行われたステップS46において、予想終了時刻が終了時刻を超えたと判断されたことになる。
以上の処理により、携帯端末100のディスプレイ12には、ユーザがショッピングの際に訪れるべき店舗が、近い順に表示されることになる。このため、ユーザは、計画リスト58の各店舗の地図リンクやホームページを参照しながら、各店舗を訪れ、ショッピングをすることができる。
なお、図6のステップS42において、計画リスト58の末尾の店舗(又は現在位置)から最も近い店舗(ほぼ同一距離の店舗)が複数存在する場合もある。このような場合には、CPU40は、通信部42を用いて外部情報源から現在の天気情報(天候、気温、湿度など)を取得し、当該天気情報に合わせて、訪れやすいほうの店舗を計画リスト58に登録するようにしてもよい。例えば、雨が降っている場合には、CPU40は、なるべく濡れずに移動して訪れることのできる店舗(地下街の中にある店舗や、地下街経由で訪れることのできる店舗など)を計画リスト58に登録するようにしたり、暑い場合又は寒い場合には、空調設備のある通路(地下街など)を移動して訪れることのできる店舗を計画リスト58に登録するようにすればよい。なお、計画リスト58の末尾の店舗(又は現在位置)から最も近い店舗が複数存在する場合でなくても、天気情報を考慮して、計画リスト58に登録する順番を決定するようにしてもよい。
なお、上記においては、ユーザの現在位置を起点とした計画リスト58を作成し、表示する場合について説明したが、これに限られるものではない。例えば、ショッピングの起点となる位置と、ショッピング開始時刻及び終了時刻をユーザに入力させ、これらの入力情報に基づいて、ショッピングの計画リストを事前に作成するようにしてもよい。
<計画更新処理>
次に、図9のフローチャートに沿って、ユーザがショッピングを行っている最中に行われる計画更新処理について、説明する。この図9の処理は、ユーザのショッピング状況に応じて計画リスト58を更新するための処理であり、計画リスト58がディスプレイ12に表示された後において、ユーザからの開始指示がタッチパネル14から入力された時点で開始される処理であるものとする。
図9の処理では、まず、ステップS60において、CPU40が、GPSモジュール24を用いて、携帯端末100(ユーザ)の現在位置の情報を取得する。
次いで、ステップS62では、CPU40が、ステップS60で取得したユーザの現在位置が、計画リスト58の先頭の店舗と一致するか否かを判断する。ここでの判断が肯定された場合、すなわち、ユーザが計画リスト58の先頭の店舗にいる場合には、CPU40は、ステップS64において、計画リスト58の先頭の店舗情報を削除する。この場合、計画リスト58は、例えば、図8(a)の状態から、図10(a)の状態に変化する。なお、ステップS64の処理が終了した場合には、ステップS70に移行する。
一方、ステップS62の判断が否定された場合には、ステップS66に移行し、CPU40は、現在位置が計画リスト58の先頭の店舗付近であるか否かを判断する。ここでの判断が肯定された場合、すなわち、ユーザが計画リスト58の先頭の店舗付近にいる場合には、CPU40は、ステップS68において、ディスプレイ12に店舗付近であることを表示して、ユーザへの通知を行う。この場合、現在位置と計画リスト58の先頭の店舗の位置とを地図上に表示して通知を行うこととしてもよい。なお、CPU40は、ディスプレイ12への表示とともに、又はこれに代えて、スピーカ18を用いた音や音声による通知を行うこととしてもよい。ステップS68の処理が終了すると、ステップS70に移行する。また、ステップS66の判断が否定された場合、すなわち、ユーザが計画リスト58の先頭の店舗付近にいない場合にも、ステップS70に移行する。
ステップS70では、CPU40が、カレンダ部32から、現在時刻を取得する。
次いで、ステップS72では、CPU40が、図6のステップS34で取得したユーザの入力情報に含まれるショッピングの終了時刻を現在時刻が超えたか否かを判断する。ここでの判断が肯定された場合には、ステップS84に移行して、CPU40は、ディスプレイ12にショッピングの終了を表示して、ユーザに通知する。なお、CPU40は、ディスプレイ12への表示とともに、又はこれに代えて、スピーカ18を用いた音や音声による通知を行うこととしてもよい。ステップS84の処理が終了すると、図9の全処理が終了する。なお、ステップS84においてショッピングの終了を通知した後も、ユーザがショッピングを継続する場合もあるので、CPU40は、計画リスト58をディスプレイに表示し続けることとしてもよい。また、ステップS84の後も、ステップS60〜S68と同様の処理・判断を継続して実行することとしてもよい。
これに対し、ステップS72の判断が否定された場合、すなわち、未だショッピングの終了時刻になっていない場合には、CPU40は、ステップS74に移行する。そして、ステップS74では、CPU40が、以下の式(2)に基づいて、ショッピングの予想終了時刻を算出する。
予想終了時刻=現在時刻+計画リスト58の残り店舗数×所定時間 …(2)
なお、上式(2)の所定時間としては、例えば、10分や20分などの時間とすることができる。そして、CPU40は、上式(2)で算出されたショッピングの予想終了時刻が、ユーザによって入力されたショッピングの終了時刻前か否かを判断する。ここでの判断が否定された場合、すなわち、予想終了時刻が終了時刻と同一又は後である場合には、ステップS82に移行する。一方、ステップS74の判断が肯定された場合、すなわち、予想終了時刻が終了時刻前であり、順調に各店舗を回ると時間が余ってしまうような場合には、CPU40は、ステップS76に移行する。
ステップS76では、CPU40が、未追加店舗リスト60に店舗の情報があるか否かを判断する。ここでの判断が否定された場合、すなわち、未追加店舗リスト60に店舗の情報が残っていない場合には、CPU40は、ステップS82に移行する。一方、ステップS76の判断が肯定された場合には、CPU40は、ステップS78に移行する。
ステップS78に移行した場合には、CPU40が、未追加店舗リスト60に登録されている店舗の中から、計画リスト58の末尾の店舗に最も近い店舗を抽出し、計画リスト58の末尾に追加する。この場合、CPU40は、計画リスト58の末尾の店舗の位置(緯度、経度)と、未追加店舗リスト60の各店舗の位置(緯度、経度)に基づいて、計画リスト58の末尾に追加する店舗を決定するものとする。なお、このステップS78においても、前述した図6のステップS42と同様、天気情報等を考慮して、計画リスト58の末尾に追加する店舗を決定することとしてもよい。なお、図10(b)は、図10(a)の計画リスト58に図8(b)の未追加店舗リスト60のG店の情報が追加された状態を示している。
次いで、ステップS80では、CPU40が、計画リスト58に追加した店舗を未追加店舗リスト60から削除する。その後は、ステップS82に移行する。図10(c)には、図8(b)の未追加店舗リスト60からG店の情報が削除された状態が示されている。
ステップS80の終了後、あるいはステップS74、S76の判断が否定された後において、ステップS82に移行すると、CPU40は、計画リスト58が空であるか否かを判断する。ここでの判断が否定された場合、すなわち、計画リスト58に店舗が残っている場合には、ステップS60に戻り、ステップS60〜S82の処理・判断を繰り返す。一方、ステップS82の判断が肯定された場合には、ステップS84に移行する。ステップS84では、CPU40は、前述したように、ディスプレイ12上にショッピングの終了を表示して、ユーザに通知し、図9の全処理を終了する。
以上のように、図9の処理が行われることで、ユーザは、ユーザの移動に応じて更新される計画リスト58を参照しながら、計画リスト58に含まれる各店舗でのショッピングを楽しむことができる。
ここで、図9の処理では、CPU40は、生体センサ22の出力(例えば心拍数)からユーザが疲労しているかどうかを判断したり、加速度センサ26の値からユーザの歩く速度が通常の速度に比べて遅くなっているかどうかを判断し、これらの判断結果に基づいて、計画リスト58の見直しを行ったり、ショッピングの中止を促したりしてもよい。例えば、CPU40は、ユーザの歩く速度が遅くなった場合には、上式(2)における所定時間をユーザの歩く速度に応じて長く設定して予想終了時刻を算出し、当該予想終了時刻がショッピングの終了時刻を超えないように、計画リスト58の店舗の数を減らすようにしてもよい。また、ユーザの歩く速度と生体センサ22の出力とから導き出されるユーザの疲労度に応じて、上式(2)の所定時間を設定することとしてもよい。また、CPU40は、歩く速度や疲労度に応じて、計画リスト58に登録されている店舗の中から、休憩する場所(喫茶店やベンチなど)が多い店舗のみを抽出し、ディスプレイ12上に表示することとしてもよい。この場合には、店舗リスト56や計画リスト58に、休憩する場所の数などが登録されている必要がある。また、CPU40は、歩く速度や疲労度に応じて、計画リスト58のうち、駅に最も近い店舗までをディスプレイ12上に表示することとしてもよい。これにより、ユーザは、駅の近くの店舗でのショッピングを済ませた直後に、電車に乗って帰宅することができるようになる。なお、この場合には、ユーザの利用駅を内蔵メモリ34に登録するようにしてもよい。また、駐車場に車を駐車している場合には、駐車場に最も近い店舗までをディスプレイ12上に表示することとしてもよい。この場合、駐車場を予め登録しておけばよい。
なお、ユーザの歩く速度が遅くなる原因としては、疲労している場合のほか、荷物が重い場合や、子供を連れている場合などが挙げられる。したがって、例えば、CPU40が、ユーザの靴に設けた荷重センサの値から、ユーザが重い荷物を持っていることを判断できるような場合には、荷物を持っていても店内の移動が容易な店舗(通路の広い店舗)などが計画リスト58の上位となるように、計画リスト40の見直しを行うこととしてもよい。
なお、図9の処理と並行して、ユーザの店舗滞在時間の履歴をとるようにしてもよい。この店舗滞在時間の履歴は、次回以降の終了予想時刻の算出(上式(1)、(2))における所定時間の設定に用いることが可能となる。
また、各店舗におけるユーザの感情(生体センサ22の検出結果やユーザの表情など)の履歴を、内蔵メモリ34に格納されているユーザ感情DB62(図11参照)に登録するようにしてもよい。図11のユーザ感情DB62には、各ユーザ及び各店舗ごとに、生体センサ22の値や表情、及びこれらに基づいてCPU40により判定されるユーザの感情が登録される。なお、CPU40は、ユーザの表情(笑顔、困惑など)は、図1の表情検出部38cから取得する。また、CPU40は、生体センサ22の値と表情の組み合わせに基づいて、ユーザの感情を識別するものとする。このユーザの感情の履歴(ユーザ感情DB62)は、計画リスト58を再度作成する際に、利用することができる。例えば、好みでない店舗を、計画リスト58への登録候補から除外するなどしてもよい。また、計画リスト58に「前回の感情」として記載してもよい。
なお、図9の処理では、ユーザが計画リスト58に従って移動しない場合もある。例えば、ユーザの現在位置が計画リスト58の先頭の店舗以外の店舗と一致する場合もある。このような場合には、CPU40は、現在位置と一致した店舗の情報を計画リスト58から除外するようにしてもよい。また、現在位置と計画リスト58の先頭の店舗との間の距離が所定距離以上離れた場合、すなわち、ユーザに先頭の店舗に行く意志が無いと判断できる場合には、CPU40は、当該先頭の店舗の情報を計画リスト58から除外するようにしてもよい。
以上、詳細に説明したように、本実施形態によると、携帯端末100は、ユーザと対向可能な面に設けられたタッチパネル14と、ユーザと対向可能にタッチパネル14の近傍に設けられた第1内蔵カメラ16aと、ユーザと対向可能に第1内蔵カメラ16aとは異なる位置に設けられた第2内蔵カメラ16bと、を備えているので、第1、第2内蔵カメラ16a,16bを用いることで、タッチパネル14を操作するユーザの異なる2つの画像を撮像することができる。この場合、例えば、第1内蔵カメラ16aでユーザの顔周辺を撮像し、第1内蔵カメラ16bよりも画角が広い第2内蔵カメラ16bでユーザの首から下の画像を撮像することとすれば、これらの画像を合成することで、ユーザの全身画像を簡易に生成することが可能となる。これにより、本実施形態では、使い勝手のよい携帯端末100を提供することが可能となる。
また、本実施形態では、第1、第2内蔵カメラ16a,16bの画角が異なっているので、各内蔵カメラ16a,16bによる撮像範囲を異ならせることができる。これにより、各内蔵カメラ16a,16bを別々の適切な用途に利用することが可能となる。
また、本実施形態では、CPU40は、ユーザによってタッチパネル14の操作が行われているときに、第1、第2内蔵カメラ16a,16bによる撮像を行う(ステップS10:肯定)。すなわち、第1、第2内蔵カメラ16a,16bがユーザを撮像できる方向を向いているタイミングで、撮像を行うことができる。これにより、ユーザの顔や全身画像を確実に撮像することが可能となる。
また、本実施形態では、携帯端末100が、ユーザの生体情報を検出する生体センサ22を備えているので、ユーザの画像とともに、ユーザの脈拍数などの生体情報を取得することができる。この場合、生体センサ22は、第1内蔵カメラ16aと第2内蔵カメラ16bとの間に配置されているので、生体センサ22の位置はユーザの手が触れやすい位置となる。これにより、生体センサ22を用いて、ユーザの生体情報を確実に検出することが可能となる。また、生体センサ22がユーザの手から生体情報を検出しているときに、第1、第2内蔵カメラ16a,16bによる撮影が手によって邪魔されるのを抑制することができる。
また、本実施形態では、携帯端末100が、GPSモジュール24と、加速度センサ26と、これらの検出結果に応じて店舗に関する情報(計画リスト58)を表示するディスプレイ12とを備えていることで、ユーザの現在位置と歩く早さ(疲労度など)に応じた計画リスト58の表示を行うことができる。この点からも、本実施形態では、使い勝手のよい携帯端末100を提供することが可能となる。
また、本実施形態では、CPU40は、生体センサ22の検出結果に応じて、店舗に関する情報をディスプレイ12上に表示することで、ユーザの生体情報(例えば、疲労度)に応じた適切な計画リスト58の表示を行うことができる。
また、本実施形態では、携帯端末100が、温度を検出する温度計28や湿度を検出する湿度計30を有しており、CPU40は、温度計28及び湿度計30の検出結果に応じて計画リスト58に登録すべき店舗を決定してディスプレイ12に表示するので、天候や暑さ、寒さなどに基づいたユーザが訪れやすい店舗を計画リスト58に登録することができる。
また、本実施形態では、第1、第2内蔵カメラ16a,16bの撮像結果に応じて(本実施形態では撮像結果から得られる服装のジャンルに応じて)、計画リスト58に店舗の情報が登録されるので、ユーザの好みに合った店舗の情報をユーザに提供することができる。
なお、上記実施形態では、図3のジャンル判定処理において、自宅にいない場合の服装のジャンル判定を行う場合について説明したが、これに限られるものではない。例えば、CPU40は、GPSモジュール24の検出結果から自宅又は会社以外にいるか否かを判定し、自宅又は会社以外にいる場合の服装のジャンル判定を行うこととしてもよい。会社では、制服を着用している可能性があり、ジャンル判定に不向きな場合もあるからである。なお、会社の位置は、事前に、図4(a)のユーザ情報DB50に登録しておけばよい。また、CPU40は、GPSモジュール24の検出結果(時間変化)から、ユーザが電車や徒歩などで移動しているか否かを判定し、ユーザが移動している間の服装のジャンル判定を行うこととしてもよい。なお、図3では、ユーザが自宅にいる場合に服装のジャンル判定を行わないこととしたが、これに限らず、自宅での服装のジャンル判定を行っても構わない。
なお、上記実施形態では、携帯端末100に温度計28や湿度計30を設け、温度や湿度の情報を得る場合について説明したが、これに限られるものではない。例えば、温度や湿度の情報は、通信部42を介してインターネット上(例えば、気象庁のサーバなど)から得るようにしてもよい。また、CPU40は、現在の天気の情報やショッピング終了時刻までの天気の情報(天気予報)をインターネット上から取得し、これに基づいて、計画リスト58を作成するようにしてもよい。また、上記実施形態の携帯端末100としてはタブレット型コンピュータを採用することとしてもよい。
なお、上記実施形態で説明した図2の構成要素は、全てを兼ね備えていなくてもよい。図3、図6、図9の処理の一部を省略又は変更するなどして不要となってしまう構成要素については、省略することとしてもよい。
なお、上記実施形態では、ユーザの歩行速度を、携帯端末100に設けられた加速度センサ26の検出結果(加速度)の値に基づいて算出する場合について説明したが、これに限られるものではない。例えば、靴に加速度センサ(携帯端末100との通信が可能とする)を設けてもよいし、あるいは特許第4524379号に記載されているように、磁界の強度から歩行速度を求めてもよい。
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。
12 ディスプレイ
14 タッチパネル
16a 第1内蔵カメラ
16b 第2内蔵カメラ
18 スピーカ
20 マイク
22 生体センサ
24 GPSモジュール
26 加速度センサ
28 温度計
30 湿度計
34 内蔵メモリ
40 CPU

Claims (14)

  1. ユーザと対向可能な第1面側に設けられ、前記ユーザによる操作に用いられる操作部と、
    前記ユーザと対向可能に前記操作部の近傍に設けられ、撮像を行う第1撮像部と、
    前記ユーザと対向可能に前記第1撮像部とは異なる位置に設けられ、撮像を行う第2撮像部と、を備えたことを特徴とする電子機器。
  2. 前記第1撮像部と前記第2撮像部とは、画角が異なることを特徴とする請求項1記載の電子機器。
  3. 前記第1撮像部と前記第2撮像部との一方が撮像した顔に関する第1画像と、前記第1撮像部と前記第2撮像部との他方が撮像した前記第1画像とは異なる第2画像と、を記憶する画像記憶装置を備えたことを特徴とする請求項1又は2記載の電子機器。
  4. 前記第1画像を撮像する前記第1撮像部及び前記第2撮像部の一方の画角は、前記第1撮像部及び前記第2撮像部の他方の画角よりも狭いことを特徴とする請求項3に記載の電子機器。
  5. 前記画像記録装置は、前記操作部が操作されている間に、前記第1画像と、前記第2画像とを記憶することを特徴とする請求項3又は4記載の電子機器。
  6. 生体情報を検出する生体センサを備えたことを特徴とする請求項1〜5のいずれか一項に記載の電子機器。
  7. 前記生体センサの少なくとも一部は、前記第1撮像部と前記第2撮像部との間に配置されていることを特徴とする請求項6記載の電子機器。
  8. 前記生体センサが検出した前記生体情報を記憶する生体情報記憶装置を備えたことを特徴とする請求項6又は7記載の電子機器。
  9. 前記生体情報記録装置は、前記操作部が操作されている間に、前記生体情報を記憶することを特徴とする請求項8記載の電子機器。
  10. 音声を集音する音声集音部と、音声を出力する音声出力部と、を備え、
    前記第1撮像部及び前記第2撮像部の一方は、前記音声集音部近傍に配置され、前記第1撮像部及び前記第2撮像部の他方は、前記音声出力部近傍に配置されていることを特徴とする請求項1〜9のいずれか一項に記載の電子機器。
  11. 前記操作部の少なくとも一部は、前記第1撮像部と前記第2撮像部との間に配置されていることを特徴とする請求項1〜10のいずれか一項に記載の電子機器。
  12. 前記第1撮像部が撮像した画像と、前記第2撮像部が撮像した画像とを合成する画像合成部を備えたことを特徴とする請求項1〜11のいずれか一項に記載の電子機器。
  13. 前記電子機器に作用する物理量を検出する物理量センサと、
    前記物理量センサの検出結果に基づいて、前記第1撮像部と前記第2撮像部とによる撮像を行うかどうかを制御する制御部と、を備えたことを特徴とする請求項1〜12のいずれか一項に記載の電子機器。
  14. 前記第1撮像部と、前記第2撮像部との撮像に基づいて、服装に関するデータを記憶する記憶装置を備えたことを特徴とする請求項1〜13のいずれか一項に記載の電子機器。
JP2012013157A 2012-01-25 2012-01-25 電子機器 Pending JP2013153329A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012013157A JP2013153329A (ja) 2012-01-25 2012-01-25 電子機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012013157A JP2013153329A (ja) 2012-01-25 2012-01-25 電子機器

Publications (1)

Publication Number Publication Date
JP2013153329A true JP2013153329A (ja) 2013-08-08

Family

ID=49049353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012013157A Pending JP2013153329A (ja) 2012-01-25 2012-01-25 電子機器

Country Status (1)

Country Link
JP (1) JP2013153329A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016021748A (ja) * 2014-01-31 2016-02-04 オリンパス株式会社 撮像装置、撮像方法、撮像プログラム
JPWO2021152711A1 (ja) * 2020-01-28 2021-08-05

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018437A (ja) * 2001-07-05 2003-01-17 Fuji Photo Film Co Ltd 画像撮像装置
JP2004220200A (ja) * 2003-01-10 2004-08-05 Sony Ericsson Mobilecommunications Japan Inc コーディネイト情報提供方法及び装置、コーディネイト情報提供システム、コーディネイト情報提供プログラム
JP2004328077A (ja) * 2003-04-21 2004-11-18 Sony Corp 画像管理システム及び画像管理方法、並びにコンピュータ・プログラム
JP2005039400A (ja) * 2003-07-17 2005-02-10 Fuji Photo Film Co Ltd 電子機器
JP2006146475A (ja) * 2004-11-18 2006-06-08 Fuji Photo Film Co Ltd 画像データ付帯情報自動更新方法及びそのシステム並びに画像データ付帯情報自動更新プログラム
JP2008060929A (ja) * 2006-08-31 2008-03-13 Casio Hitachi Mobile Communications Co Ltd 撮影装置及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018437A (ja) * 2001-07-05 2003-01-17 Fuji Photo Film Co Ltd 画像撮像装置
JP2004220200A (ja) * 2003-01-10 2004-08-05 Sony Ericsson Mobilecommunications Japan Inc コーディネイト情報提供方法及び装置、コーディネイト情報提供システム、コーディネイト情報提供プログラム
JP2004328077A (ja) * 2003-04-21 2004-11-18 Sony Corp 画像管理システム及び画像管理方法、並びにコンピュータ・プログラム
JP2005039400A (ja) * 2003-07-17 2005-02-10 Fuji Photo Film Co Ltd 電子機器
JP2006146475A (ja) * 2004-11-18 2006-06-08 Fuji Photo Film Co Ltd 画像データ付帯情報自動更新方法及びそのシステム並びに画像データ付帯情報自動更新プログラム
JP2008060929A (ja) * 2006-08-31 2008-03-13 Casio Hitachi Mobile Communications Co Ltd 撮影装置及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016021748A (ja) * 2014-01-31 2016-02-04 オリンパス株式会社 撮像装置、撮像方法、撮像プログラム
JPWO2021152711A1 (ja) * 2020-01-28 2021-08-05
WO2021152711A1 (ja) * 2020-01-28 2021-08-05 マクセル株式会社 インターバル撮像装置
JP7343621B2 (ja) 2020-01-28 2023-09-12 マクセル株式会社 インターバル撮像装置

Similar Documents

Publication Publication Date Title
JP6490023B2 (ja) 生体情報通信装置、サーバ、生体情報通信方法及び生体情報通信プログラム
US10366487B2 (en) Electronic apparatus for providing health status information, method of controlling the same, and computer-readable storage medium
WO2013145387A1 (ja) 電子機器
CN103189817B (zh) 信息处理系统和信息处理方法
US8948451B2 (en) Information presentation device, information presentation method, information presentation system, information registration device, information registration method, information registration system, and program
KR20160037074A (ko) 전환 거울을 구비한 장치의 이미지 디스플레이 방법 및 그 장치
CN108986766A (zh) 信息显示终端以及信息显示方法
AU2015201759A1 (en) Electronic apparatus for providing health status information, method of controlling the same, and computer readable storage medium
US9020918B2 (en) Information registration device, information registration method, information registration system, information presentation device, informaton presentation method, informaton presentaton system, and program
KR20160064337A (ko) 컨텐트 제공 방법 및 장치
WO2013128715A1 (ja) 電子機器
WO2015155841A1 (ja) 情報表示方法および情報表示端末
CN106796651A (zh) 电子设备的多媒体数据处理方法及其电子设备
JP6109288B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20230162533A1 (en) Information processing device, information processing method, and program
US20180004287A1 (en) Method for providing user interface through head mounted display using eye recognition and bio-signal, apparatus using same, and computer readable recording medium
JPWO2009142098A1 (ja) 画像処理装置、カメラ、画像処理方法およびプログラム
JP2013205969A (ja) 電子機器
CN111698564A (zh) 信息推荐方法、装置、设备及存储介质
CN107224290A (zh) 行动解析装置、行动解析方法以及计算机可读取的记录介质
JPWO2018123041A1 (ja) 情報処理システム、及び情報処理装置
JP2013207407A (ja) 電子機器
KR20200101139A (ko) 객체 인식 방법 및 이를 지원하는 전자 장치
JP2013153329A (ja) 電子機器
JP2013152623A (ja) 電子機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160314

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160816