JP2013205969A - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP2013205969A
JP2013205969A JP2012072217A JP2012072217A JP2013205969A JP 2013205969 A JP2013205969 A JP 2013205969A JP 2012072217 A JP2012072217 A JP 2012072217A JP 2012072217 A JP2012072217 A JP 2012072217A JP 2013205969 A JP2013205969 A JP 2013205969A
Authority
JP
Japan
Prior art keywords
clothes
user
information
unit
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012072217A
Other languages
English (en)
Inventor
Hiromi Tomii
宏美 冨井
Sayako Yamamoto
彩恭子 山本
Mitsuko Matsumura
光子 松村
Saeko Samejima
冴映子 鮫島
Yae Nakamura
弥恵 中村
Masaichi Sekiguchi
政一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012072217A priority Critical patent/JP2013205969A/ja
Priority to CN201280071880.0A priority patent/CN104247393A/zh
Priority to US14/389,049 priority patent/US20150084984A1/en
Priority to IN7947DEN2014 priority patent/IN2014DN07947A/en
Priority to PCT/JP2012/075928 priority patent/WO2013145387A1/ja
Publication of JP2013205969A publication Critical patent/JP2013205969A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】使い勝手のよい電子機器を提供する。
【解決手段】携帯端末10が、本体部11に設けられた第1カメラ31と、本体部11の第1カメラ31とは異なる位置に設けられた第2カメラ32、第3カメラ33と、本体部11の姿勢を検出する姿勢センサ23と、姿勢センサ23の検出結果に応じて、各カメラによる撮像を行う制御部60と、を備え、本体部11の姿勢に応じて、すなわち、第1〜第3カメラ31〜33の撮影可能範囲に応じて、撮像を行い、また、各カメラが適切な画像を撮像できるときに各カメラを用いた撮像を行う。
【選択図】図3

Description

本発明は、電子機器に関する。
従来より、人生の行いを記録に残すライフログシステムが提案されている。ライフログシステムにおいては、ユーザの動きや状態を利用して、行動の候補を提示するシステムが提案されている(例えば、特許文献1参照)。
特開2010-146221号公報
しかしながら、従来のライフログシステムではユーザの入力作業の煩雑さの軽減が十分に図られておらず、使い勝手がよいものではなかった。
本発明は上記の課題に鑑みてなされたものであり、使い勝手のよい電子機器を提供することを目的とする。
本発明の電子機器は、ユーザが所持している服装に関する情報を記憶するメモリ(50)と、前記メモリに記憶されていない服装に関する情報を入力する入力部(18)と、を備えている。
この場合において、前記入力部に入力された服装に関する情報に応じて、前記メモリに記憶されている服装に関する情報を表示する表示部(12)を備えていてもよい。この場合、前記表示部は、前記入力部に入力された服装に関する情報が第1のカテゴリーであるときに、前記メモリから第1のカテゴリーとは異なる第2のカテゴリーの服装に関する情報を表示することとすることができる。また、前記表示部は、前記入力部に入力された服装に関する情報と、前記メモリに記憶されている服装に関する情報とを組み合わせて表示することができる。また、前記メモリに記憶されている服装に関する情報の中から、前記入力部に入力された服装に関する情報に類似した服装に関する情報を検出する検出部(60)を備え、前記表示部は、前記検出部により検出された類似した服装情報を表示することとしてもよい。また、本発明では、前記入力部に入力された服装に関する情報に基づいて、前記体型の変化を検出する体型変化検出部(43)を備えていてもよい。
また、本発明の電子機器は、ユーザ以外の人の服装に関する情報を取得する取得部(18)と、前記ユーザが特定した服装に関する情報を入力する入力部(18)と、を備える。
この場合において、前記ユーザ以外の人の服装に関する情報と、前記ユーザが特定した服装に関する情報と、を比較する比較部(60)を備えていてもよい。また、前記比較部による比較結果を表示する表示部(12)を備えていてもよい。
また、前記入力部に入力される情報には前記服装の色相に関する情報が含まれており、前記メモリに記憶されている服装の情報から前記色相と同じまたは近い色相の情報を抽出する第1抽出部を備えていてもよい。また、前記入力部に入力される情報には前記服装のサイズに関する情報が含まれており、前記メモリに記憶されている服装の情報から前記サイズに応じた情報を抽出する第2抽出部を備えていてもよい。この場合、前記第2抽出部は、前記入力部に入力された服装と同じカテゴリの服装の情報を抽出することとしてもよい。また、前記第2抽出部は、前記入力部に入力された服装と異なるカテゴリの服装の情報を抽出することとしてもよい。
また、本発明の電子機器は、前記入力部に入力される情報には、前記服装の柄に関する情報が含まれており、前記メモリに記憶されている服装の情報から前記柄に応じて情報の抽出を規制する規制部を備えていてもよい。
なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。
本発明は、使い勝手のよい電子機器を提供することができるという効果を奏する。
一実施形態に係る情報処理システムの構成を示す図である。 図2(a)は、携帯端末を表側(−Y側)から見た状態を示す図であり、図2(b)は、携帯端末を裏側(+Y側)から見た状態を示す図である。 携帯端末と外部機器のブロック図である。 図4(a)は、撮像部30とユーザとの距離を示す図であり、図4(b)は、第1カメラの焦点距離について説明するための図であり、図4(c)は、第2カメラの焦点距離について説明するための図である。 図5(a)〜図5(f)は、ユーザの服装の例を示す図である。 ユーザの身なりを検出する処理のフローチャートである。 ユーザに身なりを報知するための処理を示すフローチャートである。 新しい服装とのコーディネート提案処理を示すフローチャートである。 服装DBを示す図である。 身なりログを示す図である。
以下、一実施形態について、図1〜図10に基づいて、詳細に説明する。図1には、一実施形態にかかる情報処理システム200の構成がブロック図にて示されている。
情報処理システム200は、図1に示すように、携帯端末10と、外部機器100と、を備える。これら携帯端末10及び外部機器100は、インターネットなどのネットワーク80に接続されている。
携帯端末10は、ユーザにより携帯された状態で利用される情報機器である。携帯端末10としては、携帯電話、スマートフォン、PHS(Personal Handy-phone System)、PDA(Personal Digital Assistant)等を採用することができるが、本実施形態では、携帯端末10は、スマートフォンであるものとする。携帯端末10は、電話機能やインターネット等に接続するための通信機能、および、プログラムを実行するためのデータ処理機能等を有する。
図2(a)は、携帯端末10を表側(−Y側)から見た状態を示す図であり、図2(b)は、携帯端末10を裏側(+Y側)から見た状態を示す図である。これらの図に示すように、携帯端末10は、一例として、長方形の主面(−Y面)を有する薄板状の形状を有しており、片手の手のひらで把持することができる程度の大きさを有している。
図3には、携帯端末10と外部機器100のブロック図が示されている。この図3に示すように、携帯端末10は、ディスプレイ12と、タッチパネル14と、カレンダ部16と、通信部18と、センサ部20と、撮像部30と、画像分析部40と、フラッシュメモリ50と、制御部60と、を有する。
ディスプレイ12は、図2(a)に示すように、携帯端末10の本体部11の主面(−Y面)側に設けられている。ディスプレイ12は、例えば、本体部11の主面の大半の領域(例えば90%)を占める大きさを有する。ディスプレイ12は、画像、各種情報およびボタン等の操作入力用画像を表示する。ディスプレイ12は、一例として、例えば液晶表示素子を用いたデバイスであるものとする。
タッチパネル14は、ユーザが触れたことに応じた情報を制御部60に対して入力することが可能なインタフェースである。タッチパネル14は、図2(a)に示すように、ディスプレイ12表面またはディスプレイ12内に組み込まれているため、ユーザは、ディスプレイ12の表面をタッチすることにより、種々の情報を直感的に入力することができる。
カレンダ部16は、年、月、日、時刻といった時間情報を取得して、制御部60に対して出力する。なお、カレンダ部16は、更に計時機能を有しているものとする。
通信部18は、ネットワーク80上の外部機器100と通信する。通信部18は、一例として、インターネット等の広域ネットワークにアクセスする無線通信ユニット、Bluetooth(登録商標)による通信を実現するBluetooth(登録商標)ユニット、及び、FeliCa(登録商標)チップ等を有し、外部機器100や他の携帯端末などと通信する。
センサ部20は、各種センサを有している。本実施形態においては、センサ部20は、GPS(Global Positioning System)モジュール21、生体センサ22、姿勢センサ23、温湿度計24、加速度センサ25を有しているものとする。
GPSモジュール21は、携帯端末10の位置(例えば緯度や経度)を検出するセンサである。
生体センサ22は、図2(a)、図2(b)に示すように、一例として、携帯端末10の本体部11の裏面の2箇所に設けられ、携帯端末10を保持するユーザの状態を取得するセンサである。生体センサ22は、一例として、ユーザの体温、血圧、脈拍および発汗量等を取得する。このような生体センサ22としては、一例として、特開2001−276012号公報(米国特許6,526,315号)に開示されているような、発光ダイオードからユーザに向けて光を照射し、この光に応じてユーザから反射した光を受光することにより、脈拍を検出するセンサや、特開2007−215749号公報(米国公開2007−191718号)に開示されているような腕時計型の生体センサを採用することができる。なお、生体センサ22は、本体部11の表面側、又は長辺側の側部に設けられてもよい。
また、生体センサ22としては、ユーザが携帯端末10を保持している力に関する情報(例えば握力)を取得するセンサ(圧力センサ)を有しているものとする。このような圧力センサは、ユーザが携帯端末10を保持したことや、携帯端末10を保持する力の大きさを検出することができる。なお、後述する制御部60は、圧力センサによりユーザが携帯端末10を保持したことを検出した段階で、他の生体センサによる情報の取得を開始するようにしてもよい。また、制御部60は、電源がオンとなっている状態において、圧力センサによりユーザが携帯端末10を保持したことを検出した段階で、その他の機能をオンにする(あるいはスリープ状態から復帰する)ような制御を行うこととしてもよい。
姿勢センサ23は、携帯端末10の内部に設けられ、携帯端末10の姿勢を検出することにより、後述する第1カメラ31、第2カメラ32、第3カメラ33の姿勢を検出するものである。姿勢センサ23としては、フォトインタラプタの赤外光を、重力によって移動する小球が遮断するか否かにより一軸方向の姿勢を検出するセンサを複数組み合わせた構成を採用することができる。ただし、これに限らず、姿勢センサ23としては、3軸加速度センサやジャイロセンサなどを採用することとしてもよい。
温湿度計24は、携帯端末10の周囲の温度を検出する環境センサである。なお、温湿度計24に代えて、温度計及び湿度計が携帯端末10に別々に設けられてもよい。なお、温湿度計24は、生体センサ22によるユーザの体温を検出する機能と兼用される構成であってもよい。
加速度センサ25は、圧電素子や歪ゲージなどを用いることができる。加速度センサ25は、本実施形態ではユーザが立っているか座っているかを検出する。なお、加速度センサ25による加速度の検出軸は、図2(a)のZ軸方向となっている。なお、図2(a)のX軸、Y軸を検出軸とする加速度センサを設けてもよく、この場合には、加速度センサによりユーザの移動方向を検出するなどすることができる。なお、加速度センサを用いてユーザが立っているか、座っているか、歩いているか、走っているかを検出する方法については、例えば日本特許第3513632号(特開平8−131425号公報)に開示されている。また、加速度センサ25に代えて、もしくは加速度センサ25と併用して角速度を検出するジャイロセンサを用いてもよい。
撮像部30は、図2(a)、図2(b)に示すように、本体部11の主面(−Y側の面)のディスプレイ12よりも上方(+Z方向)に設けられた第1カメラ31と、ディスプレイ12の下方(−Z方向)に設けられた第2カメラ32と、本体部11の主面の反対側の面(+Y側の面)であって、第1カメラ31よりも下方(−Z方向)に設けられた第3カメラ33と、を有している。撮像部30は、ユーザが携帯端末10を保持した際(使用しているとき)のユーザの状況(例えば身なり)を撮像し、当該ユーザの状況のログをユーザに特別な操作を強いることなく取得する。
第1カメラ31は、携帯端末10を操作しているユーザの顔や、帽子、ネクタイ、アクセサリー、髪型、服装などの身の周りを撮像するカメラである。
第2カメラは、携帯端末10を操作しているユーザの上半身を撮像するものであり、携帯端末10の姿勢によってはユーザの下半身の撮像もできるものとする。
第3カメラ33は、ユーザの下半身の服装や足元を撮像するカメラである。第3カメラ33は、ユーザの下半身の服装や足元を撮像するため、及びユーザの手によって覆われないようにするために、ディスプレイ12の反対面の下方(−Z側の端部近傍)に設けられている。
撮像部30が有する各カメラ31〜33は、撮影レンズや撮像素子(CCDおよびCMOSデバイス)を有するという基本構成は同一であるが、撮影レンズの焦点距離は異なっている。なお、撮影レンズとしては、液体レンズを用いても構わない。また、撮像部30を構成するそれぞれのカメラの撮像素子は、一例として、RGB3原色がベイヤ配列されたカラーフィルタを含み、各色のそれぞれに対応した色信号を出力する。以下、各カメラ31〜33の焦点距離について説明する。
図4(a)は、撮像部30とユーザとの距離を示す図である。図4(a)に示すように、ユーザが携帯端末10を把持した状態では、第1カメラ31からユーザの顔周辺までの距離がおよそ300mmとなる。この第1カメラ31が、肩幅程度(500mm程度)を撮像する必要があるとすると、第1カメラ31の短辺方向半画角は、図4(b)に示すθ1≒39.8°となる(tanθ1=250/300のため)。このため、本実施形態においては、第1カメラ31の焦点距離は、35mm版カメラに換算して14mm相当となっている。
これに対し、第2カメラ32からユーザの上半身(胸元)までの距離はおよそ250mmとなる。この第2カメラ32が、肩幅程度(500mm程度)を撮像する必要があるとすると、第2カメラ32の短辺方向の半画角は、図4(b)に示すθ2=45°となる(tanθ2=250/250のため)。このため、本実施形態においては、第2カメラ32の焦点距離は、35mm版カメラに換算して12mm相当となっている。すなわち、第2カメラ32の画角は、第1カメラ31の画角よりも広くなっている。
なお、第3カメラ33は、第1カメラ31と同一の半画角と焦点距離の光学系を備えているものとする。なお、第3カメラ33はユーザが立っている場合にユーザの足元を撮像する場合がある。この場合、短辺方向の半画角が39.8°程度であるとユーザ以外の足元を撮像してしまう場合がある。このような場合には、後述する制御部60は、第3カメラ33の姿勢(姿勢センサ23により検出される携帯端末10の姿勢)に基づいて、ユーザが存在すると思われる範囲の画像のみを残すようにトリミングするようにしてもよい。あるいは、制御部60は、加速度センサ25の出力に基づいてユーザが立っていると判断できるような場合には、第3カメラ33に予め設けておいたズーム光学系を望遠方向に移動して、ユーザの足元を撮像するようにしてもよい。また、制御部60は、ユーザが立っている場合には、第3カメラ33による撮像を行わない(禁止する)ようにしてもよい。
なお、第1カメラ31、第2カメラ32、第3カメラ33を上下または左右に可動できるような構成として、より広い範囲でユーザ及びユーザの身なりを撮像できるようにしてもよい。
なお、撮像部30は、ユーザが携帯端末10を操作している間に撮像するため、手振れの影響を受けたり、乗り物などの振動の影響を受けたりする可能性がある。このような場合には、撮像部30は、複数枚の静止画を撮像し、これら複数枚の静止画を合成することで手振れや振動の影響を排除するような処理を行うようにすればよい。なお、この場合の画像は、鑑賞用ではなくユーザの服装などの身なりが判定できる程度のものでよいので、市販のソフトウェアなどを利用して簡易的に手振れや振動の影響を排除するようにすればよい。
画像分析部40は、撮像部30が撮像した画像や、外部機器100に保存されている画像の分析を行うものであり、本実施形態では、顔認識部41、服装検出部42及びリサイズ部43を有する。
顔認識部41は、第1カメラ31が撮像した画像に、顔が含まれているか否かを検出する。さらに、顔認識部41は、画像の中から顔を検出した場合には、検出した顔の部分の画像データと、フラッシュメモリ50に記憶されているユーザの顔の画像データとを比較(例えばパターンマッチング)して、第1カメラ31が撮像した人を認識する。
服装検出部42は、第1カメラ31、第2カメラ32、第3カメラ33により撮像されたユーザの身なり(服装、鞄、靴など)が、どのようなものであるかを検出するものである。
ここで、前述した顔認識部41によって、第1カメラ31が撮像した画像に顔が含まれていると判断された場合、当該顔の下方部分に服装の画像がある可能性が高い。したがって、服装検出部42は、顔認識部41により認識された顔の下方部分の予め定められた範囲の画像を抽出し、当該抽出された画像とフラッシュメモリ50に記憶されている服装DB(図9参照)に格納されている画像データとをパターンマッチングすることにより、ユーザの服装を検出する。なお、服装検出部42は、第2カメラ32が撮像した画像と、フラッシュメモリ50に記憶されている服装DB(図9)の画像データとをパターンマッチングすることによっても、ユーザの服装を検出することができる。なお、上述のパターンマッチングは、撮像部30で撮像された画像全体から服装DBの画像のパターンマッチングを行う部分領域を複数抽出し、抽出された各部分領域に対して服装DBの対象画像(後述するアウター、インナー、スーツなど)を選択してパターンマッチングを行うようにしてもよい。この場合、画像全体から部分領域を抽出するためのテンプレート画像を服装DBに記憶させておき、まず、画像全体とテンプレート画像とのパターンマッチングを行うようにしてもよい。また、各部分領域に対応する撮像素子のRGB出力(色情報)に基づいて、服装検出部42は、各部分領域の代表色を検出するようにしてもよい。
なお、服装DBは、各カメラ31〜33によって撮像された画像から抽出される、ユーザが過去に着用していた服装データを、服装ID(一意に割り当てられる識別子)と服装の種別とともに格納するものとする。なお、服装の種別の欄には、アウター、インナーのほか、スーツ、ジャケット、和服、ネクタイ、ポケットチーフ、コート等が入力される。また、服装データの画像として、それぞれの服装の特徴的な形状(例えば、襟部分の形状、半袖、長袖)の画像を格納することとしてもよい。なお、ユーザが通信部18を用いて商品を購入した場合(インターネットショッピングなどで購入した場合)には、制御部60は、通信部18を介して服装データを入手し、服装DBに記憶するようにしてもよい。また、制御部60は、外部機器100が保有する画像から、服装データを入手し、服装DBに記憶するようにしてもよい。
なお、服装検出部42は、第1カメラ31及び第2カメラ32が撮像したユーザの上半身の服装と、第3カメラ33が撮像したユーザの下半身の服装とを比較することにより、ユーザの服装がスーツ(上着とズボンとが同じ生地で仕立てられている)か、ジャケットかを判断するようにしてもよい。
また、服装検出部42は以下に説明する2つの機能((1)画像合成機能、及び(2)重ね着判定機能)を有していてもよい。なお、各機能は、いずれもソフトウエアにより達成される。
(1)画像合成機能
服装検出部42は、第1カメラ31が撮像した画像と、第2カメラ32が撮像した画像とを合成して1つの画像とする。この場合、服装検出部42は、一例として、第1カメラ31が撮像した画像と、第2カメラ32が撮像した画像との重複部分を検出し、重複部分に基づいて画像を合成する。なお、服装検出部42は、フラッシュメモリ50に記憶されている服装データをリファレンスとして、第1カメラ31が撮像した画像と、第2カメラ32が撮像した画像とを合成してもよい。このように、画像合成が行われた場合には、服装検出部42は、合成された画像に基づいて、ユーザの服装を検出するようにすればよい。
(2)重ね着判定機能
服装検出部42は、ユーザが着ているYシャツ、Tシャツなどのインナーと、インナーの外側に着ているジャケット、トレーナ、ブルゾンなどのアウターとを検出(識別)することで、重ね着しているか否かを判定する。
図5(a)〜図5(f)は、ユーザの服装の例を示す図であり、図5(a)〜図5(d)は、男性の服装の例を示し、図5(e)、図5(f)は、女性の服装の例を示している。以下、これらの図に基づいて、重ね着判定の具体例について説明する。
図5(a)は、ユーザがYシャツ、ネクタイ、スーツを着ている例を示し、図5(b)は、ユーザがYシャツ、スーツを着ている例を示している。また、図5(c)は、ユーザがYシャツを着ているが、ジャケットを着ていない例を示し、図5(d)は、ユーザがポロシャツを着ている例を示している。また、図5(e)は、ユーザが丸首のシャツにジャケットを着ている例を示し、図5(f)はユーザがワンピースの上にジャケットを着ている例を示している。
これらのうち、図5(a)、図5(b)、図5(e)、図5(f)に示すように、ユーザが重ね着をしている場合は、アウターの襟はインナーの襟の外側に位置している。このため、服装検出部42は、複数の襟の画像を検出したときにユーザが重ね着をしていると判定することができる。また、インナーとアウターとでは色や模様、織り柄(画像を拡大したときのパターン)などが異なっていることが多いため、服装検出部42は、色や模様の違い、織り柄の違いなどから重ね着の判定を行ってもよい。また、これとは逆で、服装検出部42は、図5(c)、図5(d)に示すように、撮像部30がユーザの腕(二の腕や、手首を除いた前腕)を撮像した場合や、半袖を撮像した場合にユーザが重ね着をしていないと判定するようにしてもよい。
また、服装検出部42は、第3カメラ33がユーザの下半身(ズボン、スカート)を撮像した場合に、当該下半身が上着の色や模様と同じかどうかを判定し、同じであればユーザがスーツやワンピースを着ていると判定し、異なっていればユーザがジャケットや、シャツを着ていると判定するようにしてもよい。
上記のようにして重ね着判定した結果を利用することで、ユーザがインナーとアウターを着ているのか、スーツやワンピースを着ているのかなどを、検出することが可能となる。
図3に戻り、リサイズ部43は、第1カメラ31により撮像された画像に基づき、ユーザの体型の変化(太ったか、痩せたか、変わらないか)の有無を検出する。具体的には、リサイズ部43は、ユーザの両目の間隔をリファレンスとして、両目の間隔と、ある大きさに規格化された後の顔の輪郭や肩幅との比を検出する。なお、リサイズ部43は、輪郭や肩幅に関して、短期間に急激な変化が現れた場合には、ユーザに対して警告を行うようにしてもよい。
また、リサイズ部43によりユーザの体型の変化のログを取ることにより、例えば1年前の同季節の服が着られるかどうか、また、服を購入する際に前年に着ていた服を今年も着ることができるかの判定(推定)を行うようにしてもよい。
フラッシュメモリ50は、不揮発性の半導体メモリである。フラッシュメモリ50は、制御部60によって実行される携帯端末10を制御するためのプログラム、および、携帯端末10を制御するための各種パラメータや、服装情報(画像データ)等を記憶する。さらに、フラッシュメモリ50は、センサ部20が検出した各種データ、および、服装DB(図9参照)、服装やユーザの顔の輪郭に関するデータのログ(身なりログ(図10参照))を記憶する。
制御部60は、CPUを有し、情報処理システム200全体を統括的に制御する。本実施形態においては、制御部60は、ユーザが携帯端末10を操作しているときに撮像部30により撮像された画像から、ユーザの服装の情報を取得したり、当該ユーザの服装の情報に基づいた各種処理(コーディネート提案など)を実行する。
図1に戻り、外部機器100は、デジタルカメラ(以下、デジカメと呼ぶ)100a、画像サーバ100b、店舗サーバ100cを含む。なお、いずれの外部機器100も、図3に示すように、通信部、制御部、メモリを有しているものとする。
デジカメ100aは、ユーザやユーザの家族が所有しているデジカメである。デジカメ100aの制御部120aは、撮像した画像の中から、不図示の顔認識部によりユーザの顔が認識された画像を抽出し、通信部110aを介して携帯端末10に対して送信する。あるいは、制御部120aは、携帯端末10からのリクエストに応じて、メモリ130aに記憶されているユーザの画像を通信部110aを介して携帯端末10に送信する。
画像サーバ100bは、登録された複数のユーザの画像を保存するメモリ130bを有するサーバである。メモリ130bは、ユーザ毎に画像を記憶する領域(例えばフォルダ)が設けられており、登録されたユーザのみ画像を閲覧できる記憶領域、ユーザが許可したユーザのみ画像を閲覧できる記憶領域、画像サーバ100bに登録したユーザなら誰でも閲覧できる記憶領域を有している。制御部120bは、登録されたユーザが指定した記憶領域に画像を記憶する。また、制御部120bは、セキュリティーレベルに応じて画像の管理を行うととともに、登録されたユーザの操作に応じて、そのユーザが閲覧可能な画像を通信部110bを介して送信する。
本実施形態においては、ユーザによる携帯端末10の操作に応じて、ユーザ自身の画像が画像サーバ100bから携帯端末10に対して送信されるとともに、誰でも閲覧できる画像のうちの服装に関する画像が画像サーバ100bから携帯端末10に対して送信されるものとする。
店舗サーバ100cは、服を販売している店舗のサーバである。メモリ130cには、ユーザがどのような商品を購入したかの履歴が記憶されている。制御部120cは、ユーザからのリクエストに応じて、通信部110cを介して、ユーザの購入履歴情報を提供する。なお、購入履歴情報の一例は、購入日、金額、衣服の画像、色、サイズ、素材情報である。
本実施形態においては、前述のとおり、画像分析部40がインナー、アウター、帽子、ネクタイ、アクセサリー、髪型、顔の輪郭などのアイテム別に判別するが、店舗側からの購入した衣服の詳細情報から、アイテムが同一と判定された場合、そのアイテムと、店からの衣服の情報を関連付けることができる。また、各アイテムの代表画像を店舗サーバ100cから取得するようにしてもよい。なお、ユーザの許可があれば、アイテムの使用頻度データを店舗サーバ100cに情報提供するようにしてもよい。
以上のように構成される本実施形態の情報処理システム200の処理について、図6〜図8のフローチャートに沿って、その他図面を適宜参照しつつ詳細に説明する。
(ユーザの身なり検出処理)
図6は、ユーザの身なりを検出する処理のフローチャートである。この図6の処理は、生体センサ22(圧力センサなど)が、ユーザによる携帯端末10の保持を検出した段階から開始されるものであり、ユーザによる携帯端末10の操作中(使用中)にユーザに特段の操作を行わせることなく、ユーザの身なりを検出するものである。
図6の処理では、ステップS10において、制御部60が、撮像を行うかどうかの判断を行うために、センサ部20を用いて状況確認を行う。具体的には、制御部60は、GPSモジュール21によりユーザのいる位置を取得し、生体センサ22及び加速度センサ25によりユーザが立っているか、座っているか、歩いているかなどを検出する。なお、ここでは、ユーザは電車に座って移動しているものとして、以下説明する。
また、制御部60は、姿勢センサ23により携帯端末10の姿勢を検出するとともに、温湿度計24により温度及び湿度を検出する。また、制御部60は、カレンダ部16から現在の日時を取得するとともに、前回ユーザを撮像した時間を確認する。ここで、制御部60は、前回の撮像が会社に向かっているとき(通勤(行き)のとき)に行われた場合で、現在が同日の会社からの帰宅途中である場合には、ユーザが同じ服装であるとして撮像を行わなくてもよい。ただし、これに限らず、後述のステップS14でユーザを撮像したときに同じ服装であるかどうかを検出して、撮像を継続するかどうかを判断するようにしてもよい。
次いで、ステップS12では、制御部60は、ステップS10で取得した状況に基づいて撮像部30による撮像を行うかどうかを判断する。
ここで、制御部60は、例えば、ユーザが電車に座っており、携帯端末10のZ軸方向が鉛直方向から50°程度傾斜している場合には、第1カメラ31、第2カメラ32、第3カメラ33の全てを用いて、ユーザやユーザの身なりを撮像すると判断する。
なお、第1カメラ31、第2カメラ32は、携帯端末10のZ軸方向が鉛直方向を向いた状態から、ディスプレイ12を視認可能な方向へ70°程度傾けた状態の範囲内であれば、ユーザの撮像が可能であるとする。また、第3カメラ33は、携帯端末10のZ軸方向が鉛直方向から5°程度傾斜した状態から、ディスプレイ12を視認可能な方向へ90°程度傾けた状態の範囲内であれば、ユーザの撮像が可能であるとする。
なお、制御部60は、センサ部20に超音波センサを設けて、ユーザまでの距離を計測し、当該計測結果に基づいて、第1カメラ31、第2カメラ32、第3カメラ33のそれぞれによる撮像が可能かどうかを判断するようにしてもよい。
なお、ユーザが歩いているときには、撮像部30による撮像がうまくいかない場合もあるので、制御部60は、ユーザが静止するか、所定の加速度(もしくは角加速度)以下になるまで撮像部30による撮像を待つようにしてもよい。なお、所定の加速度(もしくは角加速度)は、ユーザが携帯端末10を保持した状態で歩いたときの加速度(もしくは角加速度)から求めればよく、例えば検出した値の1/2以下もしくは1/3以下とすればよい。
制御部60は、撮像部30の少なくとも1つのカメラによる撮像が可能であれば、ステップS14に移行する。一方、撮像部30による撮像が不可能であれば、図6の全処理を終了する(ステップS12:否定)。上述のように、本実施形態においては、制御部60は、加速度センサ25の出力からユーザの状態を検出し、姿勢センサ23の出力から携帯端末10の姿勢を検出し、それらの検出結果に基づいて撮像部30による撮像を行ったり、行わなかったりするので、ユーザに特段の操作を強いることがない。なお、撮像部30の撮像に限らず、ユーザの状態と携帯端末10の姿勢とに基づいて、携帯端末10で使用できる機能やアプリケーションを選択もしくは制限してもよい。例えば、制御部60が、ユーザが歩きながらディスプレイ12を見ていると判断したとする。この場合、制御部60は、ユーザがフラッシュメモリ50に記憶されている地図情報を見る可能性がある一方で、ゲームなどのアプリケーションを使用する可能性が低いことから、ディスプレイ12に表示される特定のアイコンメニューの表示を拡大したり、消去するなどすることができる。
ステップS14に移行すると、制御部60は、撮像部30による撮像を実行する。この場合、制御部60は、第1カメラ31、第2カメラ32、第3カメラ33の少なくとも1つを用いて撮像した画像データをフラッシュメモリ50に記憶する。なお、ここでは、制御部60が、服装検出部42が合成した画像データ(それぞれのカメラが撮像した複数枚の画像を合成した画像や、第1カメラ31が撮像した画像と第2カメラ32が撮像した画像とを合成した画像)をフラッシュメモリ50に記憶したものとする。
次いで、画像分析部40は、ステップS15において、前述したようにして、ユーザの顔認識、服装検出、リサイズ処理を行う。
なお、今回の撮像が同日の2回目以降の撮像の場合であって、前回撮像したユーザの服装と、今回撮像したユーザの服装とが同一であった場合には、制御部60は、図6の全処理を終了することとしてもよい。
次いで、ステップS16では、制御部60は、撮像開始から所定時間(数秒から数十秒)経過した後に、撮像を継続するかどうかの判断を行う。なお、このステップS16では、制御部60は、画像分析部40による画像合成や重ね着判定が終了していれば、撮像を終了すると判断するものとする。ステップS16における判断が肯定された場合(撮像を継続する場合)には、ステップS14に戻るが、ステップS16における判断が否定された場合(撮像を終了する場合)には、ステップS17に移行する。
ステップS17に移行すると、制御部60は、ユーザの身なり分析を実行する。この身なり分析では、服装検出結果やリサイズ処理の結果と、服装DB(図9)と、に基づいて、ユーザの服装や、身に着けているアクセサリーを特定して、図10に示す身なりログ(インナー、アウター、帽子、ネクタイ、やこれら各アイテムの代表色、アクセサリー、髪型(ロングヘア、ショートヘア)、輪郭のサイズ情報)に登録する。なお、このステップS17では、身なりログの1つのレコード(同一日付のレコード)のデータが、可能な限り登録される(場合によっては空白となる場合もある)。
ここで、図10の身なりログは、季節、日付、種別、画像、代表色、服装ID、気温、湿度、輪郭サイズ、種別の各フィールドを含んでいる。季節のフィールドには、日付に基づいて判定される季節が入力される。日付のフィールドには、カレンダ部16から取得される日付が入力される。種別のフィールドには、服装検出部42が検出した髪型や服装の種別が入力される。画像のフィールドには、服装DBの画像や、撮像部30および服装検出部42の処理に基づいた髪型や服装ごとの画像が入力される。代表色には、服装検出部42が検出した各服装の代表色が入力される。気温及び湿度のフィールドには、温湿度計24により検出された気温及び湿度が入力される。輪郭サイズのフィールドには、リサイズ部43による検出結果が入力される。種別のフィールドには、服装検出部42が検出した服装の種別(スーツ、ジャケット、和服、ワンピースなど)が入力される。なお、服装IDのフィールドには、現在着ている服装と同一の服装に関するデータが服装DBに存在していれば、服装DBに基づいてIDが入力されるが、服装DBに存在していなければ、空白となる。なお、季節のフィールドには、制御部60がカレンダ部16と温湿度計24とに基づいて判断した季節が入力される。
図6に戻り、ステップS18に移行すると、制御部60は、外部機器100との通信による身なりの情報(服装の情報)の取得が必要か否かを判断する。この場合、制御部60は、身なりログの服装IDが空白であるものが存在するか否かに基づいて、外部機器100との通信による身なりの情報(服装の情報)の取得が必要か否かを判断する。なお、髪型に関しては、服装IDが空白であっても外部機器100からの情報取得を必要としないものとする。
ステップS18の判断が肯定された場合には、ステップS20に移行する。そして、ステップS20では、制御部60が、外部機器100との通信を行う。例えば、服装検出部42によりユーザがスーツを着ていると検出した場合でも、このスーツが前日に購入したものであれば、服装DBにはこのスーツの情報が記憶されていない。そこで、制御部60は、通信部18を用いて外部機器100と通信することで、スーツに関する情報を外部機器100(店舗サーバ100c)から取得し、服装DBに登録する。なお、デジカメ100aや、画像サーバ100bには服装分析機能がない場合がある。このような場合は、前回通信した以降の画像データを取得したり、服装の色を条件として画像データを取得したりすればよい。上記のようにしてステップS20の処理が行われた後は、ステップS22に移行する。
ステップS22では、制御部60は、通信部18を用いて外部機器100から取得した新たな服装データに基づいて、ユーザの身なり分析を再度実行する。その後は、制御部60は、図6の全処理を終了する。なお、ステップS18の判断が否定された場合にも、制御部60は、図6の全処理を終了する。
以上のように、図6の処理を行うことで、制御部60は、ユーザの身なりのログをユーザに特段の操作を強いることなく、適切なタイミングでとることができる。
なお、図6の処理では、制御部60は、カレンダ部16の日付(もしくは月)情報、温湿度計24の出力に基づき、それぞれのアイテムが春夏秋冬のどの季節で用いられたかも身なりログに記憶している。すなわち、身なりログには、春夏秋冬に応じてユーザの身なり情報を記憶しているといえる。なお、アイテムによっては2シーズン(春、秋)、3シーズン(春、秋、冬)着用するものもあるので、それぞれの季節に応じた記憶は有効である。
(身なり報知処理)
図7は、ユーザに身なりを報知するための処理を示すフローチャートである。図7の処理は、所定期間の身なりのデータが取得された後、ユーザからの要求があった段階から開始されるものとする。
図7のステップS30では、制御部60は、週間データを比較し、表示する処理を実行する。具体的には、制御部60は、身なりログに記憶されている本日とその前の1週間の合計8日間の身なりに関する画像データを読み出し、本日の服装とその前の1週間の服装とを比較し、この比較結果を表示する。
この場合、制御部60は、上半身の重ね着のパターンが同じ日が有るか無いか、上半身の服装と下半身の服装との組合せが同じ日が有るか無いか、上半身の服装の色合いと下半身の服装の色合いとが同じ日が有るか無いかを比較し、比較結果をディスプレイ12上に表示する。また、制御部60は、同じ項目が無い場合や、比較結果の表示を行った後などにおいて、本日を含む8日間に着用した服装のランキングをディスプレイ12上に表示する。これにより、ユーザは、月曜日に同じ服装をしていたことや、1週間の間に白いシャツと黒いスカートの組合せが4回あったことや、各アイテムの代表色の組合せパターンが少ない、というような服装の傾向を知ることができる。
次いで、ステップS32では、制御部60は、月間データを比較し、表示する処理を実行する。具体的には、制御部60は、フラッシュメモリ50に記憶されている本日を含む30日分の身なりに関する画像データを読み出し、月単位での服装の比較を行い、この比較結果を表示する。なお、表示項目は、ステップS30と同様である。ただし、これに限らず、温湿度計24の計測結果に基づき、似たような気候(雨の日、暑めの日、寒めの日)毎に比較し、その結果を表示するようにしてもよい。これにより、ユーザは雨の日は同じ服装をしていたとか、温度に応じた服装の選択ができていたかどうかなどを知ることができる。
次いで、ステップS34では、制御部60は、過去のデータとの比較を行う。具体的には、制御部60は、過去(例えば昨年、一昨年)の同月・同週との服装の比較を行い、この比較結果を表示する。これにより、ユーザは毎年同じ服装であるかどうかなどを確認できるとともに、服装の購入の要否判断の一助とすることができる。また、服装の好みの変化や、リサイズ部43の検出履歴から体型の変化や、着なくなった服の有無などを知ることができる。なお、同月・同週ではなく、同じような気候の月、週としてもよい。
次いで、ステップS36では、制御部60は、ユーザに対して、コーディネートの提案が必要かどうかの問い合わせを行う。本実施形態では、制御部60は、ディスプレイ12に問い合わせのメッセージを表示する。そして、ユーザによるタッチパネル14の操作に基づいて、コーディネートの提案が必要か否かを判断する。ここでの判断が否定された場合には、図7の全処理を終了するが、肯定された場合には、ステップS38に移行する。
ステップS38に移行した場合、制御部60は、フラッシュメモリ50に記憶されている服装情報に基づいて、コーディネートの提案を行う。このステップS38では、制御部60は、例えば、本日撮像したユーザの髪型の画像データを取得し、同様の髪型の際にユーザが着用していた服装を提案したりすることができる。また、制御部60は、通信部18を介してインターネット上から流行情報、天気予報、気温予想などを取得して、これらに基づいて服装を提案したりすることができる。また、制御部60は、季節の変わり目などにおいて気温の変化が激しく(10℃近く)変動するような日には、天気予報、気温予想に基づき、ユーザが所持している服装からコーディネートを提案することができる。このようにすることで、ユーザに対して適切なコーディネートの情報を提供することができる。
なお、ステップS30、S32、S34,S38の処理の順番は適宜変更してもよく、また、ステップS30〜S34の処理については、ユーザにより選択された処理のみを実行するようにしてもよい。
以上のような処理を行うことで、ユーザの過去の服装の傾向を表示したり、ユーザがコーディネートを必要とする場合には、制御部60が、ユーザに対してコーディネート案を提供したりすることができる。
(新しい服装とのコーディネート提案処理)
上述した図7のステップS38の処理では、ユーザが所持している服装からコーディネートを提案するものとしたが、新しく服を購入する場合にも、ユーザは、既存の服とのコーディネートを考える必要がある。しかしながら、例えば秋服であれば8月の半ば以降から販売されるが、実際には8月は残暑も厳しく、衣替えもしていない。このため、ユーザは、新作の秋服を購入する段階では、手持ちの秋服を把握できていないことが多いことから、手持ちの秋服と類似した服や、手持ちの秋服とマッチしない服を購入してしまうことが多々ある。
そこで、図8の処理では、ユーザが購入しようとしている新しい服装と、手持ちの服装とのコーディネートを提案する処理を実行する。なお、図8の処理は、ユーザが店舗やインターネットや雑誌などにおいて新しい服を見ているときに、ユーザの指示の下開始される処理であるものとする。なお、以下においては、ユーザが、店舗で新しい服を見ている場合について説明する。
図8の処理では、ステップS40において、制御部60が、ユーザが購入を検討している服装データが入力されるまで待機する。なお、ユーザが服装データを入力する方法としては、店舗に置かれている端末(店舗サーバ100cに接続されているものとする)に、衣服につけられたバーコードや、電子タグに近づけて読み取らせ、店舗サーバ100cから携帯端末10に服装データを送信する方法を用いることができる。また、ユーザが服装データを入力する方法としては、衣服につけられたQRコードなどを携帯端末10の撮像部30で撮像することで、衣服のIDを読み込み、当該IDを用いて店舗サーバ100cにアクセスして、店舗サーバ100cから服装データを取得する方法を用いることができる。なお、ユーザは、店舗において服装の画像を撮像することで、服装のデータを入力するようにしてもよい。
上記のような方法によって服装データの入力があり、ステップS40の判断が肯定されると、制御部60は、ステップS42において、入力された新しい服装の判別を行う。具体的には、制御部60は、入力された服装データに基づきその服装が上半身の服装か、下半身の服装(ズボン、スカート)を判別する。また、制御部60は、その服装が上半身の服装の場合、入力された服装データに基づきインナーかアウターかを判別したり、ユーザにインナーかアウターかを入力してもらうなどして、判別を行う。
次いで、ステップS44では、制御部60は、ステップS42で判別した服装とのコーディネートを提案するために、ユーザが所持している服装情報を服装DBから読み出す。なお、ここでは、ユーザは秋物のジャケット(アウター)を新しい服装データとして入力したものとし、制御部60は、服装DBからジャケット、インナー、ズボンに関する服装情報を読み出すものとする。すなわち、制御部60は、入力された服装データのカテゴリーが第1のカテゴリーであったときは、当該第1のカテゴリーとともに、第1のカテゴリーと異なる第2のカテゴリーの服装情報を服装DBから読み出す。
次いで、ステップS46では、制御部60は、ユーザが購入を予定しているジャケットと類似のジャケットをユーザが所持しているかどうかを判断する。この場合、制御部60は、服装DBから読み出したジャケットの服装情報(色、デザイン)と、ユーザが購入を予定しているジャケットの情報(色、デザイン)とを比較し、類似しているかどうかを判断する。このステップS46の判断が否定された場合には、ステップS52に移行するが、肯定された場合には、ステップS48に移行する。
ステップS48に移行した場合、制御部60は、ディスプレイ12にユーザが所持している類似のジャケットの画像データを表示し、ユーザが手持ちのジャケットと同じようなジャケットの購入を検討していることを報知する。なお、制御部60は、ユーザが所持している他のジャケットの画像データについてもディスプレイ12に表示することとしてもよい。
ステップS48の処理が終了した後は、制御部60は、ステップS49において、ユーザが購入しようとしているジャケットを変更するか否かを尋ねるメッセージをディスプレイ12上に表示する。
次いで、ステップS50では、制御部60は、ユーザが、購入予定のジャケットを変更する旨の入力をタッチパネル14から入力したか否かを判断する。ここでの判断が肯定された場合には、ステップS40に戻るが、判断が否定された場合には、ステップS52に移行する。
ステップS52では、制御部60は、フラッシュメモリ50からアウター以外の服装情報(すなわち、インナーの服装情報とズボンの服装情報)とを読み出し、コーディネート提案(各服装を組み合わせた表示)をディスプレイ12に表示する。なお、コーディネート提案としては、ステップS40で入力された服装の色に合った色を代表色とする手持ちの服装を表示するなどすることができる。具体的には、制御部60は、黒とグレー、青と淡い青というように同じ色相や、近い色相になるような組合せを提案(ディスプレイ12に表示)すればよい。また、ストライプとボーダとの着合せは一般には行なわれないため、購入予定の服がストライプであれば、制御部60は、手持ちのボーダの服とのコーディネートを提案しないようにすればよい。同様に、制御部60は、模様同士の着合せを提案しないようにすればよい。また、制御部60は、手持ちの服のサムネイル画像をディスプレイ12に表示して、タッチパネル14によりユーザに選択させるようにしてもよい。なお、制御部60は、色が合っているか否かを、予め定められているテンプレート(インナーの色とアウターの色の適切な組み合わせを定義したテンプレート)等に基づいて判断するようにすればよい。これにより、ユーザは店舗にいながら新しく購入を予定しているジャケットと、所持している服装とをコーディネートすることができる。なお、通販などのように購入予定の服を試着できない場合や、試着が面倒な場合には、制御部60は、手持ちの服とのサイズ比較を行うようにすればよい。例えば、通販でスカートを購入する場合には、膝が出てしまうかどうかがわからないことがある。このような場合に、制御部60は、同じような丈の長さのスカートの画像をディスプレイ12に表示することにより、購入予定のスカートを着用した場合にひざが出るかどうかをユーザに視認させることができる。同様に、コートを着用した場合にスカートがコートの丈よりも長いか短いかがわからないことがある。このような場合には、制御部60は、手持ちのコートの丈との比較により、その結果をユーザに知らせることができる。このように、本実施形態の携帯端末10によれば、手持ちの同じカテゴリの服装の情報や、手持ちの異なるカテゴリーの服装の情報を用いて購入予定の服を着用したときの状態を確認することができる。
なお、ステップ52で行ったコーディネート提案は、図7のフローチャートのステップS38へも転用することができる。
次いで、ステップS54では、制御部60は、ユーザが本処理の継続を希望しているか否かを判断する。ここでの判断が肯定された場合には、ステップS40に戻るが、否定された場合には、図8の全処理を終了する。
以上のように、制御部60が図8の処理を実行することで、ユーザが新しく購入しようとしている服装と、手持ちの服装とが類似する場合に、ユーザにその旨を報知したり、新しく購入しようとしている服装と、手持ちの服装とによるコーディネート案をユーザに提供したりすることができる。
以上、詳細に説明したように、本実施形態によると、携帯端末10が、本体部11に設けられた第1カメラ31と、本体部11の第1カメラ31とは異なる位置に設けられた第2カメラ32、第3カメラ33と、本体部11の姿勢を検出する姿勢センサ23と、姿勢センサ23の検出結果に応じて、各カメラによる撮像を行う制御部60と、を備えている。これにより、本実施形態では、本体部11の姿勢に応じて、すなわち、第1〜第3カメラ31〜33の撮影可能範囲に応じて、撮像を行うことが可能となる。したがって、各カメラが適切な画像を撮像できるときに各カメラを用いた撮像が行われるため、適切な画像の撮像を自動的に行うことができ、携帯端末10の使い勝手を向上することが可能となる。
また、不適切な画像が撮像される可能性のあるとき(例えば盗撮になりかねない場合)に、自動的な撮像を行わないようにする(撮像を禁止する)ことができるため、この点からも、携帯端末10の使い勝手を向上することが可能となる。
また、本実施形態では、第1カメラ31は前記本体部の−Y側の面(主面)に設けられ、第3カメラ33は主面とは異なる面(+Y側の面)に設けられているので、ユーザが座った状態又は立った状態で、ユーザの上半身と下半身とを同時に撮像することが可能である。
また、本実施形態では、携帯端末10の主面(−Y側の面)に、タッチパネル14とディスプレイ12とが設けられているので、ユーザが携帯端末10の操作、ディスプレイ12の視認を行っている間に、ユーザの身なり(上半身や下半身)を撮像することができる。
また、本実施形態では、本体部11を保持しているユーザの姿勢を検出する加速度センサ25を有しており、制御部60は、加速度センサ25の検出結果に応じて、第3カメラ33の撮像条件を変更する。これにより、第3カメラ33により適切な画像を撮像できるときに、第3カメラ33による撮像を実行することができる。また、制御部60は、加速度センサ25の検出結果に応じて撮像された画像のトリミングを行うことで、撮像された画像のうち、撮像すべきでなかった可能性の高い部分をユーザが視認できないようにすることができる。
また、本実施形態では、ユーザが携帯端末10(本体部11)を保持していることを、生体センサ22の圧力センサ等により検出し、制御部60は、圧力センサ等による検出がされたときに、カメラ31〜33の少なくとも1つによる撮像を行うので、ユーザの身なり等を適切なタイミングで撮像することができる。
また、本実施形態では、服装検出部42が、各カメラが撮像した画像を合成するので、各カメラが撮像したユーザの部分的な画像(顔周辺、上半身、下半身などの画像)を纏めて1枚の画像とすることができる。これにより、ユーザの身なりを適切に分析することが可能となる。
また、本実施形態では、身なりに関するデータを記憶するフラッシュメモリ50を備えているので、制御部60は、ユーザの現在の身なりと過去の身なりとの同一性について分析したり、ユーザの現在の身なりのコーディネート案や、新しく購入しようとしている服と手持ちの服とのコーディネート案などを提案することができる。また、本実施形態では、通信部18が、外部機器100から身なりに関するデータを取得するので、過去の服装(デジカメ100aで撮像した服装や、画像サーバ100bに記憶されている服装など)のデータに基づいた、ユーザの身なりの分析を行うことが可能である。
また、本実施形態の携帯端末10では、制御部60が、ユーザの服装を撮像した画像データを取得し、服装検出部42が、画像データに基づいて、服装の組合せを判別するので、ユーザの服装の組み合わせを画像データから自動的に判別することが可能である。
また、本実施形態では、顔認識部41が、画像中からユーザの顔を認識するので、顔から下側の部分を服装と判断することで、ユーザの服装の組み合わせを簡易に判別することが可能である。また、顔認識結果を用いることで、ユーザの本人確認や、ユーザごとの服装管理を行うことが可能となる。
また、本実施形態では、制御部60は、フラッシュメモリ50に、ユーザの服装の組み合わせの頻度を記憶させるので、当該頻度の情報をユーザに対して提供(例えば、ディスプレイ12に表示)することができる。
また、本実施形態の携帯端末10は、ユーザが所持している服装データを記憶するフラッシュメモリ50と、フラッシュメモリ50に記憶されていない服装に関する情報を入力する通信部18とを備えている。これにより、制御部60は、ユーザが購入しようとしている服装(店舗サーバ100cから取得)と、フラッシュメモリ50に記憶されている手持ちの服装とのコーディネートを提案することができる。
また、本実施形態では、制御部60は、フラッシュメモリ50に記憶されている手持ちの服装データの中から、ユーザが購入しようとしている服装に類似した服装データを検出し、ディスプレイ12に表示する。これにより、ユーザが、手持ちの服装と類似する服装を新たに購入してしまうようなことを防止することができる。
また、本実施形態では、リサイズ部43が、ユーザの体型の変化を検出するので、当該体型の変化に関する情報をユーザに対して提供することができる。
なお、上記実施形態では、電車の中などの外出先においてユーザを撮像し、身なりを分析する場合について説明したが、これに限られるものではない。例えば、寒い季節においては、コートを着用しているため、コートの下に何を着用しているかが外から見て判断できない場合がある。このような場合には、ユーザが室内にいるとき(例えば、日付が冬であるのに、気温(室温)が15℃以上であるときなど)にのみ、ユーザの撮像を行うようにしてもよい。
なお、上記実施形態では、制御部60は、図7のステップS38において、髪型等に基づいたコーディネート提案を行うものとしたが、これに限られるものではない。例えば、ユーザが海外に行く場合に、その国や都市を入力したとする。このような場合には、制御部60は、例えば、画像サーバ100bからその国や都市(例えばデンマーク)の在住者であり、かつユーザと同じ性別で年齢の近い人の最近(又は前年)の服装の画像データを取得し、提供することとしてもよい。これにより、ユーザに対して、現地の気候や風土に適したコーディネートの情報を提供することができる。
なお、ステップS48では、新しい服装の購入を検討している場合に、類似の服装をすでに保有しているのであれば、ユーザに対してその旨を報知する場合について説明したが、これに限られるものではない。例えば、服装DBにおいて服装のサイズを管理しているような場合で、新しい服装のサイズと、手持ちの服装のサイズとが異なる場合には、これまでの服装が着れなくなるおそれがある旨をユーザに報知するようにしてもよい。なお、このような報知は、成長盛りである子供の洋服のコーディネートを行う場合に特に有効である。また、ユーザが自分のサイズを認識していない場合もあるので、服装DBに記憶されている服装のサイズを抽出し、ディスプレイ12に予め表示するようにしてもよい。
更に、家族の服を購入する場合や、他人に服をプレゼントする場合には、他人のサイズやどのような服を所持しているかがわからない場合がある。このような場合には、通信部18がデジカメ100aや、画像サーバ100b、店舗サーバ100cから家族や他人のサイズや、家族や他人が所持している服装情報を分析し、ユーザに報知するようにしてもよい。
なお、上記実施形態では、携帯端末10の主面(−Y側の面)に、操作部(上記実施形態ではタッチパネル14)と表示部(上記実施形態ではディスプレイ12)の両方が設けられている場合について説明した。しかしながら、これに限らず、少なくとも一方が設けられていればよい。
なお、上記実施形態では、本体部11に第1〜第3カメラ31〜33を設ける場合について説明したが、これに限られるものではない。第1〜第3カメラ31〜33のうちの少なくとも2つが設けられていればよい。すなわち、これら少なくとも2つのカメラのみならず、上記実施形態で説明したカメラ以外の1又は複数のカメラが本体部11に設けられていてもよい。
なお、上記実施形態においては、携帯端末10の撮像部30によりユーザの身なりの情報を検出したが、パーソナルコンピュータに撮像部を設けて、ユーザがパーソナルコンピュータを操作している間にユーザの身なりを検出してもよい。また、携帯端末10とパーソナルコンピュータとを連携して、ユーザの身なりの情報を検出したり、コーディネートの情報を提供したりしてもよい。
また、上記実施形態では、電話機能のある片手サイズの大きさである携帯端末(スマートフォン)を例にとり説明したが、タブレット型コンピュータなどの携帯端末にも、上記実施形態を適用することができる。
なお、上記実施形態では、ユーザの身なり分析などの処理を、制御部60が行うこととしたが、これに限られるものではない。上記実施形態で説明した制御部60の処理の一部又は全部を、ネットワーク80に接続された処理サーバ(クラウド)が実行することとしてもよい。
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。
10 携帯端末
11 本体部
12 ディスプレイ
14 タッチパネル
18 通信部
23 姿勢センサ
25 加速度センサ
31 第1カメラ
32 第2カメラ
33 第3カメラ
42 服装検出部
43 リサイズ部
50 フラッシュメモリ
60 制御部
100 外部機器

Claims (14)

  1. ユーザが所持している服装に関する情報を記憶するメモリと、
    前記メモリに記憶されていない服装に関する情報を入力する入力部と、を備えたことを特徴とする電子機器。
  2. 前記入力部に入力された服装に関する情報に応じて、前記メモリに記憶されている服装に関する情報を表示する表示部を備えたことを特徴とする請求項1に記載の電子機器。
  3. 前記表示部は、前記入力部に入力された服装に関する情報が第1のカテゴリーであるときに、前記メモリから第1のカテゴリーとは異なる第2のカテゴリーの服装に関する情報を表示することを特徴とする請求項2に記載の電子機器。
  4. 前記表示部は、前記入力部に入力された服装に関する情報と、前記メモリに記憶されている服装に関する情報とを組み合わせて表示することを特徴とする請求項2又は3に記載の電子機器。
  5. 前記メモリに記憶されている服装に関する情報の中から、前記入力部に入力された服装に関する情報に類似した服装に関する情報を検出する検出部を備え、
    前記表示部は、前記検出部により検出された類似した服装情報を表示することを特徴とする請求項2〜4のいずれか一項に記載の電子機器。
  6. 前記入力部に入力された服装に関する情報に基づいて、前記体型の変化を検出する体型変化検出部を備えたことを特徴とする請求項1〜5のいずれか一項に記載の電子機器。
  7. ユーザ以外の人の服装に関する情報を取得する取得部と、
    前記ユーザが特定した服装に関する情報を入力する入力部と、を備えたことを特徴とする電子機器。
  8. 前記ユーザ以外の人の服装に関する情報と、前記ユーザが特定した服装に関する情報と、を比較する比較部を備えたことを特徴とする請求項7に記載の電子機器。
  9. 前記比較部による比較結果を表示する表示部を備えたことを特徴とする請求項8に記載の電子機器。
  10. 前記入力部に入力される情報には前記服装の色相に関する情報が含まれており、
    前記メモリに記憶されている服装の情報から前記色相と同じまたは近い色相の情報を抽出する第1抽出部を備えたことを特徴とする請求項1〜9のいずれか一項に記載の電子機器。
  11. 前記入力部に入力される情報には前記服装のサイズに関する情報が含まれており、
    前記メモリに記憶されている服装の情報から前記サイズに応じた情報を抽出する第2抽出部を備えたことを特徴とする請求項1〜10のいずれか一項に記載の電子機器。
  12. 前記第2抽出部は、前記入力部に入力された服装と同じカテゴリの服装の情報を抽出することを特徴とする請求項11に記載の電子機器。
  13. 前記第2抽出部は、前記入力部に入力された服装と異なるカテゴリの服装の情報を抽出することを特徴とする請求項11に記載の電子機器。
  14. 前記入力部に入力される情報には、前記服装の柄に関する情報が含まれており、
    前記メモリに記憶されている服装の情報から前記柄に応じて情報の抽出を規制する規制部を備えたことを特徴とする請求項1〜13のいずれか一項に記載の電子機器。
JP2012072217A 2012-03-27 2012-03-27 電子機器 Pending JP2013205969A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012072217A JP2013205969A (ja) 2012-03-27 2012-03-27 電子機器
CN201280071880.0A CN104247393A (zh) 2012-03-27 2012-10-05 电子设备
US14/389,049 US20150084984A1 (en) 2012-03-27 2012-10-05 Electronic device
IN7947DEN2014 IN2014DN07947A (ja) 2012-03-27 2012-10-05
PCT/JP2012/075928 WO2013145387A1 (ja) 2012-03-27 2012-10-05 電子機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012072217A JP2013205969A (ja) 2012-03-27 2012-03-27 電子機器

Publications (1)

Publication Number Publication Date
JP2013205969A true JP2013205969A (ja) 2013-10-07

Family

ID=49525019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012072217A Pending JP2013205969A (ja) 2012-03-27 2012-03-27 電子機器

Country Status (1)

Country Link
JP (1) JP2013205969A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016225938A (ja) * 2015-06-03 2016-12-28 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2016224746A (ja) * 2015-06-01 2016-12-28 株式会社イトーキ パフォーマンスレベル測定装置、パフォーマンスレベル測定方法及びプログラム。
CN106506923A (zh) * 2016-12-07 2017-03-15 上海传英信息技术有限公司 具摄像功能的移动设备
CN106534647A (zh) * 2016-12-07 2017-03-22 上海传英信息技术有限公司 具摄像功能的移动设备
JP2018173704A (ja) * 2017-03-31 2018-11-08 日本電気株式会社 情報提供システム、情報提供方法、およびプログラム
GB2568677A (en) * 2017-11-21 2019-05-29 Edesix Ltd Body mountable camera device
JP2020512649A (ja) * 2017-03-30 2020-04-23 スノー コーポレーション アイテムの推薦情報提供方法および装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101272A (ja) * 1999-07-26 2001-04-13 Masaru Fujibayashi インターネットを利用した身体関連商品の購入システム
JP2001134663A (ja) * 1999-11-08 2001-05-18 Sumitomo Corp 通信ネットワークを用いた販売システム及び記録媒体
JP2002095525A (ja) * 2000-09-26 2002-04-02 Tadashi Sumiyasu アドバイス型支援システム
JP2002099840A (ja) * 2000-09-21 2002-04-05 Toshiba Eng Co Ltd ファッションコーディネート方法、ファッションコーディネート装置およびファッションコーディネートプログラムが格納されたコンピュータ読み取り可能な記録媒体
JP2002215770A (ja) * 2001-01-15 2002-08-02 Ricoh Co Ltd コーディネートサービス方法、サービスセンタ及びプログラム
JP2003345943A (ja) * 2002-05-22 2003-12-05 Hitachi Ltd コーディネイト検索方法及びシステム
JP2004220200A (ja) * 2003-01-10 2004-08-05 Sony Ericsson Mobilecommunications Japan Inc コーディネイト情報提供方法及び装置、コーディネイト情報提供システム、コーディネイト情報提供プログラム
JP2006089883A (ja) * 2004-09-27 2006-04-06 Akira Kondo 服飾品販売システム及び服飾品販売方法
JP2010231273A (ja) * 2009-03-25 2010-10-14 Victor Co Of Japan Ltd 情報表示方法、情報表示システム、携帯端末および情報提供サーバ
JP2011081486A (ja) * 2009-10-05 2011-04-21 Nec Corp コーディネート画像作成装置、コーディネート画像作成方法およびプログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101272A (ja) * 1999-07-26 2001-04-13 Masaru Fujibayashi インターネットを利用した身体関連商品の購入システム
JP2001134663A (ja) * 1999-11-08 2001-05-18 Sumitomo Corp 通信ネットワークを用いた販売システム及び記録媒体
JP2002099840A (ja) * 2000-09-21 2002-04-05 Toshiba Eng Co Ltd ファッションコーディネート方法、ファッションコーディネート装置およびファッションコーディネートプログラムが格納されたコンピュータ読み取り可能な記録媒体
JP2002095525A (ja) * 2000-09-26 2002-04-02 Tadashi Sumiyasu アドバイス型支援システム
JP2002215770A (ja) * 2001-01-15 2002-08-02 Ricoh Co Ltd コーディネートサービス方法、サービスセンタ及びプログラム
JP2003345943A (ja) * 2002-05-22 2003-12-05 Hitachi Ltd コーディネイト検索方法及びシステム
JP2004220200A (ja) * 2003-01-10 2004-08-05 Sony Ericsson Mobilecommunications Japan Inc コーディネイト情報提供方法及び装置、コーディネイト情報提供システム、コーディネイト情報提供プログラム
JP2006089883A (ja) * 2004-09-27 2006-04-06 Akira Kondo 服飾品販売システム及び服飾品販売方法
JP2010231273A (ja) * 2009-03-25 2010-10-14 Victor Co Of Japan Ltd 情報表示方法、情報表示システム、携帯端末および情報提供サーバ
JP2011081486A (ja) * 2009-10-05 2011-04-21 Nec Corp コーディネート画像作成装置、コーディネート画像作成方法およびプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016224746A (ja) * 2015-06-01 2016-12-28 株式会社イトーキ パフォーマンスレベル測定装置、パフォーマンスレベル測定方法及びプログラム。
JP2016225938A (ja) * 2015-06-03 2016-12-28 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN106506923A (zh) * 2016-12-07 2017-03-15 上海传英信息技术有限公司 具摄像功能的移动设备
CN106534647A (zh) * 2016-12-07 2017-03-22 上海传英信息技术有限公司 具摄像功能的移动设备
JP2020512649A (ja) * 2017-03-30 2020-04-23 スノー コーポレーション アイテムの推薦情報提供方法および装置
JP7069210B2 (ja) 2017-03-30 2022-05-17 スノー コーポレーション アイテムの推薦情報提供方法および装置
JP2018173704A (ja) * 2017-03-31 2018-11-08 日本電気株式会社 情報提供システム、情報提供方法、およびプログラム
GB2568677A (en) * 2017-11-21 2019-05-29 Edesix Ltd Body mountable camera device
GB2568677B (en) * 2017-11-21 2021-12-01 Edesix Ltd Body mountable camera device

Similar Documents

Publication Publication Date Title
WO2013145387A1 (ja) 電子機器
JP2013205969A (ja) 電子機器
JP5929145B2 (ja) 電子機器、情報処理方法およびプログラム
US11836963B2 (en) Computer vision assisted item search
JP2017076315A (ja) 画像処理装置、画像処理方法及びプログラム
JP2013207407A (ja) 電子機器
GB2403363A (en) Tags for automated image processing
JP5504807B2 (ja) コーディネート画像作成装置、コーディネート画像作成方法およびプログラム
US20150018023A1 (en) Electronic device
JP5674465B2 (ja) 画像処理装置、カメラ、画像処理方法およびプログラム
JP6720385B1 (ja) プログラム、情報処理方法、及び情報処理端末
JP5915457B2 (ja) 制御システムおよびプログラム
WO2013084395A1 (ja) 電子機器、情報処理方法およびプログラム
CN106164838A (zh) 信息显示方法和信息显示终端
JP5264634B2 (ja) コーディネートシステム、コーディネート方法及びプログラム
US20130113828A1 (en) Image processing apparatus, image processing method, and program
US20230162533A1 (en) Information processing device, information processing method, and program
JP6656572B1 (ja) 情報処理装置、表示制御方法および表示制御プログラム
JP2013207406A (ja) 電子機器
CN110197420A (zh) 一种智能试衣系统
JP2004086662A (ja) 服試着サービス提供方法および服試着システム、利用者端末装置、プログラム、携帯電話機搭載用プログラム、並びに管理サーバ
JP4427714B2 (ja) 画像認識装置、画像認識処理方法および画像認識プログラム
KR20140139901A (ko) 의류 관리 및 코디네이션 기능을 갖춘 어플리케이션
JP2006155545A (ja) 画像評価装置及びカメラ付き携帯端末
JPWO2020059263A1 (ja) 画像提案装置、画像提案方法及び画像提案プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160411

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160628