JP2014033398A - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP2014033398A
JP2014033398A JP2012173879A JP2012173879A JP2014033398A JP 2014033398 A JP2014033398 A JP 2014033398A JP 2012173879 A JP2012173879 A JP 2012173879A JP 2012173879 A JP2012173879 A JP 2012173879A JP 2014033398 A JP2014033398 A JP 2014033398A
Authority
JP
Japan
Prior art keywords
unit
user
display
control unit
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012173879A
Other languages
English (en)
Inventor
Takuya Sato
琢也 佐藤
Daiki Ito
大樹 伊藤
Satoshi Ejima
聡 江島
Minako Nakahata
美奈子 中畑
Hiroyuki Mushu
宏行 無州
Tomoko Sugawara
知子 菅原
Masaichi Sekiguchi
政一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012173879A priority Critical patent/JP2014033398A/ja
Priority to CN201380034704.4A priority patent/CN104395875A/zh
Priority to PCT/JP2013/003092 priority patent/WO2014024362A1/ja
Publication of JP2014033398A publication Critical patent/JP2014033398A/ja
Priority to US14/616,084 priority patent/US20150253873A1/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Closed-Circuit Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】使い易い装置を提供する。
【解決手段】ユーザが手にした第1部材に関する情報を入力する入力部と、入力部が入力した情報に基づいて、ユーザの動きを予測する予測部と、第1部材と近距離通信または人体を介した通信を行なう第1通信部と、人体を介した通信とは異なる通信方式で外部機器と通信を行う第2通信部と、を備え、第1部材は体の特定部位に対して使用される道具であり、予測部は、入力部が入力した情報に基づいて第1部材を識別し、ユーザが第1部材を用いて作業をする対象となる体の部位を判別する電子機器を提供する。
【選択図】図7

Description

本発明は、電子機器、方法およびプログラムに関する。
従来、自分の後ろ姿を確認する姿見装置が提案されている(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2010−87569号公報
しかしながら、従来の姿見装置は、操作の使い易さについては言及されておらず、使い勝手の良いものではなかった。
本発明の第1の態様においては、ユーザが手にした第1部材に関する情報を入力する入力部と、前記入力部が入力した情報に基づいて、前記ユーザの動きを予測する予測部と、を備えた電子機器を提供する。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本実施形態に係る表示システム1のブロック図である。 本実施形態に係る表示システム1の概要を示す図である。 本実施形態に係る表示装置10の制御部19の処理フローを示す。 (A)はユーザが携帯機器20を縦位置で保持し、表示装置10に対して正対している状態を示し、(B)はユーザが携帯機器20を縦位置で保持し、表示装置10に対して背を向けている状態を示す。 (A)はユーザが表示装置10に対して背を向けてから、再度、表示装置10に対して正対した状態を示し、(B)はユーザが携帯機器20を横位置で保持し、表示装置10に対して正対している状態を示す。 (A)はユーザが表示装置10に対して横を向いている状態を示し、(B)はユーザが表示装置10に対して斜め前方向を向いている状態を示す。 変形例に係る表示システム1のブロック図である。 変形例に係る表示システム1の概要を示す図である。 化粧道具50の外観の一例を示す。 変形例に係る表示装置10の制御部19の処理フローを示す。 (A)はユーザの顔の全体画像および口の画像を分割して表示した例を示し、(B)はユーザの顔の全体画像および両目の画像を分割して表示した例を示す。 (A)はユーザが右目の化粧をしている状態を示し、(B)はユーザが左目の化粧をしている状態を示す。 ユーザの顔の全体画像および右目の画像を分割して表示した例を示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
(表示システム1の構成)
図1は、本実施形態に係る表示システム1のブロック図を示し、図2は、表示システム1の概要を示す図であり、以下図1,2を用いて説明を行う。なお、表示システム1は、例えばユーザが自身の姿を確認するための姿見装置として用いられる。
表示システム1は、表示装置10と、ユーザにより保持されて用いられる携帯機器20とを用いてユーザの姿見を行うものである。表示装置10および携帯機器20は、人体通信および無線通信によりデータの送受信を行うことができる。
表示装置10および携帯機器20は、通常時には互いに独立の装置として機能するが、人体通信を介したペアリング(互いの装置を認証する処理)を行った場合には互いに連携して動作する。
人体通信は、導体である人体を通信媒体とする通信であり、人体に微弱な電流を流して、その電流を変調して情報を伝達する電流方式、および人体の表面に誘起する電力電界を変調して情報を伝達する電界方式等がある。本実施形態においては、電流方式及び電界方式の何れのタイプを用いることも可能であるが、ここでは電界方式を用いた場合について説明する。また、表示装置10および携帯機器20は、人体通信に代えて、FeliCa(登録商標)等の非接触通信、トランスファージェット(登録商標)等の近接無線転送技術または近距離無線通信(NFC)等の近接通信を用いてペアリングを行ってもよい。
(表示装置10)
表示装置10は、一例として対角の長さが20インチより大きい表示領域を有する機器である。表示装置10は、撮像部11と、駆動部12と、表示部13と、画像調整部14と、メモリ部15と、電極部16と、人体通信部17と、無線通信部18と、制御部19と、を備える。
撮像部11は、レンズ群と、CCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)センサ等の撮像素子とを有する。撮像部11は、当該表示装置10の上部等に設けられ、当該表示装置10の前に位置するユーザの顔(または全身等)を撮像して動画及び静止画等を出力する。なお、撮像部11は、レンズ群の一部のレンズとして、ズームレンズを含んでもよい。
駆動部12は、撮像部11をチルト方向(垂直方向の首振り)およびパン方向(水平方向の首振り)に駆動して、撮像部11の撮影方向を変更する。駆動部12は、一例として、DCモータ、ボイスコイルモータおよびリニアモータ等を適用することができる。
表示部13は、撮像部11が撮像した画像を表示面に表示するディスプレイ13a(例えば液晶表示装置)と、このディスプレイ13aの表示面に重ね合わせて設けられたハーフミラー13bとを有する。ハーフミラー13bは、ガラス等の透明な板に金属膜を蒸着したり、半透過膜を透明な板に貼り付けたりすることにより形成され、一方の側からの光を反射するとともに、この一方の側とは反対の側からの光を透過する。このようなハーフミラー13bを有することにより、表示部13は、当該表示装置10の前に位置するユーザに対して、撮像部11が撮像した画像とともに、当該ユーザの鏡像を反射して視認させることができる。また、表示部13は、人体通信が成立していることを示す表示や、無線通信が成立していることを示す表示を行っており、これにより、ユーザは通信状況を視認することができる。
なお、表示部13は、ハーフミラー13bを有さずに、撮像部11が撮像した画像を表示してもよい。また、表示部13は、表示領域を分割して、ハーフミラー13bによる鏡像と撮像部11による撮像画像との両方を視認できる領域と、鏡像および撮像画像の一方を視認できる領域とを形成してもよい。
画像調整部14は、撮像部11により撮像された画像を調整して表示部13に表示させる。具体的には、画像調整部14は、撮像部11により撮像された画像の一部をトリミングしたり、トリミングした画像を拡大したり、画像のトリミング位置を移動させたりして、表示部13に表示させる。
メモリ部15は、バッファメモリ15aと、不揮発性のフラッシュメモリ15bとを有する。バッファメモリ15aは、撮像部11によって撮像された画像データを一時的に記憶したり、画像調整部14のワークメモリとして用いられたりする。なお、バッファメモリ15aは、例えば揮発性の半導体メモリである。フラッシュメモリ15bには、バッファメモリ15aに記憶された画像データのうちユーザ等により指定された画像データが転送され、転送された画像データを記憶する。また、フラッシュメモリ15bは、制御部19により実行されるプログラムデータ等の各種データを記憶する。
電極部16は、信号電極とグランド電極とを有し、携帯機器20との間でユーザを介した人体通信により信号を授受する。電極部16は、ユーザの手に触れやすいように表示装置10の前面に設けられている。なお、電界方式の人体通信においては、ユーザが素手である場合(すなわち、ユーザの手と電極部16が接触している場合)はもちろん、ユーザが手袋をしている場合(すなわち、ユーザの手と電極部16が対向している場合)であっても、通信可能である。このため、電極部16は、プラスチックまたは樹脂等で形成された筐体の内部に設けられていてもよい。また、グランド電極は、表示装置10の回路基板のグランドに接続されていてもよい。
人体通信部17は、電極部16に接続され、バンドパスフィルタを有した電気回路から構成される送受信部を有し、入力した受信信号を復調して受信データを生成したり、送信するデータを変調して送信信号を生成したりする。人体通信部17は、携帯機器20との間でユーザの人体を介した人体通信により情報を送受信する。例えば、人体通信部17は、携帯機器20のIDを受信したり、携帯機器20に対して表示装置10のIDを送信したりする。また、人体通信部17は、他の通信方式への切換えをさせるための切換信号を携帯機器20に送信する。
無線通信部18は、無線LAN(Local Aria Network)、BlueTooth(登録商標)又は赤外線通信等の無線通信により、携帯機器20との間で情報を送受信する。例えば、無線通信部18は、バッファメモリ15aに記憶された画像データ等を携帯機器20に送信する。
制御部19は、CPU(Central Processing Unit)を有し、撮像部11、駆動部12、表示部13のディスプレイ13a、画像調整部14、メモリ部15(バッファメモリ15a及びフラッシュメモリ15b)、人体通信部17及び無線通信部18に接続されて、表示装置10の全体を制御する。例えば、制御部19は、携帯機器20との間の通信処理を制御する。
(携帯機器20)
携帯機器20は、一例として、携帯電話機、スマートフォンまたはタブレット型のコンピュータ等の機器である。携帯機器20は、表示部21と、タッチパネル22と、センサ部23と、計時部24と、撮像部25と、マイクロフォン26と、フラッシュメモリ27と、電極部28と、人体通信部29と、無線通信部30と、振動部31と、制御部32と、を備える。
表示部21は、液晶ディスプレイまたは有機ELディスプレイ等であり、制御部32の制御の下、画像データおよび文字データ等のデータを表示したり、ユーザが操作を行うための操作ボタンおよびメニュー等を表示したりする。また、表示部21は、人体通信が成立していることを示す表示や、無線通信が成立していることを示す表示(例えば、アイコン表示)を行ってもよい。この場合、後述する電極部28の出力からユーザが携帯機器20を保持していることや、後述する姿勢センサ23bの出力からユーザが表示部21を視認可能と判断される場合に通信状態の表示を行うようにしてもよい。なお、表示装置10の表示部13の表示領域が対角数十インチであるのに対して、表示部21の表示領域は、対角数インチであり、表示装置10の表示部13と比較して小さい。
タッチパネル22は、表示部21に一体的に設けられており、ユーザが表示部21に表示された仮想操作ボタン(例えば、図4に示す右操作マーク41R、左操作マーク41L)またはメニュー等に対して操作した場合、当該操作入力を受け付ける操作部である。タッチパネル22は、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式または静電容量方式等のいずれの方式であってもよい。なお、タッチパネル22に代えて、または、併用して操作ボタンを用いてもよい。
センサ部23は、GPS(Global Positioning System)モジュール23aと、姿勢センサ23bと、方位センサ23cとを有する。これらに加えて、センサ部23は、ユーザの生体情報を取得する生体センサを有してもよい。
GPSモジュール23aは、携帯機器20の位置(緯度、経度)を検出する。GPSモジュール23aにより検出される位置情報(ユーザが存在する位置の情報)は、制御部32によりフラッシュメモリ27に書き込まれる。
姿勢センサ23bは、携帯機器20の姿勢を検出するセンサであり、本実施形態においては、ユーザが携帯機器20を保持する角度や、ユーザが携帯機器20を縦位置か横位置かのいずれで保持しているのかを検出する。なお、ここで、縦位置とは、携帯機器20の表示部21をユーザが図2に示されているように保持した状態をいい、横位置とは縦位置からほぼ90度回転して後述の図5(B)に示されているように保持した状態をいう。
姿勢センサ23bは、一例として、フォトインタラプタの赤外光を重力によって移動する小球が遮断するか否かを検知することにより一軸方向の姿勢を検出するセンサを、複数個組合せた構成である。これに代えて、姿勢センサ23bは、3軸加速度センサまたはジャイロセンサ等を用いた構成であってもよい。また、姿勢センサ23bは、タッチパネル22に接触しているユーザの指の位置から携帯機器20が縦位置か横位置かを検出する構成であってもよい。
また、姿勢センサ23bは、筐体の側面のほぼ全体に設けられた電極に接触した指の位置から携帯機器20が縦位置か横位置かを検出する構成であってもよい。この場合、指が接触している電極の抵抗値および容量値は低下するので、姿勢センサ23bは、電極の抵抗値または容量値の変化を検出して手で触れられている電極を検知する。また、このような姿勢センサ23bを設けた場合、携帯機器20は、抵抗または容量が下がった電極を、人体通信に用いる電極部28として機能させてもよい。
なお、姿勢センサ23bにより検出された携帯機器20の姿勢情報は、表示部21に表示される画像の向きの調整等に用いられる。
方位センサ23cは、方位を検出するためのセンサであり、互いに直交する方向の地磁気成分を検出する2軸の磁気センサによる磁界検出値から方位を検出する。本実施形態においては、方位センサ23cにより検出された方位は、ユーザの表示装置10に対する向き(例えばユーザが表示装置10に対して正対しているか、または、ユーザが表示装置10に対して背を向けているか等)の判別に用いられる。
また、本実施形態においては、方位センサ23cにより検出された方位は、例えば、図2に示すように、携帯機器20に方位情報40として表示される。
計時部24は、現在の時刻を検出したり、指定された期間の経過時間を計時したりする。計時部24は、検出結果および計時結果を制御部32に出力する。
撮像部25は、レンズ群と、CCDイメージセンサまたはCMOSセンサ等の撮像素子とを有し、被写体を撮像して動画及び静止画等を出力する。本実施形態においては、撮像部25は、表示部21と同一面における上方に設けられており、携帯機器20を使用するユーザを撮像することができる。
マイクロフォン26は、表示部21と同一面における下方に設けられており、主にユーザが発した音声を取得する。フラッシュメモリ27は、不揮発性のメモリであり、表示装置10から送信された各種データ、センサ部23の検出データ、および携帯機器20のアプリケーションプログラム等を記憶する。
電極部28は、信号電極とグランド電極とを有し、表示装置10との間でユーザを介した人体通信により信号を授受する。電極部28は、ユーザの手に触れやすいように携帯機器20の側面または背面等に設けられている。なお、電界方式の人体通信においては、電極部28は、プラスチックまたは樹脂等で形成された筐体の内部に設けられていてもよい。また、グランド電極は、携帯機器20の回路基板のグランドと接続されていてもよい。
人体通信部29は、電極部28に接続され、バンドパスフィルタを有した電気回路から構成される送受信部を有し、入力した受信信号を復調して受信データを生成したり、送信するデータを変調して送信信号を生成したりする。人体通信部29は、表示装置10に対して携帯機器20のIDを送信したり、表示装置10のIDを受信したりする。また、人体通信部29は、他の通信方式への切換えをさせるための切換信号を表示装置10から受信する。
無線通信部30は、無線LAN、BlueTooth(登録商標)又は赤外線通信等の無線通信により表示装置10との間で情報を送受信する。例えば、無線通信部30は、表示装置10から画像データ等を受信したり、姿勢センサ23bにより検出された姿勢や、方位センサ23cにより検出された方位を表示装置10に送信したりする。
振動部31は、振動モータを有し、複数の振動パターンで携帯機器20を振動させるものである。本実施の形態においては、人体通信部29による通信や無線通信部30による通信が成立したときに振動部31が数秒程度振動し、前述の通信が終了した際に数秒程度振動する。また、振動部31は、通信の種類や、通信の成立(開始)、通信の終了を判別するために振動の間隔や、振動の強度を複数設定できる。
制御部32は、CPUを有し、表示部21、タッチパネル22、センサ部23、計時部24、撮像部25、マイクロフォン26、フラッシュメモリ27、人体通信部29および振動部31と接続されて携帯機器20の全体を制御する。例えば、制御部32は、姿勢センサ23bの出力に応じて表示部21に表示する画像の向きを変更したり、表示装置10との間の通信の制御をしたりする。更に、制御部32は、通話機能および財布機能等の各種機能を実行してもよい。
なお、携帯機器20の無線通信部30と、表示装置10の無線通信部18との通信が行われにくい場合がある。このような場合、表示システム1では、表示装置10が設置されているスペースに表示装置10から分離して複数の受信部を設け、複数の受信部の中から最も通信強度の強い受信部からユーザの向きを検出するようにしてもよい。
(表示システム1の処理フロー)
図3は、本実施形態に係る表示装置10の制御部19の処理フローを示す。表示装置10及び携帯機器20を連携して動作させる場合、ユーザは、携帯機器20を一方の手で持って所定の姿勢(縦位置または横位置)で保持しながら、表示装置10に対して所定の向きを向いた状態(例えば正対した状態)で、他方の手で表示装置10の電極部16に触れる。このことに応じて、本フローチャートはスタートする。なお、ユーザは、携帯機器20を人体通信が可能な箇所に所定の姿勢で保持していれば、手で持っていなくてもポケット等に入れていてもよい。
まず、ステップS11において、表示装置10の制御部19は、ユーザが電極部16を触れたことに応じて、携帯機器20との間で人体通信が成立したか否かを判断し、人体通信が成立するまで処理を待機する。制御部19は、人体通信が成立したタイミングで処理をステップS12に移行する。なお、制御部19は人体通信が成立したことを示す表示を表示部13にさせている。
続いて、ステップS12において、制御部19は、人体通信によりIDの送信要求を携帯機器20に対して送信する。携帯機器20の制御部32は、表示装置10からIDの送信要求を受け取ると、当該携帯機器20のID及びユーザ情報を表示装置10に対して人体通信により送信する。この送信に先立って、制御部32は、表示装置10へID及びユーザ情報を送信してもよいかをユーザに問い合わせてもよい。そして、制御部19は、人体通信を介して携帯機器20のID及びユーザ情報を受信して、携帯機器20を認識する。また、制御部32は人体通信が成立したことをユーザに報知するために、表示部21の表示と、振動部31により振動の少なくとも1つを行っている。このように、携帯機器20側で人体通信の成立を示す報知を行うことにより、ユーザが意図していない人体通信が行われたような場合(例えば不意に抱きつかれた場合)でもユーザは人体通信の成立している状態を認識することができる。
なお、制御部19は、携帯機器20の認識とともに、認識した携帯機器20のユーザにより表示装置10の利用履歴をフラッシュメモリ15bから取得してもよい。このステップS12の処理を実行することにより、制御部19は、人体通信をもちいて表示装置10と携帯機器20とのペアリングを完了させることができる。
続いて、ステップS13において、制御部19は、携帯機器20の方位を人体通信により取得する。これにより、制御部19は、ユーザが表示装置10の電極部16に触れている状態(例えば、ユーザが表示装置10と正対している状態)において携帯機器20の方位センサ23cが検出した方位(例えば、北西)を認識することができる。
なお、表示装置10の電極部16に触れるときのユーザの向きは、少なくとも予め定められた向きであれば、ユーザが表示装置10に対して正対でなくても、他の向き(例えば横向き)であってもよい。また、制御部19は、ステップS12とステップS13の処理を逆に実行してもよいし、1つのステップとして実行してもよい。
続いて、ステップS14において、制御部19は、人体通信を介して通信方式の切換信号を携帯機器20に送信して、表示装置10と携帯機器20との間の通信方式を、人体通信から無線通信に切り替える。これにより、制御部19は、ユーザが表示装置10から手を離した状態で、携帯機器20との間でデータの送受信をすることができる。また、無線通信は人体通信と比較してデータ転送速度が速いので、制御部19は、携帯機器20との間で画像等の大きなデータの送受信をすることができる。なお、制御部19は、上述のペアリングが成立した後は、ユーザが表示装置10の電極部16から手を離したのをトリガーとして無線通信部18、30による無線通信に切り替えるようにする。なお、通信方式の切換えに応じて、表示部13、21には無線通信が成立していることを示す表示が行なわれ、振動部31による振動パターンの切換えが行なわれる。
続いて、ステップS15において、制御部19は、撮像部11によりユーザを撮像した画像データを、表示部13に表示する。さらに、制御部19は、撮像部11によりユーザを撮像した画像データを、無線通信により携帯機器20に送信して、携帯機器20の表示部21に表示させる。
なお、制御部19は、携帯機器20のタッチパネル22に対するユーザの操作に応じて、表示装置10の表示部13または携帯機器20の表示部21の何れか一方に、画像を表示させてもよい。また、制御部19は、方位センサ23cの検出出力が予め定められた角度変化した場合に、ユーザの向きが反転したという通知を携帯機器20から通知を受けてもよい。この場合には、制御部19は、ユーザにより視認がされない表示装置10の表示部13の表示を中止してもよい。
続いて、ステップS16において、制御部19は、携帯機器20から無線通信により、画像の調整指示を受信したか否かを判断する。具体的には、制御部19は、画像の表示範囲を右方向または左方向にシフトさせる調整指示を、携帯機器20から受信したか否かを判断する。なお、調整指示の具体的な操作例については、詳細を図4〜図6を参照して後述する。
制御部19は、調整指示を携帯機器20から受信した場合、処理をステップS17に進める。ステップS17において、制御部19は、携帯機器20の方位を認識して、認識した方位に基づき表示装置10に対する現在のユーザの向き(例えば、表示装置10に対して正対しているか又は背を向けているか)を判別する。なお、具体的なユーザの向きの判別方法については、調整指示の具体的な操作例とともに、詳細を図4〜図6を参照して後述する。
なお、制御部19は、撮像部11により撮像された画像にユーザの顔が含まれているか否かを検出し、顔が検出できた場合には、ユーザが表示装置10に対して正対していると判別してもよい。また、制御部19は、撮像部11により撮像された画像にユーザの顔が含まれているか否かに応じて、携帯機器20の方位に基づき判定されたユーザの向きを補正してもよい。
表示装置10に対するユーザの向きが判別できると、続いて、ステップS18において、制御部19は、撮像部11により撮像された画像の表示範囲を調整する。具体的には、制御部19は、撮像部11により撮像された画像の表示範囲を、ユーザの調整指示に応じて右方向または左方向にシフトさせる。制御部19は、ステップS18での画像調整を終えると、処理をステップS15に戻して、画像調整がされた後の画像を、表示装置10の表示部13および携帯機器20の表示部21に表示させる。
一方、ステップS16で調整指示を受信していないと判断する場合、制御部19は、処理をステップS19に進める。ステップS19において、制御部19は、終了指示を携帯機器20から受信したか否かを判断する。
例えば、表示装置10と携帯機器20との間で人体通信が成立して、表示装置10及び携帯機器20のペアリングが成立した場合に、携帯機器20の制御部32は、ペアリングが成立していることを示すアイコン、および、このペアリングを解除させる解除アイコンを表示部21に表示する。携帯機器20の制御部32は、ペアリングを解除アイコンがユーザにより操作された場合、終了指示を無線通信により表示装置10に送信する。そして、表示装置10の制御部19は、このような終了指示を携帯機器20から受信した場合に、ユーザによりペアリングの解除させる指示がされたと判断する。なお、表示装置10の無線通信部18の通信距離を例えば数m程度に設定しておき、携帯機器20の無線通信部30との通信が所定時間途切れたらペアリングを解除させてもよく、課金に応じて表示装置10とのペアリング時間を設定するようにしてもよい。
終了指示を受信していないと判断する場合、制御部19は、処理をステップS16に戻し、調整指示または終了指示を取得するまで、処理をステップS16およびステップS19において待機する。また、終了指示を受信したと判断する場合、制御部19は、処理をステップS20に進める。
ステップS20において、制御部19は、終了設定処理を実行する。制御部19は、一例として、メモリ部15のバッファメモリ15aに記憶されている画像をフラッシュメモリ15bに保存させるか否をユーザに問い合わせて、ユーザによる保存指示を受けたことに応じて、バッファメモリ15aに記憶されている画像をフラッシュメモリ15bに転送して記憶させる。なお、制御部19は、画像を保存するか否かをユーザに問い合わせる場合に、バッファメモリ15aに記憶されている画像のサムネイル画像を、表示装置10の表示部13または携帯機器20の表示部21に表示してもよい。
また、表示システム1を商業ベースで用いる場合には、制御部19は、ステップS20の終了設定処理において課金を実行する。そして、制御部19は、ステップS20の処理を完了すると、本フローチャートを抜けて処理を終了する。
(正対している場合の画像の調整方法)
図4(A)は、ユーザが携帯機器20を縦位置で保持し、表示装置10に対して正対している状態を示す。
ユーザが表示装置10に対して正対している場合、表示装置10および携帯機器20は、撮像部11が撮像した画像(ユーザの正面姿の画像)を表示する。また、携帯機器20の制御部32は、表示部21に、画面右方向への矢印表示である右操作マーク41R、及び、画面左方向への矢印表示である左操作マーク41Lを表示して、これらに対する操作入力を受け付ける。
表示装置10に正対している状態において、ユーザは、表示装置10及び携帯機器20の画像の表示範囲を右側にシフトさせたい場合には、右操作マーク41Rをタッチ操作する。また、ユーザは、表示装置10及び携帯機器20の画像の表示範囲を左側にシフトさせたい場合には、左操作マーク41Lをタッチ操作する。
右操作マーク41Rまたは左操作マーク41Lが操作された場合、携帯機器20の制御部32は、操作されたボタンの種類、操作量(例えば、タッチ回数)、および現在の方位(例えば北西)を画像の調整指示とともに無線通信により表示装置10に送信する。なお、制御部32は、表示部21に表示された操作入力に代えて、機械的なボタンまたはキーからシフトの操作を受け付けてもよい。
表示装置10の制御部19は、携帯機器20から画像の調整指示を受信すると、ペアリングのときの方位と現在の方位とを比較して、表示装置10に対する現在のユーザの向きを判別する。より具体的には、制御部19は、ペアリングのときの方位(例えば北西)と、現在の方位(例えば北西)とが同一であれば、ユーザの向きがペアリングのときの向きと同一である(例えば、ユーザが表示装置10に対して正対している)と判別する。なお、この判定は、携帯機器20の制御部32が実行してもよい。
そして、表示装置10の制御部19は、ユーザの向きがペアリングのときと同一である場合、表示装置10及び携帯機器20に表示する画像の表示範囲を、操作ボタンの方向と同一の方向に、操作量分(例えばタッチ数に応じた距離分)シフトさせる。より具体的には、制御部19は、ユーザが表示装置10に対して正対している状態において、右操作マーク41Rがタッチされた場合には表示範囲を右側にシフトさせ、左操作マーク41Lがタッチされた場合には表示範囲を左側にシフトさせる。これにより、制御部19は、ユーザの意図通りに適切に画像の表示範囲をシフトさせることができる。
(背を向けた場合の画像の調整方法)
図4(B)は、ユーザが携帯機器20を縦位置で保持し、表示装置10に対して背を向けている状態を示す。
ユーザが表示装置10に対して背を向けた場合、携帯機器20は、撮像部11が撮像した画像(即ち、ユーザの後姿の画像)を表示する。これにより、ユーザは、携帯機器20を視認することにより、自身の後姿を確認することができる。
なお、携帯機器20の制御部32は、方位センサ23cの検出出力がユーザの向きが、正対しているときの方位から予め定められた角度変化した場合、ユーザの向きが反転して背を向けたとして表示装置10にその旨を通知してもよい。また、当該通知を受けた場合、表示装置10の制御部19は、ユーザが視認することができないので、画像の表示を中止してもよい。
表示装置10に背を向けている状態において、ユーザは、携帯機器20の画像の表示範囲を右側にシフトさせたい場合には、右操作マーク41Rをタッチ操作する。また、ユーザは、携帯機器20画像の表示範囲を左側にシフトさせたい場合には、左操作マーク41Lをタッチ操作する。
右操作マーク41Rまたは左操作マーク41Lが操作された場合、携帯機器20の制御部32は、操作されたボタンの種類、操作量、および現在の方位(例えば南東)を無線通信により画像の調整指示とともに表示装置10に送信する。
表示装置10の制御部19は、携帯機器20から画像の調整指示を受信すると、ペアリングのときの方位と現在の方位とを比較して、表示装置10に対する現在のユーザの向きを判別する。より具体的には、制御部19は、ペアリングのときの方位(例えば北西)と、現在の方位(例えば南東)とが180度異なれば、ユーザの向きがペアリングのときと逆向きである(例えば、ユーザが表示装置10に対して背を向けている)と判別する。
ここで、ユーザが表示装置10に対して背を向けている場合、表示装置10の撮像部11の左右方向と、携帯機器20に表示された操作ボタンの左右方向とが逆となる。このため、表示装置10の制御部19は、ユーザが表示装置10に対して背を向けている場合、画像の表示範囲を操作ボタンの方向と逆方向に操作量分(例えばタッチ数に応じた距離分)シフトさせる。
より具体的には、ユーザが表示装置10に対して背を向けている状態において、表示装置10の制御部19は、右操作マーク41Rがタッチされた場合には表示範囲を左側にシフトさせ、左操作マーク41Lがタッチされた場合には表示範囲を右側にシフトさせる。これにより、制御部19は、ユーザが表示装置10に対して背を向けている場合であっても、ユーザの意図通りに適切に画像の表示範囲をシフトさせることができる。
(背を向けてから再度正対した場合の表示方法)
図5(A)は、ユーザが表示装置10に対して背を向けてから、再度、表示装置10に対して正対した状態を示す。
表示装置10の制御部19は、ユーザが表示装置10に対して背を向けている場合、撮像部11が撮像した画像(ユーザの後姿の画像)をバッファメモリ15aに記憶させておく。そして、制御部19は、ユーザが背を向けてから、再度正対した場合、バッファメモリ15aに記憶されたユーザの後姿の画像を、正対しているユーザの画像と重ならないように並べて表示する。なお、表示部13がハーフミラー13bを有する場合には、制御部19は、ハーフミラー13bにより反射されたユーザの鏡像と重ならないように並べて表示する。
これにより、表示装置10の制御部19は、ユーザにより特別の何ら操作をさせることなく、ユーザの後姿及び正面姿を同時に確認させることができる。そして、制御部19は、携帯機器20のタッチパネル22に対して、後姿の表示終了操作がされた場合(例えばタッチパネル22で後姿の画像を弾くような操作がされた場合)、後姿の表示を終了する。
なお、表示装置10の制御部19は、ユーザが表示装置10に対して横を向いた場合においても、同様の処理を実行してもよい。これにより、表示装置10の制御部19は、ユーザの半身姿及び正面姿を同時に確認させることができる。
(携帯機器20の姿勢を縦位置から横位置に持ち替えた場合の表示方法等)
図5(B)は、ユーザが携帯機器20を横位置で保持し、表示装置10に対して正対している状態を示す。
ユーザが携帯機器20の姿勢を縦位置から横位置に持ち替えた場合、表示装置10の制御部32は、姿勢センサ23bの出力に応じて表示部21に表示する画像の向きを、ユーザの頭頂部が上側に位置するように90度回転させる。さらに、制御部32は、右操作マーク41Rおよび左操作マーク41Lの表示位置も、ユーザから見て右側に右操作マーク41Rが表示され、ユーザから見て左側に左操作マーク41Lが表示されるように、90度回転させる。
制御部32は、携帯機器20の姿勢が縦位置から横位置へ切り替わった場合(又は横位置から縦位置に切り替わった場合)、ユーザの向きは変わっていないので、姿勢切換え前の方位センサ23cの出力を維持する。例えば、制御部32は、携帯機器20を縦位置で保持し且つ方位センサ23cの出力が例えば北である状態から、ユーザが携帯機器20の姿勢を横位置に変更した場合、横位置に切り替わった後の方位も同じく北となるように、方位センサ23cの出力を維持する。これにより、携帯機器20の姿勢が切り替わったとしても、同一の方位を出力することができる。
(その他の場合の表示方法)
図6(A)は、ユーザが表示装置10に対して横を向いている状態を示す。図6(B)は、ユーザが表示装置10に対して斜め前方向を向いている状態を示す。
図6(A)に示すように、ユーザは、表示装置10に対して横(表示装置10に対して90度の角度)を向いて携帯機器20を操作してもよい。また、図6(B)に示すように、ユーザは、表示装置10に対して斜め前方向を向いて携帯機器20を操作してもよい。
このような場合、表示装置10の制御部19は、ユーザが表示装置10に対して正対している場合と同様に画像をシフトさせる。即ち、表示装置10は、右操作マーク41Rが操作された場合には、表示範囲を右側にシフトさせ、左操作マーク41Lが操作された場合には、表示範囲を左側にシフトさせる。
また、ユーザは、表示装置10に対して斜め後方向を向いて携帯機器20を操作してもよい。例えば、ユーザが表示装置10に対して90度(又は270度)よりも後ろ側を向いて操作をした場合、表示装置10は、ユーザが表示装置10に対して背を向けている場合と同様に画像をシフトさせる。即ち、表示装置10は、右操作マーク41Rが操作された場合には、表示範囲を左側にシフトさせ、左操作マーク41Lが操作された場合には、表示範囲を側にシフトさせる。
また、携帯機器20は、1本または2本の指等で画像を触ってスライドする操作により、表示範囲をシフトさせてもよい。
この場合、表示装置10は、ユーザが正対している状態で、画像が右側にスライドされれば、表示範囲を右側にシフトさせ、画像が左側にスライドされれば、表示範囲を左側にシフトさせる。また、表示装置10は、ユーザが背を向けている状態で、画像が右側にスライドされれば、表示範囲を左側にシフトさせ、画像が左側にスライドされれば、表示範囲を右側にシフトさせる。
なお、表示装置10の制御部19は、表示装置10の表示部13に、各種の操作をジェスチャにて行なうためのジェスチャメニューを表示してもよい。この場合、制御部19は、例えば赤外線装置によりユーザの手の位置を検出して、ユーザが何れのジェスチャメニューを選択したかを検出してもよい。
(変形例に係る表示システム1の構成)
図7は、本実施形態の変形例に係る表示システム1のブロック図を示し、図8は、変形例に係る表示システム1の概要を示す図であり、以下図7,8を用いて説明を行う。変形例に係る表示システム1は、図1から図6を参照して説明した本実施形態に係る表示システム1と略同一の構成および機能を採るので、略同一の構成および機能の部材に同一の符号を付け、以下相違点を除き説明を省略する。
変形例に係る表示システム1は、少なくとも1つの化粧道具50を更に備える。化粧道具50(50−1,50−2,50−3)は、図8に示すように、ユーザが顔等に化粧するための器具(例えば、口紅又はアイライナー等)または身だしなみを整える等のための器具(例えば、くしまたはコンタクトレンズケース等)であって、人体通信により携帯機器20に情報を送信する機能を有する。
また、本変形例において、表示装置10の表示部13は、ハーフミラー13bを有さない構成となっている。また、本変形例においては、携帯機器20は、ユーザが手で保持していなくても、少なくとも人体通信が成立するように保有されていれば、ポケット等に挿入していてもよい。
化粧道具50は、メモリ51と、電極部52と、人体通信部53とを備え、携帯機器20との間で人体通信により情報を送受信する機能を実現する。
メモリ51は、不揮発性のメモリであってよく、当該化粧道具50を特定するためのデータを記憶する。また、メモリ51は、化粧道具50が使用される体の部位(例えば、目、口、まつ毛、眉毛、頬)に関する情報、および、その部位が体の左右に存在するかどうかの情報を記憶する。
電極部52は、信号電極とグランド電極とを有し、携帯機器20との間でユーザを介した人体通信により信号を授受する。電極部52は、例えば図9に示すように、ユーザが当該化粧道具を手にとった場合において手に触れやすい位置に複数設けられている。なお、電界方式の人体通信においては、電極部52は、プラスチックまたは樹脂等で形成された筐体の内部に設けられていてもよい。また、電極部52の配置は、図9に示す位置に限らず、ユーザの手に触れやすい位置であればどこであってもよい。
人体通信部53は、メモリ51及び電極部52に接続され、バンドパスフィルタを有した電気回路から構成される送信部を有し、送信するデータを変調して送信信号を生成する。なお、人体通信部53は、データを受信する機能を有していてもよい。人体通信部53は、ユーザが化粧道具50を保持して電極に接触したときに、携帯機器20の人体通信部29との間で人体通信を成立させる。そして、人体通信部53は、人体通信が成立すると、メモリ51に記憶されたデータをユーザの体を介して携帯機器20に対して送信する。
(変形例に係る表示システム1の処理フロー)
図10は、変形例に係る表示装置10の制御部19の処理フローを示す。本フローチャートは、ユーザがアイシャドウ用チップなどの化粧道具50を持って、化粧道具50と携帯機器20との間で人体通信が成立し、携帯機器20の制御部32がこの人体通信の成立を表示装置10に送信されたときに開始される。
まず、ステップS31において、制御部19は、携帯機器20と化粧道具50との間で人体通信が成立したことの通知を受けたことの確認をする。制御部19は、人体通信が成立したタイミングで処理をステップS32に移行する。なお、人体通信や無線通信が成立した際には携帯機器20の振動部31が振動するため、ユーザは携帯機器20をポケットに入れてある場合でも通信の成立を認識することができる。
続いて、ステップS32において、制御部19は、撮像部11によりユーザを撮像した画像を解析して、画像内においてユーザの顔を検出する。制御部19は、一例として、画像解析処理により、ユーザの顔の輪郭、並びに、顔の各部位(目、鼻及び口等)の位置及び形状等を検出する。
続いて、ステップS33において、制御部19は、人体通信の成立に応じて化粧道具50から携帯機器20へと送信された化粧道具50のメモリ51内の情報(化粧道具50を特定するための情報)を無線通信により携帯機器20から受信して、ユーザが手に持っている化粧道具50の種類を特定する。例えば、制御部19は、ユーザが手に持っている化粧道具50が、アイライナーなのか、口紅なのか等を特定する。なお、制御部19は、ステップS32とステップS33とを入れ替えて実行してもよい。
続いて、ステップS34において、制御部19は、特定した化粧道具50が、左右が有る部位に対して使用される道具なのか否かを判断する。制御部19は、例えば、特定した化粧道具50が、目、眉毛、まつ毛、頬および耳等に対して使用される場合には、左右が有る部位に対して使用されると判断する。また、制御部19は、特定した化粧道具50が、口および鼻等に使用される場合には、左右の無い部位に対して使用されると判断する。
制御部19は、一例として、人体通信の成立に応じて化粧道具50から携帯機器20へと送信されたメモリ51内の情報(部位が体の左右に存在するかの情報)に基づき、左右が有る部位に対して使用される道具なのか否かを判断する。また、制御部19は、特定した化粧道具50の種類から、左右が有る部位に対して使用される道具なのか否かを推定してもよい。
特定した化粧道具50が左右の無い体の部位に対して使用される場合、制御部19は、処理をステップS35に進める。
ステップS35において、制御部19は、ユーザの顔の画像、及び、特定した化粧道具50が使用される体の部位を拡大した画像を並べて表示部13に表示させる。例えば、図11(A)に示すように、制御部19は、化粧道具50が口紅と特定された場合には、顔の全体を表す分割画像61と、口の拡大画像62とを、左右に分割して表示部13に表示させる。
なお、制御部19は、何れの部位を拡大して表示するかは、人体通信の成立に応じて化粧道具50から携帯機器20へと送信されたメモリ51内の情報(化粧道具50が使用される部位の情報)に基づき判断してもよいし、特定した化粧道具50の種類から推定してもよい。制御部19は、ステップS35の表示処理を終えると、処理をステップS40に進める。
特定した化粧道具50が左右の有る体の部位に対して使用される場合、制御部19は、処理をステップS36に進める。
ステップS36において、制御部19は、ユーザの顔の画像、及び、特定した化粧道具50が使用される部位(左右の部位の両方を含む領域)を拡大した画像を並べて表示部13に表示させる。例えば、図11(B)に示すように、制御部19は、化粧道具50がアイライナーと特定された場合には、顔の全体を表す分割画像61と、両目を含む領域の拡大画像63とを、左右に分割して表示部13に表示させる。なお、制御部19は、顔全体の画像または両目の拡大画像のいずれか一方を表示部13の中央に表示してもよい。
続いて、ステップS37において、制御部19は、ユーザが左の部位と右の部位のどちらに対して化粧を行うかを、撮像部11によりユーザを撮像した画像に基づき判別する。例えば、制御部19は、化粧道具50がアイライナーであれば、ユーザが右目または左目の何れに対して化粧を行うのかを判別する。
図12(A)はユーザが化粧道具50を右手で保持して右目の化粧を行なっている状態を示し、図12(B)はユーザが化粧道具50を右手で保持して左目の化粧を行なっている状態を示す。アイシャドウ用チップまたはアイライナーを持ってユーザが右目に対して化粧をする場合、ユーザは一般的に右目を閉じる。従って、制御部19は、撮像した画像に基づき、右目を閉じているか左目を閉じているかを判断し、右目を閉じていれば右目に対して化粧を行っており、左目を閉じていれば左目に対して化粧を行っていると判断してもよい。
また、アイライナーを右手で持って右目の化粧をする場合には、鼻は隠れないが、アイライナーを右手で持って左目の化粧をする場合には、鼻の一部が隠れる。また、制御部19は、アイライナーを右手又は左手の何れで持っているかは、アイライナーの角度を検出することにより判断することができる。従って、制御部19は、撮像した画像に基づき、アイライナーの角度から右手に持っているか否かを検出し、更にユーザの鼻が隠れたか否かを検出して、ユーザが右目に対して化粧を行っているのか、左目に対して化粧を行っているのかを判断してもよい。
また、化粧道具50は、加速度センサまたはジャイロ等を有してもよい。この場合、制御部19は、加速度センサまたはジャイロの検出結果を取得して化粧道具50の姿勢または移動方向を予測し、右の部位に対して化粧を行うのか、左の部位に対して化粧を行うのかを判断してもよい。
続いて、ステップS38において、制御部19は、右側の部位または左側の部位のうち、ステップS37で判別した側の部位を拡大して表示する。例えば、制御部19は、図13に示すように、左目に対して化粧を行っていると判断した場合には、左目の拡大画像64を表示する。また、制御部19は、左目に対して化粧を行った後に、右眼に対して化粧を行っていると判断した場合には、左目の拡大画像64から右眼の拡大画像に表示を切り替える。
続いて、ステップS39において、制御部19は、左の部位および右の部位の両方について化粧を終了したか否かを判断する。例えば、制御部19は、ユーザが左側の部位および右側の部位のそれぞれに対して化粧を終えて、化粧道具50を手放して化粧道具50と携帯機器20との人体通信が切れたときに、左側の部位および右側の部位の両方について化粧を終了したと判断する。制御部19は、一方側の部位しか化粧を終了していない場合、処理をステップS37に戻して、左右の部位の両方について処理を終了するまで処理を繰り返す。
なお、例えば右側の部位の化粧を終えた後において、左側の部位の化粧をしているときに、左右のバランスが気になることもある。このような場合、制御部19は、例えばユーザの指示に応じて、表示される拡大画像を左右切り換えてもよい。また、制御部19は、ユーザの指示に応じて、顔の全体像に代えて、両方の部位の全体を含む表示に切り換えたり、右側の部位の拡大画像及び左側の部位の拡大画像を同時に表示したりしてもよい。
また、制御部19は、メモリ部15に流行のメーク例を示す画像データを記憶させておき、ユーザの顔画像の上に、仮想線および仮想色を重ねて表示させてもよい。また、制御部19は、メモリ部15に代表的な髪型と、その髪型に合うメーク例を示す化粧データを記憶させておき、撮像部11により撮像された画像からユーザの髪型を判別して、メモリ部15に記憶された髪型に対応したメーク例を表示することによりアドバイスを提供するようにしてもよい。この場合、制御部19は、年齢、季節および服装等に対応付けて、複数の化粧データをメモリ部15に記憶させておいてもよい。
制御部19は、左側の部位および右側の部位の両方について化粧を終了したと判断した場合、処理をステップS40に進める。
ステップS40において、制御部19は、化粧道具50が変更されたかどうかを判断する。制御部19は、他の化粧道具50に変更された場合(例えばアイライナーから眉の形を描くアイブロウペンシルに変更された場合)、処理をステップS33に戻して、処理を繰り返す。また、制御部19は、化粧道具50が変更されずに、化粧道具50と携帯機器20との人体通信が予め定められた時間(例えば数十秒から1分程度)無い場合には、化粧を終了したとして本フローチャートを終了する。
なお、本変形例においては、携帯機器20を介在させて、化粧道具50と表示装置10との通信を行ったが、表示システム1は、化粧道具50と表示装置10との間で人体通信または近距離無線通信を成立させて通信を行うようにしてもよい。また、携帯機器20にミラー機能(例えば、表示部21にハーフミラーフィルムを貼り付けて実現する)を設けて、化粧道具50と携帯機器20との間で人体通信又は近接通信を成立させて通信を行ってもよい。この場合、この場合、携帯機器20の撮像部25を駆動機構により駆動させて、ユーザを撮像する位置を調整してもよい。
また、表示システム1は、化粧後のユーザの画像を例えば携帯機器20のフラッシュメモリ27に記憶させて、メークの履歴を保存してもよい。また、表示システム1は、ユーザの過去のメークの履歴をアドバイスとして表示してもよい。また、表示システム1は、保存したメークの履歴からユーザに似合う色であるパーソナルカラーをユーザに報知したりしてもよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
1 表示システム、10 表示装置、11 撮像部、12 駆動部、13 表示部、13a ディスプレイ、13b ハーフミラー、14 画像調整部、15 メモリ部、15a バッファメモリ、15b フラッシュメモリ、16 電極部、17 人体通信部、18 無線通信部、19 制御部、20 携帯機器、21 表示部、22 タッチパネル、23 センサ部、23a GPSモジュール、23b 姿勢センサ、23c 方位センサ、24 計時部、25 撮像部、26 マイクロフォン、27 フラッシュメモリ、28 電極部、29 人体通信部、30 無線通信部、31 振動部、32 制御部、40 方位情報、41R 右操作マーク、41L 左操作マーク、50 化粧道具、51 メモリ、52 電極部、53 人体通信部、61 分割画像、62 拡大画像、63 拡大画像、64 拡大画像

Claims (12)

  1. ユーザが手にした第1部材に関する情報を入力する入力部と、
    前記入力部が入力した情報に基づいて、前記ユーザの動きを予測する予測部と、を備えた電子機器。
  2. 前記第1部材は体の特定部位に対して使用される道具であり、
    前記予測部は、前記入力部が入力した情報に基づいて前記第1部材を識別し、前記ユーザが前記第1部材を用いて作業をする対象となる体の部位を判別する
    請求項1に記載の電子機器。
  3. 前記第1部材と近距離通信または人体を介した通信を行なう第1通信部を備えた請求項1または2に記載の電子機器。
  4. 前記人体を介した通信とは異なる通信方式で外部機器と通信を行う第2通信部を備える請求項3に記載の電子機器。
  5. 携帯機器と通信を行う第3通信部を備え、
    前記入力部は、前記第3通信部を介して前記携帯機器から前記第1部材に関する情報を入力する請求項1から4のいずれか一項に記載の電子機器。
  6. 前記第1部材に関する情報を提供する情報提供部を備えた請求項1から5のいずれか一項に記載の電子機器。
  7. 前記第1部材の使用履歴を記憶する記憶部を備えた請求項1から6のいずれか一項に記載の電子機器。
  8. 前記ユーザと、前記第1部材とを撮像可能な撮像部を備えた請求項1から7のいずれか一項に記載の電子機器。
  9. 前記予測部は、前記撮像部の撮像結果に基づいて、前記ユーザの動きを予測する請求項8記載の電子機器。
  10. 前記予測部は、前記第1部材に関する情報と、前記撮像部の撮像結果とに基づいて、前記ユーザの動きを予測する請求項9に記載の電子機器。
  11. 前記予測部は、前記撮像部の撮像結果に基づいて、左右に関する体の部位を予測する請求項9または10に記載の電子機器。
  12. 前記撮像部は前記ユーザの顔を撮像可能であり、
    前記予測部は、前記撮像部が撮像したユーザの顔に基づいて、前記ユーザの動きを予測する請求項8から11のいずれか一項に記載の電子機器。
JP2012173879A 2012-08-06 2012-08-06 電子機器 Withdrawn JP2014033398A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012173879A JP2014033398A (ja) 2012-08-06 2012-08-06 電子機器
CN201380034704.4A CN104395875A (zh) 2012-08-06 2013-05-15 电子设备、方法及程序
PCT/JP2013/003092 WO2014024362A1 (ja) 2012-08-06 2013-05-15 電子機器、方法およびプログラム
US14/616,084 US20150253873A1 (en) 2012-08-06 2015-02-06 Electronic device, method, and computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012173879A JP2014033398A (ja) 2012-08-06 2012-08-06 電子機器

Publications (1)

Publication Number Publication Date
JP2014033398A true JP2014033398A (ja) 2014-02-20

Family

ID=50282895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012173879A Withdrawn JP2014033398A (ja) 2012-08-06 2012-08-06 電子機器

Country Status (1)

Country Link
JP (1) JP2014033398A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016001794A (ja) * 2014-06-11 2016-01-07 シャープ株式会社 表示装置
JP2021040315A (ja) * 2020-10-14 2021-03-11 マクセルホールディングス株式会社 連動システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016001794A (ja) * 2014-06-11 2016-01-07 シャープ株式会社 表示装置
JP2021040315A (ja) * 2020-10-14 2021-03-11 マクセルホールディングス株式会社 連動システム
JP7049426B2 (ja) 2020-10-14 2022-04-06 マクセル株式会社 連動システム

Similar Documents

Publication Publication Date Title
WO2014024362A1 (ja) 電子機器、方法およびプログラム
CN105759422B (zh) 显示系统和显示装置的控制方法
KR101751347B1 (ko) 이동 단말기 및 이의 제어방법
KR102179812B1 (ko) 와치형 이동단말기
KR20220145317A (ko) 디바이스를 이용한 화면 처리 방법 및 장치
CN104915136B (zh) 移动终端及其控制方法
KR20160015719A (ko) 이동 단말기 및 그 제어방법
KR20170067058A (ko) 이동 단말기 및 그 제어방법
CN106850938A (zh) 移动终端及其控制方法
KR20170138279A (ko) 이동 단말기 및 그 제어방법
KR20130081117A (ko) 이동 단말기 및 그 제어방법
KR102110208B1 (ko) 안경형 단말기 및 이의 제어방법
CN109166150B (zh) 获取位姿的方法、装置存储介质
CN106067833B (zh) 移动终端及其控制方法
KR20160056133A (ko) 이미지 표시 제어 방법 및 이를 지원하는 장치
KR20180062454A (ko) 단말 장치 및 단말 장치의 제어 방법
CN111768454A (zh) 位姿确定方法、装置、设备及存储介质
JP2016067024A (ja) 携帯型電子機器
CN111427629B (zh) 应用启动方法、装置、车机设备及存储介质
CN107656794B (zh) 界面显示方法和装置
WO2022199102A1 (zh) 图像处理方法及装置
JP6051665B2 (ja) 電子機器、方法およびプログラム
JP2014033398A (ja) 電子機器
CN108509127A (zh) 启动录屏任务的方法、装置及计算机设备
CN114115544B (zh) 人机交互方法、三维显示设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150707

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20160427