JP7155808B2 - ウェアラブル装置、及び制御プログラム - Google Patents

ウェアラブル装置、及び制御プログラム Download PDF

Info

Publication number
JP7155808B2
JP7155808B2 JP2018179374A JP2018179374A JP7155808B2 JP 7155808 B2 JP7155808 B2 JP 7155808B2 JP 2018179374 A JP2018179374 A JP 2018179374A JP 2018179374 A JP2018179374 A JP 2018179374A JP 7155808 B2 JP7155808 B2 JP 7155808B2
Authority
JP
Japan
Prior art keywords
information
arm
wearable device
display
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018179374A
Other languages
English (en)
Other versions
JP2020052572A (ja
Inventor
宗弘 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2018179374A priority Critical patent/JP7155808B2/ja
Priority to US16/571,204 priority patent/US11481108B2/en
Publication of JP2020052572A publication Critical patent/JP2020052572A/ja
Application granted granted Critical
Publication of JP7155808B2 publication Critical patent/JP7155808B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1698Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a sending/receiving arrangement to establish a cordless communication link, e.g. radio or infrared link, integrated cellular phone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • G06F21/84Protecting input, output or interconnection devices output devices, e.g. displays or monitors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Description

本発明は、ウェアラブル装置、及び制御プログラムに関する。
特許文献1には、表示部と、前記表示部への接触物の接触を検出する接触検出部とを有し、前記表示部が円筒状に変形された第1状態と、前記表示部が円筒状に変形されていない第2状態とを有する携帯電子機器であって、前記第1状態において、前記表示部に前記接触物が接触した場合には、前記表示部上の接触された部位の近傍を表示領域として画像を表示し、前記表示部上の前記表示領域以外の部位を非表示領域とする携帯電子機器が開示されている。
特開2017-97411号公報
近年、ユーザの身体、例えば腕に装着された状態で情報処理を行う腕時計型のウェアラブル装置が普及し始めている。腕時計型のウェアラブル装置には、例えばユーザに時刻やメールの受信といった情報を表示するための表示画面が備えられており、ユーザが表示画面に重畳して設置されたタッチパネルを操作することで、ウェアラブル装置への指示が行われる。
こうした腕時計型のウェアラブル装置ではユーザによって表示画面が押下されると、ユーザに通知する情報がある場合には、表示画面の押下された位置に情報が表示される。したがって、表示画面に情報が表示されるまでどのような内容の情報が表示されるかわからないため、例えばユーザの個人情報を記載したメールの内容等、他者に知られたくない秘匿情報が表示されることもある。更に、情報を表示しようとしてユーザが押下した表示画面の位置が、他者から視認されるような位置であった場合には、秘匿情報が意図せず他者の視界に入る位置に表示されてしまうことになる。
本発明は、情報の内容に関わらず、ユーザが指定した位置に情報を表示する場合と比較して、秘匿情報が意図せず他者に閲覧されてしまうことを抑制することができるウェアラブル装置及び制御プログラムを提供することを目的とする。
上記目的を達成するために、請求項1記載のウェアラブル装置の発明は、第1の領域と第2の領域に情報が表示される表示画面と、前記第2の領域に情報を表示させるための動作を検知する検知部と、前記表示画面が腕に装着された状態で、他者から視認される腕の外側の位置に配置された前記第1の領域に秘匿する必要のない情報を表示した後、前記検知部で前記動作を検知した場合に、腕の外側の位置よりも他者から視認されにくい腕の内側の位置に配置された前記第2の領域に秘匿情報を表示する制御を行う制御部と、前記表示画面の腕への装着を検知する装着検知部と、を備え、前記制御部は、前記装着検知部で前記表示画面が腕に装着されたことが検知された場合に、前記第1の領域に秘匿する必要のない情報を表示する。
請求項記載の発明は、前記装着検知部は、脈拍を検出した場合に前記表示画面が腕に装着されたと検知すると共に、前記脈拍の検出位置から、前記表示画面における腕の外側の位置及び腕の内側の位置を検知し、前記制御部は、前記装着検知部で検知された腕の外側の位置及び腕の内側の位置に、それぞれ前記第1の領域及び前記第2の領域を配置する制御を行う。
請求項記載の発明は、前記表示画面の両端には、前記表示画面を腕に装着するための装着部材がそれぞれ備えられ、前記制御部は、前記装着検知部が前記装着部材の各々が互いに接続されたことを検知した場合、前記装着部材の接続位置から腕の外側の位置までの腕に沿った距離として予め定めた第1の距離に前記第1の領域を配置し、前記装着部材の接続位置から腕の内側の位置までの腕に沿った距離として予め定めた第2の距離に前記第2の領域を配置する制御を行う。
請求項記載の発明は、前記検知部は、前記ウェアラブル装置の装着者が前記第2の領域を眺めようとする動作を、前記第2の領域に情報を表示させるための動作として検知する。
請求項記載の発明は、前記検知部は、腕の移動度合いを表す物理量を検知し、前記物理量が腕の内側を上にした場合に前記検知部で検知される範囲内に含まれる場合、前記第2の領域に情報を表示させるための動作が行われたと検知する。
請求項記載の発明は、前記検知部は、撮影装置によって撮影された前記ウェアラブル装置の装着者の目を含む画像から、前記ウェアラブル装置の装着者の視線を特定し、特定した視線が第2の領域に向かっている場合、前記第2の領域に情報を表示させるための動作が行われたと検知する。
請求項記載の発明は、前記制御部は、前記第2の領域に表示する秘匿情報を、前記第1の領域に表示される秘匿する必要のない情報の表示方向と異なる向きに表示する制御を行う。
請求項記載の発明は、前記制御部は、前記第2の領域に表示する秘匿情報の表示方向が、前記第1の領域に表示される秘匿する必要のない情報の表示方向と直交するように表示を制御する。
請求項記載の発明は、前記制御部は、前記第1の領域に表示される秘匿する必要のない情報の内容と関連する秘匿情報を前記第2の領域に表示する制御を行う。
請求項10記載の発明は、前記制御部は、事象の発生を通知する情報を前記第1の領域に表示し、前記第1の領域に表示された前記事象の内容を前記第2の領域に表示する制御を行う。
請求項11記載の制御プログラムの発明は、コンピュータを、請求項1~請求項10の何れか1項に記載のウェアラブル装置の制御部として機能させる。
請求項1、11記載の発明によれば、情報の内容に関わらず、ユーザが指定した位置に情報を表示する場合と比較して、秘匿情報が意図せず他者に閲覧されてしまうことを抑制することができる、という効果を有する。
請求項記載の発明によれば、ウェアラブル装置の装着状況に関わらず、腕の外側に第1の領域を配置し、腕の内側に第2の領域を配置することができる、という効果を有する。
請求項記載の発明によれば、腕の予め定められた場所で装着部材同士を嵌合させることで、腕の外側に第1の領域を配置し、腕の内側に第2の領域を配置することができる、という効果を有する。
請求項記載の発明によれば、表示画面を押下することなく、第2の領域に情報を表示させることができる、という効果を有する。
請求項記載の発明によれば、ウェアラブル装置の装着者における腕の移動度合いから、ウェアラブル装置の装着者が第2の領域を視認する視認動作を行ったことを検知することができる、という効果を有する。
請求項記載の発明によれば、ウェアラブル装置の装着者の視線から、ウェアラブル装置の装着者が第2の領域を視認する視認動作を行ったことを検知することができる、という効果を有する。
請求項記載の発明によれば、第1の領域に表示する情報の表示方向と、第2の領域に表示する情報の表示方向を同じにする場合と比較して、情報が読み取りやすくなる、という効果を有する。
請求項記載の発明によれば、手のひら側を上にして腕を体の正面に対して直交するように伸ばしたときに、第1の領域に表示する情報の表示方向と、第2の領域に表示する情報の表示方向を同じにする場合と比較して、第2の領域の情報が読み取りやすくなる、という効果を有する。
請求項記載の発明によれば、第1の領域に秘匿情報を表示する場合と比較して、他者に秘匿情報が閲覧されてしまうことを抑制することができる、という効果を有する。
請求項10記載の発明によれば、第1の領域に表示された情報を見て、第2の領域に情報の内容を表示させるか否か選択することができる、という効果を有する。
ウェアラブル装置の外観例を示す図である。 ウェアラブル装置における機能構成例を示す図である。 ペンダント型のウェアラブル装置の外観例を示す図である。 ペンダント型のウェアラブル装置の他の外観例を示す図である。 第1実施形態に係るウェアラブル装置における電気系統の要部構成例を示す図である。 第1実施形態に係る表示処理の流れの一例を示すフローチャートである。 表示画面における情報の表示位置の一例を示す図である。 表示画面における情報の表示領域と腕の位置の関係を示す図である。 腕の外側に表示される見出し情報の例を示す図である。 腕の動作例を示した図である。 腕の内側に表示される秘匿情報の例を示す図である。 表示画面に表示される情報の表示方向の一例を示す図である。 各々の表示領域に互いに関連のない情報を表示した例を示す図である。 カメラを備えたウェアラブル装置の外観例を示す図である。 第2実施形態に係るウェアラブル装置における電気系統の要部構成例を示す図である。 第2実施形態に係る表示処理の流れの一例を示すフローチャートである。 複数のカメラを備えたウェアラブル装置の外観例を示す図である。 第2実施形態の変形例1に係るウェアラブル装置の外観例を示す図である。 第2実施形態の変形例1に係る表示処理の流れの一例を示すフローチャートである。
以下、本実施の形態について図面を参照しながら説明する。なお、機能が同じ構成要素及び処理には全図面を通して同じ符合を付与し、重複する説明を省略する。
<第1実施形態>
図1は、本実施の形態に係るウェアラブル装置10の外観例を示す図である。図1に示すように、本実施の形態に係るウェアラブル装置10は、ユーザの腕に巻きつけて装着される、いわゆる腕時計型のウェアラブル装置10である。本実施の形態では、ウェアラブル装置10の装着者のことを「ユーザ」という。
ウェアラブル装置10には、各種情報を表示する表示画面12が設けられているが、ウェアラブル装置10の表示画面12には、一例としてフレキシブルディスプレイが用いられている。
フレキシブルディスプレイとは、例えば紙や布のように力を加えることで、丸めたり、折り曲げたりすることができる変形可能なディスプレイであり、例えばプラスチックフィルム基板上に有機EL(Electro Luminescence)を配置することで実現される。
したがって、表示画面12にフレキシブルディスプレイが用いられているウェアラブル装置10では全体が表示画面12で構成され、表示画面12を腕時計のベルトのように腕の周囲に沿って巻きつけることでユーザに装着する形態をとる。ユーザはウェアラブル装置10を腕に装着する場合、例えばウェアラブル装置10の対向する辺にそれぞれ設けられた留め具18同士を互いに嵌合することで表示画面12に力を加え、腕の周囲に沿って巻きつけた状態にする。留め具18は、本実施の形態に係る装着部材の一例である。
一方、力を加えて腕の周囲に沿って巻きつけていない状態のウェアラブル装置10は、図1に示すように板状の平面ディスプレイのような形状になっている。
図2は、ウェアラブル装置10における機能構成例を示す図である。図2に示すように、ウェアラブル装置10は、タッチパネル11及び表示画面12の各ユニットと、入力部13、制御部14、検知部15、装着検知部16、及び表示部17の各機能部を備える。
入力部13は、表示画面12に重畳して設置されているタッチパネル11から、ユーザによって押下された位置情報を受け付ける。
制御部14は、入力部13から位置情報を受け付けると、受け付けた位置情報と表示画面12に表示されている情報の位置関係から、ウェアラブル装置10に対して行われたユーザの指示を解析し、ユーザの指示に従った処理を実行する。
ユーザの指示は、タッチパネル11の押下以外の方法によっても制御部14に通知される。例えば検知部15は、ウェアラブル装置10の動きを検知し、ウェアラブル装置10の動きに伴い計測された物理量を制御部14に通知する。制御部14は、検知部15からウェアラブル装置10の動きを表す物理量を受け付けると、受け付けた物理量からユーザの指示を解析する。
具体的には、検知部15は、ウェアラブル装置10が装着された腕の移動度合いを表す物理量を検知する。腕の移動度合いを表す物理量には、例えば移動方向、移動速度、及び移動加速度の他、腕の回転に伴う回転角度、角速度、及び角加速度が存在する。しかし、腕の移動度合いを表す物理量はこれらの物理量に限られず、上述した物理量の少なくとも1つを算出する演算式の入力値として用いられる物理量も、腕の移動度合いを表す物理量に含まれる。
ここでは一例として、検知部15はウェアラブル装置10に内蔵された動きセンサ8を用いて、腕の移動度合いを表す物理量を検知する例について説明するが、検知部15は、ユーザによる表示画面12の接触を伴う操作以外の方法であれば、どのような方法で腕の移動度合いを表す物理量を検知してもよい。
以降では、腕の移動に伴う移動方向、移動速度、及び移動加速度を総称して「移動量」といい、腕の回転に伴う回転角度、角速度、及び角加速度を総称して「回転量」という。腕の移動量と回転量の組み合わせによって腕の動きが表される。すなわち、腕の移動度合いは、腕の移動量と回転量の組み合わせによって表される。
また、動きセンサ8とは、例えば腕の移動量を計測する加速度センサと、腕の回転量を計測するジャイロセンサを含み、腕の移動度合いを計測するセンサである。
装着検知部16は、ユーザの腕にウェアラブル装置10が装着されているか否かを検知し、腕への装着状況を制御部14に通知する。
制御部14は、入力部13から得られるユーザの指示、検知部15から得られるウェアラブル装置10の動作状況、及び装着検知部16から得られるユーザの腕へのウェアラブル装置10の装着状況の少なくとも1つに従って、ウェアラブル装置10の処理状況に応じた情報を表示画面12の指定した位置に表示するように、表示部17に表示指示を通知する。
表示部17は制御部14から情報の表示指示を受け付けると、制御部14によって指定された表示画面12の位置に、指定された情報を表示する。
なお、上述したように、本実施の形態では表示画面12にフレキシブルディスプレイが用いられているウェアラブル装置10を例にして説明を行うが、これは一例であり、図2に示した機能構成を備えるウェアラブル装置10であれば、必ずしも表示画面12にフレキシブルディスプレイが用いられている必要はない。
例えば図3に示すようなウェアラブル装置10も、本実施の形態に係るウェアラブル装置10の一例に含まれる。
図3に示すウェアラブル装置10は、ウェアラブル装置10を腕に巻きつけるベルト19に、それぞれ独立した2つの表示画面12A、12Bが取り付けられたウェアラブル装置10である。ベルト19が腕の周囲に巻きつくように変形するため、表示画面12A、12Bは必ずしもフレキシブルディスプレイである必要はない。したがって、表示画面12A、12Bに力を加えても変形しないディスプレイが用いられたとしても、ユーザの腕に装着され、ウェアラブル装置10として機能する。
このように、ユーザの腕に巻きつけるベルト19に複数の表示画面12が取り付けられた形態のウェアラブル装置10を、「ペンダント型のウェアラブル装置10」ということがある。ペンダント型のウェアラブル装置10における表示画面12の数は複数であればよいため、例えば図4に示すように、3つの表示画面12A、12B、12Cを備えたウェアラブル装置10もペンダント型のウェアラブル装置10に含まれる。
ペンダント型のウェアラブル装置10では、例えば留め具18をベルトに設けられた孔に貫通させることで、ウェアラブル装置10を腕の周囲に沿って巻きつけた状態にするが、腕への装着方法に制約はない。例えば図1に示したウェアラブル装置10と同様に、ベルト19の両端にそれぞれ設けられた留め具18同士を互いに嵌合して、ユーザの腕に装着してもよい。
ウェアラブル装置10は、例えばコンピュータ20を用いて構成される。図5は、ウェアラブル装置10における電気系統の要部構成例を示す図である。
コンピュータ20は、図2に示した本実施の形態に係るウェアラブル装置10の各機能部を担うCPU(Central Processing Unit)21、制御プログラムを記憶するROM(Read Only Memory)22、CPU21の一時的な作業領域として使用されるRAM(Random Access Memory)23、不揮発性メモリ24、及び入出力インターフェース(I/O)25を備える。そして、CPU21、ROM22、RAM23、不揮発性メモリ24、及びI/O25がバス26を介して各々接続されている。
不揮発性メモリ24は、不揮発性メモリ24に供給される電力が遮断されても、記憶した情報が維持される記憶装置の一例であり、例えば半導体メモリが用いられるが、ハードディスクを用いてもよい。不揮発性メモリ24は、必ずしもコンピュータ20に内蔵されている必要はなく、不揮発性メモリ24としてメモリカード等のコンピュータ20に着脱可能な記憶装置を用いてもよい。また、CPU21は不揮発性メモリ24の代わりに、後述する通信ユニット4を介して接続される記憶装置に情報を記憶するようにしてもよい。
一方、I/O25には、例えば通信ユニット4、入力ユニット5、表示ユニット6、接点センサ7、及び動きセンサ8が接続される。
通信ユニット4は図示しない通信回線と接続し、当該通信回線に接続される外部装置とデータ通信を行う通信プロトコルを備える。通信ユニット4は無線LAN(Local Area Network)の他、約100m前後の見通し距離の通信に用いられるブルートゥース(登録商標)や約10cm前後の近接距離の通信に用いられる近距離無線通信(Near Field Communication:NFC)等に対応してもよい。
入力ユニット5は、ユーザからの指示を受け付けてCPU21に通知する入力装置であり、例えばボタン及びタッチパネル等が用いられる。なお、ユーザを撮影するカメラや音声をウェアラブル装置10に取り込むマイク等も入力ユニット5の一例であり、ウェアラブル装置10の種類によってウェアラブル装置10に備えられている入力ユニット5の種類も異なる。
表示ユニット6は、CPU21によって処理された情報を画像として表示する表示装置であり、例えば液晶ディスプレイ、又は有機ELディスプレイ等が用いられる。
接点センサ7は、ウェアラブル装置10の留め具18同士が嵌合したか否かをオン及びオフの2値によってCPU21に通知するセンサであり、例えば留め具18同士が嵌合した場合にはオン、留め具18同士が外された場合にはオフをCPU21に通知する。
動きセンサ8は、加速度センサとジャイロセンサを含んでユーザの腕の動きを計測するセンサであり、計測された計測値はCPU21に通知される。
なお、I/O25に接続されるユニット及びセンサは、図5に示したユニット及びセンサに限定されない。例えば後述するように、接点センサ7の代わりにユーザの脈拍を検知する図示しない生体センサがI/O25に接続されてもよい。
次に、図6を参照して、本実施の形態に係るウェアラブル装置10の動作について説明する。
図6は、ウェアラブル装置10の電源がオンに設定され、ウェアラブル装置10が起動した場合に、CPU21によって実行される表示処理の流れの一例を示すフローチャートである。
表示処理を規定する制御プログラムは、例えばウェアラブル装置10のROM22に予め記憶されている。ウェアラブル装置10のCPU21は、ROM22に記憶される制御プログラムを読み込み、表示処理を実行する。
既に説明したように、ここでは表示画面12にフレキシブルディスプレイが用いられているウェアラブル装置10について説明するが、ペンダント型のウェアラブル装置10についても同様の処理が適用される。なお、ペンダント型のウェアラブル装置10について、フレキシブルディスプレイを用いたウェアラブル装置10と動作が異なる場合には、動作が異なる部分について説明を行う。
まず、ステップS10において、CPU21は、ウェアラブル装置10がユーザの腕に装着されているか否かを判定する。ウェアラブル装置10がユーザの腕に装着されていない場合にはステップS10の判定処理を繰り返し実行して、ウェアラブル装置10の装着状況を監視する。
ウェアラブル装置10がユーザの腕に装着されているか否かは、例えば留め具18の嵌合状態によって判定する。ユーザはウェアラブル装置10を腕に装着する場合、留め具18同士を勘合する。ウェアラブル装置10の留め具18同士が嵌合された場合には、接点センサ7がオンになることから、CPU21は、接点センサ7からオンの通知を受けた場合にウェアラブル装置10がユーザの腕に装着されたと判定する。
なお、ウェアラブル装置10の腕への装着状況は接点センサ7による判定方法に限られない。例えば接点センサ7の代わりに、表示画面12における情報の表示面と異なる他方の面、すなわちユーザの腕に接触する接触面に配置された、脈拍を検知する図示しない生体センサによってもウェアラブル装置10の装着状況が判定される。ウェアラブル装置10がユーザの腕に巻きつけられた場合、表示画面12の接触面が腕に接触して生体センサで脈拍が検知される。したがって、CPU21は、生体センサで脈拍が検知された場合にウェアラブル装置10がユーザの腕に装着されたと判定するようにしてもよい。
また、生体センサで脈拍以外の生体情報を計測するようにしてもよい。例えば生体センサは、血中の酸素飽和度や血圧のように、ウェアラブル装置10が体に装着されなければ計測されないような生体情報を計測するものであってもよい。すなわち、CPU21は、生体センサで計測される生体情報の計測値が、ユーザがウェアラブル装置10を体に装着した場合に得られる範囲の計測値である場合に、ウェアラブル装置10がユーザの腕に装着されたと判定するようにしてもよい。
また、表示画面12に図示しないシート状の圧力センサが配置されているウェアラブル装置10の場合、CPU21は、圧力センサで予め定めた値以上の圧力が計測された場合に、ウェアラブル装置10がユーザの腕に装着されたと判定するようにしてもよい。ウェアラブル装置10の腕への装着の判定に用いられる予め定めた値は、例えば何れのユーザが腕の周囲に沿って表示画面12を巻き付けた場合であっても計測される圧力値の最低値に設定される。当該最低値は、ウェアラブル装置10の実機による実験やウェアラブル装置10の設計仕様に基づくコンピュータシミュレーション等により予め求められ、例えば不揮発性メモリ24に記憶されている。当然のことながら、圧力センサの代わりに歪センサを用いてもよい。
ステップS10の判定処理でウェアラブル装置10がユーザの腕に装着されていると判定された場合、ステップS20に移行する。
ステップS20において、CPU21は、何らかの事象の発生に伴ってユーザに通知される情報を検知したか否かを判定する。「事象の発生を通知する情報」とは、例えばメールの受信、ソーシャルネットワーキングサービス(Social Networking Service:SNS)による情報の受信、及びリマインド通知等、ユーザから指示を受け付けなくても、発生を検知した場合にはウェアラブル装置10が自律的に表示画面12に表示した方が好ましい情報のことである。事象の発生を通知する情報には、例えばリマインド通知のようにウェアラブル装置10内部で生成される情報の他、通信ユニット4を介して図示しない通信回線から受け付けた情報も含まれる。
事象の発生を通知する情報が検知されない場合にはステップS20の判定処理を繰り返し実行して、事象の発生を通知する情報を監視する。一方、事象の発生を通知する情報を検知した場合にはステップS30に移行する。
ステップS30において、CPU21は、表示画面12に事象の発生を通知する情報を表示する。事象の発生を通知する情報には発生した事象の内容までは含まれず、発生した事象の種類が含まれる。したがって、以降では、事象の発生を通知する情報を「見出し情報」ということにする。
図7は、表示画面12における情報の表示位置の一例を示す図である。ステップS20で検知した見出し情報は検知毎に表示位置が変わるわけではなく、見出し情報以外の他の情報も表示画面12に表示されるように、表示画面12の予め定められた範囲内に配置された表示領域1に表示される。見出し情報には情報の内容までは含まれないため、見出し情報はユーザ以外の他者に秘匿する必要のない情報である。したがって、CPU21は、他者から閲覧されてもよい腕の外側の位置に配置された表示領域1に見出し情報を表示する。
「腕の外側」とは、例えば腕を伸ばして手のひらを太ももにつけた状態で、他者から見える腕の範囲をいう。腕の外側であれば何れの位置に表示領域1を配置してもよいが、一例として図8に示すように、腕にウェアラブル装置10を装着した状態で手の甲を真上から眺めた場合にユーザから見える表示画面12の範囲に表示領域1が配置されるものとする。
表示画面12のうち、腕の外側になる範囲は、ユーザがウェアラブル装置10の留め具18を腕の周囲に沿った方向のどの位置で嵌合するかによって変化するが、ユーザは留め具18を嵌合する位置を決めている場合が多い。したがって、CPU21は、腕の外側を向く範囲として予め定められた位置に表示領域1を配置する。
表示画面12において腕の外側を向く範囲は留め具18の接続位置からの距離によって設定される。図7に示すように、ウェアラブル装置10の腕の周囲方向に沿った距離L1を、留め具18の接続位置から表示画面12において腕の外側を向く範囲の開始位置とした場合、CPU21は、留め具18の接続位置から距離L1離れた位置に表示領域1を配置する。これにより、腕の外側に表示領域1が配置される。
距離L1は、ウェアラブル装置10を装着したユーザによって設定され、設定された距離L1は、例えば不揮発性メモリ24の予め定めた領域に記憶される。なお、距離L1に従って配置された表示領域1の位置が腕の外側からずれている場合、ユーザは距離L1を調整することができ、CPU21は、調整された距離L1を新たな距離L1として不揮発性メモリ24に記憶する。
表示領域1に表示される見出し情報は、発生した事象の種類毎に異なる。図9は、表示領域1に表示される見出し情報の例を示す図である。
図9(A)は、予め設定した目的地までの経路に関して通知したい情報がある場合に表示される見出し情報の例である。表示領域1に目的地までの経路自体は表示されず、通知したい情報が経路に関する情報であることをユーザに想起させるアイコンが表示される。当該アイコンの例として、図9(A)では方位磁石のアイコンが表示領域1に表示されている。
図9(B)は、メールを受信した場合に表示される見出し情報の例である。表示領域1にメールの内容は表示されず、受信したメールがあることをユーザに想起させるアイコンが表示される。当該アイコンの例として、図9(B)では錠とメールのアイコンが表示領域1に表示されている。なお、錠のアイコンはメール受信時には表示されず、後述するステップS40で受信したメールに秘匿情報が含まれると判定された場合に表示される。
図9(C)は、SNSに投稿した画像やメッセージに対して、「いいね」の応答があった場合に表示される見出し情報の例である。表示領域1に「いいね」の応答を行った人を特定する内容は表示されず、通知したい情報がSNSの応答に関する情報であることをユーザに想起させるアイコンが表示される。当該アイコンの例として、図9(C)ではハートマークのアイコンと、「いいね」の応答を行った人数を表す数字が表示領域1に表示されている。
図9(D)は、リアルタイムに文字や画像を用いてメッセージ交換を行うメッセンジャーにおいて、メッセージを受信した場合に表示される見出し情報の例である。表示領域1にメッセージの内容は表示されず、受信したメッセージがあることをユーザに想起させるアイコンが表示される。当該アイコンの例として、図9(D)では人の顔を示すアイコンが表示領域1に表示されている。
図9(E)は、ユーザが訪問先の目的地31から予め定めた範囲内に近づいた場合に、訪問の目的等をリマインドするために表示される見出し情報の例を示す図である。表示領域1に例えば訪問先の会社名、建物名、担当者、及び訪問目的といった訪問の場所及び目的を特定する内容は表示されず、目的地31に近づいたことをユーザに想起させるアイコンが表示される。当該アイコンの例として、図9(E)では例えば道だけが表示された地図上にユーザの現在地30と目的地31が表示領域1に表示されている。
なお、訪問に関するリマインドの見出し情報に必ずしも地図情報は必要なく、単にユーザが訪問先の目的地31から予め定めた範囲内に近づいたことを知らせるアイコンであってもよい。
図9(F)は、ユーザが予め設定した予定の時間に現在時刻が近づいた場合に、予定をユーザにリマインドするために表示される見出し情報の例を示す図である。表示領域1に予定の内容は表示されず、予定の時間に近づいたことをユーザに想起させるアイコンが表示される。当該アイコンの例として、図9(F)では時計のアイコンと、予定開始までの残り時間を例えば分単位で示す数字が表示領域1に表示されている。
なお、CPU21は、表示領域1に見出し情報を表示した場合、I/O25に接続された図示しないバイブレーターを振動させて、表示領域1に見出し情報を表示したことをユーザに通知するようにしてもよい。
ステップS40において、CPU21は、見出し情報によって表される情報の内容が、秘匿情報であるか否かを判定する。「見出し情報によって表される情報の内容」とは、見出し情報によって発生が通知された事象の内容のことである。
また、「秘匿情報」とはユーザ以外の他者に覗き見られることが好ましくない情報であり、当該情報がユーザの許可なく他者に用いられた場合、ユーザが不利益を被るような情報のことである。秘匿情報には、例えば行動予定に関する情報、知り合いに関する情報、金銭に関する情報、趣味や嗜好に関する情報、及び病気や身体に関する情報といった、ユーザやユーザの家族等の身内に関する個人情報が含まれる。
CPU21は、例えば秘匿情報として予め登録した単語が見出し情報によって表される情報に含まれている場合には、情報の内容に秘匿情報が含まれていると判定する。秘匿情報として取り扱う単語はユーザによって登録、修正、及び削除が行われ、例えば不揮発性メモリ24に記憶される。
なお、見出し情報によって表される情報の内容に秘匿情報として取り扱う単語が含まれない場合であっても、CPU21は、他の判定基準を組み合わせて秘匿情報かどうか判定するようにしてもよい。
例えば発生した事象がメールの受信、SNSの受信、及びメッセンジャーによるメッセージの受信の場合、CPU21は、メール、SNS、及びメッセージの送信元がユーザによって予め登録された送信元であれば、受信内容を秘匿情報と判定する。また、見出し情報によって表される情報の内容に、電話番号の表示形式やメールアドレスの表示形式とは異なる無意味な英数字の羅列が含まれる場合には、英数字の羅列がパスワードを表していることが考えられるため、CPU21は、英数字の羅列がユーザによって登録されていなくとも秘匿情報であると判定する。このようにCPU21が情報の文脈を解析して、情報に秘匿情報が含まれているか否か自律的に判定する手法には、例えば形態素解析等、公知の文脈解析手法が適用される。
見出し情報によって表される情報の内容が秘匿情報である場合には、ステップS50に移行する。なお、見出し情報によって表される情報の内容が秘匿情報である場合には、I/O25に接続された図示しないバイブレーターを振動させて、見出し情報に関連した秘匿情報が存在することをユーザに通知するようにしてもよい。
ステップS50において、CPU21は、表示画面12の表示領域1とは異なる領域で、腕の内側の位置に配置された表示領域2を視認する視認動作を検知したか否かを判定する。
ここで「腕の内側」とは、例えば腕を伸ばして手のひらを太ももにつけた状態で、他者からは見えない腕の範囲をいう。腕の内側であれば何れの位置に表示領域2を配置してもよいが、一例として図8に示したように、腕にウェアラブル装置10を装着した状態で手のひらを上に向け、腕を体の正面と交差するように伸ばした場合に、ユーザから見える表示画面12の範囲に表示領域2が配置されるものとする。
具体的には、図7に示したように、ウェアラブル装置10の腕の周囲方向に沿った距離L2を、留め具18の接続位置から表示画面12において腕の内側を向く範囲の開始位置とした場合、CPU21は、留め具18の接続位置から距離L2離れた位置に表示領域2を配置する。これにより、腕の内側に表示領域2が配置される。
距離L2は、ウェアラブル装置10を装着したユーザによって設定され、設定された距離L2は、例えば不揮発性メモリ24の予め定めた領域に記憶される。なお、距離L2に従って配置された表示領域2の位置が腕の内側からずれている場合、ユーザは距離L2の変更指示を、入力ユニット5を介してウェアラブル装置10に通知する。CPU21は変更指示を受け付けると、変更された距離L2を新たな距離L2として不揮発性メモリ24に記憶する。
なお、表示領域1及び表示領域2を配置する位置の設定方法はこれに限られない。例えばウェアラブル装置10の表示画面12の接触面に対して腕の周囲方向に沿って取り付けられた図示しない生体センサを用いて腕の外側の位置と腕の内側の位置を検知して、表示画面12に表示領域1及び表示領域2を配置してもよい。
腕の何れの位置で留め具18を嵌合するかはユーザによっておおよその位置が決められている場合が多いが、毎回腕の同じ位置で留め具18が装着されるとは限らない。すなわち、腕に対する表示領域1及び表示領域2の位置は、腕へのウェアラブル装置10の装着毎に変動する傾向がある。したがって、I/O25に生体センサが接続されているウェアラブル装置10の場合、CPU21は、ユーザが腕にウェアラブル装置10を装着する毎に生体センサを用いて表示画面12における腕の外側の位置と腕の内側の位置を検知し、表示画面12に表示領域1と表示領域2を配置する。
手首周辺における腕の内側の皮下には橈骨動脈が通っているため、腕の周囲方向に沿った他の場所よりも強い脈拍が検出される。生体センサは腕の周囲方向に沿った各場所での脈拍の強さを検出し、各々の場所の脈拍の強さを、場所を表す識別情報と共にCPU21に通知する。CPU21は生体センサから脈拍の強さと場所を表す識別情報を受け付けると、受け付けた脈拍の強さの中から最も強い脈拍を取得し、取得した脈拍と対応付けられている場所を表す識別情報から、表示画面12において最も強い脈拍が検出された検出位置を特定する。CPU21は、最も強い脈拍が検出された位置に対応する表示画面12の範囲に表示領域2を配置し、ユーザの腕を挟んで表示領域2と相対することになる表示画面12の範囲に表示領域1を配置する。
これにより、腕の外側に表示領域1が配置され、腕の内側に表示領域2が配置されることになる。
秘匿情報は表示画面12における腕の内側の領域に表示された方が、腕の外側に表示されるよりも他者の視界に入りにくい。したがって、秘匿情報は表示画面12における腕の内側の領域に表示させることが好ましい。しかしながら、ユーザの指示がない状況で秘匿情報を表示領域2に表示した場合、ユーザが気づかないうちに表示領域2に秘匿情報が表示されることになるため、いくら秘匿情報が表示される場所が腕の内側であっとしても、腕の向き等によっては秘匿情報が他者の視界に入ることも考えられる。
したがって、CPU21は、表示領域1に見出し情報を表示した後、ユーザが腕の内側に配置された表示領域2を視認する視認動作を検知することで、ユーザが秘匿情報の表示を指示したと判定する。
図10は、ユーザが表示領域1から表示領域2を視認するための腕の動作例を示した図である。ユーザは表示領域2を視認するため、図10に示すように手のひらを上に向け、ウェアラブル装置10を装着した腕を体の正面と交差するように伸ばして表示領域2が視界に入るようにする。
したがって、CPU21は、例えば腕の移動量及び回転量からユーザが視認動作を行ったか判定すればよい。CPU21は、動きセンサ8で計測された腕の移動量及び腕の回転量が、ユーザが手のひらを上に向け、ウェアラブル装置10を装着した腕を体の正面と交差するように伸ばした場合に計測される範囲(視認動作範囲)内の値であれば、ユーザが視認動作を行ったと判定する。腕の移動量及び腕の回転量に対する視認動作範囲は、ウェアラブル装置10の実機による実験やウェアラブル装置10の設計仕様に基づくコンピュータシミュレーション等により予め求められ、例えば不揮発性メモリ24に記憶されている。なお、CPU21は、ユーザから視認動作範囲の変更指示を受け付け、視認動作範囲を変更してもよい。
ユーザが表示領域2を視認する視認動作を行ったと判定された場合には、ステップS60に移行する。
ステップS60において、CPU21は表示ユニット6を制御して、ステップS30で表示領域1に表示した見出し情報と関連する秘匿情報を表示領域2に表示する。
図11は、表示領域2に表示される秘匿情報の例を示す図である。
図11(A)は、図9(A)に示した見出し情報に対する秘匿情報の例であり、目的地までの経路が表示される。目的地までの経路はユーザの行動予定に関する情報の一例であり、ユーザが立ち寄る場所からユーザの趣味や嗜好、及びつながりのある会社等が特定される恐れがあるため、秘匿情報として取り扱われる。
図11(B)は、図9(B)に示した見出し情報に対する秘匿情報の例であり、例えばパスワード等の個人情報を含むメールの内容が表示される。パスワード等の個人情報が他者に漏洩してしまうとユーザに不利益がもたらされる恐れがあるため、秘匿情報として取り扱われる。
図11(C)は、図9(C)に示した見出し情報に対する秘匿情報の例であり、ユーザがSNSに投稿した情報に対して「いいね」の応答を行った人の名前が表示される。「いいね」の応答を行った人の情報は知り合いに関する情報の一例であり、ユーザとつながりのある人物が特定される恐れがあるため、秘匿情報として取り扱われる。
図11(D)は、図9(D)に示した見出し情報に対する秘匿情報の例であり、メッセンジャーを用いて受信したメッセージの内容が表示される。メッセンジャーのメッセージから、例えばユーザがいつどこで誰と会うかといった行動予定が特定される恐れがあるため、秘匿情報として取り扱われる。
図11(E)は、図9(E)に示した見出し情報に対する秘匿情報の例であり、目的等が記載された訪問の内容が表示される。訪問の内容からもユーザがどのような目的のためにいつどこで誰と会うかが特定される恐れがあるため、秘匿情報として取り扱われる。
図11(F)は、図9(F)に示した見出し情報に対する秘匿情報の例であり、予定の内容が表示される。予定の内容からもユーザがいつどこで誰と会うかが特定される恐れがあるため、秘匿情報として取り扱われる。
上述したように、ユーザは表示領域2を視認する場合、無理な体勢をとることなく腕の内側を見ることができるという理由から、図10に示したように手のひらを上に向け、ウェアラブル装置10を装着した腕を体の正面と交差するように伸ばすことが多い。一方、ユーザは表示領域1を視認する場合、図10に示したように手の甲を上に向け、ウェアラブル装置10を装着した腕を体の正面で左右方向に沿って伸ばした方が、腕の外側を自然な体勢で見ることができる。
すなわち、ユーザは表示領域1を視認する場合と、表示領域2を視認する場合とで、異なる体勢をとることになる。したがって、CPU21は表示領域2に表示する秘匿情報の表示方向を、表示領域1に表示した見出し情報の表示方向とは異なる向きに表示する。ここで「秘匿情報の表示方向」とは、秘匿情報の上下方向に沿った方向であり、「秘匿情報の上下方向」とは秘匿情報に含まれる文字や図の上下方向に沿った方向である。また、「見出し情報の表示方向」とは、見出し情報の上下方向に沿った方向であり、「見出し情報の上下方向」とは見出し情報に含まれる文字や図の上下方向に沿った方向である。
図12は、表示画面12に表示される情報の表示方向の一例を示す図である。
図12に示すように、表示領域1では、ユーザが手の甲を上に向け、ウェアラブル装置10を装着した腕を体の正面で左右方向に沿って伸ばした状態で見出し情報の上下方向とユーザの視界の上下方向が同じになるように、CPU21が表示ユニット6を制御して、ウェアラブル装置10の腕の周囲方向に見出し情報の上下方向を合わせて表示させる。
また、表示領域2では、ユーザが手のひらを上に向け、ウェアラブル装置10を装着した腕を体の正面と交差するように伸ばした状態で秘匿情報の上下方向とユーザの視界の上下方向が同じになるように、CPU21が表示ユニット6を制御して、ウェアラブル装置10の腕の周囲方向と直交する方向に秘匿情報の上下方向を合わせて表示させる。
すなわち、表示画面12では、表示領域2に表示される秘匿情報の表示方向が、表示領域1に表示される見出し情報の表示方向と直交するように表示される。
なお、CPU21は、必ずしも見出し情報の表示方向と秘匿情報の表示方向を直交させて表示画面12に表示する必要はなく、腕と体の正面との成す角度に応じて、秘匿情報の表示方向を調整するようにしてもよい。例えば、腕と体の正面との成す角度が45度の場合、見出し情報の表示方向と秘匿情報の表示方向との成す角度を45度にすると、秘匿情報の上下方向とユーザの視界の上下方向が同じ方向を向く。したがって、見出し情報の表示方向に対して秘匿情報の表示方向を直交させた場合と比較して、秘匿情報が視認しやすくなる。そこで、腕と体の正面との成す角度が45度の場合、CPU21は、見出し情報の表示方向と秘匿情報の表示方向との成す角度が45度になるように、表示領域2における秘匿情報の表示方向を調整する。
一方、ステップS50の判定処理で、ユーザが表示領域2を視認する視認動作を行っていないと判定された場合にはステップS70に移行する。
ユーザによっては秘匿情報であっても、例えば周囲に人がいないので腕の外側に向いた表示領域1に表示させて確認したいという人もいる。したがって、ステップS70においてCPU21は、入力ユニット5の一例であるタッチパネルを介して、ユーザが表示領域1を押下する操作を検知したか否かを判定する。
表示領域1を押下する操作を検知した場合、表示領域1で秘匿情報を確認したいというユーザの意思表示と捉えられるため、CPU21はステップS90に移行し、ステップS90において表示領域1に秘匿情報を表示する。
一方、表示領域1を押下する操作を検知しなかった場合にはステップS50に移行する。すなわち、CPU21は、ユーザが表示領域2を視認する視認動作か、表示領域1を押下する操作を行うまで、ステップS50とS70の判定処理を繰り返し実行する。この判定処理の繰り返しにおいて、ユーザが表示領域2を視認する視認動作を検知した場合には表示領域2に秘匿情報を表示し、ユーザが表示領域1を押下する操作を検知した場合には表示領域1に秘匿情報を表示することになる。
また、ステップS40の判定処理で表示領域1に表示した見出し情報によって表される情報の内容が、秘匿情報ではないと判定された場合には、ユーザの指示なしに見出し情報によって表される情報の内容を表示したとしても、ユーザが不利益を被ることはない。したがって、ステップS80に移行し、CPU21は、予め定めた規定時間が経過したか否かを判定する。規定時間を経過していない場合にはステップS80の判定処理を繰り返し実行して規定時間の経過を監視する。一方、規定時間を経過した場合にはステップS90に移行する。
CPU21は、ステップS80からS90に移行してきた場合、ステップS90において、表示領域1に見出し情報によって表される情報の内容を表示する。すなわち、規定時間が経過するまでステップS90に移行しないようにすることで、規定時間の間、見出し情報が表示領域1に表示され続け、その後、見出し情報によって表される情報の内容に表示が切り替わるようにする。これにより、ユーザが見出し情報を見て、どういった種類の事象が発生したのか確認する時間が確保される。
以上により、図6に示した表示処理を終了する。なお、ウェアラブル装置10に対して秘匿情報の表示を中止する予め定めた操作が行われた場合、CPU21は、表示画面12に秘匿情報を表示することなく図6に示した表示処理を終了してもよい。CPU21は、秘匿情報の表示指示をユーザから受け付けた場合に、表示を中止した秘匿情報を指示された表示画面12の領域に表示する。ユーザは表示画面12に表示される情報が秘匿情報であることを予め知っていることから、他者の視界に入らない表示画面12の領域に秘匿情報を表示させればよい。
ウェアラブル装置10が図3に示したペンダント型のウェアラブル装置10である場合、表示領域1を表示画面12A、表示領域2を表示画面12Bにそれぞれ対応付けることで、図6に示した表示処理が行われる。すなわち、表示画面12Aは腕の外側に配置され、表示画面12Bは腕の内側に配置される。
ただし、フレキシブルディスプレイを用いたウェアラブル装置10では、CPU21によって表示領域1及び表示領域2の位置が設定されるが、ペンダント型のウェアラブル装置10の場合、ユーザが表示画面12A及び表示画面12Bをベルト19上で動かして、表示領域1及び表示領域2をそれぞれ腕の外側及び腕の内側に設定することになる。
上述した表示処理では、表示領域1に表示した情報と関連する情報を表示領域2に表示したが、表示領域1に表示した情報と関連しない情報を表示領域2に表示するようにしてもよい。
例えば表示領域1に日時情報を表示したまま、表示領域2に秘匿情報の内容を表示してもよい。
具体的には、特定のサービスを提供するウェブページにログインして所望のサービスを利用する場合、予め登録したパスワードの入力が求められる。しかしながら、所望するサービスが日常的に利用するサービスでない場合、ユーザはパスワードを忘れていることがある。そのため、ウェアラブル装置10の不揮発性メモリ24に予めパスワードを記憶させておき、必要な時に表示画面12に表示させてウェブページに入力する使い方が行われる。このような場合には、ユーザの指示に従って、表示領域2にパスワードを表示させることになる。
なお、ウェアラブル装置10ではパスワードだけでなく、ユーザの指示に応じて電話番号、住所、メールアドレス、及びユーザIDといった秘匿情報を表示領域2に表示させてもよい。
更に、表示領域1にウェブページが表示されている状況で、ユーザが表示領域2を視認する視認動作を行った場合、CPU21は、表示領域1に表示されているウェブページにログインするためのパスワードを表示領域2に表示させてもよい。表示領域2に表示するパスワードは、予めウェブページのURL(Uniform Resource Locator)とパスワードを対応させて不揮発性メモリ24に記憶したテーブルを参照することで取得される。
また、ウェアラブル装置10に備えられている生体センサを利用して、ユーザが表示領域2を視認する視認動作を行った場合、表示領域1に表示されている情報とは関係なく、ユーザが予め設定しておいた生体情報(例えば心拍数や血圧)を表示領域2に表示してもよい。
図13は、表示領域1に日時情報を表示し、表示領域2に心拍数を表示した一例を示す図である。
このように本実施の形態に係るウェアラブル装置10によれば、表示領域1に秘匿する必要のない情報を表示した後に、ユーザが表示領域2を視認する視認動作を検知した場合、表示領域2に秘匿情報を表示する。すなわち、本実施の形態に係るウェアラブル装置10では、表示画面12の腕の内側における領域に秘匿情報が表示される。
<第2実施形態>
第1実施形態に係るウェアラブル装置10では、ユーザに通知する情報を検知したタイミングで表示領域1に見出し情報を表示すると共に、表示領域2を視認する視認動作を検知したタイミングで表示領域2に秘匿情報を表示した。しかしながら、表示画面12に情報を表示するタイミングは上記の例に限られない。
第2実施形態では、ユーザに通知する情報が他の表示タイミングに比べて他者に覗き見られる可能性が低いと考えられる場合に、表示画面12に情報を表示するウェアラブル装置10Aについて説明する。
ウェアラブル装置10Aの機能構成例は、図2に示した第1実施形態に係るウェアラブル装置10の機能構成例と同じであるが、図14に示すように、表示画面12における表示領域1と隣接するウェアラブル装置10Aの枠には、カメラ9が埋め込まれている。カメラ9のレンズは、表示画面12における情報の表示面と同じ側の面に取り付けられており、表示領域1を視認するユーザの顔を撮影する。カメラ9は、本実施の形態に係る撮影装置の一例である。
図15は、ウェアラブル装置10Aにおける電気系統の要部構成例を示す図である。図15に示す電気系統の要部構成例が図5に示したウェアラブル装置10における電気系統の要部構成例と異なる点は、I/O25にカメラ9が接続された点であり、その他の構成はウェアラブル装置10と同じである。
次に、図16を参照して、本実施の形態に係るウェアラブル装置10Aの動作について説明する。
図16は、ウェアラブル装置10Aの電源がオンに設定され、ウェアラブル装置10Aが起動した場合に、CPU21によって実行される表示処理の流れの一例を示すフローチャートである。
表示処理を規定する制御プログラムは、例えばウェアラブル装置10AのROM22に予め記憶されている。ウェアラブル装置10AのCPU21は、ROM22に記憶される制御プログラムを読み込み、表示処理を実行する。
ここでは表示画面12にフレキシブルディスプレイが用いられているウェアラブル装置10Aについて説明するが、ペンダント型のウェアラブル装置10Aについても同様の処理が適用される。
図16に示すウェアラブル装置10Aの表示処理が、図6に示したウェアラブル装置10の表示処理と異なる点は、ステップS22、S24、及びS26が追加された点であり、その他の処理は図6の表示処理と同じである。
ステップS20で事象の発生を通知する情報を検知した場合にステップS22が実行される。
ステップS22において、CPU21はカメラ9を制御して画像を撮影し、撮影した画像をRAM23に記憶する。撮影する画像は動画であっても静止画であってもよいが、ここでは一例として静止画を撮影する例について説明する。
ステップS24において、CPU21は、ステップS22で撮影した画像にユーザの顔が含まれているか否かを判定する。画像にユーザの顔が含まれているか否かの判定は、公知の顔認証技術やパターンマッチングを用いて行われる。一例として、ユーザの顔を撮影した基準画像を予め不揮発性メモリ24に記憶しておく。その上で、ステップS22で撮影した画像から物体の特徴量を抽出し、抽出した特徴量と基準画像に含まれるユーザの顔の特徴量の差分が予め定めた範囲内に収まる場合には、ステップS22で撮影した画像にユーザの顔が含まれていると判定すればよい。
ステップS22で撮影した画像にユーザの顔が含まれていない場合にはステップS22に移行して、再度画像を撮影する。一方、ステップS22で撮影した画像にユーザの顔が含まれている場合には、ステップS26に移行する。
ステップS26において、CPU21は、ステップS22で撮影した画像にユーザ以外の他者の顔が含まれているか否かを判定する。ステップS22で撮影した画像にユーザ以外の他者の顔が含まれているか否かの判定は、ステップS24と同様に、公知の顔認証技術やパターンマッチングを用いて行われる。具体的には、例えば公知の顔認証技術を用いて、ステップS22で撮影した画像から人物の顔を抽出し、複数の顔が抽出された場合には、ユーザ以外の他者の顔が含まれていると判定すればよい。
ステップS22で撮影した画像にユーザ以外の他者の顔が含まれている場合には、ステップS22に移行して、再度画像を撮影する。一方、ステップS22で撮影した画像にユーザ以外の他者の顔が含まれていない場合には、ステップS30に移行して、表示領域1に見出し情報を表示する。
すなわち、カメラ9で撮影した画像にユーザの顔が含まれない場合には、表示領域1がユーザの方を向いていないことを意味する。この状態で表示領域1に見出し情報を表示した場合、秘匿情報を含んでいない見出し情報であるとしても他者に覗き見られる恐れがあるため、ウェアラブル装置10Aは念のため表示領域1に見出し情報を表示しないようにする。
また、カメラ9で撮影した画像にユーザの顔が含まれる場合であっても、例えばユーザの後ろに他者がいるような状況では、表示領域1に表示した見出し情報が他者に覗き見られる恐れがある。したがって、ウェアラブル装置10Aは、カメラ9で撮影した画像にユーザ以外の他者の顔が含まれる場合には、表示領域1に見出し情報を表示しないようにする。
以降、図6で説明したステップS40~S90の処理を行い、見出し情報に関連した秘匿情報を表示領域2に表示して図16に示した表示処理を終了する。
ここでは一例として、表示領域1に見出し情報を表示するタイミングの制御に画像を用いたが、表示領域2に秘匿情報を表示するタイミングの制御に画像を用いてもよい。
図17は、画像を用いて表示領域2に秘匿情報を表示するタイミングを制御する表示処理に用いられるウェアラブル装置10Aの例を示した図である。
図17に示したウェアラブル装置10Aの表示画面12における表示領域1と隣接する枠には、図14に示したウェアラブル装置10Aのカメラ9に相当するカメラ9Aが埋め込まれ、表示領域2と隣接する枠にはカメラ9Bが埋め込まれている。なお、カメラ9Bのレンズはカメラ9Aと同じく、表示画面12における情報の表示面と同じ側の面に取り付けられている。
図17に示したウェアラブル装置10Aを用いて図16に示した表示処理を行う場合、ステップS50とステップS60の間で、カメラ9Bで撮影した画像を用いてステップS22~S26と同じ処理を行う。
具体的には、ステップS50で表示領域2を視認する視認動作を検知したと判定された後、CPU21はカメラ9Bを制御して画像を撮影し、撮影した画像にユーザの目を含む顔が含まれているか否かを判定する。
そして、CPU21は、公知の視線検知技術を用いて、ユーザの視線が表示領域2に向かっているか否かを判定する。ユーザの視線が表示領域2に向かっているということは、ユーザが表示領域2を視認しているということになる。したがって、腕の移動量及び回転量による視認動作の確認だけでなく、画像からもユーザが視認動作を行ったことが確認される。
更に、CPU21は、カメラ9Bで撮影した画像にユーザ以外の他者の顔が含まれているか否かを判定し、ユーザ以外の他者の顔が含まれていなければステップS60に移行して、見出し情報に関連した秘匿情報を表示領域2に表示する。
一方、カメラ9Bで撮影した画像に表示領域2を視認するユーザの顔が含まれていない場合、又は、カメラ9Bで撮影した画像にユーザ以外の他者の顔が含まれている場合には、画像に表示領域2を視認するユーザの顔が含まれ、かつ、ユーザ以外の他者の顔が含まれなくなるまでカメラ9Bで画像を撮影し、ユーザ及び他者の状況を監視する。
ここでは、腕の移動量及び回転量による表示領域2の視認動作の検知に加え、ユーザの視線からも視認動作を検知する例について説明したが、ユーザの視線だけから視認動作の有無を検知するようにしてもよい。
ウェアラブル装置10Aが図3に示したようなペンダント型のウェアラブル装置10Aの場合、表示画面12Aの枠にカメラ9Aを埋め込み、表示画面12Bの枠にカメラ9Bを埋め込んで、本実施形態で説明した表示処理を実行すればよい。
このように本実施の形態に係るウェアラブル装置10Aによれば、ユーザだけが表示領域1及び表示領域2を視認しているタイミングで、表示領域1及び表示領域2に情報を表示する。したがって、画像を用いてユーザ及び他者の行動を確認することなく表示画面12に情報を表示する場合と比較して、表示画面12に表示される情報の秘匿性が向上する。
<第2実施形態の変形例1>
上述したウェアラブル装置10Aでは、ユーザが表示領域2を視認する視認動作を検知し、表示領域2と隣接して設けられたカメラ9Bにユーザの顔だけが含まれている場合に、秘匿情報を表示領域2に表示した。
ここでは、秘匿情報を表示する領域を特定の領域に限定せずに、ユーザが視認している表示画面12上の領域に秘匿情報を表示するウェアラブル装置10Aについて説明する。
図18は、本変形例におけるウェアラブル装置10Aの外観例を示す図である。ウェアラブル装置10Aの表示画面12は複数の領域3A~3Eに分割され、各々の領域3A~3Eと隣接するウェアラブル装置10Aの枠には、それぞれカメラ9A~9Eが埋め込まれている。なお、カメラ9A~9Eのレンズは、表示画面12における情報の表示面と同じ側の面に取り付けられている。以降では、カメラ9A~9Eをまとめて「カメラ9」と称し、複数の領域3A~3Eをまとめて「領域3」と称することにする。
表示画面12における領域の分割数は一例であり、領域の分割数に制約はない。領域の分割数に合わせてウェアラブル装置10Aに設けられるカメラ9の数も増減する。
図19は、ウェアラブル装置10Aの電源がオンに設定され、ウェアラブル装置10Aが起動した場合に、CPU21によって実行される表示処理の流れの一例を示すフローチャートである。
ここでは表示画面12にフレキシブルディスプレイが用いられているウェアラブル装置10Aについて説明するが、ペンダント型のウェアラブル装置10Aについても同様の処理が適用される。
図19に示すウェアラブル装置10Aの表示処理が、図16に示したウェアラブル装置10Aの表示処理と異なる点は、ステップS22、S24、S26、S30、S50、S60、S70、及びS90がそれぞれステップS22A、S24A、S26A、S30A、S50A、S60A、S70A、及びS90Aに置き換えられた点であり、その他の処理は図16の表示処理と同じである。
ステップS22Aにおいて、CPU21は、ウェアラブル装置10Aに設けられている全てのカメラ9A~9Eで画像を撮影するように制御し、撮影した各々の画像をカメラ9A~9Eと対応付けてRAM23に記憶する。
ステップS24Aにおいて、CPU21は、ステップS22Aで撮影した画像のうち、ユーザの顔が含まれる画像が存在するか否かを判定する。何れの画像にもユーザの顔が含まれていない場合にはステップS22Aに移行し、カメラ9A~9Eの各々で再度画像を撮影する。
一方、ステップS22Aで撮影した画像の何れかにユーザの目を含む顔が含まれている場合、ステップS26Aに移行する。
ステップS26Aにおいて、CPU21は、ユーザの目を含む顔が含まれている画像(以降、「ユーザ画像」という)に、ユーザ以外の他者の顔が含まれているか否かを判定する。ユーザ画像にユーザ以外の他者の顔が含まれている場合にはステップS22Aに移行し、カメラ9A~9Eの各々で再度画像を撮影する。
一方、ユーザ画像にユーザ以外の他者の顔が含まれていない場合、ステップS30Aに移行する。
なお、複数の画像にユーザの目を含む顔が含まれる場合には、例えば画像に含まれるユーザの顔の面積が最も大きい画像をユーザ画像として選択すればよい。
ステップS30Aにおいて、CPU21は、ユーザ画像を撮影したカメラ9に隣接した領域3に、検知した事象の見出し情報を表示する。
すなわち、ウェアラブル装置10Aは、必ずしも腕の外側に配置された表示領域1に見出し情報を表示するのではなく、画像によりユーザが視認していると確認された領域3に見出し情報を表示する。
そして、ステップS40Aで見出し情報によって表される情報の内容が秘匿情報であると判定された場合、ステップS50Aにおいて、CPU21は、見出し情報を表示した領域3(移行、「見出し領域3」という)と異なる領域3を視認する視認動作を検知したか否かを判定する。
具体的には、動きセンサ8で規定値以上の腕の移動量及び腕の回転量が検知された場合に、CPU21は、ユーザが見出し領域3と異なる領域3を視認する視認動作を行ったと検知する。規定値は、ユーザが見出し領域3と異なる領域3を視認した場合に動きセンサ8で計測される腕の移動量及び腕の回転量の最低値に設定され、例えば不揮発性メモリ24に記憶されている。
見出し領域3と異なる領域3を視認する視認動作が検知された場合には、ステップS60Aに移行する。
ステップS60Aにおいて、CPU21は、見出し情報に関連した秘匿情報をユーザが視認した領域3に表示する。
CPU21は、動きセンサ8で計測された腕の移動量及び腕の回転量から、見出し領域3からの腕の移動度合いを算出し、腕の移動後にユーザが視認している領域3を推定する。
すなわち、ウェアラブル装置10Aは、必ずしも腕の内側に配置された表示領域2に見出し情報に関連した秘匿情報を表示するのではなく、腕の移動度合いからユーザが視認していると推定された領域3に見出し情報を表示する。
一方、ステップS50Aの判定処理で、ユーザがまだ見出し領域3を視認し続けていると判定された場合にはステップS70Aに移行する。
ステップS70Aにおいて、CPU21は、入力ユニット5の一例であるタッチパネルを介して、ユーザが見出し領域3を押下する操作を検知したか否かを判定する。
ユーザが見出し領域3を押下する操作を検知した場合には、見出し領域3で秘匿情報を確認したいというユーザの意思表示と捉えられるため、CPU21はステップS90Aに移行し、見出し領域3に秘匿情報を表示する。
一方、ユーザが見出し領域3を押下する操作が検知されなかった場合にはステップS50Aに移行する。すなわち、CPU21は、ユーザが見出し領域3と異なる領域3を視認する視認動作か、見出し領域3を押下する操作を行うまで、ステップS50AとS70Aの判定処理を繰り返し実行する。
なお、CPU21は、ステップS80からS90Aに移行してきた場合、ステップS90Aにおいて、見出し領域3に見出し情報によって表される情報の内容を表示する。
以上により、図19に示す表示処理を終了する。
図19に示した表示処理では、ステップS60Aで、動きセンサ8で計測された腕の移動量及び腕の回転量を用いて腕の移動後にユーザが視認している領域3を推定したが、カメラ9で撮影した画像を用いて、腕の移動後にユーザが視認している領域3を特定してもよい。
具体的には、ステップS50Aで見出し領域3と異なる領域3を視認する視認動作を検知したと判定された後、CPU21は、各々のカメラ9を制御して画像を撮影する。そして、CPU21は、各々の画像の中からユーザが含まれる画像を抽出し、抽出した画像に含まれるユーザの視線を検知して、ユーザの視線が向いている画像をユーザ画像として選択する。そして、CPU21は、選択したユーザ画像にユーザ以外の他者が含まれる場合、ユーザだけが含まれるユーザ画像が得られるまで各々のカメラ9を制御して画像を撮影し続ける。
ユーザだけが含まれるユーザ画像が得られた場合、ユーザは当該ユーザ画像を撮影したカメラ9と隣接する領域3を視認していると考えられる。したがって、CPU21は、当該ユーザ画像を撮影したカメラ9と隣接する領域3に見出し情報に関連した秘匿情報を表示すればよい。
なお、第1実施形態でも説明したように、ウェアラブル装置10Aは、ユーザだけが含まれるユーザ画像を撮影したカメラ9と隣接する領域3に、見出し情報と関連しない情報を表示するようにしてもよい。
以上、各実施の形態を用いて本発明について説明したが、本発明は各実施の形態に記載の範囲には限定されない。本発明の要旨を逸脱しない範囲で各実施の形態に多様な変更又は改良を加えることができ、当該変更又は改良を加えた形態も本発明の技術的範囲に含まれる。例えば、本発明の要旨を逸脱しない範囲で処理の順序を変更してもよい。
本実施の形態では、一例として表示処理をソフトウエアで実現する形態について説明したが、図6、図16、及び図19に示したフローチャートと同等の処理を、例えばASIC(Application Specific Integrated Circuit)に実装し、ハードウエアで処理させるようにしてもよい。この場合、表示処理をソフトウエアで実現した場合と比較して、処理の高速化が図られる。
また、上述した実施の形態では、制御プログラムがROM22にインストールされている形態を説明したが、これに限定されるものではない。本発明に係る制御プログラムは、コンピュータで読み取り可能な記憶媒体に記録された形態で提供することも可能である。例えば、本発明に係る制御プログラムを、CD(Compact Disc)-ROM、又はDVD(Digital Versatile Disc)-ROM等の光ディスクに記録した形態で提供してもよい。また、本発明に係る制御プログラムを、USB(Universal Serial Bus)メモリ及びフラッシュメモリ等の半導体メモリに記録した形態で提供してもよい。更に、ウェアラブル装置10、10Aは、通信ユニット4を介して通信回線に接続される外部装置から、本発明に係る制御プログラムを取得するようにしてもよい。
1(2)・・・表示領域、3(3A~3E)・・・領域、4・・・通信ユニット、5・・・入力ユニット、6・・・表示ユニット、7・・・接点センサ、8・・・センサ、9(9A~9E)・・・カメラ、10(10A)・・・ウェアラブル装置、11・・・タッチパネル、12(12A~12C)・・・表示画面、13・・・入力部、14・・・制御部、15・・・検知部、16・・・装着検知部、17・・・表示部、18・・・留め具、19・・・ベルト、20・・・コンピュータ、21・・・CPU、22・・・ROM、23・・・RAM、24・・・不揮発性メモリ

Claims (11)

  1. 第1の領域と第2の領域に情報が表示される表示画面と、
    前記第2の領域に情報を表示させるための動作を検知する検知部と、
    前記表示画面が腕に装着された状態で、他者から視認される腕の外側の位置に配置された前記第1の領域に秘匿する必要のない情報を表示した後、前記検知部で前記動作を検知した場合に、腕の外側の位置よりも他者から視認されにくい腕の内側の位置に配置された前記第2の領域に秘匿情報を表示する制御を行う制御部と、
    前記表示画面の腕への装着を検知する装着検知部と、を備え、
    前記制御部は、前記装着検知部で前記表示画面が腕に装着されたことが検知された場合に、前記第1の領域に秘匿する必要のない情報を表示する
    ウェアラブル装置。
  2. 前記装着検知部は、脈拍を検出した場合に前記表示画面が腕に装着されたと検知すると共に、前記脈拍の検出位置から、前記表示画面における腕の外側の位置及び腕の内側の位置を検知し、
    前記制御部は、前記装着検知部で検知された腕の外側の位置及び腕の内側の位置に、それぞれ前記第1の領域及び前記第2の領域を配置する制御を行う
    請求項記載のウェアラブル装置。
  3. 前記表示画面の両端には、前記表示画面を腕に装着するための装着部材がそれぞれ備えられ、
    前記制御部は、前記装着検知部が前記装着部材の各々が互いに接続されたことを検知した場合、前記装着部材の接続位置から腕の外側の位置までの腕に沿った距離として予め定めた第1の距離に前記第1の領域を配置し、前記装着部材の接続位置から腕の内側の位置までの腕に沿った距離として予め定めた第2の距離に前記第2の領域を配置する制御を行う
    請求項記載のウェアラブル装置。
  4. 前記検知部は、前記ウェアラブル装置の装着者が前記第2の領域を眺めようとする動作を、前記第2の領域に情報を表示させるための動作として検知する
    請求項1~請求項3の何れか1項に記載のウェアラブル装置。
  5. 前記検知部は、腕の移動度合いを表す物理量を検知し、前記物理量が腕の内側を上にした場合に前記検知部で検知される範囲内に含まれる場合、前記第2の領域に情報を表示させるための動作が行われたと検知する
    請求項記載のウェアラブル装置。
  6. 前記検知部は、撮影装置によって撮影された前記ウェアラブル装置の装着者の目を含む画像から、前記ウェアラブル装置の装着者の視線を特定し、特定した視線が第2の領域に向かっている場合、前記第2の領域に情報を表示させるための動作が行われたと検知する
    請求項記載のウェアラブル装置。
  7. 前記制御部は、前記第2の領域に表示する秘匿情報を、前記第1の領域に表示される秘匿する必要のない情報の表示方向と異なる向きに表示する制御を行う
    請求項1~請求項の何れか1項に記載のウェアラブル装置。
  8. 前記制御部は、前記第2の領域に表示する秘匿情報の表示方向が、前記第1の領域に表示される秘匿する必要のない情報の表示方向と直交するように表示を制御する
    請求項記載のウェアラブル装置。
  9. 前記制御部は、前記第1の領域に表示される秘匿する必要のない情報の内容と関連する秘匿情報を前記第2の領域に表示する制御を行う
    請求項1~請求項の何れか1項に記載のウェアラブル装置。
  10. 前記制御部は、事象の発生を通知する情報を前記第1の領域に表示し、前記第1の領域に表示された前記事象の内容を前記第2の領域に表示する制御を行う
    請求項記載のウェアラブル装置。
  11. コンピュータを、請求項1~請求項10の何れか1項に記載のウェアラブル装置の制御部として機能させるための制御プログラム。
JP2018179374A 2018-09-25 2018-09-25 ウェアラブル装置、及び制御プログラム Active JP7155808B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018179374A JP7155808B2 (ja) 2018-09-25 2018-09-25 ウェアラブル装置、及び制御プログラム
US16/571,204 US11481108B2 (en) 2018-09-25 2019-09-16 Wearable device and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018179374A JP7155808B2 (ja) 2018-09-25 2018-09-25 ウェアラブル装置、及び制御プログラム

Publications (2)

Publication Number Publication Date
JP2020052572A JP2020052572A (ja) 2020-04-02
JP7155808B2 true JP7155808B2 (ja) 2022-10-19

Family

ID=69884918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018179374A Active JP7155808B2 (ja) 2018-09-25 2018-09-25 ウェアラブル装置、及び制御プログラム

Country Status (2)

Country Link
US (1) US11481108B2 (ja)
JP (1) JP7155808B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018220284A1 (de) * 2018-11-26 2020-05-28 Infineon Technologies Ag Gesicherte recheneinrichtung
USD916133S1 (en) * 2019-09-08 2021-04-13 Apple Inc. Electronic device with icon
JP2021192157A (ja) * 2020-06-05 2021-12-16 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010200994A (ja) 2009-03-04 2010-09-16 Casio Computer Co Ltd 生体情報検出装置
JP2015141293A (ja) 2014-01-28 2015-08-03 ソニー株式会社 表示制御装置、表示制御方法、プログラム、及び表示デバイス
US20150277839A1 (en) 2014-03-27 2015-10-01 Lenovo (Singapore) Pte, Ltd. Wearable device with public display and private display areas
JP2016156829A (ja) 2016-03-18 2016-09-01 ビッグローブ株式会社 情報処理装置、装着状態検出方法、及びプログラム
JP2017032741A (ja) 2015-07-31 2017-02-09 Necプラットフォームズ株式会社 表示装置、表示制御方法、及びそのためのプログラム
JP2017097411A (ja) 2015-11-18 2017-06-01 京セラ株式会社 携帯電子機器、制御方法および制御プログラム
JP2018512640A (ja) 2015-02-12 2018-05-17 クゥアルコム・インコーポレイテッドQualcomm Incorporated ウェアラブルディスプレイ上のコンテンツの制御された表示

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8988349B2 (en) * 2012-02-28 2015-03-24 Google Technology Holdings LLC Methods and apparatuses for operating a display in an electronic device
US20150227245A1 (en) * 2014-02-10 2015-08-13 Polyera Corporation Attachable Device with Flexible Electronic Display Orientation Detection
WO2016080557A1 (ko) * 2014-11-17 2016-05-26 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
KR20170017112A (ko) * 2015-08-05 2017-02-15 엘지전자 주식회사 이동 단말기 및 그 제어 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010200994A (ja) 2009-03-04 2010-09-16 Casio Computer Co Ltd 生体情報検出装置
JP2015141293A (ja) 2014-01-28 2015-08-03 ソニー株式会社 表示制御装置、表示制御方法、プログラム、及び表示デバイス
US20150277839A1 (en) 2014-03-27 2015-10-01 Lenovo (Singapore) Pte, Ltd. Wearable device with public display and private display areas
JP2018512640A (ja) 2015-02-12 2018-05-17 クゥアルコム・インコーポレイテッドQualcomm Incorporated ウェアラブルディスプレイ上のコンテンツの制御された表示
JP2017032741A (ja) 2015-07-31 2017-02-09 Necプラットフォームズ株式会社 表示装置、表示制御方法、及びそのためのプログラム
JP2017097411A (ja) 2015-11-18 2017-06-01 京セラ株式会社 携帯電子機器、制御方法および制御プログラム
JP2016156829A (ja) 2016-03-18 2016-09-01 ビッグローブ株式会社 情報処理装置、装着状態検出方法、及びプログラム

Also Published As

Publication number Publication date
JP2020052572A (ja) 2020-04-02
US11481108B2 (en) 2022-10-25
US20200097167A1 (en) 2020-03-26

Similar Documents

Publication Publication Date Title
US11153431B2 (en) Mobile terminal and method of operating the same
US10627902B2 (en) Devices, methods, and graphical user interfaces for a wearable electronic ring computing device
US10542915B2 (en) Systems, apparatus, and methods for using a wearable device to confirm the identity of an individual
KR102067325B1 (ko) 이종 디스플레이 스크린을 갖는 웨어러블 전자 장치
US11023090B2 (en) Method and smart watch for displaying schedule tags
JP7155808B2 (ja) ウェアラブル装置、及び制御プログラム
US10536852B2 (en) Electronic apparatus, method for authenticating the same, and recording medium
US10142598B2 (en) Wearable terminal device, photographing system, and photographing method
JP6402718B2 (ja) 情報処理装置、制御方法およびプログラム
KR20170046413A (ko) 피사체의 눈 검출 방법 및 그 전자 장치
CN110366388B (zh) 信息处理方法、信息处理装置以及计算机可读存储介质
US20150145763A1 (en) Electronic device
KR102183857B1 (ko) 스마트 워치 제어 방법 및 시스템
JP7384154B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム、端末装置、端末装置の制御方法および制御プログラム
WO2017169112A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6445118B2 (ja) ウェアラブル端末、方法及びシステム
JP6262177B2 (ja) ウェアラブル端末、方法及びシステム
JP2018136776A (ja) 情報処理方法、情報処理装置及びプログラム
Liaqat Examining Factors Encouraging or Hindering the Adoption of Wearable Technology
JP2020052573A (ja) 表示装置、及び制御プログラム
Barber et al. Human Factors Problems of Wearable Computers

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220919

R150 Certificate of patent or registration of utility model

Ref document number: 7155808

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150