JP2018109871A - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP2018109871A
JP2018109871A JP2017000231A JP2017000231A JP2018109871A JP 2018109871 A JP2018109871 A JP 2018109871A JP 2017000231 A JP2017000231 A JP 2017000231A JP 2017000231 A JP2017000231 A JP 2017000231A JP 2018109871 A JP2018109871 A JP 2018109871A
Authority
JP
Japan
Prior art keywords
electronic device
controller
screen
gesture
proximity sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017000231A
Other languages
English (en)
Inventor
永愛 森田
Hisae Morita
永愛 森田
正樹 松尾
Masaki Matsuo
正樹 松尾
佳奈 政木
Kana MASAKI
佳奈 政木
和田 雄樹
Takeki Wada
雄樹 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2017000231A priority Critical patent/JP2018109871A/ja
Publication of JP2018109871A publication Critical patent/JP2018109871A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】操作性を向上させた電子機器を提供する。【解決手段】画面を表示するディスプレイ14と、近接センサ18と、近接センサ18によってジェスチャの検出を検知すると、ジェスチャの感度に応じて画面の表示態様を変化させるコントローラ11と、を備える。また、コントローラ11は、表示態様を変化させる際に、重畳させて表示させてもよい。また、コントローラ11は、表示態様を、時間の経過とともに徐々に変化させてもよい。また、コントローラ11は、表示態様を、表示エリアを徐々に広げて変化させてもよい。【選択図】図1

Description

本発明は、電子機器に関する。
例えばスマートフォンおよびタブレット端末等の電子機器は、一般にタッチパネルを備えている。ユーザは、このような電子機器を、タッチパネルに触れることで制御するのが一般的である。近年、ユーザが端末から離れて行うジェスチャを例えば赤外線センサ等の近接センサによって検出し、ジェスチャと対応する入力操作を実行する電子機器が知られている(例えば特許文献1)。
特開2015−225493号公報
ここで、このような電子機器で使用される近接センサ自体にはインジケータ等が備わっていないことが多い。そのため、ユーザにとって、近接センサがジェスチャを検出中であるか否かを判断することは難しかった。このように、ジェスチャによる入力操作が可能な電子機器における操作性には改善の余地があった。
かかる事情に鑑みてなされた本発明の目的は、操作性を向上させた電子機器を提供することにある。
本発明の実施形態に係る電子機器は、画面を表示するディスプレイと、近接センサと、前記近接センサによってジェスチャの検出を検知すると、前記ジェスチャの感度に応じて前記画面の表示態様を変化させるコントローラと、を備える。
本発明の一実施形態によれば、操作性を向上させた電子機器を提供することができる。
一実施形態に係る電子機器の概略構成図である。 ユーザがジェスチャにより電子機器を操作する様子を例示する図である。 近接センサの概略構成図である。 各赤外フォトダイオードが検出する検出値の推移を示す図である。 電子機器をジェスチャで操作する状況を例示する図である。 図6(a)〜図6(f)は電子機器の画面表示を例示する図である。 図7(a)〜図7(c)はエフェクトの時間による変化を例示する図である。 図8(a)〜図8(c)は別のエフェクトを例示する図である。
(電子機器の構成)
図1に示すように一実施形態の電子機器1は、タイマー12と、カメラ13と、ディスプレイ14と、マイク15と、ストレージ16と、通信ユニット17と、スピーカー25と、近接センサ18(ジェスチャセンサ)と、コントローラ11と、を備える。電子機器1は、さらにUVセンサ19と、照度センサ20と、加速度センサ21と、地磁気センサ22と、気圧センサ23と、ジャイロセンサ24と、を備える。図1は例示である。電子機器1は図1に示す構成要素の全てを含まなくてもよい。また、電子機器1は図1に示す以外の構成要素を備えていてもよい。
タイマー12はコントローラ11からタイマー動作の指示を受け、所定時間経過した時点で、その旨を示す信号をコントローラ11に出力する。タイマー12は、図1に示すようにコントローラ11とは独立して設けられていてもよいし、コントローラ11が内蔵する構成であってもよい。
カメラ13は、電子機器1の周囲の被写体を撮像する。カメラ13は一例として、電子機器1のディスプレイ14が設けられる面に設けられるインカメラである。
ディスプレイ14は画面を表示する。画面は、例えば文字、画像、記号および図形等の少なくとも一つを含む。ディスプレイ14は、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro-Luminescence Panel)または無機ELパネル(Inorganic Electro-Luminescence Panel)等であってもよい。本実施形態において、ディスプレイ14はタッチパネルディスプレイ(タッチスクリーンディスプレイ)である。タッチパネルディスプレイは、指またはスタイラスペン等の接触を検出して、その接触位置を特定する。ディスプレイ14は、指またはスタイラスペン等が接触した位置を同時に複数検出することができる。
マイク15は、人が発する声を含む、電子機器1の周囲の音を検出する。
ストレージ16は記憶部としてプログラムおよびデータを記憶する。ストレージ16は、コントローラ11の処理結果を一時的に記憶する。ストレージ16は、半導体記憶デバイスおよび磁気記憶デバイス等の任意の記憶デバイスを含んでよい。ストレージ16は、複数の種類の記憶デバイスを含んでよい。ストレージ16は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。
ストレージ16に記憶されるプログラムには、フォアグランドまたはバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとを含む。アプリケーションは、例えば、ジェスチャに応じた処理をコントローラ11に実行させる。制御プログラムは、例えば、OS(Operating System)である。アプリケーションおよび制御プログラムは、通信ユニット17による通信または記憶媒体を介してストレージ16にインストールされてもよい。
通信ユニット17は、有線または無線により通信するためのインタフェースである。一実施形態の通信ユニット17によって行われる通信方式は無線通信規格である。例えば、無線通信規格は2G、3Gおよび4G等のセルラーフォンの通信規格を含む。例えばセルラーフォンの通信規格は、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)およびPHS(Personal Handy-phone System)等を含む。例えば、無線通信規格は、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)およびNFC(Near Field Communication)等を含む。通信ユニット17は、上述した通信規格の1つまたは複数をサポートすることができる。
スピーカー25は音を出力する。例えば通話の際に、相手の声がスピーカー25から出力される。また、例えばニュースまたは天気予報等の読み上げの際に、その内容がスピーカー25から音で出力される。
近接センサ18は、電子機器1の周囲の対象物との相対距離および対象物の移動方向等を非接触で検出する。本実施形態において、近接センサ18は1つの光源用赤外LED(Light Emitting Diode)と4つの赤外フォトダイオードとを有する。近接センサ18は、光源用赤外LEDから赤外光を対象物に向けて照射する。近接センサ18は、対象物からの反射光を赤外フォトダイオードの入射光とする。そして、近接センサ18は赤外フォトダイオードの出力電流に基づいて対象物との相対距離を測定することができる。また、近接センサ18は、対象物からの反射光がそれぞれの赤外フォトダイオードに入射する時間差により対象物の移動方向を検出する。したがって、近接センサ18は、電子機器1のユーザが電子機器1に触れずに行うエアジェスチャ(以下単に「ジェスチャ」という)を用いた操作を検出することができる。ここで、近接センサ18は可視光フォトダイオードを有していてもよい。
コントローラ11は、例えばCPU(Central Processing Unit)等のプロセッサである。コントローラ11は、他の構成要素が統合されたSoC(System-on-a-Chip)等の集積回路であってもよい。コントローラ11は、複数の集積回路を組み合わせて構成されてもよい。コントローラ11は、電子機器1の動作を統括的に制御して各種の機能を実現する。
具体的にはコントローラ11は、ストレージ16に記憶されているデータを必要に応じて参照する。コントローラ11は、ストレージ16に記憶されているプログラムに含まれる命令を実行してディスプレイ14等の他の機能部を制御することによって各種機能を実現する。例えばコントローラ11は、ユーザによる接触のデータをタッチパネルから取得する。例えばコントローラ11は、近接センサ18が検出したユーザのジェスチャに関する情報を取得する。例えばコントローラ11は、タイマー12からカウントダウンの残り時間(タイマー時間)等の情報を取得する。また、例えばコントローラ11は、アプリケーションの起動状況を把握する。
UVセンサ19は、太陽光等に含まれる紫外線(Ultraviolet)量を測定することができる。
照度センサ20は、当該照度センサ20に入射する周囲光の照度を検出する。
加速度センサ21は、電子機器1に働く加速度の方向および大きさを検出する。加速度センサ21は、例えばx軸方向、y軸方向およびz軸方向の加速度を検出する3軸(3次元)タイプである。加速度センサ21は、例えばピエゾ抵抗型であってもよいし、静電容量型であってもよい。
地磁気センサ22は地磁気の向きを検出して、電子機器1の向きを測定可能にする。
気圧センサ23は、電子機器1の外側の気圧(大気圧)を検出する。
ジャイロセンサ24は、電子機器1の角速度を検出する。コントローラ11は、ジャイロセンサ24により取得された角速度を時間積分することにより、電子機器1の向きの変化を測定することができる。
(ジェスチャによる電子機器の操作)
図2は、ユーザがジェスチャにより電子機器1を操作する様子を示す。図2において、電子機器1は一例としてスタンドによって支持される。代替例として電子機器1は壁に立てかけられたり、テーブルに置かれたりしてもよい。近接センサ18がユーザのジェスチャを検出すると、コントローラ11は検出されたジェスチャに基づく処理を行う。図2の例では、ジェスチャに基づく処理はレシピが表示されている画面のスクロールである。例えば、ユーザが電子機器1の長手方向上方へと手を動かすジェスチャを行うと、ユーザの手の動きに連動して画面が上方へとスクロールする。また、例えば、ユーザが電子機器1の長手方向下方へと手を動かすジェスチャを行うと、ユーザの手の動きに連動して画面が下方へとスクロールする。
図2に示す電子機器1はスマートフォンである。代替例として電子機器1は例えば、携帯電話端末、ファブレット、タブレットPCまたはフィーチャーフォン等でもよい。また、電子機器1は、上記のものに限定されず、例えば、PDA、リモコン端末、携帯音楽プレイヤー、ゲーム機、電子書籍リーダ、カーナビゲーション、家電製品または産業用機器(FA機器)等でもよい。
(ジェスチャを検出する手法)
ここで、図3および図4を参照しながら、コントローラ11が近接センサ18の出力に基づいてユーザのジェスチャを検出する手法を説明する。図3は、電子機器1を正面から見たときの近接センサ18の構成例を示す図である。近接センサ18は、光源用赤外LED180と、4つの赤外フォトダイオードSU,SR,SDおよびSLと、を有する。4つの赤外フォトダイオードSU,SR,SDおよびSLは、レンズ181を介して検出対象物からの反射光を検出する。4つの赤外フォトダイオードSU,SR,SDおよびSLは、レンズ181の中心から見て対称的に配置されている。ここで、図3に示される仮想線D1は電子機器1の長手方向と略平行であるとする。図3の仮想線D1上に、赤外フォトダイオードSUと赤外フォトダイオードSDとが離れて配置されている。そして、図3の仮想線D1の方向において、赤外フォトダイオードSRおよびSLは、赤外フォトダイオードSUと赤外フォトダイオードSDとの間に配置されている。
図4は、4つの赤外フォトダイオードSU,SR,SDおよびSLの検出対象物(例えばユーザの手等)が、図3の仮想線D1の方向に沿って移動したときの検出値の推移を例示する。ここで、仮想線D1の方向において、赤外フォトダイオードSUと赤外フォトダイオードSDとが最も離れている。そのため、図4に示すように、赤外フォトダイオードSUの検出値(破線)の変化(例えば上昇)と、赤外フォトダイオードSDの検出値(細い実線)の同じ変化(例えば上昇)との時間差が最も大きい。コントローラ11は、フォトダイオードSU,SR,SDおよびSLの検出値の所定の変化の時間差を把握することによって、検出対象物の移動方向を判定できる。
コントローラ11は、近接センサ18からフォトダイオードSU,SR,SDおよびSLの検出値を取得する。そして、コントローラ11は、例えば検出対象物の仮想線D1の方向への移動を把握するために、フォトダイオードSDの検出値からフォトダイオードSUの検出値を減算した値を所定の時間で積分してもよい。図4の例では、領域R41およびR42において積分値は非ゼロの値となる。この積分値の変化(例えば正値、ゼロ、負値の変化)から、コントローラ11は、仮想線D1の方向における検出対象物の移動を把握できる。
また、コントローラ11は、フォトダイオードSLの検出値からフォトダイオードSRの検出値を減算した値を所定の時間で積分してもよい。この積分値の変化(例えば正値、ゼロ、負値の変化)から、コントローラ11は、仮想線D1に直交する方向(電子機器1の短手方向に略平行な方向)における検出対象物の移動を把握できる。
代替例として、コントローラ11はフォトダイオードSU,SR,SDおよびSLの全ての検出値を用いて演算を行ってもよい。すなわち、コントローラ11は検出対象物の移動方向を、電子機器1の長手方向および短手方向の成分に分離して演算することなく把握してもよい。
検出されるジェスチャは例えば、左右のジェスチャ、上下のジェスチャ、斜めのジェスチャ、時計回りで円を描くジェスチャ、および反時計回りで円を描くジェスチャ等である。例えば左右へのジェスチャとは、電子機器1の短手方向と略平行な方向に行われるジェスチャである。上下のジェスチャとは、電子機器1の長手方向と略平行な方向に行われるジェスチャである。斜めのジェスチャとは、電子機器1と略平行な平面において、電子機器1の長手方向と短手方向とのいずれとも平行でない方向に行われるジェスチャである。
(キッチンモード)
図5は、ユーザがジェスチャにより電子機器1を操作する状況の一例を示す。図5の例で、ユーザは料理のレシピを電子機器1のディスプレイ14に表示しながら、キッチンでレシピに従って料理をしている。このとき、近接センサ18はユーザのジェスチャを検出する。そして、コントローラ11は近接センサ18が検出したジェスチャに基づく処理を行う。例えば、コントローラ11は特定のジェスチャ(例えばユーザが手を上下に動かすジェスチャ)に応じてレシピをスクロールする処理が可能である。料理中は、ユーザの手が汚れたり、濡れたりすることがある。しかし、ユーザは電子機器1に触れることなくレシピをスクロールすることができる。したがって、ディスプレイ14が汚れること、および料理中のユーザの手にディスプレイ14の汚れがうつることを回避できる。
ここで、電子機器1はモードを複数有する。モードとは電子機器1の全体の動作について制限等を与える動作モード(動作状態または動作状況)を意味する。モードは同時に1つだけ選択可能である。本実施形態において、電子機器1のモードは第1モードおよび第2モードを含む。第1モードは、例えばキッチン以外の部屋および外出先等での使用に適している通常の動作モード(通常モード)である。第2モードは、キッチンでレシピを表示しながら料理を行うのに最適な電子機器1の動作モード(キッチンモード)である。上記で説明したように、第2モードの場合には、ジェスチャによる入力操作が可能であることが好ましい。つまり、電子機器1のモードが第2モードに切り替わる場合には、連動して近接センサ18を動作させてジェスチャを検出可能にすることが好ましい。本実施形態の電子機器1は、後述するようにユーザがアイコン30をタップすることによって、第2モード(キッチンモード)への切り替えと近接センサ18の動作とを連動させることが可能である。
(画面表示例)
図6(a)〜図6(f)は本実施形態に係る電子機器1のディスプレイ14に表示される画面例を示す。上記のように、電子機器1は第1モード(通常モード)に加えて、キッチンでレシピを表示しながら料理を行うのに最適な第2モード(キッチンモード)を有する。図6(a)および図6(b)の画面表示のとき、電子機器1は第1モード(通常モード)で動作する。図6(c)、図6(d)、図6(e)および図6(f)の画面表示のとき、電子機器1は第2モード(キッチンモード)で動作する。
図6(a)は、選択ボタン140および選択ボタン141を含む画面例である。ユーザは、選択ボタン140または選択ボタン141をタップすることによってレシピの検索画面を表示させる。そして、ユーザは検索結果であるレシピを表示させることができる。
選択ボタン140は、ユーザがWebブラウザを利用してレシピを検索して、検索結果であるレシピを表示させる場合に選択される。選択ボタン141は、ユーザが専用のアプリケーションを利用してレシピを検索して、検索結果であるレシピを表示させる場合に選択される。ここで、専用のアプリケーションは、インターネット経由でサーバにアクセスしてレシピのデータを取得できるが、既にいくつかのレシピのデータを電子機器1のストレージ16に記憶している。ユーザは、例えば通信速度が遅い環境にいる場合でも、選択ボタン141を選択することによって、専用のアプリケーションを使って素早くストレージ16に記憶されたレシピの検索および表示が可能である。
図6(b)は、ユーザが選択ボタン140または選択ボタン141をタップしてWebブラウザまたは専用のアプリケーションでレシピを検索した後に、検索結果であるレシピを表示させたときの画面例である。図6(b)の画面では、レシピに重ねてアイコン30が表示されている。アイコン30は、2つの円が、一部が重なるように連結された形状をしている。アイコン30の一方の円は、他方の円よりもやや大きい。アイコン30の大きい方の円の内部には鍋の絵が描かれている。コントローラ11は、アイコン30がユーザによってタップされたことを検知すると第1モードと第2モードとを切り替える。図6(b)の画面を表示しているとき、電子機器1は第1モード(通常モード)で動作している。ユーザがアイコン30をタップすると、電子機器1のモードは第2モード(キッチンモード)に切り替わる。また、電子機器1が第2モードで動作しているときに、ユーザがアイコン30をタップすると、電子機器1のモードは第1モードに切り替わる。
図6(c)は、ユーザがアイコン30をタップして、電子機器1のモードが第2モード(キッチンモード)に切り替わったときの画面例である。このとき、電子機器1は近接センサ18を動作させて、ユーザのジェスチャを検出可能にする。ディスプレイ14に表示されるアイコン30は、キッチンモードおよび近接センサ18によりジェスチャの検出を兼用するアイコンである。また、コントローラ11は、アイコン30への接触を検知すると、キッチンモードの開始および近接センサ18によるジェスチャの検出を開始すると共に、アイコン30の態様を変化させる。図6(c)の例では、コントローラ11はアイコン30の色を変化させる。アイコン30の2つの円の内部は白色から黒色へと変化している。また、コントローラ11はアイコン30の形状を変化させる。アイコン30の鍋の絵は、蓋が閉じていた状態から開いた状態へと変化している。ユーザは、ディスプレイ14に表示されるアイコン30の態様の変化によって、電子機器1が第2モードであって、かつ、近接センサ18によってジェスチャが検出されることを容易に把握できる。
図6(c)の画面が表示されている場合に、コントローラ11は、近接センサ18によって検出されたユーザのジェスチャに基づいて画面表示を制御する。コントローラ11は、例えば近接センサ18によって手を上下方向に移動させるジェスチャが検出されると、レシピが表示されている画面をスクロールさせる操作を行う。また、コントローラ11は、例えば近接センサ18によって手を1秒等の所定時間かざすジェスチャが検出されると、レシピの表示をタイマー画面の表示に切り替える。また、コントローラ11は、第2モード(キッチンモード)での動作中に通信ユニット17によって電話の着信を検出したときに、以下に説明するジェスチャによる操作を可能にする。
(第2モードでの着信および通話)
図6(d)は電話の着信があった場合の画面例である。コントローラ11は、電話の着信があった場合に、図6(c)のレシピの表示画面から図6(d)の着信画面に切り替える。図6(d)の画面例では、ディスプレイ14に発信者の画像、名前および電話番号が表示される。また、ユーザの手を左から右へと移動させるジェスチャによって応答できることを示すガイドがディスプレイ14に表示される。ユーザは手を左から右へと移動させるジェスチャによって電話に応答することができる。このとき、コントローラ11は、マイク15とスピーカー25を動作させて、ハンズフリー通話を可能にする。ここで、コントローラ11は、ユーザが電話に応答せずに所定時間(例えば15秒)が経過したと判定した場合に、画面を図6(c)のレシピの表示画面に戻す。
図6(e)は電話の着信に対してユーザが応答した場合の画面例である。コントローラ11は、近接センサ18によって手を左から右へと移動させるジェスチャが検出されると、図6(d)の着信画面から図6(e)の通話中画面に切り替える。図6(e)の画面例では、ディスプレイ14に発信者の画像、名前、電話番号および通話時間が小さく表示される。また、ユーザが手をかざすジェスチャによって通話を終了(終話)できることを示すガイドがディスプレイ14に表示される。コントローラ11は、近接センサ18によって手を所定時間(例えば3秒)かざすジェスチャが検出されると、画面を図6(c)のレシピの表示画面に戻す。
図6(f)は通話中にユーザが音量を調整する場合の画面例である。コントローラ11は、近接センサ18によって手を上下方向に移動させるジェスチャが検出されると、図6(e)の通話中画面から図6(f)の通話音量画面に切り替える。図6(f)の画面例では、ディスプレイ14に通話音量を示すスライドバーが表示される。また、ユーザが手を下から上へと移動させるジェスチャで音量が上がること、および、ユーザが手を上から下へと移動させるジェスチャで音量が下がることを示すガイドがディスプレイ14に表示される。コントローラ11は、ユーザが音量調整のためのジェスチャをせずに所定時間(例えば3秒)が経過したと判定した場合に、画面を図6(e)の通話中画面に戻す。
本実施形態において着信画面、通話中画面および通話音量画面は通知バーを除くディスプレイ14の全領域に表示される。このとき、レシピおよびアイコン30は表示されない。ここで、通知バーはディスプレイ14の上部の黒色で示される帯状の領域である。図6(d)、図6(e)および図6(f)の例では、通知バーに、近接センサ18が動作中であることを示す手の形のピクト(絵文字)および現在時刻が表示されている。通知バーには、例えば電波状態、マナーモードおよび電池の充電状態等を表すピクトがさらに表示されてもよい。
(エフェクト)
上記のように、本実施形態の電子機器1は、第2モードでの動作中に近接センサ18がユーザのジェスチャを検出すると、検出されたジェスチャに基づく様々な処理を行う。ここで、ジェスチャは電子機器1に触れずに行われる。そのため、ユーザはタッチパネル操作のような触覚を得ることができない。電子機器1のコントローラ11は、近接センサ18によってジェスチャの検出を検知すると、ジェスチャの感度に応じて画面の表示態様を変化させる。このことにより、本実施形態の電子機器1は、近接センサ18がジェスチャを検出していることをユーザに知らせることが可能である。
図7(a)は、通話中画面(図6(e)参照)においてエフェクト50が表示された場合の画面例である。図7(a)の例では、コントローラ11は近接センサ18によってジェスチャの検出を検知すると、ジェスチャの感度に応じて(すなわち、近接センサ18のジェスチャの検出データの出力状態に応じて)エフェクト50をディスプレイ14に表示させる。そのため、画面の表示態様が変化し、ユーザは電子機器1の近接センサ18によってジェスチャが検出されていることがわかる。ここで、エフェクト50は視覚効果を有する画像である。エフェクト50の視覚効果は例えば画面を目立たせる、または画面に変化があったことを示す等の効果である。エフェクト50は電子機器1が備える機能を発揮するための画面(例えば、通話中画面、レシピの表示画面、着信画面および通話音量画面等)に含まれる画像とは別の画像である。コントローラ11は、画面の表示態様を変化させる際に、エフェクト50を画面に重畳させて表示させる。図7(a)の例では、通話中画面に、波面状のエフェクト50が重畳している。図7(a)の例では、エフェクト50は、互いに隣接する「背景を透過しない領域(黒色の円弧部分)」と「背景を透過する領域(黒色の円弧以外の部分)」とで構成される画像である。ユーザは、エフェクト50の重畳による通話中画面の変化から、近接センサ18によってジェスチャが検出されていることを認識できる。本実施形態においてエフェクト50は背景を透過する領域を備える。そのため、ユーザは通話中画面についても視認することができる。つまり、エフェクト50によって、背景が完全に覆われることはない。後述するように、エフェクト50として様々な画像を用いることが可能であるが、エフェクト50の少なくとも一部は背景を透過する領域を備えることが好ましい。
図7(b)および図7(c)は、通話中画面においてエフェクト50が表示されてから時間が経過した場合の画面変化例を示す。図7(b)は、図7(a)の画面表示から時間(例えば0.3秒)が経過した場合のエフェクト50を示す。また、図7(c)は、図7(b)の画面表示からさらに時間(例えば0.3秒)が経過した場合のエフェクト50を示す。このように、エフェクト50は時間の経過とともに広がっていく。このようなエフェクト50を用いることによって、コントローラ11は、ディスプレイ14に表示される画面の表示態様を、時間の経過とともに徐々に変化させることができる。また、コントローラ11は、ディスプレイ14に表示される画面の表示態様を、表示エリアを徐々に広げて変化させることができる。ここで、エフェクト50は、ユーザがジェスチャ入力のためにかざした手によって隠れない程度に広がることが好ましい。例えば、コントローラ11は、エフェクト50を電子機器1の短手方向の両端に達するまで広げてもよい。また、コントローラ11は、エフェクト50が手によって隠れない程度に広がるまでの所定の時間を演算で求めてもよい(例えば1秒)。そして、コントローラ11は、所定の時間、エフェクト50を広げてもよい。また、コントローラ11は、エフェクト50が広がる速度を調整してもよい。また、エフェクト50は、手によって隠れない程度に広がった後に非表示にされてもよいし、近接センサ18のジェスチャの検出中にずっと表示されていてもよい。
図7(a)〜図7(c)で示すエフェクト50は波面のように広がる画像である。ここで、波面の中心は近接センサ18の配置位置に対応する。コントローラ11は、表示されている画面のうち近接センサ18の配置位置から近傍(画面左上部分)の位置の表示態様を変化させる。ここで、「画面のうち近接センサ18の配置位置」は、換言すると、エフェクト50を表示可能な画面領域において近接センサ18に最も近い位置である。本実施形態において、エフェクト50を表示可能な画面領域は、ディスプレイ14の全体の表示領域である。そして、近接センサ18に最も近い位置は、近接センサ18から電子機器1の長手方向下方に下ろした線(図7(a)参照)がディスプレイ14の表示領域に達した位置である。図7(a)〜図7(c)に示すように、この位置に波面の中心がある。ユーザはエフェクト50である波面の中心を見ることによって、容易に近接センサ18の位置を把握できる。そして、ユーザは、近接センサ18の近くでジェスチャを行うことによって、近接センサ18がジェスチャを検出する精度をさらに高めることができる。ここで、図7(a)〜図7(c)および後述する図8(a)〜図8(c)においては、エフェクト50を見やすくするために、通知バーの部分を反転表示している。
図8(a)は近接センサ18の位置が異なる電子機器1におけるエフェクト50の表示画面を例示する。図8(a)の例では、通知バーの右上部分に近接センサ18が配置されている。図8(a)の例でも、ユーザは画面を見て波面の中心をたどることによって、容易に近接センサ18の位置を把握することができる。図8(a)の例において、コントローラ11は、表示されている画面のうち近接センサ18の配置位置から近傍(画面右上部分)の位置の表示態様を変化させる。
以上に説明したように、本実施形態に係る電子機器1は、画面を表示するディスプレイ14と、近接センサ18と、近接センサ18によってジェスチャの検出を検知すると、ジェスチャの感度に応じて画面の表示態様を変化させるコントローラ11と、を備える。上記のように、コントローラ11は、ディスプレイ14にエフェクト50を表示させることによって画面の表示態様を変化させて、ユーザに近接センサ18がジェスチャを検出していることを知らせる。ユーザは近接センサ18がジェスチャを検出中であるか否かを容易に把握できる。その上で、ユーザは例えば次の対応(例えばジェスチャ位置を変更する等)を行うことができる。つまり、本実施形態に係る電子機器1は従来よりも操作性が向上している。
(その他の実施形態)
本発明を図面および実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形および修正を行うことが容易であることに注意されたい。したがって、これらの変形および修正は本発明の範囲に含まれることに留意されたい。例えば、各手段または各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の手段またはステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。
上記の実施形態では、コントローラ11は、エフェクト50が時間の経過とともに広がっていくように表示した。これとは反対に、コントローラ11は、エフェクト50が時間の経過とともに近接センサ18の配置位置に向かって収束するように表示してもよい。例えば、エフェクト50は図7(c)の状態から、時間の経過とともに図7(b)の状態、図7(a)の状態へと変化してもよい。この場合にも、ユーザはエフェクト50である波面の中心(収束先)を見ることによって、容易に近接センサ18の位置を把握することができる。
上記の実施形態では、エフェクト50は波面のように広がる画像であった。ここで、図8(b)に示すように、エフェクト50は放射状に広がる画像であってもよい。このとき、エフェクト50は、近接センサ18の配置位置を中心に広がる、向きの異なる複数の直線を含んで構成される。直線は非透過であってもよいし、一部が背景画像を透過させてもよい。直線が背景画像を透過させるとは、背景画像がユーザに視認されるように直線が透明化または半透明化することを意味する。この場合にも、ユーザはエフェクト50である複数の直線の中心(集中する部分)を見ることによって、容易に近接センサ18の位置を把握することができる。
上記の実施形態では、エフェクト50は背景を透過しない領域と背景を透過する領域とが隣接して構成される画像であった。ここで、図8(c)に示すように、エフェクト50は、背景色(例えば白色)と異なる色で背景の画面を透過させる画像であってもよい。また、図8(c)のエフェクト50は、波面のように広がる画像であってもよい。例えば、エフェクト50は全体が薄い緑色であって背景を透過させて、時間の経過とともに近接センサ18の配置位置を中心に円形に広がってもよい。この場合にも、ユーザは円の中心を見ることによって、容易に近接センサ18の位置を把握することができる。また、別の例として、図8(c)のエフェクト50は時間の経過とともに色が変化してもよい。また、別の例として、図8(c)のエフェクト50は、時間の経過とともに光り方(例えば輝度)が変化してもよい。
上記の実施形態で、コントローラ11は、ジェスチャが検出されたことを、時間の経過とともに変化するエフェクト50によってユーザに知らせていた。ここで、エフェクト50は時間の経過ではなく、近接センサ18のジェスチャの検出状況に応じて光り方(例えば輝度)が変化してもよい。例えば近接センサ18がジェスチャを検出しにくい状況(検出データの出力が途切れる等)であればエフェクト50の輝度が低下してもよい。逆に、例えば近接センサ18が安定してジェスチャを検出している状況であればエフェクト50の輝度が最大レベルを維持してもよい。また、電子機器1は、エフェクト50に代えて、またはエフェクト50とともに、光源(例えばLED等)を用いてもよい。ここで、光源は例えば輝度、色、点滅の時間間隔等の変化によって近接センサ18のジェスチャの検出状況を示してもよい。
本開示内容の多くの側面は、プログラム命令を実行可能なコンピュータシステムその他のハードウェアにより実行される、一連の動作として示される。コンピュータシステムその他のハードウェアには、例えば、汎用コンピュータ、PC(パーソナルコンピュータ)、専用コンピュータ、ワークステーション、PCS(Personal Communications System、パーソナル移動通信システム)、移動(セルラー)電話機、データ処理機能を備えた移動電話機、RFID受信機、ゲーム機、電子ノートパッド、ラップトップコンピュータ、GPS(Global Positioning System)受信機またはその他のプログラム可能なデータ処理装置が含まれる。各実施形態では、種々の動作または制御方法は、プログラム命令(ソフトウェア)で実装された専用回路(例えば、特定機能を実行するために相互接続された個別の論理ゲート)、一以上のプロセッサにより実行される論理ブロックおよび/またはプログラムモジュール等により実行されることに留意されたい。論理ブロックおよび/またはプログラムモジュール等を実行する一以上のプロセッサには、例えば、一以上のマイクロプロセッサ、CPU(中央演算処理ユニット)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子機器、ここに記載する機能を実行可能に設計されたその他の装置および/またはこれらいずれかの組合せが含まれる。ここに示す実施形態は、例えば、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコードまたはこれらいずれかの組合せにより実装される。命令は、必要なタスクを実行するためのプログラムコードまたはコードセグメントであってもよい。そして、命令は、機械読取り可能な非一時的記憶媒体その他の媒体に格納することができる。コードセグメントは、手順、関数、サブプログラム、プログラム、ルーチン、サブルーチン、モジュール、ソフトウェアパッケージ、クラスまたは命令、データ構造もしくはプログラムステートメントのいずれかの任意の組合せを示すものであってもよい。コードセグメントは、他のコードセグメントまたはハードウェア回路と、情報、データ引数、変数または記憶内容の送信および/または受信を行い、これにより、コードセグメントが他のコードセグメントまたはハードウェア回路と接続される。
ここで用いられるストレージ16は、さらに、ソリッドステートメモリ、磁気ディスクおよび光学ディスクの範疇で構成されるコンピュータ読取り可能な有形のキャリア(媒体)として構成することができる。かかる媒体には、ここに開示する技術をプロセッサに実行させるためのプログラムモジュール等のコンピュータ命令の適宜なセットまたはデータ構造が格納される。コンピュータ読取り可能な媒体には、一つ以上の配線を備えた電気的接続、磁気ディスク記憶媒体、磁気カセット、磁気テープ、その他の磁気および光学記憶装置(例えば、CD(Compact Disk)、レーザーディスク(登録商標)、DVD(登録商標)(Digital Versatile Disc)、フロッピー(登録商標)ディスクおよびブルーレイディスク(登録商標))、可搬型コンピュータディスク、RAM(Random Access Memory)、ROM(Read-Only Memory)、EPROM(Erasable Programmable Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)もしくはフラッシュメモリ等の書換え可能でプログラム可能なROMもしくは情報を格納可能な他の有形の記憶媒体またはこれらいずれかの組合せが含まれる。メモリは、プロセッサまたはプロセッシングユニットの内部および/または外部に設けることができる。ここで用いられるように、「メモリ」という語は、あらゆる種類の長期記憶用、短期記憶用、揮発性、不揮発性またはその他のメモリを意味する。つまり、「メモリ」は特定の種類および/または数に限定されない。また、記憶が格納される媒体の種類も限定されない。
1 電子機器
11 コントローラ
12 タイマー
13 カメラ
14 ディスプレイ
15 マイク
16 ストレージ
17 通信ユニット
18 近接センサ
19 UVセンサ
20 照度センサ
21 加速度センサ
22 地磁気センサ
23 気圧センサ
24 ジャイロセンサ
25 スピーカー
30 アイコン
50 エフェクト
140,141 選択ボタン
180 光源用赤外LED
181 レンズ
SU,SR,SD,SL フォトダイオード

Claims (7)

  1. 画面を表示するディスプレイと、
    近接センサと、
    前記近接センサによってジェスチャの検出を検知すると、前記ジェスチャの感度に応じて前記画面の表示態様を変化させるコントローラと、を備える電子機器。
  2. 前記コントローラは、
    前記表示態様を変化させる際に、重畳させて表示させる、請求項1に記載の電子機器。
  3. 前記コントローラは、
    前記表示態様を、時間の経過とともに徐々に変化させる、請求項1または2に記載の電子機器。
  4. 前記コントローラは、
    前記表示態様を、表示エリアを徐々に広げて変化させる、請求項3に記載の電子機器。
  5. 前記コントローラは、
    前記表示されている画面のうち前記近接センサの配置位置から近傍の位置の表示態様を変化させる、請求項1から4のいずれか一項に記載の電子機器。
  6. 前記表示態様の変化は、エフェクトである、請求項1から5のいずれか一項に記載の電子機器。
  7. 前記エフェクトは、
    背景色と異なる色で背景の画面を透過させる画像である、請求項6に記載の電子機器。
JP2017000231A 2017-01-04 2017-01-04 電子機器 Pending JP2018109871A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017000231A JP2018109871A (ja) 2017-01-04 2017-01-04 電子機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017000231A JP2018109871A (ja) 2017-01-04 2017-01-04 電子機器

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017153682A Division JP6346699B1 (ja) 2017-08-08 2017-08-08 電子機器

Publications (1)

Publication Number Publication Date
JP2018109871A true JP2018109871A (ja) 2018-07-12

Family

ID=62844509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017000231A Pending JP2018109871A (ja) 2017-01-04 2017-01-04 電子機器

Country Status (1)

Country Link
JP (1) JP2018109871A (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031981A (ja) * 2007-07-26 2009-02-12 Mitsubishi Electric Corp インタフェース装置、インタフェース方法及びインタフェースプログラム
JP2011118595A (ja) * 2009-12-02 2011-06-16 Square Enix Co Ltd ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
WO2012070161A1 (ja) * 2010-11-24 2012-05-31 パナソニック株式会社 情報処理装置
JP2013246743A (ja) * 2012-05-29 2013-12-09 Sony Corp 画像処理装置、およびプログラム
JP2014209336A (ja) * 2013-03-28 2014-11-06 株式会社Nttドコモ 情報処理装置および入力支援方法
JP2014219938A (ja) * 2013-05-10 2014-11-20 株式会社ゲッシュ 入力支援装置、入力支援方法、および、プログラム
JP5630589B1 (ja) * 2013-03-11 2014-11-26 三菱電機株式会社 表示器及びプログラマブル表示器
JP2015515065A (ja) * 2012-04-16 2015-05-21 クアルコム,インコーポレイテッド ジェスチャを使用したデバイスとの対話
JP2016029466A (ja) * 2014-07-16 2016-03-03 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 音声認識テキスト化システムの制御方法および携帯端末の制御方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031981A (ja) * 2007-07-26 2009-02-12 Mitsubishi Electric Corp インタフェース装置、インタフェース方法及びインタフェースプログラム
JP2011118595A (ja) * 2009-12-02 2011-06-16 Square Enix Co Ltd ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
WO2012070161A1 (ja) * 2010-11-24 2012-05-31 パナソニック株式会社 情報処理装置
JP2015515065A (ja) * 2012-04-16 2015-05-21 クアルコム,インコーポレイテッド ジェスチャを使用したデバイスとの対話
JP2013246743A (ja) * 2012-05-29 2013-12-09 Sony Corp 画像処理装置、およびプログラム
JP5630589B1 (ja) * 2013-03-11 2014-11-26 三菱電機株式会社 表示器及びプログラマブル表示器
JP2014209336A (ja) * 2013-03-28 2014-11-06 株式会社Nttドコモ 情報処理装置および入力支援方法
JP2014219938A (ja) * 2013-05-10 2014-11-20 株式会社ゲッシュ 入力支援装置、入力支援方法、および、プログラム
JP2016029466A (ja) * 2014-07-16 2016-03-03 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 音声認識テキスト化システムの制御方法および携帯端末の制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FLOWTIMER:IPHONEに触れずに起動や時間設定ができる、料理やお菓子作りに最適なタイマー。無料。, JPN6017033316, 23 July 2013 (2013-07-23), ISSN: 0003631753 *

Similar Documents

Publication Publication Date Title
US10775998B2 (en) Electronic device and control method
JP6293953B1 (ja) 電子機器、プログラムおよび制御方法
JP6101881B1 (ja) 電子機器、プログラムおよび制御方法
JP6091693B1 (ja) 電子機器
JP6374590B1 (ja) 電子機器、プログラムおよび制御方法
US11269417B2 (en) Electronic device configured to communicate with an intercom, and control method thereof
WO2018193876A1 (ja) 電子機器
JP6163278B1 (ja) 電子機器、プログラムおよび制御方法
JP6209699B1 (ja) 電子機器、プログラムおよび制御方法
JP6546632B2 (ja) 電子機器、プログラムおよび制御方法
JP6235175B1 (ja) 電子機器、プログラムおよび制御方法
US20180188817A1 (en) Electronic device, computer-readable non-transitory recording medium, and control method
JP6346699B1 (ja) 電子機器
JP6173625B1 (ja) 電子機器、プログラムおよび制御方法
JP6113345B1 (ja) 電子機器
JP6163274B1 (ja) 電子機器、プログラムおよび制御方法
JP2018181351A (ja) 電子機器
JP2018109871A (ja) 電子機器
JP6333461B1 (ja) 電子機器
JP2018110370A (ja) 電子機器、プログラムおよび制御方法
JP2018109955A (ja) 電子機器、プログラムおよび制御方法
JP2019087036A (ja) 電子機器、プログラムおよび制御方法
JP6637089B2 (ja) 電子機器、プログラムおよび制御方法
JP2018109873A (ja) 電子機器、プログラムおよび制御方法
JP2019149825A (ja) 電子機器、プログラムおよび制御方法

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180530