JP2018081450A - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP2018081450A
JP2018081450A JP2016222612A JP2016222612A JP2018081450A JP 2018081450 A JP2018081450 A JP 2018081450A JP 2016222612 A JP2016222612 A JP 2016222612A JP 2016222612 A JP2016222612 A JP 2016222612A JP 2018081450 A JP2018081450 A JP 2018081450A
Authority
JP
Japan
Prior art keywords
controller
electronic device
gesture
keyword
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016222612A
Other languages
English (en)
Other versions
JP6078685B1 (ja
Inventor
上野 泰弘
Yasuhiro Ueno
泰弘 上野
茂輝 田辺
Shigeki Tanabe
茂輝 田辺
英樹 森田
Hideki Morita
英樹 森田
功 益池
Isao Masuike
功 益池
浩太郎 山内
Kotaro Yamauchi
浩太郎 山内
学 佐久間
Manabu Sakuma
学 佐久間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2016222612A priority Critical patent/JP6078685B1/ja
Application granted granted Critical
Publication of JP6078685B1 publication Critical patent/JP6078685B1/ja
Priority to PCT/JP2017/040306 priority patent/WO2018092658A1/ja
Priority to US16/349,727 priority patent/US10955927B2/en
Priority to EP17871516.5A priority patent/EP3528089B1/en
Publication of JP2018081450A publication Critical patent/JP2018081450A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities

Abstract

【課題】操作性を向上させた電子機器を提供する。
【解決手段】近接センサ18と、キーワードと近接センサによって検出されるジェスチャの種類とを紐付けて記憶するストレージ16と、ユーザに通知された通知情報からキーワードを検出し、キーワードに紐付けられたジェスチャの種類に基づいて処理を行うコントローラ11と、を備える。さらに、通信ユニット17を備え、通知情報は、通信ユニット17によって受信した情報を含んでもよい。また、ディスプレイ14を備え、通知情報は、ディスプレイ14に表示された情報を含んでもよい。
【選択図】図1

Description

本発明は、電子機器に関する。
例えばスマートフォンおよびタブレット端末等の電子機器は、一般にタッチパネルを備えている。ユーザは、このような電子機器を、タッチパネルに触れることで制御するのが一般的である。近年、ユーザが端末から離れて行うジェスチャを例えば赤外線センサ等の近接センサによって検出し、ジェスチャと対応する入力操作を実行する電子機器が知られている(例えば特許文献1)。
特開2015−225493号公報
ここで、ジェスチャによる入力操作が可能な電子機器において、種々の状況に応じた各種の操作を一貫してジェスチャにより行うことができれば、さらに操作性を向上させることができる。
かかる事情に鑑みてなされた本発明の目的は、操作性を向上させた電子機器を提供することにある。
本発明の実施形態に係る電子機器は、近接センサと、キーワードと前記近接センサによって検出されるジェスチャの種類とを紐付けて記憶するストレージと、ユーザに通知された通知情報から前記キーワードを検出し、前記キーワードに紐付けられた前記ジェスチャの種類に基づいて処理を行うコントローラと、を備える。
本発明の一実施形態によれば、操作性を向上させた電子機器を提供することができる。
一実施形態に係る電子機器の概略構成図である。 図2(a)および図2(b)は、ユーザがジェスチャにより電子機器を操作する様子を示す図である。 ユーザがジェスチャにより電子機器を操作する状況の一例を示す図である。 ストレージに記憶されるジェスチャグループ情報の一例を示す図である。 一実施形態に係る電子機器が実行する処理の一例を示すフローチャートである。
(電子機器の構成)
図1に示すように一実施形態の電子機器1は、ディスプレイ14と、ストレージ16と、通信ユニット17と、近接センサ18(ジェスチャセンサ)と、コントローラ11と、を備える。電子機器1はさらに、タイマー12と、カメラ13と、マイク15と、UVセンサ19と、照度センサ20と、加速度センサ21と、地磁気センサ22と、気圧センサ23と、ジャイロセンサ24と、スピーカー25と、を備える。図1は例示である。電子機器1は図1に示す構成要素の全てを含まなくてもよい。また、電子機器1は図1に示す以外の構成要素を備えていてもよい。
ディスプレイ14は画面を表示する。画面は、例えば文字、画像、記号および図形等の少なくとも一つを含む。ディスプレイ14は、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro-Luminescence Panel)または無機ELパネル(Inorganic Electro-Luminescence Panel)等であってもよい。本実施形態において、ディスプレイ14はタッチスクリーンディスプレイである。タッチスクリーンディスプレイは、指またはスタイラスペン等の接触を検出して、その接触位置を特定する。ディスプレイ14は、指またはスタイラスペン等が接触した位置を同時に複数検出することができる。
ストレージ16は記憶部としてプログラムおよびデータを記憶する。ストレージ16は、コントローラ11の処理結果を一時的に記憶する。ストレージ16は、半導体記憶デバイスおよび磁気記憶デバイス等の任意の記憶デバイスを含んでよい。ストレージ16は、複数の種類の記憶デバイスを含んでよい。ストレージ16は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。
ストレージ16に記憶されるプログラムには、フォアグランドまたはバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとを含む。アプリケーションは、例えば、ジェスチャに応じた処理をコントローラ11に実行させる。制御プログラムは、例えば、OS(Operating System)である。アプリケーションおよび制御プログラムは、通信ユニット17による通信または記憶媒体を介してストレージ16にインストールされてもよい。
通信ユニット17は、有線または無線により通信するためのインタフェースである。一実施形態の通信ユニット17によって行われる通信方式は、無線通信規格である。例えば、無線通信規格として、2G、3Gおよび4G等のセルラーフォンの通信規格がある。例えばセルラーフォンの通信規格は、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)およびPHS(Personal Handy-phone System)等を含む。例えば、無線通信規格として、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)およびNFC(Near Field Communication)等がある。通信ユニット17は、上述した通信規格の1つまたは複数をサポートすることができる。
近接センサ18は、電子機器1の周囲の対象物との相対距離および対象物の移動方向等を非接触で検出する。一実施形態の近接センサ18は白、赤、緑および青を感知する4つの可視光フォトダイオードを有し、対象物との相対距離を測定することができる。また近接センサ18は1つの光源用赤外LED(Light Emitting Diode)と上下左右を感知する4つの赤外フォトダイオードとを有する。近接センサ18は、光源用赤外LEDからの赤外光を対象物に照射する。近接センサ18は、対象物からの反射光がそれぞれの赤外フォトダイオードに入射する時間差により対象物の移動方向を検出する。したがって、近接センサ18は、電子機器1のユーザが電子機器1に触れずに行うエアジェスチャ(以下単に「ジェスチャ」という)を用いた操作を検出することができる。
コントローラ11は、例えばCPU(Central Processing Unit)等のプロセッサである。コントローラ11は、他の構成要素が統合されたSoC(System-on-a-Chip)等の集積回路であってもよい。コントローラ11は、複数の集積回路を組み合わせて構成されてもよい。コントローラ11は、電子機器1の動作を統括的に制御して各種の機能を実現する。
具体的にはコントローラ11は、ストレージ16に記憶されているデータを必要に応じて参照する。コントローラ11は、ストレージ16に記憶されているプログラムに含まれる命令を実行してディスプレイ14等の他の機能部を制御することによって各種機能を実現する。例えば、コントローラ11は、ユーザによる接触のデータをタッチパネルから取得する。また、コントローラ11は、UVセンサ19、照度センサ20、加速度センサ21、地磁気センサ22、気圧センサ23およびジャイロセンサ24が検出したデータの一部または全部を取得する。また、コントローラ11は、ストレージ16の使用状況を把握する。また、コントローラ11は、アプリケーションの起動状況を把握する。
タイマー12はコントローラ11からタイマー動作の指示を受け、所定時間経過した時点で、その旨を示す信号をコントローラ11に出力する。タイマー12は図1に示すようにコントローラ11の外部に備えられていてもよいし、コントローラ11の内部に含まれてもよい。
カメラ13は、電子機器1の周囲の被写体を撮像する。カメラ13は一例として、電子機器1のディスプレイ14が設けられる面に設けられるインカメラである。
マイク15は、人が発する声を含む、電子機器1の周囲の音を検出する。
スピーカー25は音を出力する。例えばニュースまたは天気予報等の読み上げの際に、その内容がスピーカー25から音で出力される。
UVセンサ19は、太陽光等に含まれる紫外線(Ultraviolet)量を測定することができる。
照度センサ20は、当該照度センサ20に入射する周囲光の照度を検出する。
加速度センサ21は、電子機器1に働く加速度の方向および大きさを検出する。加速度センサ21は、x軸方向、y軸方向およびz軸方向の加速度を検出する3軸(3次元)タイプである。加速度センサ21の種類は限定されない。加速度センサ21は、例えばピエゾ抵抗型であってもよい。また、加速度センサ21は例えば静電容量型であってもよい。また、加速度センサ21は例えば圧電素子(圧電式)または熱検知型によるMEMS(Micro Electro Mechanical Systems)式であってもよい。また、加速度センサ21は、例えば可動コイルを動かしてフィードバック電流によってもとに戻すサーボ式であってもよい。また、加速度センサ21は、加速度によって生じる歪を歪ゲージによって測定する歪ゲージ式であってもよい。
地磁気センサ22は、地磁気の向きを検出する。例えば電子機器1の向きを地面に平行な面上に投影した成分が、地磁気センサ22で取得される向き情報である。地磁気センサ22で取得される向き情報は、電子機器1の方位である。
気圧センサ23は、電子機器1の外側の気圧(大気圧)を検出する。
ジャイロセンサ24は、電子機器1の角速度を検出する。コントローラ11は、ジャイロセンサ24により取得された角速度を1回時間積分することにより、電子機器1の向きを測定することができる。
(ジェスチャによる電子機器の操作)
図2(a)および図2(b)は、ユーザがジェスチャにより電子機器1を操作する様子を示す。図2(a)および図2(b)において、電子機器1は一例としてスタンドによって支持される。代替例として電子機器1は壁に立てかけられたり、テーブルに置かれたりしてもよい。近接センサ18がユーザのジェスチャを検出すると、コントローラ11は検出されたジェスチャに基づく処理を行う。図2(a)に示される例では、ジェスチャに基づく処理はレシピの選択である。例えば、ユーザがディスプレイ14の短手方向で右方から左方(図2(a)の矢印の方向)へと手を動かすジェスチャを行うと、ディスプレイ14に表示されるレシピが変化する。また、図2(b)に示される例では、ジェスチャに基づく処理はディスプレイ14に表示されたニュースの音声読み上げである。例えば、ユーザがディスプレイ14の短手方向で右方から左方(図2(b)の矢印の方向)へと手を動かすジェスチャを行うと、スピーカー25からニュースの内容が音で出力される。
図2(a)および図2(b)に示す電子機器1はスマートフォンである。代替例として電子機器1は例えば、携帯電話端末、ファブレット、タブレットPCまたはフィーチャーフォン等でもよい。また、電子機器1は、上記のものに限定されず、例えば、PDA、リモコン端末、携帯音楽プレイヤー、ゲーム機、電子書籍リーダ、カーナビゲーション、家電製品または産業用機器(FA機器)等でもよい。
図3は、ユーザがジェスチャにより電子機器1を操作する状況の一例を示す。図3の例で、ユーザは料理のレシピを電子機器1のディスプレイ14に表示しながら、キッチンでレシピに従って料理をしている。上記のように、近接センサ18はユーザのジェスチャを検出する。そして、コントローラ11は近接センサ18が検出したジェスチャに基づく処理を行う。コントローラ11は特定のジェスチャ(例えばユーザが手を上下に動かすジェスチャ)に応じてレシピをスクロールする処理が可能である。料理中は、ユーザの手が汚れたり、濡れたりすることがある。しかし、ユーザは電子機器1に触れることなく、特定のジェスチャによってレシピをスクロールすることができる。したがって、ディスプレイ14が汚れること、および料理中のユーザの手にディスプレイ14の汚れが移ることを回避することができる。
ここで、電子機器1はモードを複数有する。モードとは電子機器1の全体の動作について制限等を与える動作モード(動作状態または動作状況)を意味する。モードは同時に1つだけ選択可能である。本実施形態において、電子機器1のモードは第1モードおよび第2モードを含む。第2モードは、キッチンでレシピを表示しながら料理を行うのに最適な電子機器1の動作モード(キッチンモード)である。電子機器1は、第2モードの場合に、近接センサ18を動作させてジェスチャを検出することができる。また、電子機器1は、第2モードの場合に、マイク15を動作させる。そして、電子機器1は、文字入力(ユーザのタッチパネル操作による入力)に代えて、マイク15を用いた音声入力を可能にする。一方、第1モードは、例えばキッチン以外の部屋および外出先等での使用に適している通常の動作モード(通常モード)である。本実施形態において、ユーザは、キッチンで料理を行うときに電子機器1を第2モード(キッチンモード)に設定する。モードは、画面の端部をスワイプ等することで現れるノーティフィケーション(通知画面)で容易に設定可能であってもよい。
ここで、ユーザが例えばノーティフィケーションで電子機器1を第2モード(キッチンモード)に設定し、キッチンで料理をしているとする。ユーザに通知される通知情報によっては、ユーザは料理中に料理と異なる行動をする必要がある。通知情報は、例えば通信ユニット17によって受信した情報(具体的にはメールおよびチャット等)を含む。例えば通知情報が外出している家族からの帰宅の連絡である場合に、ユーザがその家族に買物を依頼したいことがある。このとき、ユーザが電子機器1に触れて操作を行うと、ディスプレイ14が汚れたり、料理中のユーザの手にディスプレイ14の汚れが移ったりする可能性がある。また、通知情報は、例えばディスプレイ14に表示される情報(具体的にはスケジュールおよび時刻表示等)を含む。例えば通知情報が、子供を保育園に迎えに行く時刻を知らせるものである場合に、迎えが少し遅れる旨を連絡したいことがある。このとき、ユーザが電子機器1に触れて操作を行うと、ディスプレイ14が汚れたり、料理中のユーザの手にディスプレイ14の汚れが移ったりする可能性がある。
本実施形態の電子機器1は、通知情報の内容に応じてジェスチャに基づく処理を切り替えることができる。そのため、ユーザは料理中に料理と異なる行動をする必要が生じても、電子機器1に触れることなく、つまりジェスチャによって操作可能である。
(ジェスチャグループ情報)
図4は、ストレージ16に記憶されるジェスチャグループ情報111の一例を示す図である。ストレージ16は、ジェスチャグループ情報111によって、キーワードと近接センサ18によって検出されるジェスチャの種類とを紐付けて記憶する。本実施形態において、ジェスチャグループ情報111は、キーワードと、キーワードに紐付けられたジェスチャに基づく処理と、を対応付けてグループに分けたテーブルである。ジェスチャグループ情報111は、コントローラ11によってストレージ16から読み出されて、例えばコントローラ11がキーワードと対応付けられたグループを選択するのに用いられる。
本実施形態において、ジェスチャグループ情報111は「グループ番号」、「キーワード」、「通知情報種類」、「優先度」および「ジェスチャに基づく処理」の項目を含む。図4の例では、「ジェスチャに基づく処理」として、ジェスチャの種類が「上下移動」、「左右移動」、「三角形を描く」および「四角形を描く」である場合の処理が示されている。
「グループ番号」は、キーワードと対応づけられたジェスチャのグループの固有番号である。図4の例では、テーブルの横一行が1つのグループに対応する。図4の例では、グループ番号を1〜5とする5つのグループが示されているが、さらに多くのグループがジェスチャグループ情報111に含まれてもよい。また、グループは少なくとも1つあればよい。以下において、グループN(Nは整数)とは、グループ番号がNであるグループを意味する。
「キーワード」は、コントローラ11が通知情報から検出するキーワードである。コントローラ11は通知情報を取得する。そして、コントローラ11はキーワードが通知情報に含まれる場合に、キーワードに応じた処理およびディスプレイ14への表示の少なくとも一方を実行する。本実施形態において、各グループは1又は複数のキーワードを有する。
「通知情報種類」は、コントローラ11がキーワードを検出する対象となる通知情報の種類を示す。特定のキーワードは、特定の種類の通知情報と関連付けされている。例えば、図4のグループ1の例では、コントローラ11は、通知情報が通信ユニット17によって受信した「メッセージ(例えばメールまたはチャット等)」である場合に、キーワード「帰宅」を検出する。
「優先度」は、コントローラ11が第2モードにおける既定状態(本実施形態ではレシピ表示の状態)よりも、そのグループの処理を優先させるか否かを決定するための値である。より具体的には、コントローラ11はグループの優先度と基準優先度とを比較して、どちらの処理を実行するかを決定する。ここで、基準優先度とは処理を実行するか否かの判断に用いられる基準値(閾値)である。優先度が基準優先度以上であれば、その優先度を有するグループの処理が実行される。例えば基準優先度が2であるとする。このとき、グループ1の優先度は基準優先度以上の3であるため、通知情報でキーワード「帰宅」が検出された場合に、グループ1のジェスチャに基づく処理が実行される。別の例として、基準優先度が4であるとする。このとき、グループ1の優先度は基準優先度未満であるため、第2モードにおける既定状態(レシピ表示の状態)のジェスチャに基づく処理が実行される。ここで、基準優先度はユーザによって設定されてもよい。例えば、基準優先度はノーティフィケーション(通知画面)で設定できてもよい。
「ジェスチャに基づく処理」は、近接センサ18によって検出されたジェスチャの種類に基づいて実行されるグループ毎の処理(つまり検出されたキーワードに応じた処理)を示す。コントローラ11は、第2モードにおける既定状態(本実施形態ではレシピ表示の状態)である場合に、上下移動するジェスチャが検出されるとディスプレイ14に表示されている画面をスクロールする。また、コントローラ11は、左右移動するジェスチャが検出されるとレシピの選択処理を実行する。ここで、コントローラ11は、例えばグループ1を選択した場合に、上下移動するジェスチャが検出されると帰宅のルート表示を実行する。また、コントローラ11は、例えばグループ1を選択した場合に、左右移動するジェスチャが検出されると買物を依頼する処理(具体例としては帰宅途中の家族への購入品目のリストの送信)を実行する。このように、コントローラ11は選択した1つのグループのジェスチャに基づく処理を実行する。
以下、図4の各グループについて詳細に説明する。グループ1はキーワードを「帰宅」とする。通知情報種類が「メッセージ」の場合に、コントローラ11はキーワード「帰宅」を検出(検索)する。コントローラ11は、キーワードが通知情報から検出されて、かつ優先度「3」が基準優先度以上の場合にグループ1を選択する。そして、コントローラ11はグループ1に含まれるジェスチャに基づく処理を実行する。例えば、近接センサ18が上下移動のジェスチャを検出すると、コントローラ11は帰宅のルート表示を実行する。また、例えば、近接センサ18が左右移動のジェスチャを検出すると、コントローラ11は買物を依頼する処理を実行する。また、近接センサ18が三角形を描くジェスチャを検出すると、コントローラ11はユーザによる直前の選択(例えば買物の依頼)をキャンセルする。また、近接センサ18が四角形を描くジェスチャを検出すると、コントローラ11は既定の処理であるレシピ表示に戻る。
グループ2はキーワードを「17:40」とする。「17:40」は子供を保育園に迎えに行く時間である。通知情報種類が「現在時刻」の場合に(例えばスケジュールアプリがユーザに現在時刻を通知する場合等に)、コントローラ11はキーワード「17:40」を検出する。コントローラ11は、現在時刻が17:40であり、かつ優先度「5」が基準優先度以上の場合にグループ2を選択する。そして、コントローラ11はグループ2に含まれるジェスチャに基づく処理を実行する。例えば、近接センサ18が上下移動のジェスチャを検出すると、コントローラ11は保育園までのルート表示を実行する。また、例えば、近接センサ18が左右移動のジェスチャを検出すると、コントローラ11は保育園に連絡する処理(例えば保育園への電話発信)を実行する。近接センサ18が三角形または四角形を描くジェスチャを検出した場合については、グループ1と同じであるため説明を省略する。
グループ3はキーワードを「8000」とする。「8000」はユーザが設定した1日の目標歩数である。通知情報種類が「歩数」の場合に(例えば歩数計アプリがユーザに現在の歩数を通知する場合等に)、コントローラ11はキーワード「8000」を検出する。コントローラ11は、目標歩数達成の通知に「8000」歩が含まれ、かつ優先度「1」が基準優先度以上の場合にグループ3を選択する。そして、コントローラ11はグループ3に含まれるジェスチャに基づく処理を実行する。例えば、近接センサ18が上下移動のジェスチャを検出すると、コントローラ11は歩数計アプリをフォアグラウンドで起動する。また、例えば、近接センサ18が左右移動のジェスチャを検出すると、コントローラ11は歩数計アプリが計算した消費カロリーを表示する。近接センサ18が三角形または四角形を描くジェスチャを検出した場合については、グループ1と同じであるため説明を省略する。
グループ4はキーワードを「臨時」および「号外」とする。「臨時」および「号外」はニュースの内容が特別であることを示唆するキーワードである。通知情報種類が「ニュース」の場合に(例えばニュースサイトからニュースが通知された場合等に)、コントローラ11はキーワード「臨時」または「号外」が含まれているか否かを判定する。コントローラ11は、「臨時」または「号外」が含まれるニュースであり、かつ優先度「2」が基準優先度以上の場合にグループ4を選択する。そして、コントローラ11はグループ4に含まれるジェスチャに基づく処理を実行する。例えば、近接センサ18が上下移動のジェスチャを検出すると、コントローラ11は「臨時」または「号外」のニュースの本文を表示する。また、例えば、近接センサ18が左右移動のジェスチャを検出すると、コントローラ11は「臨時」または「号外」のニュースを音声で読み上げる処理を実行する。近接センサ18が三角形または四角形を描くジェスチャを検出した場合については、グループ1と同じであるため説明を省略する。
グループ5はキーワードを「注意報」および「警報」とする。通知情報種類が「天気予報」の場合に(例えば天気予報サイトから天気予報が通知された場合等に)、コントローラ11はキーワード「注意報」または「警報」が含まれているか否かを判定する。コントローラ11は、天気予報に「注意報」または「警報」が含まれ、かつ優先度「4」が基準優先度以上の場合にグループ5を選択する。そして、コントローラ11はグループ5に含まれるジェスチャに基づく処理を実行する。例えば、近接センサ18が上下移動のジェスチャを検出すると、コントローラ11は天気予報を表示する。また、例えば、近接センサ18が左右移動のジェスチャを検出すると、コントローラ11は天気予報を音声で読み上げる処理を実行する。近接センサ18が三角形または四角形を描くジェスチャを検出した場合については、グループ1と同じであるため説明を省略する。
ここで、同時に2つのグループを選択する条件が満たされた場合に、コントローラ11は優先度の高い方から順にジェスチャに基づく処理を実行する。例えば、コントローラ11は、「メッセージ」で「帰宅」というキーワードを検出すると同時に、現在の歩数の通知で「8000」歩というキーワードを検出したとする。また、基準優先度は1に設定されているとする。このとき、グループ1および3を選択する条件が満たされるが、コントローラ11は優先度の高いグループ1から順にジェスチャに基づく処理を実行する。そして、コントローラ11はグループ1についての処理が完了した後に、グループ3のジェスチャに基づく処理を実行する。代替例として、同時に2つのグループを選択する条件が満たされた場合に、コントローラ11は優先度の高い方のジェスチャに基づく処理だけを実行してもよい。
(フローチャート)
図5は、本実施形態に係る電子機器1のコントローラ11が実行するジェスチャに基づく処理の一例を示すフローチャートである。
コントローラ11は通知情報を取得する(ステップS1)。通知情報はユーザに通知される情報である。上記のように、通知情報は、電子機器1とは異なる他のユーザの携帯端末から通信ユニット17を介して取得される情報(例えばメッセージ等)であってもよい。また、通知情報は、電子機器1とは異なる情報提供サイトのサーバから通信ユニット17を介して取得される情報(例えばニュースまたは天気予報等)であってもよい。また、通知情報は、電子機器1で実行されるアプリ(例えばスケジュールアプリまたは歩数計アプリ等)からの情報(例えば現在時刻または現在の歩数の通知等)であってもよい。
コントローラ11はキーワードが通知情報に含まれるか否かを判定する(ステップS2)。キーワードは、特定の通知情報に含まれることによって、ユーザが現在実行中のイベント(本実施形態においては料理)とは異なるイベントが生じたことを示唆する言葉、記号、数値またはこれらの組合せ等である。本実施形態において、「帰宅」、「17:40」、「8000」、「臨時」、「号外」、「注意報」および「警報」等がキーワードとして使用される。コントローラ11は、キーワードが通知情報に含まれない場合に(ステップS2のNo)、ステップS1に戻って、次の通知情報を取得する。コントローラ11は、キーワードが通知情報に含まれる場合に(ステップS2のYes)、ステップS3の処理に進む。
コントローラ11は、キーワードに応じた処理および表示の少なくとも一方を実行する(ステップS3)。例えば、キーワード「帰宅」が「メッセージ」である通知情報に含まれる場合に、コントローラ11は、帰宅する家族の携帯端末のGPS情報と自宅位置の情報とに基づいて帰宅のルートを検索する処理を実行して、帰宅予想時刻をディスプレイ14に表示させる。帰宅予想時刻は、ディスプレイ14の端部に現在時刻と共に表示されてもよい。また、帰宅予想時刻に代えて、帰宅まで時間がカウントダウンされてもよい。また、例えば、キーワード「17:40」(お迎え時刻)が「現在時刻」である通知情報に含まれる場合に、コントローラ11は、「現在時刻」に加えて「17:40」からの経過時間をディスプレイ14に表示させてもよい。
コントローラ11は、電子機器1のモードが第2モード(キッチンモード)であるか否かを判定する(ステップS4)。第2モード(キッチンモード)でない第1モード(通常モード)の場合には(ステップS4のNo)、コントローラ11は一連の処理を終了する。このとき、ユーザは料理中でないため、手が汚れたり濡れたりしていない。そのため、ユーザは、電子機器1をタッチ操作することによって、通知情報に対して対応可能である。
一方、コントローラ11は、電子機器1のモードが第2モード(キッチンモード)の場合に(ステップS4のYes)、ステップS5の処理に進む。
コントローラ11は、キーワードと対応付けられた優先度が基準優先度以上か否かを判定する(ステップS5)。キーワードと対応付けられた優先度が基準優先度未満の場合には(ステップS5のNo)、コントローラ11は一連の処理を終了する。例えば、図4の例において、グループ3の優先度は「1」である。基準優先度が「3」に設定されているとすると、優先度が基準優先度未満であるため、コントローラ11はグループ3を選択せずに一連の処理を終了する。
コントローラ11は、キーワードと対応付けられた優先度が基準優先度以上の場合に(ステップS5のYes)、キーワードと対応付けられたジェスチャのグループを選択する(ステップS6)。
コントローラ11は、ジェスチャが検出されるまで待機する(ステップS7のNo)。コントローラ11は、ジェスチャが検出されると(ステップS7のYes)、選択したグループに含まれるジェスチャに基づく処理を実行する(ステップS8)。そして、コントローラ11は一連の処理を終了する。例えば、コントローラ11は、「メッセージ」で「帰宅」というキーワードを検出し、図4のグループ1を選択したとする。このとき、上から下へと手を移動させるジェスチャが検出されると、コントローラ11は帰宅のルートを表示させる。また、右から左へと手を移動させるジェスチャが検出されると、コントローラ11は買物依頼の処理を実行する。買物依頼の処理が実行されると、例えばディスプレイ14に表示される画面が購入品目の決定画面に変化してもよい。購入品目の決定画面では、指差しのジェスチャによって購入対象の品を選択できてもよい。また、購入品目の決定画面では、ユーザが音声入力した品目がテキストに変換されて、帰宅する家族宛てのメッセージとして作成されてもよい。
以上に説明したように、本実施形態に係る電子機器1は、通知情報からキーワードを検出し、キーワードに紐付けられたジェスチャの種類(例えば上下移動)に基づいて処理を実行する。つまり、電子機器1は、通知情報のキーワード(例えば「帰宅」)から、ユーザが現在実行中のイベント(本実施形態においては料理)とは異なるイベント(例えば家族の帰宅)が生じたことを把握する。そして、電子機器1は、異なるイベントに適した処理をジェスチャに基づいて実行可能である。つまり、本実施形態に係る電子機器1は、異なるイベントが生じてもジェスチャによる入力操作(ハンズフリー操作)を中断しないため、操作性が向上する。
(その他の実施形態)
本発明を図面や実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形および修正を行うことが容易であることに注意されたい。したがって、これらの変形および修正は本発明の範囲に含まれることに留意されたい。例えば、各手段または各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の手段またはステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。
上記の実施形態では、電子機器1はノーティフィケーション(通知画面)でユーザが操作することによって第2モード(キッチンモード)に設定された。ここで、条件が満たされると、コントローラ11が自動的に電子機器1を第2モードに設定してもよい。例えば、コントローラ11は、例えばレシピを表示するアプリが実行されている、またはレシピサイトが閲覧されている場合に、第1の条件が満たされると判定する。コントローラ11は、第1の条件が満たされて、かつ、レシピの選択中でない(例えば30秒程度の一定時間レシピの変更がない場合等)と判定する場合に電子機器1を第2モードに設定してもよい。また、コントローラ11は、第1の条件が満たされて、かつ、ユーザが一定時間(例えば1分等)以上タッチパネルに操作入力をしていないと判定する場合に電子機器1を第2モードに設定してもよい。また、コントローラ11は、第1の条件が満たされて、かつ、電子機器1が一定時間(例えば1分等)以上、位置に変化がない場合に電子機器1を第2モードに設定してもよい。
上記の実施形態では、電子機器1は、通知情報が他のユーザの携帯端末からの情報である場合に通知情報を解析して、例えば帰宅のルートを検索する処理を実行した。しかし、電子機器1は、通知情報が他のユーザの携帯端末からの情報である場合に、通知情報に基づく処理結果を取得してもよい。例えば、キーワード「帰宅」が「メッセージ」である通知情報に含まれる場合に、電子機器1は、帰宅する家族の携帯端末が検索した帰宅のルートを通信ユニット17経由で取得してもよい。つまり、通知情報が他のユーザの携帯端末からの情報である場合に、上記の実施形態で電子機器1が実行した一部の処理を他のユーザの携帯端末に実行させて、電子機器1の処理負担を軽減してもよい。また、電子機器1は、帰宅する家族の携帯端末に「帰ります」または「お先に失礼します」といった言葉を家族の発言から検出させてもよい。そして、電子機器1は、このような言葉を検出した家族の携帯端末に、GPS情報等を送信させるようにしてもよい。
また、上記の実施形態では、電子機器1は、選択したグループに含まれるジェスチャに基づく処理を実行すると処理を終了していた。ここで、電子機器1は、ジェスチャに基づく処理が他の携帯端末への送信を含む場合には、他の携帯端末からの連絡を受信してから処理を終了してもよい。例えば、電子機器1は、帰宅する家族に買い物を依頼する場合、家族の携帯端末に購入品目のリストの送信した後に、帰宅する家族がそのリストを確認したことを示す信号を通信ユニット17経由で取得してもよい。電子機器1は、他のユーザの携帯端末との間で送受信を確認する処理を実行することによって、より確実なコミュニケーションを図ることができる。
また、上記の実施形態では、電子機器1は、帰宅する家族の携帯端末に購入品目のリストを作成する際に、購入対象の品をユーザに選択させる画面を表示した。同様に、電子機器1は、処理についてユーザに選択させてもよい。例えば、図4でコントローラ11がグループ3を選択した場合に、近接センサ18が左右移動のジェスチャを検出すると、「アプリ起動」または「消費カロリー表示」をユーザが選択できる画面が表示されてもよい。そして、上移動のジェスチャまたは下移動のジェスチャによって、ユーザが一方の処理を選択できてもよい。つまり、電子機器1は、最終的な処理を決定するまで、段階的にユーザに選択させてもよい。このとき、より多くの選択肢から最終的な処理を決定することが可能になる。
また、上記の実施形態では、優先度はグループ毎に設定されていた。ここで、優先度はキーワード毎に設定されてもよい。例えば、図4のグループ5は2つのキーワード「注意報」および「警報」を有する。この2つのキーワードのうち、ユーザの関心がより高い「警報」については優先度が4に、「注意報」については優先度が2に設定されてもよい。
本開示内容の多くの側面は、プログラム命令を実行可能なコンピュータシステムその他のハードウェアにより実行される、一連の動作として示される。コンピュータシステムその他のハードウェアには、例えば、汎用コンピュータ、PC(パーソナルコンピュータ)、専用コンピュータ、ワークステーション、PCS(Personal Communications System、パーソナル移動通信システム)、移動(セルラー)電話機、データ処理機能を備えた移動電話機、RFID受信機、ゲーム機、電子ノートパッド、ラップトップコンピュータ、GPS(Global Positioning System)受信機またはその他のプログラム可能なデータ処理装置が含まれる。各実施形態では、種々の動作または制御方法は、プログラム命令(ソフトウェア)で実装された専用回路(例えば、特定機能を実行するために相互接続された個別の論理ゲート)、一以上のプロセッサにより実行される論理ブロックおよび/またはプログラムモジュール等により実行されることに留意されたい。論理ブロックやプログラムモジュール等を実行する一以上のプロセッサには、例えば、一以上のマイクロプロセッサ、CPU(中央演算処理ユニット)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子機器、ここに記載する機能を実行可能に設計されたその他の装置および/またはこれらいずれかの組合せが含まれる。ここに示す実施形態は、例えば、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコードまたはこれらいずれかの組合せにより実装される。命令は、必要なタスクを実行するためのプログラムコードまたはコードセグメントであってもよい。そして、命令は、機械読取り可能な非一時的記憶媒体その他の媒体に格納することができる。コードセグメントは、手順、関数、サブプログラム、プログラム、ルーチン、サブルーチン、モジュール、ソフトウェアパッケージ、クラスまたは命令、データ構造もしくはプログラムステートメントのいずれかの任意の組合せを示すものであってもよい。コードセグメントは、他のコードセグメントまたはハードウェア回路と、情報、データ引数、変数または記憶内容の送信および/または受信を行い、これにより、コードセグメントが他のコードセグメントまたはハードウェア回路と接続される。
ここで用いられるストレージ16は、さらに、ソリッドステートメモリ、磁気ディスクおよび光学ディスクの範疇で構成されるコンピュータ読取り可能な有形のキャリア(媒体)として構成することができる。かかる媒体には、ここに開示する技術をプロセッサに実行させるためのプログラムモジュール等のコンピュータ命令の適宜なセットまたはデータ構造が格納される。コンピュータ読取り可能な媒体には、一つ以上の配線を備えた電気的接続、磁気ディスク記憶媒体、磁気カセット、磁気テープ、その他の磁気および光学記憶装置(例えば、CD(Compact Disk)、レーザーディスク(登録商標)、DVD(登録商標)(Digital Versatile Disc)、フロッピー(登録商標)ディスクおよびブルーレイディスク(登録商標))、可搬型コンピュータディスク、RAM(Random Access Memory)、ROM(Read-Only Memory)、EPROM(Erasable Programmable Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)もしくはフラッシュメモリ等の書換え可能でプログラム可能なROMもしくは情報を格納可能な他の有形の記憶媒体またはこれらいずれかの組合せが含まれる。メモリは、プロセッサ/プロセッシングユニットの内部および/または外部に設けることができる。ここで用いられるように、「メモリ」という語は、あらゆる種類の長期記憶用、短期記憶用、揮発性、不揮発性またはその他のメモリを意味する。つまり、「メモリ」は特定の種類や数に限定されない。また、記憶が格納される媒体の種類も限定されない。
1 電子機器
11 コントローラ
12 タイマー
13 カメラ
14 ディスプレイ
15 マイク
16 ストレージ
17 通信ユニット
18 近接センサ
19 UVセンサ
20 照度センサ
21 加速度センサ
22 地磁気センサ
23 気圧センサ
24 ジャイロセンサ
25 スピーカー
111 ジェスチャグループ情報

Claims (3)

  1. 近接センサと、
    キーワードと前記近接センサによって検出されるジェスチャの種類とを紐付けて記憶するストレージと、
    ユーザに通知された通知情報から前記キーワードを検出し、前記キーワードに紐付けられた前記ジェスチャの種類に基づいて処理を行うコントローラと、
    を備える電子機器。
  2. 通信ユニットを備え、
    前記通知情報は、前記通信ユニットによって受信した情報を含む、請求項1に記載の電子機器。
  3. ディスプレイを備え、
    前記通知情報は、前記ディスプレイに表示された情報を含む、請求項1または2に記載の電子機器。
JP2016222612A 2016-11-15 2016-11-15 電子機器 Active JP6078685B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016222612A JP6078685B1 (ja) 2016-11-15 2016-11-15 電子機器
PCT/JP2017/040306 WO2018092658A1 (ja) 2016-11-15 2017-11-08 電子機器、プログラムおよび制御方法
US16/349,727 US10955927B2 (en) 2016-11-15 2017-11-08 Electronic device, program, and control method
EP17871516.5A EP3528089B1 (en) 2016-11-15 2017-11-08 Electronic apparatus, program, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016222612A JP6078685B1 (ja) 2016-11-15 2016-11-15 電子機器

Publications (2)

Publication Number Publication Date
JP6078685B1 JP6078685B1 (ja) 2017-02-08
JP2018081450A true JP2018081450A (ja) 2018-05-24

Family

ID=57981552

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016222612A Active JP6078685B1 (ja) 2016-11-15 2016-11-15 電子機器

Country Status (4)

Country Link
US (1) US10955927B2 (ja)
EP (1) EP3528089B1 (ja)
JP (1) JP6078685B1 (ja)
WO (1) WO2018092658A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019187623A (ja) * 2018-04-20 2019-10-31 株式会社大一商会 遊技機
JP2019187621A (ja) * 2018-04-20 2019-10-31 株式会社大一商会 遊技機

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019163503A1 (ja) * 2018-02-22 2019-08-29 京セラ株式会社 電子機器、制御方法およびプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008310791A (ja) * 2007-05-15 2008-12-25 Mitsubishi Electric Corp 情報処理装置及びメニュー生成方法及びプログラム
US8762892B2 (en) * 2008-01-30 2014-06-24 Microsoft Corporation Controlling an integrated messaging system using gestures
US20090307595A1 (en) * 2008-06-09 2009-12-10 Clark Jason T System and method for associating semantically parsed verbal communications with gestures
KR101565768B1 (ko) * 2008-12-23 2015-11-06 삼성전자주식회사 휴대단말의 잠금 모드 해제 방법 및 장치
US8304733B2 (en) * 2009-05-22 2012-11-06 Motorola Mobility Llc Sensing assembly for mobile device
US8799815B2 (en) * 2010-07-30 2014-08-05 Apple Inc. Device, method, and graphical user interface for activating an item in a folder
JP2012094060A (ja) * 2010-10-28 2012-05-17 Sharp Corp 電子装置
JP5928048B2 (ja) * 2012-03-22 2016-06-01 ソニー株式会社 情報処理装置、情報処理方法、情報処理プログラムおよび端末装置
US9507495B2 (en) * 2013-04-03 2016-11-29 Blackberry Limited Electronic device and method of displaying information in response to a gesture
KR20160077070A (ko) 2013-10-24 2016-07-01 애플 인크. 손목 움직임을 이용한 손목밴드 디바이스 입력
JP2015185912A (ja) * 2014-03-20 2015-10-22 Necパーソナルコンピュータ株式会社 情報処理装置、情報処理方法、及びプログラム
JP6494926B2 (ja) 2014-05-28 2019-04-03 京セラ株式会社 携帯端末、ジェスチャ制御プログラムおよびジェスチャ制御方法
KR20160101605A (ko) 2015-02-17 2016-08-25 삼성전자주식회사 제스처 입력 처리 방법 및 이를 지원하는 전자 장치
US20160284436A1 (en) * 2015-03-26 2016-09-29 Google Inc. Conductive Thread for Interactive Textiles
EP3504619B1 (en) * 2016-09-19 2021-07-07 Samsung Electronics Co., Ltd. Apparatus and method for managing notification

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019187623A (ja) * 2018-04-20 2019-10-31 株式会社大一商会 遊技機
JP2019187621A (ja) * 2018-04-20 2019-10-31 株式会社大一商会 遊技機

Also Published As

Publication number Publication date
EP3528089A4 (en) 2019-11-13
US10955927B2 (en) 2021-03-23
EP3528089B1 (en) 2021-04-07
US20190354190A1 (en) 2019-11-21
EP3528089A1 (en) 2019-08-21
WO2018092658A1 (ja) 2018-05-24
JP6078685B1 (ja) 2017-02-08

Similar Documents

Publication Publication Date Title
JP2018018503A (ja) 電子機器
JP6293953B1 (ja) 電子機器、プログラムおよび制御方法
US11269417B2 (en) Electronic device configured to communicate with an intercom, and control method thereof
JP6078685B1 (ja) 電子機器
JP6101881B1 (ja) 電子機器、プログラムおよび制御方法
JP2018018288A (ja) 電子機器
WO2018193876A1 (ja) 電子機器
US10394335B2 (en) Electronic device, recording medium, and control method
WO2018092660A1 (ja) 電子機器、プログラムおよび制御方法
JP2018180918A (ja) 電子機器、プログラムおよび制御方法
JP6221001B1 (ja) 電子機器、プログラムおよび制御方法
JP2018181351A (ja) 電子機器
JP6333461B1 (ja) 電子機器
JP2018137827A (ja) 電子機器、プログラムおよび制御方法
JP2019149825A (ja) 電子機器、プログラムおよび制御方法
JP2018110329A (ja) 電子機器、プログラムおよび制御方法
JP2018109874A (ja) 電子機器、プログラムおよび制御方法
JP6374585B2 (ja) 電子機器、プログラムおよび制御方法
JP6163274B1 (ja) 電子機器、プログラムおよび制御方法
JP6346699B1 (ja) 電子機器
JP2018181307A (ja) 電子機器、プログラムおよび制御方法
JP2018109955A (ja) 電子機器、プログラムおよび制御方法
JP2018109873A (ja) 電子機器、プログラムおよび制御方法
JP2018110370A (ja) 電子機器、プログラムおよび制御方法
JP2018109871A (ja) 電子機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161116

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20161121

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20161220

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170116

R150 Certificate of patent or registration of utility model

Ref document number: 6078685

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150