JPWO2015182717A1 - 電子機器、制御方法及び記憶媒体 - Google Patents

電子機器、制御方法及び記憶媒体 Download PDF

Info

Publication number
JPWO2015182717A1
JPWO2015182717A1 JP2016523561A JP2016523561A JPWO2015182717A1 JP WO2015182717 A1 JPWO2015182717 A1 JP WO2015182717A1 JP 2016523561 A JP2016523561 A JP 2016523561A JP 2016523561 A JP2016523561 A JP 2016523561A JP WO2015182717 A1 JPWO2015182717 A1 JP WO2015182717A1
Authority
JP
Japan
Prior art keywords
touch gesture
notification
event
controller
touch screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016523561A
Other languages
English (en)
Other versions
JP6336587B2 (ja
Inventor
茂輝 田辺
茂輝 田辺
英樹 森田
英樹 森田
功 益池
功 益池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Publication of JPWO2015182717A1 publication Critical patent/JPWO2015182717A1/ja
Application granted granted Critical
Publication of JP6336587B2 publication Critical patent/JP6336587B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • H04M1/6041Portable telephones adapted for handsfree use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72484User interfaces specially adapted for cordless or mobile telephones wherein functions are triggered by incoming communication events
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/02Calling substations, e.g. by ringing
    • H04M3/06Calling substations, e.g. by ringing the calling signal being supplied from the subscriber's line circuit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

1つの態様に係る制御方法は、電子機器を制御する制御方法であって、発生したイベントに関する報知を行うステップと、報知に対する応答操作を検出するステップと、応答操作がシングルタッチジェスチャである場合に、イベントに関する情報を第1の方式で出力するステップと、応答操作がマルチタッチジェスチャである場合に、イベントに関する情報を第2の方式で出力するステップと、を含む。1つの態様に係る制御方法は、例えば、シングルタッチジェスチャを検出すると、スマートフォン(1)に、レシーバ(7)を用いた通話を開始させる。1つの態様に係る制御方法は、例えば、マルチタッチジェスチャを検出すると、スマートフォン(1)に、スピーカ(11)を用いた通話を開始させる。

Description

本出願は、電子機器、制御方法及び記憶媒体に関する。
着信等のイベントをユーザに報知する報知機能を有する電子機器が知られている。例えば、特許文献1には、着信を検出した場合にユーザが動作していてもその着信報知を適切に制御することで、その報知に気づかせることが可能となり、着信に対する対応遅れなどを効果的に防ぐことができる装置が開示されている。
特開2009−290306号公報
特許文献1では、報知をユーザに気付かせる方法の改善が開示されているが、ユーザが報知に気付いた後にイベントに関して応答する方法の改善については開示されていない。
1つの態様に係る電子機器は、タッチスクリーンと、コントローラとを備える。タッチスクリーンは、シングルタッチジェスチャ又はマルチタッチジェスチャを受け付ける。コントローラは、イベントが発生すると、当該発生したイベントに関する第1の情報をスピーカ又はディスプレイに報知させる。コントローラは、イベントの発生報知中、もしくは発生報知後から所定期間中に、所定のマルチタッチジェスチャがタッチスクリーンで受け付けられると、当該イベントに関連し且つ第1の情報と異なる第2の情報をスピーカ又はディスプレイに報知させる。
他の態様に係る電子機器は、タッチスクリーンと、コントローラとを備える。タッチスクリーンは、シングルタッチジェスチャ又はマルチタッチジェスチャを受け付ける。コントローラは、音声着信が発生しているときに、シングルタッチジェスチャ及びマルチタッチジェスチャを受け付けることが可能なようにタッチスクリーンを制御する。コントローラは、音声着信の報知中に、所定のシングルタッチジェスチャがタッチスクリーンで受け付けられると、当該音声着信に対して応答し、音声着信の報知中に、所定のマルチタッチジェスチャがタッチスクリーンで受け付けられると、当該音声着信に対して応答する。
他の態様に係る電子機器は、スピーカと、レシーバと、タッチスクリーンと、コントローラとを備える。タッチスクリーンは、シングルタッチジェスチャ又はマルチタッチジェスチャを受け付ける。コントローラは、音声着信が発生すると、発生した音声着信を報知させる。コントローラは、音声着信の報知中に、所定のシングルタッチジェスチャを受け付けると、レシーバを利用した通話を開始し、音声着信の報知中に、所定のマルチタッチジェスチャを受け付けると、スピーカを利用した通話を開始する。
1つの態様に係る制御方法は、電子機器を制御する制御方法であって、発生したイベントに関する報知を行うステップと、前記報知に対する応答操作を検出するステップと、前記応答操作がシングルタッチジェスチャである場合に、前記イベントに関する情報を第1の方式で出力するステップと、前記応答操作がマルチタッチジェスチャである場合に、前記イベントに関する情報を第2の方式で出力するステップと、を含む。
1つの態様に係る記憶媒体は、電子機器に、発生したイベントに関する報知を行うステップと、前記報知に対する応答操作を検出するステップと、前記応答操作がシングルタッチジェスチャである場合に、前記イベントに関する情報を第1の方式で出力するステップと、前記応答操作がマルチタッチジェスチャである場合に、前記イベントに関する情報を第2の方式で出力するステップと、を実行させる制御プログラムを記憶する。
図1は、実施形態に係るスマートフォンの斜視図である。 図2は、スマートフォンの正面図である。 図3は、スマートフォンの背面図である。 図4は、スマートフォンのブロック図である。 図5は、通話着信時の報知動作の例を示す図である。 図6は、スマートフォンの報知動作の例を示すフローチャートである。
複数の実施形態を、図面を参照しつつ詳細に説明する。以下では、報知機能を有する電子機器の例として、スマートフォンについて説明する。
図1から図3を参照しながら、実施形態に係るスマートフォン1の全体的な構成について説明する。スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、スピーカ11と、カメラ13とをバックフェイス1Bに有する。スマートフォン1は、ボタン3D〜3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。
タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。図1の例では、ディスプレイ2A及びタッチスクリーン2Bはそれぞれ略長方形状であるが、ディスプレイ2A及びタッチスクリーン2Bの形状はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、それぞれが正方形又は円形等のどのような形状もとりうる。図1の例では、ディスプレイ2A及びタッチスクリーン2Bは重ねて配置されているが、ディスプレイ2A及びタッチスクリーン2Bの配置はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、例えば、並んで位置してもよいし、離れて位置してもよい。図1の例では、ディスプレイ2Aの長辺はタッチスクリーン2Bの長辺に沿っており、ディスプレイ2Aの短辺はタッチスクリーン2Bの短辺に沿っているが、ディスプレイ2A及びタッチスクリーン2Bの重ね方はこれに限定されない。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。
ディスプレイ2Aは、オブジェクトを表示できる。オブジェクトには、文字、画像、記号、及び図形等が含まれる。ディスプレイ2Aは、表示デバイスを含む。表示デバイスには、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)が含まれる。
タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出できる。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触した位置を検出できる。以下の説明では、タッチスクリーン2Bに対して接触する指、ペン、又はスタイラスペン等を、単に「指」、「接触オブジェクト」又は「接触物」と呼ぶことがある。
タッチスクリーン2Bの検出方式は、複数の方式を採用できる。この複数の方式には、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等を含む。以下の説明では、説明を簡単にするため、ユーザはスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定するが、これに限定されない。
スマートフォン1は、タッチスクリーン2Bにより検出された接触の有無、接触が検出された接触オブジェクトの数、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、接触の検出が継続した時間、及び接触が検出された回数の少なくとも1つに基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーン2Bに対して行われる操作である。スマートフォン1によって判別されるジェスチャは、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、マルチタップ、ドラッグ、フリック、ピンチ、及びスプレッドを含むがこれらに限定されない。
「タッチ」は、タッチスクリーン2Bに指が触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が接触するジェスチャをタッチとして判別してもよい。「ロングタッチ」は、タッチスクリーン2Bに指が一定時間より長く触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が一定時間より長く接触するジェスチャをロングタッチとして判別してもよい。
「リリース」は、指がタッチスクリーン2Bから離れるジェスチャである。スマートフォン1は、指がタッチスクリーン2Bから離れるジェスチャをリリースとして判別してもよい。「スワイプ」は、指がタッチスクリーン2Bに接触したままで移動するジェスチャである。スマートフォン1は、指がタッチスクリーン2Bに接触したままで移動するジェスチャをスワイプとして判別してもよい。
「タップ」は、タッチに続いてリリースをするジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャをタップとして判別してもよい。「ダブルタップ」は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別してもよい。
「ロングタップ」は、ロングタッチに続いてリリースをするジェスチャである。スマートフォン1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別してもよい。「マルチタップ」は、複数の指でタップをするジェスチャである。スマートフォン1は、複数の指でのタップをマルチタップとして判別してもよい。「ドラッグ」は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。スマートフォン1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別してもよい。
「フリック」は、指が、タッチスクリーン2Bに触れた後移動しながらタッチスクリーン2Bから離れるジェスチャである。すなわち、「フリック」は、タッチに続いて指が移動しながらリリースが行われるジェスチャである。スマートフォン1は、指が、タッチスクリーン2Bに触れた後移動しながらタッチスクリーン2Bから離れるジェスチャをフリックとして判別してもよい。フリックは、指が一方方向へ移動しながら行われることが多い。フリックは、指が画面の上方向へ移動する「上フリック」、指が画面の下方向へ移動する「下フリック」、指が画面の右方向へ移動する「右フリック」、指が画面の左方向へ移動する「左フリック」等を含む。フリックにおける指の移動は、スワイプにおける指の移動よりも素早いことが多い。
「ピンチ」は、複数の指が互いに近付く方向にスワイプするジェスチャである。スマートフォン1は、タッチスクリーン2Bにより検出されるある指の位置と他の指の位置との間の距離が短くなるジェスチャをピンチとして判別してもよい。ピンチは、ピンチインと呼ばれる場合がある。「スプレッド」は、複数の指が互いに遠ざかる方向にスワイプするジェスチャである。スマートフォン1は、タッチスクリーン2Bにより検出されるある指の位置と他の指の位置との間の距離が長くなるジェスチャをスプレッドとして判別してもよい。スプレッドは、ピンチアウトと呼ばれる場合がある。
以下の説明では、1本の指により行われるジェスチャを「シングルタッチジェスチャ」と呼び、2本以上の指により行われるジェスチャを「マルチタッチジェスチャ」と呼ぶことがある。マルチタッチジェスチャは、例えば、ピンチおよびスプレッドを含む。タップ、フリックおよびスワイプ等は、1本の指で行われればシングルタッチジェスチャであり、2本以上の指で行われればマルチタッチジェスチャである。
スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作できる。スマートフォン1は、ユーザにとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、ディスプレイ2Aに表示されている画面に応じて異なることがある。以下の説明では、説明を簡単にするために、「タッチスクリーン2Bが接触を検出し、検出された接触に基づいてジェスチャの種別をスマートフォン1がXと判別すること」を、「スマートフォン1がXを検出する」、又は「コントローラ10がXを検出する」と記載することがある。
図4は、スマートフォン1のブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12及び13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17とを有する。
タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等のオブジェクトを表示できる。タッチスクリーン2Bは、接触物による接触を検出できる。コントローラ10は、スマートフォン1に対するジェスチャを検出できる。具体的には、コントローラ10は、タッチスクリーン2Bと協働することによって、タッチスクリーン2B(もしくはタッチスクリーンディスプレイ2)に対するジェスチャをユーザの操作として検出できる。
ボタン3は、ユーザによって操作される。ボタン3は、ボタン3A〜ボタン3Fを有する。コントローラ10は、ボタン3と協働することによってボタン3に対する操作を検出できる。ボタン3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、プッシュ、及びマルチプッシュを含むが、これらに限定されない。
ボタン3A〜3Cは、例えば、ホームボタン、バックボタンまたはメニューボタンである。ボタン3Dは、例えば、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。ボタン3E及び3Fは、例えば、音量ボタンである。
照度センサ4は、スマートフォン1の周囲光の照度を検出できる。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いてもよい。近接センサ5は、近隣の物体の存在を非接触で検出できる。近接センサ5は、例えば、磁界の変化または超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出するのに用いてもよい。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
通信ユニット6は、無線により通信できる。通信ユニット6は、無線通信規格による通信方式をサポートできる。無線通信規格は、例えば、2G、3G、4G等のセルラーフォンの通信規格を含む。セルラーフォンの通信規格は、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等を含む。無線通信規格として、さらに、例えば、WiMAX(登録商標)(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等を含む。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。通信ユニット6は、有線による通信をサポートしてもよい。有線による通信は、例えば、イーサネット(登録商標)、ファイバーチャネル等を含む。
レシーバ7及びスピーカ11は、音出力部であってもよい。レシーバ7及びスピーカ11は、コントローラ10から送信される音信号を受信できる。レシーバ7及びスピーカ11は、受信した音声信号を音として出力できる。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。マイク8は、音入力部であってもよい。マイク8は、ユーザの音声等を音信号へ変換できる。マイク8は、変換した音信号をコントローラ10へ送信できる。
ストレージ9は、プログラム及びデータを記憶できる。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用してもよい。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、可搬の記憶媒体と、当該記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。可搬の記憶媒体には、メモリカード、光ディスク、又は光磁気ディスク等が含まれる。
ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに画面を表示させる。アプリケーションは、例えば、タッチスクリーン2Bを介して検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
ストレージ9は、例えば、制御プログラム9A、メールアプリケーション9B、通話アプリケーション9C、及び設定データ9Zを記憶してもよい。メールアプリケーション9Bは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供できる。通話アプリケーション9Cは、通話の発信及び着信等のための通話機能を提供できる。設定データ9Zは、スマートフォン1の動作に関する各種の設定に関する情報を含む。
制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供できる。制御プログラム9Aが提供する機能には、発生した各種のイベントに関する情報をユーザに知らせる報知機能が含まれる。報知機能によって報知されるイベントには、例えば、通話の着信(音声着信)、メール等のメッセージの着信、登録されたスケジュールの開始時間の到来、登録された起床時間の到来、アプリケーションの更新の通知等が含まれるが、これらに限定されない。制御プログラム9Aが提供する機能は、メールアプリケーション9B及び通話アプリケーション9C等の他のプログラムが提供する機能と組み合わせて利用されることがある。
コントローラ10は、スマートフォン1の動作を統括的に制御できる。コントローラ10は、各種の機能を実現する。コントローラ10は、演算処理装置を含む。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−Chip)、MCU(Micro Control Unit)、及びFPGA(Field−Programmable Gate Array)を含むが、これらに限定されない。SoCは、通信ユニット6等の他の構成要素が統合されていてもよい。
具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行できる。コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現できる。機能部は、例えば、ディスプレイ2A、通信ユニット6、レシーバ7、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、カメラ13、加速度センサ15、方位センサ16、及びジャイロスコープ17を含むが、これらに限定されない。
コントローラ10は、例えば、制御プログラム9Aを実行することにより、発生したイベントに関する情報をユーザに報知する等の各種制御を実行できる。コントローラ10は、音、光、及び振動等のいずれかによって、ユーザに対して報知できる。
カメラ12は、インカメラとして、フロントフェイス1Aに面している物体を撮影してもよい。カメラ13は、アウトカメラとして、バックフェイス1Bに面している物体を撮影してもよい。
コネクタ14は、他の装置が接続される端子を含む。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、ライトピーク、サンダーボルト(登録商標)、MHL(Mobile High−definition Link)、LANコネクタ(Local Area Network connector)、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置を含むが、これらに限定されない。
加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出できる。方位センサ16は、地磁気の向きを検出できる。ジャイロスコープ17は、スマートフォン1の角度及び角速度を検出できる。加速度センサ15、方位センサ16及びジャイロスコープ17の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用してもよい。
ストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による通信で他の装置からダウンロードされてもよい。ストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。ストレージ9が記憶するプログラム及びデータの一部又は全部は、コネクタ14に接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu−ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。
図4に示したスマートフォン1の構成は例であり、本開示の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図4の例に限定されない。スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A〜3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてもよいし、ボタンを備えなくてもよい。図4に示した例では、スマートフォン1が2つのカメラを備えるが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。図4に示した例では、スマートフォン1が位置及び姿勢を検出するために3種類のセンサを備えるが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよい。あるいは、スマートフォン1は、位置及び姿勢の少なくとも1つを検出するための他の種類のセンサを備えてもよい。
ここまで、本実施形態に係るスマートフォン1の基本的な構成について説明を行った。以下に、実施形態に係るスマートフォン1が、発生したイベントに関する情報をユーザに報知する報知動作の例について説明する。
図5は、通話の着信時の報知動作の例を示す図である。スマートフォン1は、通話の着信を検出すると、ステップS11に示すように、着信画面をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示する。
図5に示す着信画面は、下部にスライダ50を含んでいる。スライダ50の左端には、受話器の画像が付与されたアイコン51が表示されている。スマートフォン1は、着信画面の表示に加えて、スピーカ11からの着信音又は音楽の出力、ランプの点灯、バイブレータの振動等のユーザによって予め選択された方式でも、ユーザに着信を報知する。
ステップS12では、ユーザが、アイコン51の表示領域内で指F1をタッチスクリーンディスプレイ2に接触させている。ステップS13では、ユーザは、ステップS12で接触させた指F1をタッチスクリーンディスプレイ2に接触させたままで、接触位置をスライダ50の右端まで移動させている。スマートフォン1は、接触位置の移動に合わせてアイコン51を移動させている。
このようなシングルタッチジェスチャを検出すると、スマートフォン1は、ステップS14として、レシーバ7を用いた通話を開始させる。すなわち、相手方の装置から送信される音声をレシーバ7から出力し、マイク8で取得した音声を相手方の装置へ送信する処理を開始する。この場合、スマートフォン1のユーザは、レシーバ7が自分の耳の近くに位置するようにスマートフォン1を保持して通話を行う。このシングルタッチジェスチャは、例えば、ユーザがディスプレイ2Aを見ながら操作することを前提として設定されている。このシングルタッチジェスチャは、接触を開始する位置、接触を継続させたままでの移動する経路、及び接触を離す位置の少なくとも1つを条件として含んでいてもよい。
ユーザは、スマートフォン1に対して他の操作を行って、着信に応答することができる。ステップS15では、ステップS11で開始された報知が継続している状態で、ユーザが、指F1及びF2をタッチスクリーンディスプレイ2に接触させている。図5において、指F1及びF2の接触位置は、スライダ50の外側であるが、これに限定されない。ステップS16では、ユーザは、ステップS15で接触させた指F1及びF2をタッチスクリーンディスプレイ2に接触させたままで、接触位置を下方向に移動させている。図5において、指F1及びF2の接触位置は、下方向に移動しているが、これに限定されない。指F1及びF2は、互いが近づくように移動してもよく、互いが離れるように移動してもよい。指F1及びF2は、上方向、左方向、または右方向に移動してもよく、移動しなくてもよい。
このようなマルチタッチジェスチャを検出すると、スマートフォン1は、ステップS17として、スピーカ11を用いた通話を開始させる。すなわち、相手方の装置から送信される音声をスピーカ11から出力し、マイク8で取得した音声を相手方の装置へ送信する処理を開始する。この場合、スマートフォン1のユーザは、レシーバ7が自分の耳の近くに位置していなくても、通話を行うことができる。このマルチタッチジェスチャは、上述のシングルタッチジェスチャと異なるジェスチャである。このマルチタッチジェスチャは、例えば、ユーザがディスプレイ2Aを見ずに操作することを前提として設定されている。このマルチタッチジェスチャは、接触を開始する位置、接触を継続させたままでの移動する経路、及び接触を離す位置を条件として含まなくてもよい。
このように、スマートフォン1は、報知した着信イベントに関して2種類の応答操作を受け付けることができる。応答操作とは、イベントの報知に気付いたユーザが、イベントについての更なる情報を取得するためにスマートフォン1に対して行う操作である。
1つの応答操作は、ステップS12からステップS13に示したように、1本の指をスライダ50の左端でタッチスクリーンディスプレイ2に接触させ、接触を保ったままで接触位置をスライダ50の右端まで移動させる操作である。このような操作位置が限定されたシングルタッチジェスチャは、ユーザがタッチスクリーンディスプレイ2を見ながら行わなければ正確に行うことができない。操作位置が限定されたシングルタッチジェスチャが検出された場合、ユーザは、スマートフォン1を操作するための余裕を十分に有している可能性が高い。スマートフォン1は、ステップS14に示したように、スマートフォン1の保持の仕方には制限があるが、通話の内容が第三者に知られにくい方式で通話を開始させる。
もう1つの応答操作は、ステップS15からステップS16に示したように、複数の指を任意の位置でタッチスクリーンディスプレイ2に接触させて行われる操作である。このような任意の場所でのマルチタッチジェスチャは、タッチスクリーンディスプレイ2を注視していなくても実行可能である。任意の場所でのマルチタッチジェスチャが検出された場合、ユーザは、スマートフォン1を操作するための余裕を十分に有していない可能性がある。スマートフォン1は、ステップS17に示したように、通話の内容が第三者に知られる可能性はあるが、スマートフォン1の保持の仕方に制限がない方式で通話を開始させる。
上記の2つの応答操作は、誤動作を防止するためにも有効である。操作位置が限定されたシングルタッチジェスチャは、ユーザが意図して行わなければ、検出される可能性が非常に低い。任意の場所でのマルチタッチジェスチャも、マルチタッチジェスチャの種類を限定することにより、ユーザが意図して行わなければ、検出されにくくなる。例えば、マルチタッチジェスチャを、ピンチ、スプレッド、又は複数の接触位置が平行に移動するスワイプ等に限定することにより、ユーザが意図して行っていないにも関わらず応答操作が検出される可能性を低くすることができる。
以上説明したように、スマートフォン1は、報知したイベントに関する更なる情報の提供を開始するための応答操作として、所定の位置でのシングルタッチジェスチャと任意の位置でのマルチタッチジェスチャという2種類の操作を受け付ける。そして、スマートフォン1は、受け付けた操作の種類に応じて、ユーザの状態に適した方式で、報知したイベントに関する更なる情報の提供を開始する。
図5では、音声着信のイベントに関する報知動作の例について説明したが、スマートフォン1は、他のイベントに関する報知動作においても、上記のような2種類の応答操作を受け付ける。
例えば、メールの着信のイベントについて報知動作は以下のように行われる。メールの着信に関する報知中又は報知完了後に、所定の位置でのシングルタッチジェスチャが検出された場合、スマートフォン1は、メールの内容をタッチスクリーンディスプレイ2に表示する。一方、メールの着信に関する報知中又は報知完了後に、任意の位置でのマルチタッチジェスチャが検出された場合、スマートフォン1は、メールの内容を音声読み上げ処理によって音声に変換し、スピーカ11から出力する。音声として出力されるメールの内容は、件名、送信元、及び本文の少なくとも1つを含んでもよい。
図6を参照しながら、スマートフォン1の報知動作についてより詳細に説明する。図6は、スマートフォン1の報知動作の例を示すフローチャートである。図6に示す動作は、コントローラ10が、制御プログラム9Aを実行することによって実現される。図6に示す処理手順は、コントローラ10がメールアプリケーション9B及び通話アプリケーション9C等の各種アプリケーションを実行中に、報知が必要なイベントが発生した場合に実行される。コントローラ10は、報知の終了後、又は報知の終了後に所定期間が経過した後に、図6に示す動作を終了させてもよい。コントローラ10は、図6に示す動作と並行して、他の動作を実行することがある。
ステップS101として、報知が必要なイベントが発生すると、コントローラ10は、ステップS102として、イベントの報知を実行する。
コントローラ10は、ステップS103として、報知の実行中又は報知の終了後に、報知に対応する応答操作を検出したかを判定する。応答操作を検出していない場合(ステップS103,No)、コントローラ10は、ステップS103の判定を再び実行する。応答操作を検出している場合(ステップS103,Yes)、コントローラ10は、ステップS104へ進む。
コントローラ10は、ステップS104として、検出された応答操作がマルチタッチジェスチャであるかを判定する。検出された応答操作がマルチタッチジェスチャである場合(ステップS104,Yes)、コントローラ10は、ステップS105へ進む。コントローラ10は、ステップS105として、報知したイベントに関する情報を第1の方式で出力する。
第1の方式は、ユーザが余裕をもってスマートフォン1を操作できない状態にあるときに好適な方式である。第1の方式には、情報を音声としてスピーカ11から出力する方式等が含まれる。
検出された応答操作がマルチタッチジェスチャでない場合、すなわち、検出された応答操作がシングルタッチジェスチャである場合(ステップS104,No)、コントローラ10は、ステップS106へ進む。コントローラ10は、ステップS106として、検出されたシングルタッチジェスチャが、所定の位置で行われたかを判定する。シングルタッチジェスチャが所定の位置で行われていない場合(ステップS106,No)、コントローラ10は、ステップS103へ戻る。
シングルタッチジェスチャが所定の位置で行われている場合(ステップS106,Yes)、コントローラ10は、ステップS107へ進む。コントローラ10は、ステップS107として、報知したイベントに関する情報を第2の方式で出力する。
第2の方式は、ユーザが余裕をもってスマートフォン1を操作できる状態にあるときに好適な方式である。第2の方式には、情報を音声としてレシーバ7から出力する方式、及び情報をディスプレイ2Aに表示する方式等が含まれる。
本出願の開示する実施形態は、本出願の要旨及び範囲を逸脱しない範囲で変更することができる。さらに、本出願の開示する実施形態及びその変形例は、適宜組み合わせることができる。例えば、上記の実施形態は、以下のように変形してもよい。
例えば、図4に示した各プログラムは、複数のモジュールに分割されていてもよい。あるいは、図4に示した各プログラムは、他のプログラムと結合されていてもよい。
上記の実施形態では、報知機能を備える電子機器の例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。添付の請求項に係る装置は、スマートフォン以外の携帯電子機器であってもよい。携帯電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これらに限定されない。添付の請求項に係る装置は、据え置き型の電子機器であってもよい。据え置き型の電子機器は、例えば、デスクトップパソコン、及びテレビ受像器を含むが、これらに限定されない。
添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。
本出願において、「とき(when)」、「間(during)」、「もし(if)」、「場合(ina case)」、「際(upon)」、「決定に応答して(in response to determining)」、および「検出に応答して(in response to detecting)」という記載は、状況に応じて他の記載に変えて理解することができる。本出願において、“示された状態又は事象”が「決定されたら(when “a stated condition or event" is determined)」、“示された状態又は事象”が「検出されたら(when “a stated condition or event" is detected」、又は“示された状態又は事象”を「決定する際に(upon determining “a stated condition or event")」、「決定するのに応答して(in response to determining )」、「検出した際に(upon detecting)」、もしくは「検出するのに応答して(in response to detecting)」という記載は、状況に応じて他の記載に変えて理解することができる。本出願において、「検出する(detect)」との記載を、状況に応じて、メジャー(measure)、スケール(scale)、センス(sense)との意味で理解することができる。
1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B メールアプリケーション
9C 通話アプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12、13 カメラ
14 コネクタ
15 加速度センサ
16 方位センサ
17 ジャイロスコープ
20 ハウジング

Claims (10)

  1. シングルタッチジェスチャ又はマルチタッチジェスチャを受け付けるタッチスクリーンと、
    イベントが発生すると、当該発生したイベントに関する第1の情報をスピーカ又はディスプレイに報知させるコントローラと
    を備え、
    前記コントローラは、イベントの発生報知中、もしくは発生報知後から所定期間中に、所定のマルチタッチジェスチャが前記タッチスクリーンで受け付けられると、当該イベントに関連し且つ前記第1の情報と異なる第2の情報を前記スピーカ又は前記ディスプレイに報知させる電子機器。
  2. 前記イベントは、メールの着信を含む請求項1に記載の電子機器。
  3. 前記コントローラは、
    前記メールを受信すると、前記第1の情報としてメールを受信した旨をスピーカ又はディスプレイに報知させ、
    前記メールを受信した旨の報知中、もしくは報知後から所定期間中に、前記所定のマルチタッチジェスチャが受け付けられると、当該メールの内容を前記スピーカに音声として読み上げさせる請求項2に記載の電子機器。
  4. 前記コントローラは、
    前記メールを受信した旨の報知中、もしくは報知後から所定期間中に、所定のシングルタッチジェスチャが前記タッチスクリーンで受け付けられると、当該メールの内容をディスプレイに表示させる請求項3に記載の電子機器。
  5. シングルタッチジェスチャ又はマルチタッチジェスチャを受け付けるタッチスクリーンと、
    音声着信が発生しているときに、前記シングルタッチジェスチャ及び前記マルチタッチジェスチャを受け付けることが可能なように前記タッチスクリーンを制御するコントローラと
    を備え、
    前記コントローラは、
    前記音声着信の報知中に、所定のシングルタッチジェスチャが前記タッチスクリーンで受け付けられると、当該音声着信に対して応答し、
    前記音声着信の報知中に、所定のマルチタッチジェスチャが前記タッチスクリーンで受け付けられると、当該音声着信に対して応答する電子機器。
  6. 前記コントローラは、前記マルチタッチジェスチャの接触位置によらず、前記音声着信に対して応答する請求項5に記載の電子機器。
  7. 前記所定のシングルタッチジェスチャは、接触を開始する位置、接触を継続させたままでの移動する経路、及び接触を離す位置の少なくとも1つを条件として含む請求項5に記載の電子機器。
  8. スピーカと、
    レシーバと、
    シングルタッチジェスチャ又はマルチタッチジェスチャを受け付けるタッチスクリーンと、
    音声着信が発生すると、発生した音声着信を報知させるコントローラと
    を備え、
    前記コントローラは、
    前記音声着信の報知中に、所定のシングルタッチジェスチャを受け付けると、前記レシーバを利用した通話を開始し、
    前記音声着信の報知中に、所定のマルチタッチジェスチャを受け付けると、前記スピーカを利用した通話を開始する電子機器。
  9. 電子機器を制御する制御方法であって、
    発生したイベントに関する報知を行うステップと、
    前記報知に対する応答操作を検出するステップと、
    前記応答操作がシングルタッチジェスチャである場合に、前記イベントに関する情報を第1の方式で出力するステップと、
    前記応答操作がマルチタッチジェスチャである場合に、前記イベントに関する情報を第2の方式で出力するステップと、
    を含む制御方法。
  10. 電子機器に、
    発生したイベントに関する報知を行うステップと、
    前記報知に対する応答操作を検出するステップと、
    前記応答操作がシングルタッチジェスチャである場合に、前記イベントに関する情報を第1の方式で出力するステップと、
    前記応答操作がマルチタッチジェスチャである場合に、前記イベントに関する情報を第2の方式で出力するステップと、
    を実行させる制御プログラムを記憶する記憶媒体。
JP2016523561A 2014-05-28 2015-05-28 電子機器、制御方法及び記憶媒体 Active JP6336587B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014110629 2014-05-28
JP2014110629 2014-05-28
PCT/JP2015/065451 WO2015182717A1 (ja) 2014-05-28 2015-05-28 電子機器、制御方法及び記憶媒体

Publications (2)

Publication Number Publication Date
JPWO2015182717A1 true JPWO2015182717A1 (ja) 2017-04-20
JP6336587B2 JP6336587B2 (ja) 2018-06-06

Family

ID=54699040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016523561A Active JP6336587B2 (ja) 2014-05-28 2015-05-28 電子機器、制御方法及び記憶媒体

Country Status (3)

Country Link
US (1) US20170160811A1 (ja)
JP (1) JP6336587B2 (ja)
WO (1) WO2015182717A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102471916B1 (ko) * 2016-06-03 2022-11-29 엘지전자 주식회사 모바일 디바이스 및 그 제어 방법

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04322322A (ja) * 1991-04-23 1992-11-12 Oki Electric Ind Co Ltd 感圧式入力装置
JPH09128147A (ja) * 1995-10-30 1997-05-16 Alpine Electron Inc 動作指示装置
JPH11102198A (ja) * 1997-07-31 1999-04-13 Toyota Motor Corp メッセージ処理装置、メッセージ処理方法及びメッセージ処理プログラムを記録した媒体
JP2003233385A (ja) * 2002-02-08 2003-08-22 Denso Corp 電子メール機能付端末およびコンピュータプログラム
JP2008084158A (ja) * 2006-09-28 2008-04-10 Toyota Motor Corp 入力装置
JP2012049915A (ja) * 2010-08-27 2012-03-08 Kyocera Corp 通信機器
JP2013034189A (ja) * 2011-06-28 2013-02-14 Kyocera Corp 電子機器、報知制御方法および制御プログラム
US20130219288A1 (en) * 2012-02-20 2013-08-22 Jonathan Rosenberg Transferring of Communication Event
WO2014030658A1 (ja) * 2012-08-24 2014-02-27 京セラ株式会社 携帯端末装置および携帯端末装置の制御方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US7302395B2 (en) * 2003-09-09 2007-11-27 Nokia Corporation Speech notification
CN101682670A (zh) * 2007-05-29 2010-03-24 日本电气株式会社 移动终端设备和电视显示方法及其程序
US20130275899A1 (en) * 2010-01-18 2013-10-17 Apple Inc. Application Gateway for Providing Different User Interfaces for Limited Distraction and Non-Limited Distraction Contexts
EP2572269A1 (en) * 2010-05-21 2013-03-27 TeleCommunication Systems, Inc. Personal wireless navigation system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04322322A (ja) * 1991-04-23 1992-11-12 Oki Electric Ind Co Ltd 感圧式入力装置
JPH09128147A (ja) * 1995-10-30 1997-05-16 Alpine Electron Inc 動作指示装置
JPH11102198A (ja) * 1997-07-31 1999-04-13 Toyota Motor Corp メッセージ処理装置、メッセージ処理方法及びメッセージ処理プログラムを記録した媒体
JP2003233385A (ja) * 2002-02-08 2003-08-22 Denso Corp 電子メール機能付端末およびコンピュータプログラム
JP2008084158A (ja) * 2006-09-28 2008-04-10 Toyota Motor Corp 入力装置
JP2012049915A (ja) * 2010-08-27 2012-03-08 Kyocera Corp 通信機器
JP2013034189A (ja) * 2011-06-28 2013-02-14 Kyocera Corp 電子機器、報知制御方法および制御プログラム
US20130219288A1 (en) * 2012-02-20 2013-08-22 Jonathan Rosenberg Transferring of Communication Event
WO2014030658A1 (ja) * 2012-08-24 2014-02-27 京セラ株式会社 携帯端末装置および携帯端末装置の制御方法

Also Published As

Publication number Publication date
JP6336587B2 (ja) 2018-06-06
WO2015182717A1 (ja) 2015-12-03
US20170160811A1 (en) 2017-06-08

Similar Documents

Publication Publication Date Title
JP5775445B2 (ja) 装置、方法、及びプログラム
JP5805588B2 (ja) 電子機器、制御方法及び制御プログラム
JP5891083B2 (ja) 装置、方法、及びプログラム
JP5840045B2 (ja) 装置、方法、及びプログラム
US9596340B2 (en) Mobile electronic device, control method, and computer program product
JP2013137750A (ja) 装置、方法、及びプログラム
US10241601B2 (en) Mobile electronic device, control method, and non-transitory storage medium that stores control program
JP2014071724A (ja) 電子機器、制御方法及び制御プログラム
JP2013134694A (ja) 装置、方法、及びプログラム
JP2013114419A (ja) 装置、方法、及びプログラム
JP5858896B2 (ja) 電子機器、制御方法及び制御プログラム
JP6088358B2 (ja) 装置、制御方法、及びプログラム
JP5775432B2 (ja) 装置、方法、及びプログラム
JP6099537B2 (ja) 電子機器、方法、及びプログラム
JP6336587B2 (ja) 電子機器、制御方法及び記憶媒体
JP2015069225A (ja) 電子機器
JP6553681B2 (ja) スマートフォン、制御方法、及びプログラム
JP6393303B2 (ja) 装置、制御方法、及びプログラム
JP2013072811A (ja) 装置、方法及びプログラム
JP2013182596A (ja) 装置、方法、及びプログラム
JP6302155B2 (ja) 通信装置、制御方法、プログラム、通信モジュール、及びコントローラ
JP2013134710A (ja) 装置、方法、及びプログラム
JP2013131180A (ja) 装置、方法、及びプログラム
JP6434339B2 (ja) 電子機器、制御方法、及び制御プログラム
JP6203512B2 (ja) 電子機器、方法、及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180502

R150 Certificate of patent or registration of utility model

Ref document number: 6336587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150