JP2014102796A - 電子機器、制御方法、及び制御プログラム - Google Patents

電子機器、制御方法、及び制御プログラム Download PDF

Info

Publication number
JP2014102796A
JP2014102796A JP2012256223A JP2012256223A JP2014102796A JP 2014102796 A JP2014102796 A JP 2014102796A JP 2012256223 A JP2012256223 A JP 2012256223A JP 2012256223 A JP2012256223 A JP 2012256223A JP 2014102796 A JP2014102796 A JP 2014102796A
Authority
JP
Japan
Prior art keywords
display
touch screen
screen
smartphone
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012256223A
Other languages
English (en)
Other versions
JP6125811B2 (ja
Inventor
Atsuo Chiba
敦夫 千葉
Hideko Murakami
英子 村上
Hisae Homma
永愛 本間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2012256223A priority Critical patent/JP6125811B2/ja
Priority to PCT/JP2013/081442 priority patent/WO2014080995A1/ja
Publication of JP2014102796A publication Critical patent/JP2014102796A/ja
Priority to US14/720,443 priority patent/US9766800B2/en
Application granted granted Critical
Publication of JP6125811B2 publication Critical patent/JP6125811B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】片手操作を行う場合の利用者の利便性を向上させること。
【解決手段】1つの態様において、電子機器(例えば、スマートフォン1)は、タッチスクリーンディスプレイと、タッチスクリーンディスプレイを介して検出された操作に応じて、タッチスクリーンディスプレイに表示されている画面を縮小表示するコントローラとを有する。電子機器(例えば、スマートフォン1)は、タッチスクリーン2Bを介して、ディスプレイ2Aに表示されるホーム画面の上を反時計回りの弧を描くような操作を検出すると、ディスプレイ2Aに表示されているホーム画面を縮小表示する。
【選択図】図1

Description

本出願は、電子機器、制御方法、及び制御プログラムに関する。
タッチスクリーンを備えるタッチスクリーンデバイスが知られている。タッチスクリーンデバイスは、例えば、携帯電話、スマートフォン及びタブレットなどの電子機器を含むが、これらに限定されない。タッチスクリーンデバイスは、タッチスクリーンを介して指、ペン、又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンデバイスは、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。
タッチスクリーンデバイスの基本的な動作は、デバイスに搭載されるOS(Operating System)によって実現される。タッチスクリーンデバイスに搭載されるOSは、例えば、Android(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、及びWindows(登録商標) Phoneを含むが、これらに限定されない。
タッチスクリーンデバイスは、タッチスクリーンを備えることにより、手軽な片手操作を可能とする。
国際公開第2008/086302号
タッチスクリーンデバイスには、片手操作を行う場合の利用者の利便性を向上させたいというニーズがある。
1つの態様に係る電子機器は、タッチスクリーンディスプレイと、前記タッチスクリーンディスプレイを介して検出された操作に応じて、前記タッチスクリーンディスプレイに表示されている画面を縮小表示するコントローラとを有する。
1つの態様に係る制御方法は、タッチスクリーンディスプレイを有する電子機器を制御する制御方法であって、前記タッチスクリーンディスプレイを介して操作を検出するステップと、検出される操作に応じて、前記タッチスクリーンディスプレイに表示されている画面を縮小表示するステップとを含む。
1つの態様に係る制御プログラムは、タッチスクリーンディスプレイを有する電子機器に、前記タッチスクリーンディスプレイを介して操作を検出するステップと、検出される操作に応じて、前記タッチスクリーンディスプレイに表示されている画面を縮小表示するステップとを実行させる。
図1は、実施形態に係るスマートフォンのブロック図である。 図2は、ディスプレイに表示されているホーム画面が縮小表示されるときの制御の一例を示す図である。 図3は、ディスプレイに表示される画面上のアイコンに対応付けられている処理を実行するための操作ガイドが表示されるときの制御の一例を示す図である。 図4は、ディスプレイに所定の動作を実行させるためのアシストアイコンが表示されるときの制御の一例を示す図である。 図5は、右手でスマートフォンを持って操作する場合に、右手の親指で描くことが可能な弧の一例を示す図である。 図6は、アシストアイコンと、アシストアイコンに対する操作に応じて実行される所定の動作との対応関係の一例を示す図である。 図7は、ディスプレイに表示されている画面を縮小表示するときの処理手順を示すフローチャートである。 図8は、ディスプレイに表示されている画面に操作ガイドを表示するときの処理手順を示すフローチャートである。 図9は、ディスプレイに表示されている画面上にアシストアイコンを表示するときの処理手順を示すフローチャートである。 図10は、縮小した画面の表示例を示す図である。
本出願に係る電子機器、制御方法、及び制御プログラムを実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、電子機器の一例として、スマートフォンを取り上げて説明する。
(実施形態)
図1を参照しながら、実施形態に係るスマートフォン1の機能的な構成について説明する。図1は、実施形態に係るスマートフォンのブロック図である。以下の説明においては、同様の構成要素に同一の符号を付すことがある。さらに、重複する説明は省略することがある。
図1に示すように、スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、姿勢検出ユニット15と、バイブレータ18とを備える。
タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2A及びタッチスクリーン2Bは、例えば、重ねて配置されてもよいし、並べて配置されてもよいし、離して配置されてもよい。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。
ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。ディスプレイ2Aが表示する文字、画像、記号、及び図形等を含む画面には、ロック画面と呼ばれる画面、ホーム画面と呼ばれる画面、アプリケーションの実行中に表示されるアプリケーション画面が含まれる。ホーム画面は、デスクトップ、待受画面、アイドル画面、標準画面、アプリ一覧画面又はランチャー画面と呼ばれることもある。
タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等(以下、単に「指」という)がタッチスクリーン2Bに接触した位置を検出することができる。タッチスクリーン2Bは、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する指の接触を、接触された場所のタッチスクリーンディスプレイ2上での位置とともに、コントローラ10に通知する。
タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。
コントローラ10(スマートフォン1)は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいて、ジェスチャの種別を判別する。ジェスチャは、指を用いて、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対して行われる操作である。コントローラ10(スマートフォン1)が、タッチスクリーン2Bを介して判別するジェスチャには、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトが含まれるがこれらに限定されない。
ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、単数であっても、複数であってもよい。
照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。
近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2Aが顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格と、近距離無線の通信規格がある。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
通信ユニット6は、GPS衛星からの所定の周波数帯の電波信号を受信し、受信した電波信号の復調処理を行って、処理後の信号をコントローラ10に送出する。スマートフォン1は、GPS衛星との通信機能を通信ユニット6から分散させて、通信ユニット6から独立した個別の通信部を設けてもよい。
レシーバ7は、音出力部である。レシーバ7は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。
ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。フォアグランドで実行されるアプリケーションは、例えば、ディスプレイ2Aに画面が表示される。制御プログラムには、例えば、OSが含まれる。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
ストレージ9は、例えば、制御プログラム9A、通話アプリケーション9B、メールアプリケーション9C、カレンダーアプリケーション9D、メモ帳アプリケーション9E、カメラアプリケーション9F、及び設定データ9Zなどを記憶する。
制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、タッチスクリーンディスプレイ2を介して検出された操作に応じて、ディスプレイ2Aに表示されている画面を縮小表示するための機能を提供する。制御プログラム9Aは、ディスプレイ2Aに表示されている画面内の所定の領域に対する操作を無効化するための機能を提供する。制御プログラム9Aは、ディスプレイ2Aに表示されている画面上のアイコンに対する接触を検出すると、アイコンに対応付けられている処理を実行させるための操作ガイドを表示させるための機能を提供する。制御プログラム9Aは、タッチスクリーンディスプレイ2を介して、ディスプレイ2Aに表示されている画面上の特定の領域への操作を検出した場合に、所定の動作を実行させるためのアシストアイコンをディスプレイ2Aに表示させるための機能を提供する。
その他、制御プログラム9Aは、通信ユニット6などを制御することによって、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)などを用いた通信を実現させるための機能、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等を用いた近距離無線通信を実現させるための機能、並びに、通信ユニット6及びマイク8などを制御することによって、通話を実現させるための機能を提供する。
制御プログラム9Aにより提供される機能は、通話を実現させる場合、通話アプリケーション9B又はメールアプリケーション9Cなど、ストレージ9に記憶される他のプログラムなどが提供する機能と組み合わせて利用されることがある。制御プログラム9Aにより提供される機能は、複数のプログラムモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。
通話アプリケーション9Bは、無線通信による通話のための通話機能を提供する。メールアプリケーション9Cは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。カレンダーアプリケーション9Dは、スケジュール管理等のためのカレンダー機能を提供する。メモ帳アプリケーション9Eは、テキストデータの作成及び管理を行うためのテキストエディタ機能を提供する。カメラアプリケーション9Fは、画像および動画像の撮影、編集および管理などを行うための機能を提供する。ストレージ9に記憶されるアプリケーションは一例に過ぎない。図1に示すもの以外に、ブラウザアプリケーション、ナビゲートアプリケーション、音楽プレイヤーアプリケーション、動画再生アプリケーション、計算機アプリケーション、付箋アプリケーションなどが記憶されていてもよい。
設定データ9Zは、スマートフォン1の動作に関連する各種の設定及び処理に関する情報を含む。設定データ9Zには、例えば、上記アシストアイコンと、アシストアイコンに対する操作に応じて実行される所定の動作との対応関係に関する情報が含まれる。
コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、及びFPGA(Field−Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、マイク8、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、及び姿勢検出ユニット15を含むが、これらに限定されない。
コントローラ10は、制御プログラム9Aを実行することにより、タッチスクリーンディスプレイ2を介して検出された操作に応じて、ディスプレイ2Aに表示されている画面を縮小表示する処理を実現する。コントローラ10は、制御プログラム9Aを実行することにより、ディスプレイ2Aに表示されている画面内の所定の領域に対する操作を無効化する処理を実現する。コントローラ10は、制御プログラム9Aを実行することにより、タッチスクリーンディスプレイ2を介して、ディスプレイ2Aに表示されている画面の特定の領域への操作を検出した場合に、所定の動作または機能を実行させるためのアシストアイコンをディスプレイ2Aに表示させる処理を実現する。
スピーカ11は、音出力部である。スピーカ11は、コントローラ10から送信される音信号を音として出力する。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。
カメラ12は、撮影した画像を電気信号へ変換する。カメラ12には、例えば、ディスプレイ2Aに面している物体を撮影するインカメラ、ディスプレイ2Aの反対側の面に面している物体を撮影するアウトカメラが含まれる。
姿勢検出ユニット15は、スマートフォン1の姿勢を検出する。姿勢検出ユニット15は、姿勢を検出するために、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。
バイブレータ18は、スマートフォン1の一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータなどを有する。バイブレータ18による振動は、着信等の各種のイベントを利用者に報知するために用いられる。
図1に示したスマートフォン1の機能構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。
図2〜図6を用いて、スマートフォン1による制御の一例について説明する。図2〜図5に登場するF1は、ユーザの右手の親指を示す。図2では、いわゆるホーム画面がディスプレイ2Aに表示されている場合の制御の例について説明するが、アプリケーションの実行中に表示されるアプリケーション画面がディスプレイ2Aに表示されている場合も同様の制御を適用できる。
図2は、ディスプレイ2Aに表示されているホーム画面が縮小表示されるときの制御の一例を示す図である。
図2に示すように、スマートフォン1は、ディスプレイ2Aにホーム画面40aをディスプレイ2Aに表示している(ステップS11)。ディスプレイ2Aには、ホーム画面40aの他に、いわゆるクイックアクセスエリア31、ナビゲーションバー33、及びステータスバー35が表示される。クイックアクセスエリア31は、利用者がホーム画面40aから手軽にアクセスしたいアプリケーションのアイコンを配置する。ナビゲーションバー33は、メニュー表示を実行するためのボタン、実行中のアプリケーションに対する所定の動作を実行するためのボタンなどを配置する。ステータスバー35は、数字、記号、画像及びマークなどを用いて、ユーザに情報を通知する。ステータスバー35が通知する情報には、電源の残量を示す残量マーク、通信用の電波の電界強度を示す電波レベルマーク、時刻、天気、実行中のアプリケーション、通信システムの種別、無線接続の状況、電話のステータス、装置のモード、装置に生じたイベント等などが含まれる。
本実施形態において、ディスプレイ2Aが有する表示領域の上下方向は、ディスプレイ2Aに表示される文字または画像の上下方向を基準に決定されるものとする。したがって、図2に示すスマートフォン1の長手方向を基準とする場合に、ディスプレイ2Aが有する表示領域のうち、ステータスバー35が表示される側が表示領域の上側の領域であり、クイックアクセスエリア31及びナビゲーションバー33が表示される側が表示領域の下側の領域である。クイックアクセスエリア31及びナビゲーションバー33は、ディスプレイ2Aの表示領域のうちの下側の領域に表示される。
続いて、スマートフォン1は、タッチスクリーン2Bを介して、ディスプレイ2Aに表示されるホーム画面40aの上を反時計回りの弧を描くような親指F1の操作を検出すると(ステップS12)、ディスプレイ2Aに表示されているホーム画面40aを縮小表示する(ステップS13)。ホーム画面40aを縮小表示させるための操作を検出した場合、スマートフォン1は、ディスプレイ2Aの表示領域のうち、クイックアクセスエリア31及びナビゲーションバー33が表示される表示領域の下側の領域に対する操作を無効化する。
続いて、スマートフォン1は、縮小表示されたホーム画面40aの上を、ステータスバー35が表示される方向に移動する親指F1の操作を検出すると(ステップS14)、別のホーム画面40bをディスプレイ2Aに表示させる(ステップS15)。
図2に示すように、スマートフォン1は、タッチスクリーン2Bを介して検出される親指F1の操作に応じて、ホーム画面40aを縮小表示させることにより、右手の親指F1のみを用いてホーム画面40aを操作するときの操作性を向上させることができる。結果として、スマートフォン1は、片手操作を行う場合の利用者の利便性を向上させることができる。
図2に示すように、スマートフォン1は、ホーム画面40aを縮小表示させるための操作を検出した場合に、クイックアクセスエリア31及びナビゲーションバー33が表示される表示領域の下側の領域に対する操作を無効化する。これにより、スマートフォン1は、右手の親指F1以外の箇所が、クイックアクセスエリア31及びナビゲーションバー33に接触することによる誤操作を防止できる。結果として、スマートフォン1は、片手操作を行う場合の利用者の利便性を向上させることができる。
スマートフォン1は、ホーム画面40aを縮小表示した後、一定時間、何も操作が検出されない場合には、タイムアウトと判定して、ホーム画面40aの縮小表示を解除して、元の大きさで表示してもよい。スマートフォン1は、ディスプレイ2Aの表示領域のうち、縮小表示したホーム画面40a以外の領域に対する操作を検出した場合には、縮小表示の解除操作であると判定し、ホーム画面40aの縮小表示を解除して、元の大きさで表示してもよい。ホーム画面40aの縮小表示の解除に伴い、スマートフォン1は、クイックアクセスエリア31及びナビゲーションバー33が表示される表示領域の下側の領域に対する操作の無効化を解除してもよい。
図3は、ディスプレイ2Aに表示される画面上のアイコンに対応付けられている処理を実行するための操作ガイドが表示されるときの制御の一例を示す図である。図3では、いわゆるロック画面がディスプレイ2Aに表示されている場合の制御の例について説明する。
図3に示すように、スマートフォン1は、ディスプレイ2Aにロック画面50をディスプレイ2Aに表示している(ステップS21)。ロック画面50には、アイコンA1〜A3が表示される。アイコンA1には、メールアプリケーション9Cの起動処理が対応付けられている。アイコンA2は、カメラアプリケーション9Fの起動処理が対応付けられている。アイコンA3には、ロック状態の解除処理が対応付けられている。ロック画面50は、スマートフォン1がロック状態にある場合に表示される。スマートフォン1は、ディスプレイ2Aにロック画面50が表示されている場合、特定の操作を除いて、ユーザの操作を受け付けない。特定の操作には、例えば、ロック状態を解除するための操作、及びロック画面50に表示されているアイコンA1〜A3に対応付けられている処理を実行させるための操作が含まれる。ロック状態には、単に、ユーザの操作を受け付けない状態だけでなく、セキュリティロック状態を含んでもよい。
続いて、スマートフォン1は、タッチスクリーン2Bを介して、アイコンA2に対する親指F1の接触を検出すると、アイコンA2が表示されている位置を起点とする操作ガイド50a及び操作ガイド50bを表示させる(ステップS22)。このとき、スマートフォン1は、アイコンA1及びアイコンA3の表示を消去する。スマートフォン1は、親指F1がアイコンA2に接触している間、操作ガイド50a及び操作ガイド50bを表示させ、親指F1がアイコンA2から離れると、操作ガイド50a及び操作ガイド50bを消去してもよい。あるいは、スマートフォン1は、親指F1がアイコンA2から離れても、一定時間が経過するまでの間、操作ガイド50a及び操作ガイド50bを表示させてもよい。
続いて、スマートフォン1は、タッチスクリーン2Bを介して、操作ガイド50aに沿って、親指F1を操作ガイド50aの起点から移動させる操作を検出すると(ステップS23)、もう一方の操作ガイド50bの表示を消去する。続いて、スマートフォン1は、操作ガイド50aに沿って、親指F1を操作ガイド50aの終点まで移動させる操作を検出すると(ステップS23)、カメラアプリケーション9Fを起動し、カメラアプリケーション9Fの画面60をディスプレイ2Aに表示させる(ステップS24)。
ステップS22において、スマートフォン1は、アイコンA1及びアイコンA3の表示を消去しなくてもよい。ステップS23において、スマートフォン1は、もう一方の操作ガイド50bの表示を消去しなくてもよい。
図4は、ディスプレイ2Aに所定の動作を実行させるためのアシストアイコンが表示されるときの制御の一例を示す図である。図4では、いわゆるホーム画面がディスプレイ2Aに表示されている場合の制御の例について説明する。
図4に示すように、スマートフォン1は、ディスプレイ2Aの特定の領域に対する接触を検出すると(ステップS31)、流れ星が舞い落ちるようなイメージ画像37と、イメージ画像37の上に配置される4つのアシストアイコンB1〜B4とをディスプレイ2Aに表示させる(ステップS32)。ディスプレイ2Aの特定の領域とは、例えば、右手の親指F1でスマートフォン1を片手操作する場合、ステータスバー35に時刻などが表示される側と同じ側の領域であって、かつ中央部の領域に該当する。一方、左手の親指でスマートフォン1を片手操作する場合、ステータスバー35に時刻などが表示される側とは反対側の領域であって、かつ中央部の領域に該当する。スマートフォン1は、イメージ画像37は表示せず、アシストアイコンB1〜B4のみを表示してもよい。
アシストアイコンB1〜B4がディスプレイ2Aに表示される位置は、例えば、右手でスマートフォン1を持って操作する場合に、右手の親指F1でディスプレイ2A上に描くことが可能な反時計回りの最大の弧よりも右手の親指F1側にあるディスプレイ2Aの表示領域内であることを最低条件とする。図5は、右手でスマートフォン1を持って操作する場合に、右手の親指F1で描くことが可能な弧の一例を示す図である。スマートフォン1は、図5に示すように、ユーザが右手でスマートフォン1を持って操作する場合に、右手の親指F1で描くことが可能な最大の弧38と、最小の弧39をそれぞれ計測しておく。そして、スマートフォン1は、最大の弧38と最小の弧39で挟まれるディスプレイ2Aの表示領域内に、アシストアイコンB1〜B4の表示位置を決定する。好適には、スマートフォン1は、最大の弧38と最小の弧39の挟まれる領域内で、かつ、最大の弧38及び最小の弧39からの距離が均等な位置にある弧の上に、アシストアイコンB1〜B4の表示位置を決定する。
アシストアイコンB1〜B4は、それぞれ所定の動作に予め対応付けられている。アシストアイコンB1〜B4と、アシストアイコンB1〜B4に対する操作に応じて実行される所定の動作または機能との対応関係に関する情報は、設定データ9Zに含まれる。図6は、アシストアイコンB1〜B4と、アシストアイコンB1〜B4に対する操作に応じて実行される所定の動作との対応関係の一例を示す図である。図6に示すように、アシストアイコンB1には、メモリ解放という動作が対応付けられている。アシストアイコンB2には、通知画面表示という動作が対応付けられている。通知画面は、バックグラウンドで実行されるアプリケーションについて、ステータスバー35に通知される情報の詳細情報を、ユーザに通知するための通知領域を含む画面である。アシストアイコンB3には、1つ前に戻る(元に戻る)という動作が対応付けられている。1つ前に戻るとは、実行中のアプリケーションなどにおいて、入力コマンドが実行される1つ前の状態に戻すことを意味する。アシストアイコンB4は、メニュー表示という動作が対応付けられている。メニュー表示は、スマートフォン1に関する各種設定、ストレージ9に記憶されている各種データの検索などの一般的な操作項目の一覧を表示する。
続いて、スマートフォン1は、タッチスクリーン2Bを介して、アシストアイコン2Bに対する操作を検出すると(ステップS33)、アシストアイコン2Bに対応付けられている動作として、通知画面70をディスプレイ2Aに表示させる(ステップS34)。
例えば、通知画面を表示させるための操作として、ステータスバー35が表示されるディスプレイ2Aの上側端部から下側端部へ向うスワイプに対応付けられている場合、ユーザが、右手の親指F1のみによる操作で、ディスプレイ2Aに通知画面を表示させるのは困難である。そこで、右手の親指F1のみによる操作では、実行させることが困難な動作などをアシストアイコンB1〜B4に対応付けておく。そして、図4に示すように、スマートフォン1は、親指F1による操作がしやすい位置に、アシストアイコンB1〜B4を表示する。これにより、ユーザは、右手の親指F1のみによる操作でも簡単に通知画面を表示させることができる。このように、スマートフォン1は、片手操作を行う場合の利用者の利便性を向上させることができる。
図4に示す例において、スマートフォン1は、アシストアイコンB1〜B4を表示した後、一定時間、何も操作が検出されない場合には、タイムアウトと判定して、イメージ画面37及びアシストアイコンB1〜B4をホーム画面40aから消去してもよい。
図4に示す例において、スマートフォン1は、ホーム画面40aの特定の領域に対する操作を検出した場合に、クイックアクセスエリア31及びナビゲーションバー33が表示される表示領域の下側の領域に対する操作を無効化してもよい。この場合、ユーザが、右手の親指F1のみによる操作で、ナビゲーションバー33に配置されるメニュー表示ボタンを操作するのは困難である。そこで、スマートフォン1は、メニュー表示をアシストアイコンに対応付けておく。そして、図4に示すように、スマートフォン1は、親指F1による操作がしやすい位置に、アシストアイコンを表示する。これにより、ユーザは、右手の親指F1のみによる操作でも簡単にメニュー表示を行うことができる。このように、スマートフォン1は、片手操作を行う場合の利用者の利便性を向上させることができる。
クイックアクセスエリア31及びナビゲーションバー33が表示される表示領域の下側の領域に対する操作を無効化する条件は、ホーム画面40aを縮小表示させるための操作を検出した場合、及びホーム画面40aの特定の領域に対する操作を検出した場合には限定されない。例えば、アプリケーションの実行中に、ディスプレイ2Aの所定の領域に対する操作の検出に応じて、クイックアクセスエリア31及びナビゲーションバー33が表示される表示領域の下側の領域に対する操作を無効化してもよい。
図7〜図9を用いて、スマートフォン1による処理手順の一例を説明する。図7〜図9に示す処理手順は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することによって実現される。
図7は、ディスプレイ2Aに表示されている画面を縮小表示するときの処理手順を示すフローチャートである。
図7に示すように、コントローラ10は、タッチスクリーン2Bを介して、所定の操作を検出したかを判定する(ステップS101)。コントローラ10は、判定の結果、所定の操作を検出しない場合には(ステップS101,No)、図7に示す処理手順を終了する。
一方、コントローラ10は、判定の結果、所定の操作を検出した場合には(ステップS101,Yes)、ディスプレイ2Aに表示されている画面を縮小表示する(ステップS102)。ディスプレイ2Aに表示されている画面には、ホーム画面40aが含まれる。
続いて、コントローラ10は、ディスプレイ2Aの表示領域のうち、所定の領域に対する操作を無効化する(ステップS103)。コントローラ10は、いわゆるクイックアクセスエリア31及びナビゲーションバー33(図2など参照)に対する操作を無効化する。
続いて、コントローラ10は、タイムアウトしたか、又は縮小表示の解除操作があったかを判定する(ステップS104)。コントローラ10は、ステップS102において画面を縮小表示した後、一定時間、何も操作が検出されない場合には、タイムアウトと判定する。コントローラ10は、ディスプレイ2Aの表示領域のうち、縮小表示した画面以外の領域に対する操作を検出した場合には、縮小表示の解除操作であると判定する。
コントローラ10は、判定の結果、タイムアウトしていない場合、及び縮小表示の解除操作がない場合には(ステップS104,No)、ステップS104の判定を繰り返し実行する。
一方、コントローラ10は、タイムアウトした場合、又は縮小表示の解除操作があった場合には(ステップS104,Yes)、ディスプレイ2Aに表示されている画面を元の大きさで表示する(ステップS105)。
続いて、コントローラ10は、ディスプレイ2Aの所定の領域に対する操作の無効化を解除して(ステップS106)、図7に示す処理手順を終了する。
図8は、ディスプレイ2Aに表示されている画面に操作ガイドを表示するときの処理手順を示すフローチャートである。
図8に示すように、コントローラ10は、タッチスクリーン2Bを介して、ディスプレイ2Aに表示されている画面上のアイコンに対する接触を検出したかを判定する(ステップS201)。コントローラ10は、判定の結果、画面上のアイコンに対する接触を検出しない場合には(ステップS201,No)、図8に示す処理手順を終了する。
一方、コントローラ10は、画面上のアイコンに対する接触を検出した場合には(ステップS201,Yes)、画面上に操作ガイド(図3参照)を表示させる(ステップS202)。
続いて、コントローラ10は、タッチスクリーン2Bを介して、操作ガイドに沿った操作を検出したかを判定する(ステップS203)。
コントローラ10は、判定の結果、操作ガイドに沿った操作を検出した場合には(ステップS203,Yes)、ステップS201で接触が検出されたアイコンに対応付けられている処理を実行して(ステップS204)、図8に示す処理手順を終了する。
一方、コントローラ10は、判定の結果、操作ガイドに沿った操作を検出しない場合には(ステップS203,No)、画面上のアイコンに対する接触が検出されなくなったか(非検出となったか)を判定する(ステップS205)。
コントローラ10は、判定の結果、画面上のアイコンに対する接触が検出されている場合には(ステップS205,No)、ステップS205の判定を繰り返し実行する。
一方、コントローラ10は、判定の結果、画面上のアイコンに対する接触が検出されなくなった場合には(ステップS205,Yes)、操作ガイドを画面から消去して(ステップS206)、図8に示す処理手順を終了する。
図9は、ディスプレイ2Aに表示されている画面上にアシストアイコンを表示するときの処理手順を示すフローチャートである。
図9に示すように、コントローラ10は、タッチスクリーン2Bを介して、ディスプレイ2Aの特定の領域に対する接触を検出したかを判定する(ステップS301)。ディスプレイ2Aの特定の領域とは、例えば、右手の親指F1でスマートフォン1を片手操作する場合、ステータスバー35に時刻などが表示される側と同じ側の領域であって、かつ中央部の領域に該当する。コントローラ10は、判定の結果、特定の領域に対する接触を検出しない場合には(ステップS301,No)、図9に示す処理手順を終了する。
一方、コントローラ10は、特定の領域に対する接触を検出した場合には(ステップS301,Yes)、ディスプレイ2Aに表示されている画面上にアシストアイコン(図4参照)を表示させる(ステップS302)。
続いて、コントローラ10は、タッチスクリーン2Bを介して、アシストアイコンに対する操作を検出したかを判定する(ステップS303)。
コントローラ10は、判定の結果、アシストアイコンに対する操作を検出した場合には(ステップS303,Yes)、アシストアイコンに対応付けられている動作を実行して(ステップS304)、図9に示す処理手順を終了する。
一方、コントローラ10は、判定の結果、アシストアイコンに対する操作を検出しない場合には(ステップS303,No)、タイムアウトしたかを判定する(ステップS305)。コントローラ10は、アシストアイコンを表示した後、一定時間、何も操作が検出されない場合には、タイムアウトと判定する。
コントローラ10は、判定の結果、タイムアウトしていない場合には(ステップS305,No)、ステップS305の判定を繰り返し実行する。
一方、コントローラ10は、判定の結果、タイムアウトした場合には(ステップS305,Yes)、アシストアイコンを画面から消去して(ステップS306)、図9に示す処理手順を終了する。
(その他の実施形態)
図2に示す例において、コントローラ10は、縮小表示したホーム画面40aを、ディスプレイ2Aの表示領域内のいずれかの方向に寄せて表示してもよい。図10は、縮小した画面の表示例を示す図である。図10に示すように、コントローラ10は、ユーザが右手でスマートフォン1を操作している場合に、縮小したホーム画面40aを右下の方向に寄せて表示してもよい。ステータスバー35が表示される側を上、ステータスバー35において時刻などが表示される側を右とする。例えば、コントローラ10は、ホーム画面40aを縮小表示させるための操作(例えば、図2のステップS12)に基づいて、右手及び左手のいずれの操作であるかを判定し、右手の操作であれば、縮小したホーム画面40aを右下に寄せて表示し、左手の操作であれば、縮小したホーム画面40aを左下に寄せて表示する。コントローラ10は、反時計回りに弧を描くような操作であれば右手の操作であると判定し、時計回りに弧を描くような操作であれば左手の操作であると判定する。
図4に示す例において、コントローラ10は、アプリケーションが実行中である場合に、実行中のアプリケーションの操作をサポートするような動作、機能あるいは処理などが対応付けられたアシストアイコンを表示するようにしてもよい。例えば、メールアプリケーション9Cが実行中である場合に、メール作成、送信、下書きなど、メールアプリケーション9Cの実行に関連する動作が対応付けられたアシストアイコンを表示する。
コントローラ10は、スマートフォン1の長手方向を水平に傾けて使用するアプリケーションを実行中である場合に、姿勢検出ユニット15などの判定結果に基づいて、ディスプレイ2Aに表示されるアプリケーション画面内の文字、図形、記号及び画像の上方向、及び縮小したアプリケーション画面を寄せる方向を決定してもよい。例えば、コントローラ10は、予め登録されるユーザの利き手の情報を参照して、姿勢検出ユニット15などの判定結果に基づいて、縮小したアプリケーション画面を利き手側に寄せて表示する。
添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。
図1に示した各プログラムは、複数のモジュールに分割されていてもよい。あるいは、図1に示した各プログラムは、他のプログラムと結合されていてもよい。
上記の実施形態では、タッチスクリーンを備える装置の一例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。添付の請求項に係る装置は、スマートフォン以外の電子機器であってもよい。電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機である。あるいは、添付の請求項に係る装置は、据え置き型の電子機器であってもよい。据え置き型の電子機器は、例えば、デスクトップパソコン、及びテレビ受像器である。
1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B 通話アプリケーション
9C メールアプリケーション
9D カレンダーアプリケーション
9E メモ帳アプリケーション
9F カメラアプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12 カメラ
15 姿勢検出ユニット
18 バイブレータ

Claims (5)

  1. タッチスクリーンディスプレイと、
    前記タッチスクリーンディスプレイを介して検出された操作に応じて、前記タッチスクリーンディスプレイに表示されている画面を縮小表示するコントローラと
    を有する電子機器。
  2. 前記コントローラは、前記画面内の所定の領域に対する操作を無効とする請求項1に記載の電子機器。
  3. 前記コントローラは、前記所定の領域に対する操作を無効した場合に、前記所定の領域に対する操作により実行可能な動作を実行させるためのアイコンを、前記タッチスクリーンディスプレイに表示させる請求項2に記載の電子機器。
  4. タッチスクリーンディスプレイを有する電子機器を制御する制御方法であって、
    前記タッチスクリーンディスプレイを介して操作を検出するステップと、
    検出される操作に応じて、前記タッチスクリーンディスプレイに表示されている画面を縮小表示するステップと
    を含む制御方法。
  5. タッチスクリーンディスプレイを有する電子機器に、
    前記タッチスクリーンディスプレイを介して操作を検出するステップと、
    検出される操作に応じて、前記タッチスクリーンディスプレイに表示されている画面を縮小表示するステップと
    を実行させる制御プログラム。
JP2012256223A 2012-11-22 2012-11-22 電子機器、制御方法、及び制御プログラム Active JP6125811B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012256223A JP6125811B2 (ja) 2012-11-22 2012-11-22 電子機器、制御方法、及び制御プログラム
PCT/JP2013/081442 WO2014080995A1 (ja) 2012-11-22 2013-11-21 電子機器、制御方法、及び制御プログラム
US14/720,443 US9766800B2 (en) 2012-11-22 2015-05-22 Electronic device, control method, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012256223A JP6125811B2 (ja) 2012-11-22 2012-11-22 電子機器、制御方法、及び制御プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016136409A Division JP2016197441A (ja) 2016-07-08 2016-07-08 電子機器、制御方法、及び制御プログラム

Publications (2)

Publication Number Publication Date
JP2014102796A true JP2014102796A (ja) 2014-06-05
JP6125811B2 JP6125811B2 (ja) 2017-05-10

Family

ID=50776172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012256223A Active JP6125811B2 (ja) 2012-11-22 2012-11-22 電子機器、制御方法、及び制御プログラム

Country Status (3)

Country Link
US (1) US9766800B2 (ja)
JP (1) JP6125811B2 (ja)
WO (1) WO2014080995A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016072872A (ja) * 2014-09-30 2016-05-09 Kddi株式会社 通信端末装置
JP2017054194A (ja) * 2015-09-07 2017-03-16 富士通株式会社 表示装置、表示方法および表示プログラム
JP2019212116A (ja) * 2018-06-06 2019-12-12 株式会社ケアコム 携帯端末の画面表示制御装置

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD758441S1 (en) * 2013-11-22 2016-06-07 Lg Electronics Inc. Multimedia terminal with graphical user interface
KR101596848B1 (ko) * 2015-03-02 2016-02-23 엘지전자 주식회사 디스플레이 패널 및 이동 단말기
WO2016138661A1 (zh) * 2015-03-05 2016-09-09 华为技术有限公司 终端的用户界面的处理方法、用户界面和终端
CN106201297A (zh) * 2015-05-05 2016-12-07 联想(北京)有限公司 一种信息处理方法及装置
KR20170013064A (ko) * 2015-07-27 2017-02-06 삼성전자주식회사 화면 운용 방법 및 이를 지원하는 전자 장치
JP6147830B2 (ja) * 2015-10-28 2017-06-14 京セラ株式会社 携帯電子機器および携帯電子機器の表示方法
CN106855796A (zh) * 2015-12-09 2017-06-16 阿里巴巴集团控股有限公司 一种数据处理方法、装置和智能终端
CN106095218B (zh) * 2016-05-30 2020-12-18 江苏知链科技有限公司 信息处理方法及电子设备
WO2019047187A1 (zh) * 2017-09-08 2019-03-14 广东欧珀移动通信有限公司 导航栏控制方法及装置
CN109164950B (zh) * 2018-07-04 2020-07-07 珠海格力电器股份有限公司 一种移动终端系统界面设置方法、装置、介质和设备
CN109324849A (zh) * 2018-07-05 2019-02-12 四川驹马科技有限公司 一种实现快速应用切换的车机分屏方法及其系统
CN109032444A (zh) * 2018-07-13 2018-12-18 维沃移动通信有限公司 一种通知消息显示方法及终端设备
CN111338730A (zh) * 2020-02-21 2020-06-26 北京字节跳动网络技术有限公司 生成显示界面的方法、装置及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09161088A (ja) * 1995-12-08 1997-06-20 Hitachi Ltd 情報入力装置
WO2012147521A1 (ja) * 2011-04-26 2012-11-01 京セラ株式会社 携帯端末および無効領域設定方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9049302B2 (en) * 2007-01-07 2015-06-02 Apple Inc. Portable multifunction device, method, and graphical user interface for managing communications received while in a locked state
US8519963B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
KR101624218B1 (ko) * 2009-09-14 2016-05-25 삼성전자주식회사 디지털 촬영 장치 및 그 제어 방법
KR101743244B1 (ko) * 2010-07-16 2017-06-02 삼성전자주식회사 메뉴 표시 방법 및 장치
KR101452038B1 (ko) * 2012-04-26 2014-10-22 삼성전기주식회사 모바일 기기 및 그 화면 제어 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09161088A (ja) * 1995-12-08 1997-06-20 Hitachi Ltd 情報入力装置
WO2012147521A1 (ja) * 2011-04-26 2012-11-01 京セラ株式会社 携帯端末および無効領域設定方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016072872A (ja) * 2014-09-30 2016-05-09 Kddi株式会社 通信端末装置
JP2017054194A (ja) * 2015-09-07 2017-03-16 富士通株式会社 表示装置、表示方法および表示プログラム
JP2019212116A (ja) * 2018-06-06 2019-12-12 株式会社ケアコム 携帯端末の画面表示制御装置

Also Published As

Publication number Publication date
US9766800B2 (en) 2017-09-19
WO2014080995A1 (ja) 2014-05-30
JP6125811B2 (ja) 2017-05-10
US20150253955A1 (en) 2015-09-10

Similar Documents

Publication Publication Date Title
JP6125811B2 (ja) 電子機器、制御方法、及び制御プログラム
US9609108B2 (en) Electronic device, control method, and control program
JP6393021B2 (ja) 電子機器、制御方法、及び制御プログラム
JP2014067247A (ja) 電子機器、制御方法、及び制御プログラム
JP6133564B2 (ja) 電子機器、制御方法、及び制御プログラム
JP6215128B2 (ja) 携帯電子機器、制御方法及び制御プログラム
JP6247203B2 (ja) 携帯電子機器及び制御方法
JP2015142321A (ja) 携帯電子機器、表示制御方法及び表示制御プログラム
JP2014235526A (ja) 装置、方法、及びプログラム
JP6139912B2 (ja) 携帯電子機器、制御方法及び制御プログラム
JP2014067298A (ja) 装置、方法、及びプログラム
JP2014068240A (ja) 電子機器、制御方法、及び制御プログラム
US20150229802A1 (en) Electronic device, control method, and control program
JP2016197441A (ja) 電子機器、制御方法、及び制御プログラム
JP6152334B2 (ja) 電子機器、制御方法、及び制御プログラム
JP6087685B2 (ja) 携帯電子機器、制御方法及び制御プログラム
JP5864390B2 (ja) 通信装置、通信方法、及び通信プログラム
JP2014225798A (ja) 電子機器、制御方法、及び制御プログラム
JP5763117B2 (ja) 携帯電子機器、制御方法及び制御プログラム
JP6399944B2 (ja) 電子機器、制御方法及び制御プログラム
JP5583713B2 (ja) 通信装置、通信方法、及び通信プログラム
JP2016103105A (ja) 携帯端末及び制御方法
JP2014067297A (ja) 装置、方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160708

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170216

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170406

R150 Certificate of patent or registration of utility model

Ref document number: 6125811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150