JP5714935B2 - 携帯電子機器、接触操作制御方法および接触操作制御プログラム - Google Patents

携帯電子機器、接触操作制御方法および接触操作制御プログラム Download PDF

Info

Publication number
JP5714935B2
JP5714935B2 JP2011039099A JP2011039099A JP5714935B2 JP 5714935 B2 JP5714935 B2 JP 5714935B2 JP 2011039099 A JP2011039099 A JP 2011039099A JP 2011039099 A JP2011039099 A JP 2011039099A JP 5714935 B2 JP5714935 B2 JP 5714935B2
Authority
JP
Japan
Prior art keywords
image
contact
detection unit
sweep operation
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011039099A
Other languages
English (en)
Other versions
JP2012174250A (ja
Inventor
佐藤 孝幸
孝幸 佐藤
真喜子 星川
真喜子 星川
朋弘 嶋津
朋弘 嶋津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2011039099A priority Critical patent/JP5714935B2/ja
Priority to US13/404,126 priority patent/US20120218206A1/en
Publication of JP2012174250A publication Critical patent/JP2012174250A/ja
Application granted granted Critical
Publication of JP5714935B2 publication Critical patent/JP5714935B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Description

本発明は、携帯電子機器、接触操作制御方法および接触操作制御プログラムに関する。
携帯電話端末等の携帯電子機器は、種々の場所で使用される可能性がある。このため、例えば混雑した電車内で使用すると背後また横から他人に覗き見される恐れがある。このような覗き見の対策として、側面からは画面が見えにくくする表示モードで画像を表示できる携帯電子機器や、表面に特殊なフィルムを配置し側面からは画面が見えにくくする携帯電子機器がある。また、周囲の状況を検出して、除き見されている恐れがある場合は警告を表示させる情報表示装置も提案されている(特許文献1参照)。
特開2009−93399号公報
しかしながら、液晶表示装置や表面のフィルムを替えるなど、ハード構成で正面以外からは見えにくくしても背後等から覗き見が可能となる場合がある。また、ハード構成で覗き見を抑制する構成では、手間がかかったり、構造が複雑になったりする。また、特許文献1では、注意を喚起されても対応できない場合がある。また、操作が複雑になったりして直感的に理解しにくい場合もある。
本発明は、上記に鑑みてなされたものであって、簡単な操作で表示内容を覗き見される恐れを低減できる携帯電子機器、接触操作制御方法および接触操作制御プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、携帯電子機器であって、筐体と、前記筐体の第1面に配される、第1画像を表示する表示部と、接触を検出可能な接触検出部と、前記表示部に前記第1画像が表示されている場合に、前記接触検出部に対してスイープ操作が行われたとき、前記第1画像上に、当該スイープ操作が開始された位置、或いは近傍の表示部端部から延伸して第2画像を表示させ、前記スイープ操作による接触の離間が前記接触検出部によって検出されたとしても、前記延伸された第2画像の表示を維持する制御部と、を備えることを特徴とする。
ここで、前記筐体は、前記第1面と、当該第1面を挟んだ両側面である第2面および第3面を備え、前記接触検出部は、前記第2面に配置された第1検出部および前記第3面に配置された第2検出部を有し、前記制御部は、前記第1検出部および前記第2検出部の両方にて前記スイープ操作が検出された場合、前記第2画像の前記表示部への表示を行うことが好ましい。
また、前記筐体は、前記第1面と、当該第1面を挟んだ両側面である第2面および第3面を備え、前記接触検出部は、前記第2面に配置された第1検出部および前記第3面に配置された第2検出部を有し、前記制御部は、前記第1検出部または前記第2検出部の何れか一方のみにおいて前記スイープ操作が検出された場合、前記第1画像をスクロールさせることが好ましい。
また、前記制御部は、前記第2画像が前記表示部に表示されている場合において、前記スイープ操作とは逆向きの方向への更なるスイープ操作が前記接触検出部によって検出されたとき、前記第1画像上への前記第2画像の表示を止めることが好ましい。
また、前記第2画像は、前記第1の方向に直交する方向に延在する細長い板を前記スイープ操作が行われた方向に並べた画像であり、前記制御部は、前記細長い板を線に変更して表示することで、前記第1画像の視認性を向上させることが好ましい。
また、前記第1画像は、複数行の文字列を含む画像であり、前記制御部は、文字列の行間に前記細長い板を線に変更した画像を配置することが好ましい。
また、前記制御部は、前記第1画像を構成する要素を特定し、前記スイープ操作の前記接触位置の前記第1の方向における移動領域が要素の一定割合に到達していない場合、当該要素の表示領域に前記第2画像を表示させないことが好ましい。
上述した課題を解決し、目的を達成するために、本発明は、携帯電子機器であって、筐体と、前記筐体の第1面に第1画像を表示する表示部と、接触を検出可能な接触検出部と、前記接触検出部で予め設定した領域特定操作を検出した場合、前記領域特定操作で特定される領域に前記第1画像の視認性を低下させる第2画像を表示させる制御部、を有することを特徴とする。
上述した課題を解決し、目的を達成するために、本発明は、筐体と前記筐体の第1面に配される第1画像を表示する表示部と接触を検出可能な接触検出部とを有する携帯電子機器の接触操作制御方法であって、前記接触検出部で接触位置を検出するステップと、前記表示部に前記第1画像が表示されている場合に、前記接触検出部に対してスイープ操作が行われたとき、前記第1画像上に、当該スイープ操作が開始された位置、或いは近傍の表示部端部から延伸して第2画像を表示させ、前記スイープ操作による接触の離間が前記接触検出部によって検出されたとしても、前記延伸された第2画像の表示を維持するステップと、を含むことを特徴とする。
上述した課題を解決し、目的を達成するために、本発明は、接触操作制御プログラムであって、筐体と前記筐体の第1面に配される第1画像を表示する表示部と接触を検出可能な接触検出部とを有する携帯電子機器に、前記接触検出部で接触位置を検出するステップと、前記表示部に前記第1画像が表示されている場合に、前記接触検出部に対してスイープ操作が行われたとき、前記第1画像上に、当該スイープ操作が開始された位置、或いは近傍の表示部端部から延伸して第2画像を表示させ、前記スイープ操作による接触の離間が前記接触検出部によって検出されたとしても、前記延伸された第2画像の表示を維持するステップと、を実行させること特徴とする。
本発明に係る携帯電子機器、接触操作制御方法および接触操作制御プログラムは、簡単な操作で表示内容を覗き見される恐れを低減できるという効果を奏する。
図1は、携帯電話端末の外観を示す斜視図である。 図2は、携帯電話端末の外観を示す正面図である。 図3は、携帯電話端末の機能的な構成を示すブロック図である。 図4は、側面接触センサによって検出される操作に応じて主制御部が実行する制御の例を示す図である。 図5は、側面接触センサによって検出される操作に応じて主制御部が実行する制御の例を示す図である。 図6は、側面接触センサによって検出される操作に応じて主制御部が実行する制御の例を示す図である。 図7は、側面接触センサによって検出される操作に応じて主制御部が実行する制御の例を示す図である。 図8は、側面接触センサによって検出される操作に応じて主制御部が実行する制御の例を示す図である。 図9は、携帯電話端末の動作を示すフローチャートである。 図10は、携帯電話端末の動作を示すフローチャートである。
以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、電子機器の一例として携帯電話端末について説明するが、本発明の適用対象は携帯電話端末に限定されるものではなく、各種装置、例えば、PHS(Personal Handy-phone System)、PDA、ポータブルナビゲーション装置、パーソナルコンピュータ、ゲーム機等に対しても本発明は適用できる。
(実施形態)
まず、図1および図2を参照しながら、本発明に係る電子機器の一実施形態である携帯電話端末1の外観について説明する。図1は、携帯電話端末1の外観を示す斜視図である。図2は、携帯電話端末1の外観を示す正面図である。図1および図2に示すように、携帯電話端末1は、面積が他の面よりも広い2つの面を有する略六面体形状の筐体を有し、その筐体の表面にタッチパネル2と、入力部3と、側面接触センサ4と、スピーカ7と、マイク8とを備える。
タッチパネル2は、面積が最も広い面(正面、第1面)の1つに設けられ、文字、図形、画像等を表示するとともに、指、スタイラス、ペン等(以下、単に「指」という)を用いてタッチパネル2に対して行われる各種操作を検出する。なお、タッチパネル2が各種操作を検出する方式は、静電容量式、感圧式等の任意の方式であってよい。入力部3は、所定の機能が割り当てられたボタン3A、ボタン3Bおよびボタン3C等の複数のボタンからなる。スピーカ7は、通話相手の音声や、各種プログラムによって再生される音楽や効果音等を出力する。マイク8は、通話時や音声による操作の受付時に音声を取得する。
側面接触センサ4は、タッチパネル2が設けられている面と接する面(側面、第2面または第2面に対向する第3面)に設けられ、指を用いて側面接触センサ4に対して行われる各種操作を検出する。側面接触センサ4は、タッチパネル2が設けられている面が正面であるものとして、右側面に設けられた右側面センサ22と、左側面に設けられた左側面センサ24と、上側面に設けられた上側面センサ26と、下側面に設けられた下側面センサ28とを含む。右側面センサ22等が各種操作を検出する方式は、静電容量式、感圧式等の任意の方式であってよい。なお、右側面センサ22と左側面センサ24と上側面センサ26と下側面センサ28とは、それぞれ複数点の接触を検出することができる。例えば、右側面センサ22に2本の指を接触させた場合、右側面センサ22は、2本の指が接触している位置でそれぞれ指が接触していることを検出する。
携帯電話端末1は、タッチパネル2に加えて側面接触センサ4を備えることにより、以下に説明するように、直感的で使い勝手のよい多様な操作方法を利用者に提供する。
次に、図3を参照しながら、携帯電話端末1の機能的な構成について説明する。図3は、携帯電話端末1の機能的な構成を示すブロック図である。図3に示すように携帯電話端末1は、タッチパネル2と、入力部3と、側面接触センサ4と、電源部5と、通信部6と、スピーカ7と、マイク8と、記憶部9と、主制御部10と、RAM(Random Access Memory)11とを有する。
タッチパネル2は、表示部2Bと、表示部2Bに重畳されたタッチセンサ2Aとを有する。タッチセンサ2Aは、指を用いてタッチパネル2に対して行われた各種操作を、操作が行われた場所のタッチパネル2上での位置とともに検出し、主制御部10に通知する。タッチセンサ2Aによって検出される操作には、タップ操作やスイープ操作が含まれる。表示部2Bは、例えば、液晶ディスプレイ(LCD、Liquid Crystal Display)や、有機EL(Organic Electro−Luminescence)パネルなどで構成され、文字や図形等を表示する。
入力部3は、物理的なボタン等を通じて利用者の操作を受け付け、受け付けた操作に対応する信号を主制御部10へ送信する。側面接触センサ4は、右側面センサ22と、左側面センサ24と、上側面センサ26と、下側面センサ28とを含み、これらのセンサに対して行われた各種操作を、操作が行われた場所の位置とともに検出し、主制御部10に通知する。電源部5は、蓄電池または外部電源から得られる電力を、主制御部10を含む携帯電話端末1の各機能部へ供給する。
通信部6は、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA方式などによる無線信号回線を確立し、基地局との間で電話通信及び情報通信を行う。スピーカ7は、主制御部10から送信される音声信号を音声として出力する。マイク8は、利用者等の音声を音声信号へ変換して主制御部10へ送信する。
記憶部9は、例えば、不揮発性メモリや磁気記憶装置であり、主制御部10での処理に利用されるプログラムやデータを保存する。記憶部9に記憶されるプログラムには、メールプログラム9Aと、ブラウザプログラム9Bと、画面制御プログラム9Cと、接触操作制御プログラム9Dとが含まれる。また、記憶部9に記憶されるデータには、側面接触動作定義データ9Eが含まれる。記憶部9は、携帯電話端末1の基本的な機能を実現するオペレーティングシステムプログラムやアドレス帳データ等のその他のプログラムやデータも記憶する。なお、記憶部9は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせとして構成されていてもよい。
メールプログラム9Aは、電子メール機能を実現するための機能を提供する。ブラウザプログラム9Bは、WEBブラウジング機能を実現するための機能を提供する。画面制御プログラム9Cは、他のプログラムが提供する機能と協業して、タッチパネル2に文字や図形等を表示させる。接触操作制御プログラム9Dは、タッチセンサ2Aおよび側面接触センサ4によって検出される各種の接触操作に応じた処理を実行するための機能を提供する。側面接触動作定義データ9Eは、側面接触センサ4の検出結果に応じて起動される機能についての定義を保持する。
主制御部10は、例えば、CPU(Central Processing Unit)であり、携帯電話端末1の動作を統括的に制御して各種の機能を実現する。具体的には、主制御部10は、記憶部9に記憶されているデータやRAM11に展開したデータを必要に応じて参照しつつ、記憶部9に記憶されているプログラムに含まれる命令を実行して、表示部2Bや、通信部6等を制御することによって各種機能を実現する。なお、主制御部10が実行するプログラムや参照するデータは、通信部6による無線通信でサーバ装置からダウンロードすることとしてもよい。
主制御部10は、例えば、メールプログラム9Aを実行することによって、電子メール機能を実現する。また、主制御部10は、接触操作制御プログラム9Dを実行することによって、タッチセンサ2Aおよび側面接触センサ4によって検出される各種の接触操作に応じて対応する処理を実行する機能を実現する。また、主制御部10は、画面制御プログラム9Cを実行することによって、各種機能で用いられる画面等をタッチパネル2に表示させる機能を実現する。なお、主制御部10は、オペレーティングシステムプログラムによって提供されるマルチタスク機能によって、複数のプログラムを並行して実行できるものとする。
RAM11は、主制御部10によって実行されるプログラムの命令、主制御部10が参照するデータ、主制御部10の演算結果等が一時的に記憶される記憶領域として利用される。
次に、図4および図5を参照しながら、側面接触センサ4によって検出される操作に応じて主制御部10が実行する制御の例について説明する。図4および図5は、それぞれ側面接触センサによって検出される操作に応じて主制御部が実行する制御の例を示す図である。なお、図4は、携帯通信端末1と携帯通信端末1を操作する手(右手50)との関係を示す具体的に示す図である。図5は、側面接触センサ4と操作対象の画面と指との関係を模式的に示す図である。なお、図5は、タッチパネル2の外周の筐体部分の図示を省略している。
図4に示す携帯通信端末1は、タッチパネル2の長手方向が縦向き(上下方向)となる向きで利用者の右手により操作されている。なお、携帯通信端末1は、右手で支持しつつ操作を行ってもよいが、左手で背面(タッチパネル2が配置されている面と反対側の面を)支持してもよい。本実施形態において利用者は右手50の親指52で左側面センサ24の下側面センサ28側の部分を支持し、人差し指54で右側面センサ22の下側面センサ28側の部分を支持している。
このように2本の指が側面接触センサ4に接触している状態の場合、携帯通信端末1は、図5の左図に示すように親指52の接触点56での接触を左側面センサ24が検出し、人差し指54の接触点58での接触を右側面センサ22が検出する。つまり、右側面センサ22は、接触点58で接触を検出する。左側面センサ24は、接触点56で接触を検出する。また、接触点56と接触点58とは、長手方向(右側面センサ22および左側面センサ24の延在する方向)における位置が一定距離内の位置となる。このため、接触点56と接触点58は、短手方向と平行な直線で結ぶことができる。なお、当該直線は、対応する接触点の近傍を通過すればよい。つまり接触点の位置を近似して短手方向と平行な直線で結べればよい。本実施形態では、この2つの接触点を結んだ直線を接触位置とする。
また、図5の左図に示す状態では、タッチパネル2の全画面の表示領域に画像60が表示されている。画像(オブジェクト)60は、操作対象の画像(オブジェクト)であり、種々の画像を用いることができる。例えば、画像(オブジェクト)60としては、任意のアプリケーションの実行画面を示すウインドウ画像を用いることができる。なお、画像60は、文字や記号や写真等で構成される。また、より具体的には操作対象の画像には、メール作成に表示される画像や、ブラウザの処理により表示される画像や、スケジュール管理時に表示される画像等がある。
図5の左図に示す状態から、利用者が親指52を矢印72の方向に移動させ、人差し指54を矢印74の方向に移動させる。つまり、右側面センサ22に接触している人差し指54を下側面センサ28に近づける方向に移動させ、左側面センサ24に接触している親指52を下側面センサ28に近づける方向に移動させる。このように指を移動させることで利用者は、図5の右図に示すように、親指52を接触点56aに移動させ、人差し指54を接触点58aに移動させる。本実施形態では図5の左図から右図に示すように、側面接触センサ4に接触している2つの指(接触位置)を側面接触センサ4に接触させたまま移動させる操作を「ブラインド操作」という。なお、側面接触センサ4に接触させたまま接触点を移動させる操作は、スイープ操作(スライド操作)ともいう。
ブラインド操作が入力されると、右側面センサ22は、接触点58が接触点58aに移動する操作を検出し、左側面センサ24は、接触点56が接触点56aに移動する操作を検出する。側面接触センサ4は、検出結果を主制御部10へ通知する。
主制御部10は、このように、側面接触センサ4で、接触位置が接触状態を維持したまま移動する操作、本実施形態では対向する右側面センサ22で検出した接触点と左側面センサ24で検出した接触点が近似した短手方向に平行な直線(接触位置)が移動する操作が検出された場合、接触操作制御プログラム9Dが提供する機能に基づいて、タッチパネル2に表示されている画像を変化させる。具体的には、主制御部10は、図4および図5の右図に示すようにタッチパネル2の領域64にブラインド画像62を表示させる。また、タッチパネル2の領域64以外の領域である領域66には、画像60の一部がそのまま表示されている。これにより、画像60のうち領域64の部分は、ブラインド画像62に覆われる。ここで、ブラインド画像62は、図4に示すように画面上下方向(ブラインド操作で指が移動する方向、図4中紙面上下方向)に複数の細長い板を並べた画像、つまり、スラット(ルーパー)を糸等でつなげた構成で開閉ができ窓等に配置され外部から入射する光をさえぎるいわゆるブラインドを画像にしたものである。また、領域64の大きさは、ブラインド操作として入力されたスイープ操作に基づいて決定する。
このように、携帯電話端末1は、側面接触センサ4で、ブラインド操作として接触位置が移動するスイープ操作が検出されると、ブラインド操作での接触位置の移動に対応する領域にタッチパネル2にブラインド画像62を表示させる。これにより、ユーザは、簡単な操作でタッチパネル2に表示されていた画像60の一部を見えない状態にすることができる。また、スイープ操作をブラインド操作とすることで、指をスイープ(スライド)させる操作にブラインドを降ろす処理を対応付けることができる。これにより直感的な操作が可能となる。
また、本実施形態のように画面上下方向(ブラインド操作で指が移動する方向)に複数の細長い板を並べたブラインドの画像を用いることで、対象の領域を隠していることを直感的に理解することができる。なお、ブラインド画像62は、本実施形態のブラインドの画像にこれには限定されない。ブラインド画像62は、画像60つまりブラインド操作の入力前に表示していた画像の対象の領域(図5では領域64)の視認性を低下させ、何が書いてあるか、表示されているかを解読できない状態とする画像であればよい。例えば、対象の領域の画像60をぼかす画像、つまりすりガラスのような画像を表示させてもよいし、真っ黒な画像を表示させてよい。なお、ブラインド画像は、真っ黒な画像や、ブラインドの画像等、画像60の領域に別の画像を重ねることが好ましい。より具体的には、ブラインド画像は、少なくとも背景以外の領域には画像60に別の画像(透けない画像)が重なる画像とすることが好ましく、対象の領域の全面に別の画像(透けない画像)が重なる画像とすることがより好ましい。これにより、対象の領域をより確実に隠すことができる。
また、携帯通信端末1は、本実施形態のようにブラインド操作で接触位置が移動する方向に直交する方向のタッチパネル2の表示領域の全域を覆う画像をブラインド画像62とすることが好ましい。これにより、ブラインド操作に基づいて、ブラインド操作で接触位置が移動する方向において、ブラインド画像62を表示させる範囲を決定すれば、表示させるブラインド画像62を決定することができる。
また、ブラインド操作に基づいて、ブラインド操作で接触位置が移動する方向において、ブラインド画像62を表示させる範囲を決定する方法としては、種々の方法を用いることができる。例えば、ブラインド画像62の上端を常に画面の表示方向(文字の表示方向)の状態の上端とし、スイープ操作で最後に検出した接触位置をブラインド画像62の下端としてもよい。
次に、図6を用いて、ブラインド画像を表示させる領域の他の例について説明する。図6は、側面接触センサによって検出される操作に応じて主制御部が実行する制御の例を示す図である。上記実施形態では、ブラインド画像62の上端をタッチパネル2の表示領域の上端としたがこれに限定されない。図6に示すように、画面上下方向において、タッチパネル2の表示領域の中腹のみにブラインド画像80を表示させてもよい。この場合は、ブラインド画像80よりも上側の領域には画像82が表示され、ブラインド画像80よりも下側の領域には画像84が表示される。このように、画面上下方向において、画面の上端を含む所定の領域以外にも任意の設定した領域にブラインド画像80を表示させることができる。この場合は、例えば、ブラインド操作の始点と終点をブラインド画像の両端としてもよいし、ブラインド操作で接触位置が移動した領域の両端をブラインド画像の両端としてもよい。
次に、図7を用いて、ブラインド画像を表示させる領域の決定方法の他の例について説明する。ここで、図7は、側面接触センサによって検出される操作に応じて主制御部が実行する制御の例を示す図である。まず、図7のステップS101に示すように、携帯通信端末1は、タッチパネル2に第1画像112と画面上下方向において第1画面112の下側に配置された第2画像114との2つ要素で構成された画像を表示している。例えば、メール作成時に表示される画像の場合であれば、第1画像112が入力済みの文字列を表示する画像、第2画像114がキーボードの画像となる。また、利用者は、親指52を左側面センサ24の上側面センサ26側の部分に接触させ、人差し指54を右側面センサ22の上側面センサ26側の部分に接触させている。これにより、左側面センサ24は、接触点120で接触を検出し、右側面センサ22は、接触点122で接触を検出する。
次に、利用者は、親指52と人差し指54をステップS101示す接触点120、122からステップS102に示す接触点120a、122aまで下側面センサ28側にスイープ操作で移動させる。なお、接触点120a、122aは、第1画像112と第2画像114との境界よりも閾値距離以上上側の位置である。携帯通信端末1は、親指52と人差し指54のスイープ操作をブラインド操作として検出し、タッチパネル2の上端から接触点120a、122aに対応する位置まで延在するブラインド画像116aを表示させる。ブラインド画像116aは、下端が接触点120a、122aを結んだ直線上にあり、第1画像112の下端の一部を露出させ他の領域を隠している。なお、携帯通信端末1は、親指52の接触点と人差し指54の接触点とを結んだ直線を接触位置として検出する。
次に、利用者は、親指52と人差し指54をステップS102示す接触点120a、122aからステップS103に示す接触点120b、122bまで下側面センサ28側にスイープ操作で移動させる。なお、接触点120b、122bは、第1画像112と第2画像114との境界よりも下側の位置である。また、接触点120bと接触点122bとを結んだ直線(つまり接触位置)と境界との距離は閾値以下である。携帯通信端末1は、このスイープ操作をブラインド操作として検出し、タッチパネル2の上端から接触点120b、122bに対応する位置まで延在するブラインド画像116bを表示させる。このとき、接触位置と境界との距離が閾値以下であるため、ブラインド画像116bの下端は、第1画像112と第2画像114との間(境界)となる。つまり、ブラインド画像116bは、第1画面112の全域を隠し、第2領域114の全域を露出させた状態としている。
次に、利用者は、親指52と人差し指54をステップS103示す接触点120b、122bからステップS104に示す接触点120c、122cまでスイープ操作で下側面センサ28側に移動させる。なお、接触点120c、122cは、第1画像112と第2画像114との境界よりも閾値距離以上下側の位置である。携帯通信端末1は、親指52と人差し指54のスイープ操作をブラインド操作として検出し、タッチパネル2の上端から接触点120c、122cに対応する位置まで延在するブラインド画像116cを表示させる。ここで、ブラインド画像116cは、下端が接触点120c、122cを結んだ直線上にあり、第2画像114の下端の一部を露出させ、第2領域114の他の領域と第1領域112の全域とを隠している。
このように、スイープ操作の接触位置の移動方向における移動領域の端部の一定距離内にタッチパネルに表示される画像の要素と要素との間がある場合は、当該要素と要素との間をブラインド画像の端部とすることで、ブラインド画像の端部を区切りのよい位置とすることができる。これにより、要素のごく一部が、ブラインド画像によって隠された状態となったり、ブラインド画像によって隠されていない状態となったりすることを抑制でき、利用者は、簡単な操作で要素毎に隠すか隠さないかを調整することができる。なお、携帯通信端末1は、接触位置が要素のごく一部のみを隠す位置とならないように、つまり、ステップS103の状態のみを抑制するようにしてもよい。つまり、要素の一定以上の領域を隠す状態になるまで、当該要素にブラインド画像を配置しないようにしてもよい。
なお、上記実施形態では、タッチパネル2に表示させる画像を2つの要素としたが要素の数は特に限定されない。また、タッチパネル2に表示させる画像を構成する要素の数の解析は、主制御部10で行うことができる。また、画像に対する要素の数を予め設定しておいてもよい。
また、携帯通信端末1は、タッチパネル2に表示させる画像が複数行の文字列で構成される文章である場合、ブラインド画像の端部(位置を調整する側の端部、接触位置が移動する方向の端部)の位置を行と行の間(行間)とすることが好ましい。これにより、文字が一部だけ隠れて読めない状態や、文字の一部だけ表示されて見えてしまう状態を抑制することができる。また、利用者が微妙な位置を調整する必要がなくなり操作が簡単になる。
次に、図8を用いて、ブラインド画像の表示の切り換え方法について説明する。ここで、図8は、側面接触センサによって検出される操作に応じて主制御部が実行する制御の例を示す図である。まず、図8のステップS120に示すように、携帯通信端末1は、タッチパネル2の領域130にブラインド画像134を表示し、画面上下方向において領域130よりも下側の領域132に画像136を表示している。なお、画像136は、タッチパネル2の全域に延伸される画像であり、領域130の部分がブラインド画像134で隠されている。画像136は、複数列の文字列で構成された文章を含む画像である。ブラインド画像134は、複数の細長い板形状のスラット140を画面上下方向(接触位置が移動する方向)に列状に配置した画像である。また、利用者は、親指52を左側面センサ24に接触させ、人差し指54を右側面センサ22に接触させている。これにより、左側面センサ24は、接触点156で接触を検出し、右側面センサ22は、接触点158で接触を検出する。
次に、利用者は、親指52と人差し指54を矢印160、162方向(画面上下方向において上側)に移動させ、ステップS120示す接触点156、158からステップS121に示す接触点156a、158aまでスイープ操作で移動させる。つまり、接触位置をブラインド操作の移動方向とは反対側に移動させるスイープ操作を行う。携帯通信端末1は、親指52と人差し指54の矢印160、162方向のスイープ操作を検出したら、ブラインド画像134aを表示させる。ブラインド画像134aは、スラット140を90度回転させた状態を示すスラット142を画面上下方向(接触位置が移動する方向)に列状に配置した画像である。なお、スラット140を90度回転させた状態を示すスラット142は、線となる。また、スラット142は、画像136を構成する複数行の文章の行間に表示されている。
このように、携帯通信端末1は、ブラインド操作とは反対方向のスイープ操作が入力された場合は、ブラインド画像で見えなくしていた(視認性を低下させていた)領域の画像を見えるようにすることで、ブラインド画像で見えなくしていた領域の画像を一時的に確認することが可能となる。これにより、ブラインド画像で隠した領域も簡単な操作で確認することができる。また、ブラインド操作とは反対方向のスイープ操作をトリガーとして、この処理を行うことで、窓のブラインド操作と似た操作で画面の表示を切り換えることができる。なお、携帯通信端末1は、ブラインド画像を配置した画像を視認可能とした状態でブラインド操作が再度入力された場合、ブラインド画像で当該領域を見えなくする。これにより、当該領域を再びブラインド画像で隠すことができる。
また、携帯通信端末1は、ブラインド操作とは反対方向のスイープ操作の接触位置の移動量に応じて制御を切り換えるようにしてもよい。例えば、接触位置の移動量が閾値以上の場合は、ブラインド画像の位置を変更(ブラインド画像を配置する領域を短くし)、接触位置の移動量が閾値未満の場合は、ブラインド画像で見えなくしていた(視認性を低下させていた)領域の画像を見えるようにしてもよい。これにより、ブラインド画像を配置する領域も調整することができる。
また、ブラインド操作として検出する操作は、図4および図5に示す入力に限定されない。主制御部10は、側面接触センサ4に接触している接触位置を近づける種々の操作をブラインド操作として検出することができる。なお、どの操作をブラインド操作とするかは、側面接触動作定義データ9Eで予め定義しておけばよい。つまり、側面接触センサ4に接触している接触位置を近づける操作であってもブラインド操作以外の操作として定義することもできる。
例えば、上記実施形態では、右側面センサ22と左側面センサ24でそれぞれ接触点を検出し、2つの接触点を結んだ直線を接触位置としたが、側面接触センサ4のいずれか1つで検出した接触点を接触位置として検出してもよい。この場合、携帯通信端末1は、1つの側面センサで検出した接触点のスイープ操作をブラインド操作として検出する。
なお、携帯通信端末1は、上述したように、側面接触センサ4のうち対向する2つ面の側面センサのそれぞれで検出される接触点を近似して結んだ当該側面センサに直交する直線をブラインド操作の接触位置の少なくとも一方として用いることが好ましい。これにより、側面接触センサ4で検出できる他の操作に種々の処理を割り当てることができる。
また、携帯通信端末1は、図4および図5に示すように、一方の側面センサで検出した接触点と前他方の側面センサで検出した接触点とを結んだ直線を2つの接触位置の一方の接触位置とすることが好ましい。これにより、ブラインドを挟んで降ろすような動作をブラインド操作とすることができる。これにより、入力する操作に対して実行される処理を直感的に理解しやすくなる。
また、主制御部10は、側面接触センサ4で検出した接触の情報に基づいて筐体を保持する手を検出し、筐体を保持していない手の接触のみを抽出しその接触から入力された操作がブラインド操作であるかを判定してもよい。この場合、筐体を保持していない手の接触によるスイープ操作が検出された場合、ブラインド操作が入力されたと判定し、ブラインド画像を表示させる。このように、操作が入力された手も加味して操作を判定することで、より多くの操作を入力することが可能となる。
次に、図9を参照しながら、接触操作の検出時の携帯電話端末1の動作について説明する。図9は、携帯電話端末の動作を示すフローチャートである。図9に示す処理手順は、接触操作制御プログラム9Dが提供する機能に基づいて繰り返し実行される。
携帯電話端末1の主制御部10は、ステップS12として、対象オブジェクト表示中であるかを判定する。ここで、対象オブジェクトとは、ブラインド操作で操作対象とすることができるオブジェクトである。主制御部10は、ステップS12で対象オブジェクトが表示されていない(No)と判定したら、ステップS12に進む。つまり、主制御部10は、対象オブジェクトが表示された状態となるまで、ステップS12の処理を繰り返す。
主制御部10は、ステップS12で対象オブジェクトが表示中である(Yes)と判定したら、ステップS14として、側面接触があるか、つまり側面接触センサ4によっていずれかの側面への接触が検出されたかを判定する。主制御部10は、ステップS14で側面接触なし(No)、つまり側面への接触が検出されていないと判定したら、ステップS12に進む。また、主制御部10は、ステップS14で側面接触あり(Yes)、つまり側面への接触が検出されていると判定したら、ステップS16として、ブラインド操作かを判定する。
ここで、図10を用いてステップS16の判定について説明する。ここで、図10は、携帯電話端末の動作を示すフローチャートである。なお、図10に示す処理は、ブラインド操作として図4に示す操作が定義されている場合である。主制御部10は、ステップS40として、複数点接触があるかを判定する。つまり、側面接触センサ4で2つ以上の接触を検出しているかを判定する。主制御部10は、ステップS40で複数点接触ではない(No)と判定したら、ステップS50に進む。
主制御部10は、ステップS40で複数接触点である(Yes)と判定したら、ステップS42として、対応する2辺(2つの面)のそれぞれの接触点を結んだ線が、当該2辺に垂直とみなせる線であるかを判定する。つまり、当該2辺に垂直とみなせる線で近似できる関係の接触点が対向する2辺にあるかを判定する。主制御部10は、ステップS42で当該線がない(No)と判定したら、ステップS50に進む。
主制御部10は、ステップS42で当該線がある(Yes)と判定したら、ステップS46として、垂線とみなせる線(接触位置)を構成する接触点が移動しているか、つまりスイープ操作されているかを判定する。主制御部10は、ステップS46で接触点が移動していない(No)と判定したら、ステップS50に進む。
主制御部10は、ステップS46で垂線とみなせる線を構成する接触点が移動している(Yes)と判定したら、ステップS48として、検出した操作がブラインド操作であると判定する。また、主制御部10は、ステップS40、S42またはS46でNoと判定したら、ステップS50として、その他の操作である、つまりブラインド操作ではない判定する。主制御部10は、ステップS48またはS50の処理を実行したら、本判定処理を終了する。なお、主制御部10は、ブラインド操作として定義されている操作に応じて、判定方法は変化する。
図9に戻り、本処理の説明を続ける。主制御部10は、ステップS16でブラインド操作ではない(No)と判定したら、ステップS18として入力操作に応じた処理を実行する。なお、主制御部10は、側面接触動作定義データ9Eに記憶されている対応関係と入力操作とを比較することで、実行する処理を特定する。その後、主制御部10は、特定した処理を実行し、ステップS28に進む。
主制御部10は、ステップS16でブラインド操作である(Yes)と判定したら、ステップS20として、接触位置を検出する。より具体的には接触位置の移動履歴を検出する。主制御部10は、ステップS20で接触検出を検出したら、ステップS22としてオブジェクトの表示を変更する。具体的には、主制御部10はステップS20で算出した接触位置の情報に基づいて領域を決定し、決定した領域にブラインド画像を表示させる。
主制御部10は、ステップS22の処理を行ったら、ステップS26として、ブラインド操作が終了かを判定する。なお、ブラインド操作が終了したかは、種々の基準で判定することができ、例えば、側面接触センサ4で接触を検出しない状態となっている場合、ブラインド操作が終了したと判定することができる。
主制御部10は、ステップS26でブラインド操作終了ではない(No)と判定したら、ステップS20に進む。主制御部10は、ブラインド操作が終了するまで、移動距離に応じた表示の変更処理を繰り返す。主制御部10は、ステップS26でブラインド操作終了である(Yes)と判定したら、ステップS28に進む。
主制御部10は、ステップS18の処理を行ったらまたはステップS26でYesと判定したら、ステップS28として、処理終了か、つまり側面接触センサ4による操作の検出を終了するかを判定する。主制御部10は、ステップS28で処理終了ではない(No)と判定したら、ステップS12に進む。主制御部10は、ステップS28で処理終了ではある(Yes)と判定したら、本処理を終了する。
なお、本実施形態に係る携帯電話端末1は、側面に対する操作を受け付けるとともに、側面で受け付けた操作に応じて処理を実行するように構成されているので、利用者に対して多様な操作方法を提供することができる。つまり、図9に示すように、側面接触センサで検出した接触がブラインド操作ではない場合は、その入力に応じた処理を実行することで、種々の操作を入力することができる。例えば、1辺(1つの面)の側面センサでの接触点のスイープ操作に対しては、表示している画像を拡大させる処理や、画面のスクロール操作を行い、図4に示す操作のように対向する2辺の対応する位置(垂線とみなせる位置)で接触点を検出し、当該接触点を結んだ接触位置のスイープ操作に対しては、ブラインド画像を表示させる処理を行うこともできる。また、1辺(1つの面)の側面センサでの接触点のスイープ操作に対しては、画像のスクロール(スクロール操作)を対応付け、他のスイープ操作にブラインド操作を対応つけてもよい。
なお、上記の実施形態で示した本発明の態様は、本発明の要旨を逸脱しない範囲で任意に変更することができる。
また、上記実施形態では、側面接触センサ4として、筐体の4辺(側面の4つの面)のそれぞれに側面センサを配置したがこれに限定されない。側面への接触を検出する側面センサは必要な位置に配置すればよい。例えば、図4および図5の処理を行う場合は、対向する2辺(2つの面)のみに側面センサを配置すればよい。なお、2つの側面センサを配置する場合、正面(タッチパネルが配置されている面)の長辺と隣接する(つまり長辺側の)2つの側面に配置することが好ましい。これにより、図4および図5に示すような指の移動をブラインド操作とすることができ、操作を入力しやすくでき、操作性を高くすることができる。
また、上記の実施形態では、表示手段としてタッチパネルを有する電子機器に本発明を適用する例について説明したが、本発明は、表示手段として、タッチセンサが重畳されていない単なる表示パネルを有する電子機器に適用することもできる。
また、上記実施形態では、接触検出部として側面接触センサ4を用いたが、これに限定されない。接触検出部としては、タッチパネル2のタッチセンサ2Aを用いてもよい。つまり、タッチパネル2にブラインド操作として定義された接触位置のスイープ操作が入力された場合、ブラインド画像を表示させてもよい。
また、上記実施形態では、より直感的な操作が可能となるため、スイープ操作をブラインド操作としたがこれにも限定されない。ブラインド操作としては、ブラインド画像の表示領域を特定することができる種々の操作を用いることができる。例えば、ブラインド画像の端部を指定する複数回のクリック動作、タッチ動作をブラインド操作としても、方向キー等の方向を指示する操作をブライド操作としてもよい。いずれの操作をブラインド操作としても、利用者が指定した領域にブラインド画像を表示させることで、画像を覗き見されにくくすることができ、覗き見される恐れを低減することができる。また、ブラインド画像の表示領域を利用者が任意に設定、調整できることで、利用者が隠したい領域のみを隠すことができる。
1 携帯電話端末
2 タッチパネル
2A タッチセンサ
2B 表示部
3 入力部
4 側面接触センサ
5 電源部
6 通信部
7 スピーカ
8 マイク
9 記憶部
9A メールプログラム
9B ブラウザプログラム
9C 画面制御プログラム
9D 接触操作制御プログラム
9E 側面接触動作定義データ
10 主制御部
11 RAM
22 右側面センサ
24 左側面センサ
26 上側面センサ
28 下側面センサ

Claims (7)

  1. 第1面、ならびに該第1面を正面としたときに対となる側面として第2面および第3面を備える筐体と、
    記第1面に配される、第1画像を表示する表示部と、
    前記第2面への接触を検出可能な第1検出部、および前記第3面への接触を検出可能な第2検出部を有する接触検出部と、
    前記表示部に前記第1画像が表示されている場合に、前記接触検出部に対してスイープ操作が行われたとき、当該スイープ操作が開始された位置、或いは近傍の表示部端部から延伸して前記第1画像上に新たな第2画像を表示させ、前記スイープ操作の際の接触が離れるのを前記接触検出部によって検出されたとしても、前記延伸された第2画像の表示を維持する制御部と、を備え
    前記制御部は、
    前記第1検出部または前記第2検出部の何れか一方のみにおいて前記スイープ操作が検出された場合、前記第1画像をスクロールさせ、
    前記第1検出部および前記第2検出部の両方にて前記スイープ操作が検出された場合、前記第2画像の前記表示部への表示を行う、
    ことを特徴とする携帯電子機器。
  2. 前記制御部は、前記第2画像が前記表示部に表示されている場合において、前記スイープ操作とは逆向きの方向への更なるスイープ操作が前記接触検出部によって検出されたとき、前記第1画像上への前記第2画像の表示を止めることを特徴とする請求項1に記載の携帯電子機器。
  3. 前記第2画像は、前記スイープ操作で接触位置が移動する方向に直交する方向に延在する細長い板を前記スイープ操作が行われた方向に並べた画像であり、
    前記制御部は、前記細長い板を線に変更して表示することで、前記第1画像の視認性を向上させることを特徴とする請求項に記載の携帯電子機器。
  4. 前記第1画像は、複数行の文字列を含む画像であり、
    前記制御部は、文字列の行間に前記細長い板を線に変更した画像を配置することを特徴とする請求項に記載の携帯電子機器。
  5. 前記制御部は、前記第1画像を構成する要素を特定し、
    前記スイープ操作接触位置が移動する方向における移動領域が要素の一定割合に到達していない場合、当該要素の表示領域に前記第2画像を表示させないことを特徴とする請求項1からのいずれか一項に記載の携帯電子機器。
  6. 第1面、ならびに該第1面を正面としたときに対となる側面として第2面および第3面を備える筐体と、前記第1面に配される第1画像を表示する表示部と、前記第2面への接触を検出可能な第1検出部、および前記第3面への接触を検出可能な第2検出部を有する接触検出部とを有する携帯電子機器の接触操作制御方法であって、
    前記接触検出部で接触位置を検出するステップと、
    前記表示部に前記第1画像が表示されている場合に、前記接触検出部に対してスイープ操作が行われたとき、当該スイープ操作が開始された位置、或いは近傍の表示部端部から延伸して前記第1画像上に新たな第2画像を表示させ、前記スイープ操作の際の接触が離れるのを前記接触検出部によって検出されたとしても、前記延伸された第2画像の表示を維持するステップと、
    前記第1検出部または前記第2検出部の何れか一方のみにおいて前記スイープ操作が検出された場合、前記第1画像をスクロールさせるステップと、
    前記第1検出部および前記第2検出部の両方にて前記スイープ操作が検出された場合、前記第2画像の前記表示部への表示を行うステップと、
    を含むことを特徴とする接触操作制御方法。
  7. 第1面、ならびに該第1面を正面としたときに対となる側面として第2面および第3面を備える筐体と、前記第1面に配される第1画像を表示する表示部と、前記第2面への接触を検出可能な第1検出部、および前記第3面への接触を検出可能な第2検出部を有する接触検出部とを有する携帯電子機器に、
    前記接触検出部で接触位置を検出するステップと、
    前記表示部に前記第1画像が表示されている場合に、前記接触検出部に対してスイープ操作が行われたとき、当該スイープ操作が開始された位置、或いは近傍の表示部端部から延伸して前記第1画像上に新たな第2画像を表示させ、前記スイープ操作の際の接触が離れるのを前記接触検出部によって検出されたとしても、前記延伸された第2画像の表示を維持するステップと、
    前記第1検出部または前記第2検出部の何れか一方のみにおいて前記スイープ操作が検出された場合、前記第1画像をスクロールさせるステップと、
    前記第1検出部および前記第2検出部の両方にて前記スイープ操作が検出された場合、前記第2画像の前記表示部への表示を行うステップと、
    を実行させること特徴とする接触操作制御プログラム。
JP2011039099A 2011-02-24 2011-02-24 携帯電子機器、接触操作制御方法および接触操作制御プログラム Expired - Fee Related JP5714935B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011039099A JP5714935B2 (ja) 2011-02-24 2011-02-24 携帯電子機器、接触操作制御方法および接触操作制御プログラム
US13/404,126 US20120218206A1 (en) 2011-02-24 2012-02-24 Electronic device, operation control method, and storage medium storing operation control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011039099A JP5714935B2 (ja) 2011-02-24 2011-02-24 携帯電子機器、接触操作制御方法および接触操作制御プログラム

Publications (2)

Publication Number Publication Date
JP2012174250A JP2012174250A (ja) 2012-09-10
JP5714935B2 true JP5714935B2 (ja) 2015-05-07

Family

ID=46718653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011039099A Expired - Fee Related JP5714935B2 (ja) 2011-02-24 2011-02-24 携帯電子機器、接触操作制御方法および接触操作制御プログラム

Country Status (2)

Country Link
US (1) US20120218206A1 (ja)
JP (1) JP5714935B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018052096A1 (ja) * 2016-09-14 2018-03-22 ソニー株式会社 センサ、入力装置および電子機器

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6056228B2 (ja) * 2012-07-11 2017-01-11 日本電気株式会社 携帯電子機器、その制御方法及びプログラム
JP5529357B1 (ja) 2013-02-20 2014-06-25 パナソニック株式会社 携帯情報端末の制御方法及びプログラム
KR102069191B1 (ko) * 2013-04-02 2020-01-23 삼성디스플레이 주식회사 절전형 디스플레이 장치
JP2015069540A (ja) * 2013-09-30 2015-04-13 アルプス電気株式会社 情報機器端末および情報機器端末のデータ保存方法
JP2015088085A (ja) * 2013-11-01 2015-05-07 シャープ株式会社 表示装置及び表示方法
US9990125B2 (en) * 2013-11-15 2018-06-05 Lg Electronics Inc. Mobile terminal and method of controlling the same
KR102106873B1 (ko) * 2013-11-15 2020-05-06 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
CN104679395B (zh) * 2013-11-26 2017-11-28 华为技术有限公司 一种文档呈现方法及用户终端
JP6442755B2 (ja) 2014-02-28 2018-12-26 富士通コネクテッドテクノロジーズ株式会社 電子機器、制御プログラム、及び、制御方法
FR3022644A1 (fr) * 2014-06-23 2015-12-25 Orange Procede de masquage d'un element parmi une pluralite d'elements
US20160301641A1 (en) * 2015-04-13 2016-10-13 Smoke Messaging, LLC Secure messaging system utilizing a limited viewing window
EP3521989B1 (en) * 2016-09-30 2020-11-18 Toppan Printing Co., Ltd. Light adjustment apparatus
WO2019041183A1 (zh) * 2017-08-30 2019-03-07 深圳传音通讯有限公司 一种移动终端防窥屏方法、移动终端及存储介质
US11861084B2 (en) * 2021-11-18 2024-01-02 International Business Machines Corporation Splitting a mobile device display and mapping content with single hand

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6396500B1 (en) * 1999-03-18 2002-05-28 Microsoft Corporation Method and system for generating and displaying a slide show with animations and transitions in a browser
JP2002055753A (ja) * 2000-08-10 2002-02-20 Canon Inc 情報処理装置、機能一覧表表示方法、及び記憶媒体
US8373660B2 (en) * 2003-07-14 2013-02-12 Matt Pallakoff System and method for a portable multimedia client
US20080229248A1 (en) * 2007-03-13 2008-09-18 Apple Inc. Associating geographic location information to digital objects for editing
KR101391602B1 (ko) * 2007-05-29 2014-05-07 삼성전자주식회사 터치 스크린 기반의 사용자 인터페이스 인터렉션 방법 및 멀티 미디어 단말 기기
JP5205157B2 (ja) * 2008-07-16 2013-06-05 株式会社ソニー・コンピュータエンタテインメント 携帯型画像表示装置、その制御方法、プログラム及び情報記憶媒体
RU2011116237A (ru) * 2008-09-24 2012-10-27 Конинклейке Филипс Электроникс Н.В. (Nl) Пользовательский интерфейс для сенсорного устройства с многоточечным вводом
JP5265433B2 (ja) * 2009-03-27 2013-08-14 ソフトバンクモバイル株式会社 表示装置、およびプログラム
US8656314B2 (en) * 2009-07-30 2014-02-18 Lenovo (Singapore) Pte. Ltd. Finger touch gesture for joining and unjoining discrete touch objects
US9017164B2 (en) * 2009-08-11 2015-04-28 Sony Corporation Game device provided with touch panel, game control program, and method for controlling game
US8694902B2 (en) * 2010-01-06 2014-04-08 Apple Inc. Device, method, and graphical user interface for modifying a multi-column application

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018052096A1 (ja) * 2016-09-14 2018-03-22 ソニー株式会社 センサ、入力装置および電子機器
CN109690269A (zh) * 2016-09-14 2019-04-26 索尼公司 传感器、输入装置和电子设备
US11402283B2 (en) 2016-09-14 2022-08-02 Sony Corporation Sensor, input device, and electronic apparatus
US11867580B2 (en) 2016-09-14 2024-01-09 Sony Group Corporation Sensor, input device, and electronic apparatus

Also Published As

Publication number Publication date
JP2012174250A (ja) 2012-09-10
US20120218206A1 (en) 2012-08-30

Similar Documents

Publication Publication Date Title
JP5714935B2 (ja) 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP5894499B2 (ja) 携帯電子機器及び入力方法
JP5667469B2 (ja) 電子機器、表示制御方法および表示制御プログラム
US8786562B2 (en) Mobile electronic device, control method, and storage medium storing control program
JP5753432B2 (ja) 携帯電子機器
JP5628625B2 (ja) 電子機器、画面制御方法および画面制御プログラム
JP2013047945A (ja) 電子機器、制御方法および制御プログラム
US9658714B2 (en) Electronic device, non-transitory storage medium, and control method for electronic device
KR20120075845A (ko) 터치스크린 단말기에서 메모 방법 및 장치
JP5806822B2 (ja) 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP5679782B2 (ja) 携帯電子機器、画面制御方法および画面制御プログラム
WO2013118522A1 (ja) 携帯端末及びその動作方法
WO2012053516A1 (ja) 電子機器、制御方法および制御プログラム
US20120274588A1 (en) Portable electronic apparatus, control method, and storage medium storing control program
JP2011204127A (ja) 携帯端末及び表示制御プログラム
JP5984339B2 (ja) 電子機器、画面制御方法および画面制御プログラム
JP2012174248A (ja) 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP2012174247A (ja) 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP5923395B2 (ja) 電子機器
JP5777915B2 (ja) 電子機器及びその表示方法
JP2013011931A (ja) 携帯端末、輝度制御方法及びプログラム
JP6080401B2 (ja) 装置
JP2014021954A (ja) タッチパネル入力装置およびプログラム
JP2016035778A (ja) 電子機器、表示制御方法および表示制御プログラム
JP5841224B2 (ja) 電子機器、表示制御方法および表示制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150312

R150 Certificate of patent or registration of utility model

Ref document number: 5714935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees