JP2016009240A - 電子機器及び電子機器の作動方法 - Google Patents

電子機器及び電子機器の作動方法 Download PDF

Info

Publication number
JP2016009240A
JP2016009240A JP2014128130A JP2014128130A JP2016009240A JP 2016009240 A JP2016009240 A JP 2016009240A JP 2014128130 A JP2014128130 A JP 2014128130A JP 2014128130 A JP2014128130 A JP 2014128130A JP 2016009240 A JP2016009240 A JP 2016009240A
Authority
JP
Japan
Prior art keywords
contact
touch sensor
electronic device
control
main body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014128130A
Other languages
English (en)
Other versions
JP6109788B2 (ja
Inventor
佐雅仁 中村
Samito Nakamura
佐雅仁 中村
敏多 原
Toshikazu Hara
敏多 原
新貝 安浩
Yasuhiro Aragai
安浩 新貝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2014128130A priority Critical patent/JP6109788B2/ja
Priority to EP15172340.0A priority patent/EP2960776A3/en
Priority to CN201510347384.9A priority patent/CN105320451A/zh
Priority to US14/744,577 priority patent/US20150370403A1/en
Priority to KR1020150088231A priority patent/KR102336329B1/ko
Priority to TW104120097A priority patent/TWI659353B/zh
Publication of JP2016009240A publication Critical patent/JP2016009240A/ja
Application granted granted Critical
Publication of JP6109788B2 publication Critical patent/JP6109788B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • G06F1/1671Special purpose buttons or auxiliary keyboards, e.g. retractable mini keypads, keypads or buttons that remain accessible at closed laptop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • G06F1/1692Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】背面や側面に設けられたタッチセンサによる電子機器の誤動作を防止し、使い易い電子機器及び電子機器の作動方法を提供する。【解決手段】タブレット端末10は、本体11の正面に表示画面を表示する表示部として機能するタッチパネル12と、タッチセンサ31が出力する接触信号を用いてタッチセンサへの接触を検出し、かつ、接触を検出した箇所が非接触状態に変化した場合に、接触を検出した箇所に割り当てられた制御を実行する制御部44と、を備える。【選択図】図6

Description

本発明は、タッチセンサを有する電子機器に関する。
直感的な操作が可能で使いやすいことから、ユーザインタフェース(User Interface)として、タッチパネルを備える電子機器が増えている。特に、近年では、スマートフォンやタブレット端末等、タッチパネルにより操作する携帯型の電子機器が普及している。タッチパネルは、アイコンやボタン、メニュー等のグラフィカルユーザインタフェース(Graphical User Interface。以下、GUIという)等を表示する表示画面を有する表示部と、表示画面上に設けられ、表示画面上の表示を透過し、かつ、表示部への接触を検出するタッチセンサを備えている。タッチパネルで操作される電子機器は、表示部に表示されたアイコン等へのタッチ(接触)を接触検出センサによって検出することにより、タッチされたアイコン等に割り当てられた制御を実行する。例えば、スマートフォンやタブレット端末では、文字入力が必要な場合にソフトウェアキーボードを表示部に表示させ、ユーザはそのキーをタッチすることによって文字入力を行う。
上記のように、タッチパネルは表示部の表示画面上に接触を検出するセンサを設けたUIであるが、表示画面の透過を伴わない接触検出センサ(タッチセンサ、タッチパッド等と称される。以下、タッチセンサという)をUIとして用いる電子機器もある。また、タッチパネルを備えた上で、さらにタッチセンサを備える電子機器が知られている。例えば、特許文献1,2に記載の電子機器は、タッチパネルに加え、電子機器の背面(表示部の表示画面が表示される面の反対側の面)にもタッチセンサを備えており、電子機器の背面をタッチすることで、キー入力が行えるようになっている。
特開2010−257163号公報 特開2013−196598号公報
タッチパネルを有する電子機器は、通常、表示面積を最大化するために、電子機器の一つの表面のほぼ全体がタッチパネルになっており、タッチパネルに電子機器を把持する手や指が表示画面に重なると表示画面が実質的に狭くなってしまったり、意図しない動作をしてしまったりして、使い難くなってしまう。このため、タッチパネルを有する電子機器は、表示画面(タッチパネル)を避けて、主に側面や背面あるいはタッチパネル外の縁部分で把持される。
特許文献1,2の電子機器のように、電子機器の表面にタッチパネルを設け、かつ、背面にタッチセンサを設ける場合、上記のように表示画面を兼ねるタッチパネルを避けて把持すると、電子機器を把持する手や指がほぼ常に背面のタッチセンサに接触する。タッチパネルやタッチセンサは、手や指の接触を検出するデバイスであるため、電子機器を把持するためであっても、制御が割り当てられた箇所に接触すると、接触箇所に応じた制御が実行されてしまう場合がある。すなわち、使い易くするために表面のタッチパネルの他に背面にもタッチセンサを設けたにも関わらず、電子機器を把持しただけで、背面のタッチセンサへの接触によって電子機器が意図しない動作をしてしまい、かえって利便性が損なわれてしまう場合がある。このような問題は、表面のタッチパネルの他に、電子機器の側面にタッチセンサを設ける場合も同様である。
本発明は、背面や側面に設けられたタッチセンサによる電子機器の誤動作を防止し、使い易い電子機器及び電子機器の作動方法を提供することを目的とする。
本発明の電子機器は、本体の正面に表示画面を表示する表示部と、本体の背面または側面に設けられたタッチセンサと、タッチセンサが出力する接触信号を用いてタッチセンサへの接触を検出し、かつ、接触を検出した箇所が非接触状態に変化した場合に、接触を検出した箇所に割り当てられた制御を実行する制御部と、を備える。
制御部は、タッチセンサへの複数箇所での接触を検出し、複数箇所のうち少なくとも一つが非接触状態に変化した場合に、非接触状態に変化した箇所に割り当てられた制御を実行することが好ましい。
制御部は、接触を検出した複数箇所のうち、少なくとも一つが非接触状態に変化し、かつ、残りの箇所の接触状態が維持されている場合に、非接触状態に変化した箇所に割り当てられた制御を実行することが好ましい。
タッチセンサは、制御が割り当てられる凹部または凸部を備えることが好ましい。
タッチセンサが複数の凹部または凸部を有する場合、複数の凹部または凸部のうち少なくとも一つの凹部または凸部には、基準となるポジションを識別するための識別部を備えることが好ましい。
タッチセンサは、本体を把持する一方の手または指が接触する凹部または凸部と、本体を把持する他方の手または指が接触する凹部または凸部とを備え、一方の手または指が接触する凹部または凸部は少なくとも一つの識別部を有し、かつ、他方の手または指が接触する凹部または凸部は少なくとも一つの識別部を有することが好ましい。
凹部または凸部は、本体の側面からタッチセンサの中央側に向けて凸状または凹状に湾曲した配列で設けられていることが好ましい。
制御部は、文字または記号の入力制御を実行することが好ましい。
制御部は、実行する制御を示すグラフィカルユーザインタフェースを表示部に表示させることが好ましい。
制御部は、タッチセンサへの接触を検出した場合に、グラフィカルユーザインタフェースによって、接触箇所に割り当てられた制御が実行可能であることを報知することが好ましい。
本発明の電子機器の作動方法は、本体の正面に表示画面を表示する表示部と、本体の背面または側面に設けられたタッチセンサと、を有する電子機器の作動方法であり、タッチセンサが出力する接触検出信号を用いてタッチセンサへの接触を検出するステップと、接触を検出した箇所が非接触状態に変化した場合に、前記接触を検出した箇所に割り当てられた制御を実行するステップと、を備える。
本発明によれば、背面または側面のタッチセンサへの接触を検出し、かつ、接触を検出した箇所が非接触状態に変化した場合に、接触を検出した箇所に割り当てられた制御を実行するようにしたので、電子機器を把持するために接触が避けられない背面や側面にタッチセンサによる誤動作が防止された使い易い電子機器を提供することができる。
タブレット端末の正面図である。 タッチパネルの構成を示す説明図である。 タブレット端末の背面図である。 背面タッチセンサの構成を示す説明図である。 タブレット端末の電気的構成を示すブロック図である。 タブレット端末の動作を示すフローチャートである。 ホーム画面を示す説明図である。 WEBブラウザで検索エンジンを開いた場合の画面を示す説明図である。 入力ボックスをアクティブ化した場合の表示画面を示す説明図である。 タブレット端末を把持する手の各指で凹部に接触する様子を示す説明図である。 凹部に接触した場合の表示画面を示す説明図である。 左手の人差し指を動かす様子を示す説明図である。 左手の人差し指を動かした場合の表示画面を示す説明図である。 左手の人差し指が凹部に対して非接触状態に変化した場合の様子を示す説明図である。 左手人差し指に対応する凹部が非接触状態になった場合の動作を示す説明図である。 FnキーのGUIを示す説明図である。 スマートフォンの正面図である。 スマートフォンの背面図である。 凹部の別の配列を示すスマートフォンの背面図である。 凹部の別の配列を示すスマートフォンの背面図である。
図1に示すように、タブレット端末10は、長方形板状の本体11の一つの面のほぼ全面にタッチパネル12を有し、左手13及び右手14によって把持して使用される。図2に示すように、タッチパネル12は、表示パネル15と、第1センサーフィルム16と、カバーガラス17とを有する。表示パネル15は、液晶パネルや有機エレクトロルミネッセンスパネルであり、タブレット端末10を操作するための、アイコンやボタン、メニュー等のGUIや、画像、アプリケーションの動作画面等を表示する表示画面を有する。第1センサーフィルム16は、接触を検出するためのセンサであり、表示パネル15の表示画面上に設けられ、第1センサーフィルム16の上にはカバーガラス17が設けられている。
タッチパネル12は、多点検出が可能な投影型静電容量方式のタッチパネルであり、第1センサーフィルム16は、銀や銅等によって導電パターンが形成された樹脂フィルムを、導電パターンがメッシュ状になるように接着剤等の絶縁体を介して貼りあわせて形成される接触検出センサである。また、第1センサーフィルム16とカバーガラス17は透明であり、表示パネル15の表示画面は第1センサーフィルム16及びカバーガラス17を本体11の表面に表示される。したがって、タッチパネル12は、表示部であり、かつ、操作部を構成する。
以下、タッチパネル12が設けられ、表示パネル15の表示画面が表示される面を正面、正面の短辺に対応する側面を右側面及び左側面、正面の長辺に対応する側面を上面及び下面、タッチパネル12が設けられた面に対して本体11の反対側の面を背面という。
本体11の正面には、タッチパネル12の他、下面側に物理ボタン21が設けられている。物理ボタン21は、例えば、スリープモードの解除や、実行中のアプリケーションプログラムの停止(あるいはバックグラウンドでの実行に移行)するために押下されるボタンである。本体11の上面には、タブレット端末10の電源をON/OFFしたり、スリープモードを解除したりするための電源ボタン22を有する。この他、タブレット端末10は、本体11の上面や下面、あるいは左右の側面に、音声を入力するためのマイク23、音をイヤホンに出力するためのイヤホンジャック24、音を出力するためのスピーカ25等(いずれも図5参照)等を有する。
図3に示すように、タブレット端末10の背面には、タッチセンサ31が設けられている。また、タッチセンサ31には、複数の凹部32A〜32D、33A〜33Dが設けられている。凹部32A〜32Dは、タブレット端末10を把持する左手13の人差し指、中指、薬指、及び小指の各指が接触する箇所に設けられており、凹部33A〜33Dはタブレット端末10を把持する右手14の人差し指、中指、薬指、及び小指の各指が接触する箇所に設けられている。凹部32A〜32Dの配列は、左手13の各指の一般的な長さに合わせて、本体11の左側面からタッチセンサ31の中央側に向けて凸の湾曲した配列になっている。同様に、凹部33A〜33Dの配列は、右手14の各指の一般的な長さに合わせて、本体11の右側面からタッチセンサ31の中央側に向けて凸の湾曲した配列になっている。これにより、正面のタッチパネル12への接触を避けてタブレット端末10を把持すると、左手13及び右手14の親指以外の各指の指先は、自然に各凹部32A〜32D、33A〜33Dに接触する。
また、左手13の中指が接触する凹部32Bのほぼ中央と、右手14の中指が接触する凹部33Bのほぼ中央には、それぞれ凸部34が設けられている。凸部34は、左右の手13,14でタブレット端末10を把持した場合に、親指を除く各指の配置位置を識別するための識別部として機能する。凸部34は、例えば、一般的なパーソナルコンピュータに付属するキーボードの「Fキー」と「Jキー」に設けられた突起やテンキーの「5キー」に設けられた突起と同様に機能する。すなわち、タブレット端末10では左右各手13,14の中指で凸部34を触知することで、タッチセンサ31への接触位置を視認して確認しなくても、タブレット端末10を把持する手及び指の基準となるポジション(ホームポジション)を識別することができる。
タブレット端末10の背面に設けられるタッチセンサ31には、正面のタッチパネル12と異なり、表示パネルはない。このため、図4に示すように、タッチセンサ31を構成する第2センサーフィルム36は、例えば本体11を形成する筐体35上に設けられる。第2センサーフィルム36上にはカバーガラス37が設けられ、上記凹部32A〜32D、33A〜33D及び凸部34は筐体35に形成され、第2センサーフィルム36及びカバーガラス37は筐体35の凹凸に沿って設けられている。タッチセンサ31は、タッチパネル12と同様に多点検出が可能な投影型静電容量方式のタッチセンサであり、第2センサーフィルム36は、タッチパネル12を形成する第1センサーフィルム16と同様に形成される。なお、タッチセンサ31はタブレット端末10を操作するための操作部を構成する。また、本実施形態では、タッチパネル12を形成する第1センサーフィルム16とタッチセンサ31を形成する第2センサーフィルム36とを分けているが、これらは一体に形成されていても良い。例えば、一つのセンサーフィルムをタブレット端末10の内部で折り曲げ、一方の端をタッチパネル12の上記第1センサーフィルム16とし、他方の端を上記第2センサーフィルム36とすれば、第1,第2センサーフィルム16,36を一つのセンサーフィルムで形成することができる。
図5に示すように、タブレット端末10は、さらに、電源部41、通信部42、記憶部43、制御部44、RAM(Random Access Memory)46を備える。電源部41は、電源ボタン22のON操作により作動して、蓄電池または外部電源から得られる電力を、タブレット端末10の各部に供給する。通信部42は、無線または有線により電話通信の基地局やLAN(Local Area Network)等と通信する。
記憶部43は、例えば不揮発性メモリや磁気記憶装置であり、制御部44での処理に利用されるプログラムや各プログラムで使用するデータ(画像を含む)を記憶する。記憶部43に記憶されるプログラムは、例えば、タブレット端末10の各部を制御するための制御プログラム51、電子メールをやりとりするためのメールプログラム52、音楽データを再生するための音楽再生プログラム53、インターネット上のリソースにアクセスするためのウェブブラウザプログラム54等であり、ユーザが任意にインストール及びアンインストールすることができる。なお、記憶部43としては、メモリカード等の外部記憶媒体と外部記憶媒体からプログラムやデータ等を読み取る読み取り部とを有する構成でも良い。
制御部44は、制御プログラム51等を実行することにより、タブレット端末10の各部の動作を制御する。具体的には、制御部44は、制御プログラム51にしたがって表示パネル15にGUI等を表示させる。また、タッチパネル12が第1センサーフィルム16から出力する接触検出信号を用いて、タッチパネル12への手や指の接触位置、接触位置の推移、接触している時間、接触面積、接触状態から非接触状態への変化等(以下、単に接触という)を検出する。そして、制御プログラム51によって接触を検出した箇所に特定の制御が割り当てられている場合には、制御部44はその制御を実行する。
例えば、制御部44が制御プログラム51にしたがって表示パネル15にウェブブラウザプログラム54の起動が割り当てられたアイコン(ウェブブラウザアイコン)を表示させている場合に、ユーザがウェブブラウザアイコンの表示位置をタップすると、制御部44は、タッチパネル12の第1センサーフィルム16が出力する接触検出信号によってこのウェブブラウザアイコンのタップ操作を検出してウェブブラウザプログラム54を起動する。
同様に、制御部44は、タッチセンサ31が第2センサーフィルム36から出力する接触検出信号を用いて、タッチセンサ31への接触を検出する。そして、制御プログラム51によって、タッチセンサ31への接触箇所に対応する制御が割り当てられている場合には、制御部44は、その制御を実行する。但し、タッチセンサ31への接触等に基づいて制御を実行する場合、制御部44は、タッチセンサ31への接触を検出し、かつ、接触等が検出された箇所が非接触状態に変化した場合に、接触を検出した箇所に対応する制御を実行する。
より具体的には、制御部44は、まず、制御が割り当てられる凹部32A〜32D、33A〜33Dへの接触を検出するが、接触を検出しただけではこれらに割り当てられた制御は実行しない。その後、例えば、凹部32Aの接触状態が変化した場合には、制御部44は、ユーザが操作入力のために凹部32Aに接触したものと判断し、接触状態が変化した凹部32Aに割り当てられた制御を実行する。
すなわち、ユーザがタブレット端末10を把持すると、自然と左手13の各指で凹部32A〜32Dにタッチし、かつ、右手14の各指で33A〜33Dにタッチしてしまうので、制御部44は、制御が割り当てられている凹部32A〜32D,33A〜33Dへの接触を検出するが、このようにタブレット端末10を把持するためだけに手や指がタッチセンサ31に接触した場合には、制御部44はこうした接触をタッチセンサ31による入力操作とは認めず、接触等に対応する制御が割り当てられていたとしてもその制御を実行しない。そして、凹部32A〜32D,33A〜33Dに接触したあと、さらに非接触状態に変化させるというユーザの能動的な操作入力が検出された場合に、制御部44は対応する箇所に割り当てられた制御を実行する。
上記、タッチセンサ31による入力操作時の動作は、制御部44がメールプログラム52等、制御プログラム51以外のプログラム等にしたがって動作する場合も同様である。なお、RAM46は、制御部44によって実行されるプログラムや、制御部44が参照するデータ、制御部44による演算結果等を一時的に記憶する一時記憶領域として利用される。
以下、タブレット端末10の動作例として、ウェブブラウザを使用し、検索エンジンによって検索を行う場合に、入力ボックスに文字列を入力する場合の動作例を図6に示すフローチャートに沿って説明する。タブレット端末10の電源がOFFの場合には、電源ボタン22を押して電源を投入する。また、タブレット端末10がスリープモードの場合には電源ボタン22または物理ボタン21を押して、タブレット端末10のスリープモードを解除する。こうしてタブレット端末10に電源が投入し、アクティブ化すると、制御部44は、いわゆるホーム画面をタッチパネル12に表示させる。図7に示すように、ホーム画面には、メールプログラム52を起動するためのメールアイコン61、音楽再生プログラム53を起動するための音楽プログラムアイコン62、ウェブブラウザプログラム54を起動するためのブラウザアイコン63等が表示される。
ホーム画面上で、ユーザがブラウザアイコン63をタップすると、タッチパネル12は位置や接触がタップであることを示す接触検出信号を制御部44に入力する。制御部44は、タッチパネル12から入力される接触検出信号を用いて、タッチパネル12への接触方法がタップであること、及びタップされた位置がブラウザアイコン63であることを検出する。上記のようにブラウザアイコン63がタップされたことを検出すると、図8に示すように、制御部44は、ウェブブラウザプログラム54を起動し(ステップS10)、そのGUIであるウェブブラウザをタッチパネル12に表示させる。本実施形態ではウェブブラウザプログラム54によって検索エンジンに接続し、タッチパネル12には検索ワードを入力するための入力ボックス66と、検索を実行するための検索開始ボタン67が表示されている。
その後、ユーザが入力ボックス66をタップすると、制御部44はタッチパネル12からの接触検出信号によってこれを検出し、文字列(記号を含む)の入力待機状態であることを示すカーソル68を入力ボックス66内に点滅表示させ、入力ボックス66を文字入力可能な状態にアクティブ化する(ステップS11)。さらに、図9に示すように、制御部44は、ウェブブラウザプログラム54の要請により、制御プログラム51にしたがって文字列を入力するためのGUIであるソフトウェアキーボード71をウェブブラウザに重畳表示させる(ステップS12)。タブレット端末10のソフトウェアキーボード71は、第1入力部71Lと第2入力部71Rとを有し、タッチパネル12でも操作可能であるが、主に本体11の背面にあるタッチセンサ31で入力操作を行うためのものである。
第1入力部71Lは、左手13の各指で接触する凹部32A〜32Dにそれぞれ対応して、四個のグラフィカルキーを有している。例えば、背面のタッチセンサ31において、左手13の人差し指で接触する凹部32Aに対応する第1左キーには左方向へのフリック(タッチ位置をスライドさせる操作)に文字「A」、上方向へのフリックに文字「B」、右方向のフリックに「C」、下方向へのフリックに「D」の各文字の入力操作が割り当てられる。同様に、凹部32Bに対応する第2左キーには、各方向のフリックに「I」「J」「K」「L」の各文字の入力操作が割り当てられ、凹部32Cに対応する第3左キーには、「Q」「R」「S」「T」の各文字の入力操作が割り当てられている。また、凹部32Dに対応する第4左キーには、各方向に「Y」「Z」「カンマ(comma)」「ピリオド(period)」の入力操作が割り当てられている。
同様に、第2入力部71Rは、右手14の人差し指で接触する凹部33Aに対応した第1右キー、中指で接触する凹部33Bに対応した第2右キー、薬指で接触する凹部33Cに対応した第3右キー、小指で接触する凹部33Dに対応する第4右キーを有する。第1右キーには、各方向のフリックに「E」「F」「G」「H」の入力操作が割り当てられ、第2右キーには「M」「N」「O」「P」の入力操作、第3右キーには「U」「V」「W」「X」の入力操作がそれぞれ割り当てられている。第4右キーには、「エンター(Enter)」、「ファンクション(Function)」、「スペース(Space)」、「バックスペース(BS: Back Space)」の入力操作が割り当てられている。
制御部44は、左手13用の第1入力部71Lを、本体11の表裏で凹部32A〜32Dに対応する位置の近傍で、かつ、入力ボックス66及び検索開始ボタン67に重ならない位置に位置調節をして表示させる。同様に、制御部44は、右手14用の第2入力部71Rを、本体11の表裏で凹部33A〜33Dに対応する位置の近傍で、かつ、入力ボックス66及び検索開始ボタン67に重ならない位置に位置調節をして表示させる。
但し、背面のタッチセンサ31によるソフトウェアキーボード71を用いた入力操作は、タッチパネル12に表示させただけでは無効化されている。そして、制御部44は、タッチセンサ31が出力する接触検出信号を用いて、凹部32A〜32D,33A〜33Dがそれぞれ左手13及び右手14の各指で接触されているか否かを検出する(ステップS13)。図10に示すように、左手13及び右手14の各指で凹部32A〜32D,33A〜33Dにタッチすると、制御部44はソフトウェアキーボード71のキーをそれぞれアクティブ化し、背面のタッチセンサ31によるソフトウェアキーボード71を用いた入力操作を可能にする(ステップS14)。図11に示すように、制御部44は、例えば、ソフトウェアキーボード71の各キーの色や輝度を変更することにより、背面のタッチセンサ31によるソフトウェアキーボード71を用いた入力操作がアクティブ化したこと(実行可能であること)をユーザに報知する。その後、制御部44は、接触状態が変化した凹部32A〜32D,33A〜33Dがないか、タッチセンサ31が出力する接触検出信号を用いて監視する(ステップS15)。
このように、タッチセンサ31によるソフトウェアキーボード71の各キーを用いた入力操作がアクティブ化されている状態で、図12に示すように例えば左手13の人差し指を凹部32Aに接触している位置から本体11の左側面方向にフリックし、凹部32Aの接触状態を変化させると、図13に示すように、制御部44は、凹部32Aに対応する第1左キーの左側面方向に割り当てられた文字「A」を拡大表示させる。これにより、ユーザの操作で入力ボックス66に入力される文字を予め報知する。その後、図14に示すように、左手13の人差し指がさらにスライドすることによって(あるいは左手13の人差し指をタッチセンサ31から離すことによって)、凹部32Aが非接触状態に変化したことが検出されると(ステップS17)、図15に示すように、制御部44は、第1左キーの左側側面方向に割り当てられた文字「A」の入力ボックス66への入力制御を実行する。
ここでは文字「A」を入力しているが、他の文字の入力方法も同様である。また、図18に示すように、右手14の小指で凹部33Dを上面方向にフリックした場合、その他のキーに割り当てられた文字の場合と同様に、「ファンクション(Function)」の表示を拡大し、かつ、その他のキーに割り当てられていない記号や文字を入力するためのダイアログ81を表示する。ユーザは、凹部33Dの近傍で右手14の小指をスライドさせることで、ダイアログ81に列挙された記号等を選択する。そして、右手14の小指がタッチセンサ31から離れ、非接触状態となった場合に、制御部44はその時点で選択されていた記号等の入力ボックス66への入力制御を実行する。また、「バックスペース(BS)」の入力操作が実行されると、入力ボックス66に既に入力されている文字等が一つ削除される。
背面のタッチセンサ31によるソフトウェアキーボード71を用いた文字列の入力操作は、検索する文字列の入力が完了するまで繰り返し行われる(ステップS19)。ユーザがタッチパネル12によって検索開始ボタン67をタップするか、背面のタッチセンサ31によって「エンター(Enter)」が入力され、入力ボックス66への文字列の入力が完了すると、制御部44はソフトウェアキーボード71のGUI表示を消し(ステップS20)、通信部42を介し、ウェブブラウザプログラム54によって入力ボックス66に入力された文字列を検索エンジンに送信する(ステップS21)。そして、制御部44は、ウェブブラウザプログラム54によって検索エンジンからの検索結果をタッチパネル12に表示する(ステップS22)。
上記のように、タブレット端末10は、タッチセンサ31への接触を検出し、かつ、接触を検出した箇所が非接触状態に変化した場合に、接触を検出した箇所に割り当てられた制御を実行する。このため、凹部32A〜32D,33A〜33Dへの接触し、かつ、凹部32A〜32D,33A〜33Dから手や指を離すという能動的かつ明確なタッチセンサ31による入力意思を示さない限り、タブレット端末10を把持するためにタッチセンサ31が継続的にタッチしただけでは、対応する制御を実行しない。このため、タブレット端末10は背面にタッチセンサ31設け、操作性を向上し、かつ、その誤動作を防止できるので使い易い。
また、上記のような明確な意図を持った操作をしなければ背面のタッチセンサ31による入力が実行されないので、タブレット端末10は、確実に把持したまま、タッチセンサ31による入力を遂行することができる。例えば、単に背面にタッチセンサを設けただけの従来の電子機器では、背面への接触がそのまま入力操作となってしまうので、背面のタッチセンサで入力を行う場合には、背面から手や指を離さなければならず、把持性が良くない。特に、正面にタッチパネルを設けている場合には、正面のタッチパネルと背面のタッチセンサの両方から手や指を離しておかなければならないので、落としてしまいやすい。これに対し、タブレット端末10は、誤動作も防止されている上に、確実に把持したまま入力操作を行うことができる。
上記実施形態では、ウェブブラウザプログラム54によって検索エンジンを用いた検索を行っているが、背面のタッチセンサ31によって入力操作を行う場合、その他のプログラムでも同様に動作する。但し、上記実施形態では、文字列を入力するために、凹部32A〜32D,33A〜33Dへの接触等と、ソフトウェアキーボード71による入力操作を対応させているが、凹部32A〜32D,33A〜33Dへの接触等に割り当てる制御は、実行中のプログラムによって異なる。例えば、ゲームプログラムを実行している場合には、凹部32A〜32D,33A〜33Dに移動方向を入力するための十字キー機能やアイテムの使用や切り替え等をするためのボタン機能を割り当てても良い。なお、ゲームプログラムに対して正面のタッチパネル12で操作入力する場合、ユーザがゲームに熱中するあまりに操作キーの位置を見失う場合があるが、背面のタッチセンサ31によって操作入力をする場合には凹部32A〜32D,33A〜33Dがあることによって操作キーの位置がわかりやすくなっているので、誤入力防止される上に、ユーザのストレスを低減可能である。
また、上記実施形態では、凹部32A〜32D,33A〜33Dのそれぞれに全て制御が割り当てられているが、凹部32A〜32D,33A〜33Dの中には、接触等による制御が割り当てられていない凹部があっても良い。
なお、上記実施形態では、各凹部32A〜32D,33A〜33Dに接触すると、各凹部32A〜32D,33A〜33Dに対応するキーの色や輝度が変化させ、キー毎にアクティブ化を行っているが、凹部32A〜32D,33A〜33Dのうちの2箇所以上あるいは全てに接触したことをトリガーとして、ソフトウェアキーボード71をアクティブ化しても良い。すなわち、タッチセンサ31への複数箇所での接触を検出し、これら複数箇所のうち少なくとも一つが非接触状態に変化した場合に、非接触状態に変化した箇所に割り当てられた制御を実行されるようにする。こうすると、ユーザが複数の凹部に接触するという明示的な動作をしなければタッチセンサ31による入力操作ができないので、タッチセンサ31への接触による誤動作をより確実に防止することができる。
また、上記のように、タッチセンサ31への複数凹部への接触を、操作入力をアクティブ化するトリガーにする場合、接触を検出した複数の凹部のうち一つが非接触状態に変化したことだけでなく、さらに、残りの箇所の接触状態が維持されている場合に限って非接触状態に変化した箇所に割り当てられた制御を実行することが好ましい。こうすると、タブレット端末10を把持する手や指の位置が変化して、入力操作を意図せずに凹部32A〜32D,33A〜33Dのうちの幾つかが非接触状態に変化してしまったとしても、誤入力されずに済む。
上記実施形態では、正面のタッチパネル12の他に、背面にタッチセンサ31を設けているが、背面のタッチセンサ31の代わりに、本体11の側面(右側面、左側面、上面、下面)のいずれかまたは全てに、上記実施形態のタッチセンサ31に対応するタッチセンサを設けても良い。もちろん、背面にタッチセンサ31を設けた上で、さらに本体11の側面のいずれかまたは全てにタッチセンサを設けても良い。
上記実施形態では、タブレット端末10を横長に把持しているが、タブレット端末10は縦長に把持してもよい。また、凹部32A〜32D,33A〜33Dの配列が、タブレット端末10を横長に把持する場合に好適な配列になっているが、タブレット端末10を縦長に把持する場合には、凹部32A〜32D,33A〜33Dは、縦長に把持する場合に好適な配列に設けることが好ましい。タブレット端末10を横長にも把持するケースがあり、かつ、縦長にも把持するケースがある場合には、タブレット端末10を横長に配列する場合に機能する凹部32A〜32D,33A〜33Dと、タブレット端末10を縦長に把持する場合に機能する凹部をそれぞれ設けておけば良い。また、上記実施形態では、タブレット端末10を両手で把持しているが、タブレット端末10は片手で把持してもよい。この場合、設定により、左手13用の凹部32A〜32Dまたは右手14用の凹部33A〜33Dの一方によって入力操作が行えるようにすることが好ましい。
例えば、図17に示すように、スマートフォン210は縦長のデバイスである。スマートフォン210は、タブレット端末10と同様に、本体211の正面にタッチパネル212を備え、正面の下面側には物理ボタン221、本体211の上面には電源ボタン222を備え、さらに正面の上面側には通話用のスピーカ225を備える。また、スマートフォン210はタブレット端末10よりも小型のデバイスであり、主として片手で把持される。例えば、左手13でスマートフォン210を把持する場合、左手13の親指でスマートフォン210の左側面を支持し、左手13の中指、薬指及び小指で右側面を支持する。こうすると、タッチパネル212への重畳が避けられ、かつ、左手13の人差し指は、スマートフォン210の背面にタッチ可能である。
図18に示すように、縦長のデバイスであるスマートフォン210の背面には、タブレット端末10と同様にタッチセンサ231が設けられており、タッチセンサ231は制御が割り当てられる複数の凹部231を有する。但し、タッチセンサ231が有する複数の凹部232は、スマートフォン210を縦長に把持する場合に、左手13(あるいは右手14)の人差し指でタッチ可能な範囲、すなわちタッチセンサ231の上側面側に配列される。そして、複数の凹部232のうち一つには、ホームポジションを識別する識別部として機能する凸部234が設けられる。
上記のように、スマートフォン210のような縦長で片手で把持するデバイスの場合には、背面のタッチセンサ231に設ける凹部231は、タブレット端末10における左手用の凹部32A〜32Dと右手用の凹部33A〜33Dのように必ずしもタッチセンサ31の左右(あるいは上下)二箇所に設ける必要はなく、タッチセンサ231を操作入力のためにタッチする指の可動範囲に設けておけばよい。もちろん、図19に示すように、タッチセンサ231の上面側と下面側に複数の凹部232,233をそれぞれ設けておけば、スマートフォン210を横向きかつ両手で把持する場合に、タブレット端末10と同様に作動させることができる。スマートフォン210で実行されるゲームプログラム等では、スマートフォン210を横向きに把持させるもの多いので、基本的には縦長かつ片手把持のスマートフォン210の場合でも図19に示すようにタブレット端末10と同様に凹部を設けておくことが好ましい。
なお、図18では、複数の凹部232をスマートフォン210の短手方向に直線状に配列しているが、スマートフォン210の場合、図20に示すように、複数の凹部232は、本体211の側面からタッチセンサ231の中央側に向けて凹状(上面側に向けて凸状)に配列されていることが好ましい。こうすると、複数の凹部232がタッチセンサ231にタッチする左手13(または右手14)の人差し指の軌跡に沿って配列されるので使い易い。また、タッチセンサ231に設ける凹部の個数は任意である。但し、スマートフォン210を横向きに把持する場合があることを考慮すれば、タブレット端末10と同様、図18に示すように少なくとも4個の凹部232をひとまとまりに設けておくことが好ましい。
上記実施形態では、背面のタッチセンサ31に凹部32A〜32D,33A〜33Dを設けているが、これらの代わりに凸部を設けても良い。すなわち、タブレット端末10を把持しただけで、背面を目視で確認せずに、接触箇所を識別できれば形状は任意である。また、一部を凸部にし、残りを凹部にしても良い。同様に、ホームポジションを識別するための識別部として機能する凸部34も、ホームポジションを識別できれば形状は任意であり、凹部にしてもよい。また、凹部32A〜32D,33A〜33Dを設けた方が操作性を向上させることができるが、凹部32A〜32D,33A〜33Dは設けなくても良い。
ホームポジションを識別するための凸部34は、凹部32A〜32D,33A〜33Dの少なくとも一つに設けられていればよく、上記実施形態のように左手13用の凹部32A〜32Dと右手14用の凹部33A〜33Dに分かれている場合、左手13用の凹部32A〜32Dに少なくとも一つの凸部34を設け、右手14用の凹部33A〜33Dに少なくとも一つの凸部34を設けることが好ましい。こうすると、左右の手13,14でそれぞれホームポジションを確実に識別することができる。
なお、本発明は、タブレット端末10やスマートフォン210以外にも、表示画面がある面を正面とした場合に、その反対側の面である背面にタッチセンサを有する電子機器に好適であり、正面の表示画面がタッチパネルになっている電子機器に特に好適である。例えば、携帯電話機、PDA(Personal Digital Assistant)、ポータブルナビゲーション装置、パーソナルコンピュータ、ゲーム機等に好適である。
10 タブレット端末
12,212 タッチパネル
15 表示パネル
31,231 タッチセンサ
32A〜32D,33A〜33D,232,233 凹部
34,234 凸部
71 ソフトウェアキーボード
210 スマートフォン

Claims (11)

  1. 本体の正面に表示画面を表示する表示部と、
    前記本体の背面または側面に設けられたタッチセンサと、
    前記タッチセンサが出力する接触信号を用いて前記タッチセンサへの接触を検出し、かつ、接触を検出した箇所が非接触状態に変化した場合に、前記接触を検出した箇所に割り当てられた制御を実行する制御部と、
    を備える電子機器。
  2. 前記制御部は、前記タッチセンサへの複数箇所での接触を検出し、前記複数箇所のうち少なくとも一つが非接触状態に変化した場合に、前記非接触状態に変化した箇所に割り当てられた制御を実行する請求項1に記載の電子機器。
  3. 前記制御部は、接触を検出した前記複数箇所のうち、少なくとも一つが非接触状態に変化し、かつ、残りの箇所の接触状態が維持されている場合に、非接触状態に変化した箇所に割り当てられた制御を実行する請求項2に記載の電子機器。
  4. 前記タッチセンサは、前記制御が割り当てられる凹部または凸部を備える請求項1〜3のいずれか1項に記載の電子機器。
  5. 前記タッチセンサが複数の前記凹部または凸部を有する場合、複数の前記凹部または凸部のうち少なくとも一つの前記凹部または凸部には、基準となるポジションを識別するための識別部を備える請求項4に記載の電子機器。
  6. 前記タッチセンサは、前記本体を把持する一方の手または指が接触する前記凹部または凸部と、前記本体を把持する他方の手または指が接触する前記凹部または凸部とを備え、
    前記一方の手または指が接触する前記凹部または凸部は少なくとも一つの前記識別部を有し、かつ、前記他方の手または指が接触する前記凹部または凸部は少なくとも一つの前記識別部を有する請求項5に記載の電子機器。
  7. 前記凹部または凸部は、前記本体の側面から前記タッチセンサの中央側に向けて凸状または凹状に湾曲した配列で設けられている請求項4〜6のいずれか1項に記載の電子機器。
  8. 前記制御部は、文字または記号の入力制御を実行する請求項1〜7のいずれか1項に記載の電子機器。
  9. 前記制御部は、実行する前記制御を示すグラフィカルユーザインタフェースを前記表示部に表示させる請求項1〜7のいずれか1項に記載の電子機器。
  10. 前記制御部は、前記タッチセンサへの接触を検出した場合に、前記グラフィカルユーザインタフェースによって、接触箇所に割り当てられた制御が実行可能であることを報知する請求項9に記載の電子機器。
  11. 本体の正面に表示画面を表示する表示部と、前記本体の背面または側面に設けられたタッチセンサと、を有する電子機器の作動方法であり、
    前記タッチセンサが出力する接触検出信号を用いて前記タッチセンサへの接触を検出するステップと、
    接触を検出した箇所が非接触状態に変化した場合に、前記接触を検出した箇所に割り当てられた制御を実行するステップと、
    を備える電子機器の作動方法。
JP2014128130A 2014-06-23 2014-06-23 電子機器及び電子機器の作動方法 Active JP6109788B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2014128130A JP6109788B2 (ja) 2014-06-23 2014-06-23 電子機器及び電子機器の作動方法
EP15172340.0A EP2960776A3 (en) 2014-06-23 2015-06-16 Electronic apparatus and operating method thereof
CN201510347384.9A CN105320451A (zh) 2014-06-23 2015-06-19 电子设备以及电子设备的工作方法
US14/744,577 US20150370403A1 (en) 2014-06-23 2015-06-19 Electronic apparatus and method for operating thereof
KR1020150088231A KR102336329B1 (ko) 2014-06-23 2015-06-22 전자 기기 및 전자 기기의 작동 방법
TW104120097A TWI659353B (zh) 2014-06-23 2015-06-23 電子設備以及電子設備的工作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014128130A JP6109788B2 (ja) 2014-06-23 2014-06-23 電子機器及び電子機器の作動方法

Publications (2)

Publication Number Publication Date
JP2016009240A true JP2016009240A (ja) 2016-01-18
JP6109788B2 JP6109788B2 (ja) 2017-04-05

Family

ID=53397977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014128130A Active JP6109788B2 (ja) 2014-06-23 2014-06-23 電子機器及び電子機器の作動方法

Country Status (6)

Country Link
US (1) US20150370403A1 (ja)
EP (1) EP2960776A3 (ja)
JP (1) JP6109788B2 (ja)
KR (1) KR102336329B1 (ja)
CN (1) CN105320451A (ja)
TW (1) TWI659353B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018186374A (ja) * 2017-04-25 2018-11-22 田部井 明子 携帯端末機及び入力支援システム
JP2021513151A (ja) * 2018-02-02 2021-05-20 マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated ディスプレイユーザインターフェイス、並びに関連のシステム、方法、及びデバイス

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106557256A (zh) * 2016-11-03 2017-04-05 珠海格力电器股份有限公司 一种控制移动终端的方法和装置
CN108459813A (zh) * 2018-01-23 2018-08-28 维沃移动通信有限公司 一种搜索方法及移动终端
CN108744509A (zh) * 2018-05-30 2018-11-06 努比亚技术有限公司 一种游戏操作控制方法、移动终端及计算机可读存储介质
CN108762574B (zh) * 2018-06-07 2021-09-03 武汉华星光电半导体显示技术有限公司 电子设备显示控制方法、处理器、存储介质及电子设备
US11320984B2 (en) * 2019-08-19 2022-05-03 Motorola Mobility Llc Pressure sensing device interface representation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080316181A1 (en) * 2007-06-19 2008-12-25 Nokia Corporation Moving buttons
EP2214091A2 (en) * 2009-01-30 2010-08-04 Samsung Electronics Co., Ltd. Mobile terminal having dual touch screen and method for displaying user interface thereof
JP2012221478A (ja) * 2011-04-14 2012-11-12 Konami Digital Entertainment Co Ltd 携帯型装置、その制御方法及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9513744B2 (en) * 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US20070132740A1 (en) * 2005-12-09 2007-06-14 Linda Meiby Tactile input device for controlling electronic contents
JP2010257163A (ja) 2009-04-24 2010-11-11 Taku Tomita タッチタイプが可能なタッチパネルの入力装置および入力補助具
WO2011142151A1 (ja) * 2010-05-14 2011-11-17 シャープ株式会社 携帯型情報端末およびその制御方法
JP2012238128A (ja) * 2011-05-11 2012-12-06 Kddi Corp 背面入力機能を有する情報機器、背面入力方法、およびプログラム
JP2013196598A (ja) 2012-03-22 2013-09-30 Sharp Corp 情報処理装置、方法、およびプログラム
JP6271858B2 (ja) 2012-07-04 2018-01-31 キヤノン株式会社 表示装置及びその制御方法
EP2920678A1 (en) * 2012-11-15 2015-09-23 Schönleben, Oliver Method and device for typing on mobile computing devices
TWM480228U (zh) * 2014-01-27 2014-06-11 Taiwan Sakura Corp 引導式操作面板

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080316181A1 (en) * 2007-06-19 2008-12-25 Nokia Corporation Moving buttons
EP2214091A2 (en) * 2009-01-30 2010-08-04 Samsung Electronics Co., Ltd. Mobile terminal having dual touch screen and method for displaying user interface thereof
JP2012221478A (ja) * 2011-04-14 2012-11-12 Konami Digital Entertainment Co Ltd 携帯型装置、その制御方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018186374A (ja) * 2017-04-25 2018-11-22 田部井 明子 携帯端末機及び入力支援システム
JP2021513151A (ja) * 2018-02-02 2021-05-20 マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated ディスプレイユーザインターフェイス、並びに関連のシステム、方法、及びデバイス
JP7258035B2 (ja) 2018-02-02 2023-04-14 マイクロチップ テクノロジー インコーポレイテッド ディスプレイユーザインターフェイス、並びに関連のシステム、方法、及びデバイス

Also Published As

Publication number Publication date
TWI659353B (zh) 2019-05-11
US20150370403A1 (en) 2015-12-24
TW201601048A (zh) 2016-01-01
JP6109788B2 (ja) 2017-04-05
KR102336329B1 (ko) 2021-12-08
EP2960776A2 (en) 2015-12-30
KR20150146452A (ko) 2015-12-31
EP2960776A3 (en) 2016-03-23
CN105320451A (zh) 2016-02-10

Similar Documents

Publication Publication Date Title
JP6109788B2 (ja) 電子機器及び電子機器の作動方法
US8739053B2 (en) Electronic device capable of transferring object between two display units and controlling method thereof
KR101115467B1 (ko) 가상 키보드 제공 단말 및 그 방법
US20150242117A1 (en) Portable electronic device, and control method and program therefor
JP2014203183A (ja) 情報処理装置及びプログラム
JP6102474B2 (ja) 表示装置、入力制御方法、及び入力制御プログラム
TWI482064B (zh) 可攜式裝置與操作方法
JP2014157578A (ja) タッチパネル装置、タッチパネル装置の制御方法及びプログラム
JP2012175642A (ja) 携帯電子機器、入力制御方法および入力制御プログラム
JPWO2012111230A1 (ja) 情報処理端末およびその制御方法
WO2018112803A1 (zh) 触摸屏手势识别的方法及装置
KR20090015259A (ko) 단말 및 그의 기능 수행 방법
JP2013073446A (ja) 携帯電子機器
WO2018076384A1 (zh) 一种锁屏方法、终端及锁屏装置
KR101678213B1 (ko) 터치 영역 증감 검출에 의한 사용자 인터페이스 장치 및 그 제어 방법
JP2014153956A (ja) 電子機器
JP2013164692A (ja) 情報処理装置、表示画面最適化方法、制御プログラムおよび記録媒体
JP2012238128A (ja) 背面入力機能を有する情報機器、背面入力方法、およびプログラム
KR20100042762A (ko) 휴대 단말기에서 마우스 인터페이스를 실행하는 방법 및 이를 수행하는 휴대 단말기
JP2010198597A (ja) タッチスクリーンを備える電子機器の動作制御方法
JP5969320B2 (ja) 携帯端末装置
JP2019082823A (ja) 電子機器
CN103870105A (zh) 信息处理的方法及电子设备
KR20120094728A (ko) 유저인터페이스 제공 방법 및 이를 이용한 휴대 단말기
JP2013125471A (ja) 情報入出力装置、表示制御方法およびコンピュータープログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170308

R150 Certificate of patent or registration of utility model

Ref document number: 6109788

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250