JP6538785B2 - Electronic device, control method of electronic device, and program - Google Patents

Electronic device, control method of electronic device, and program Download PDF

Info

Publication number
JP6538785B2
JP6538785B2 JP2017171227A JP2017171227A JP6538785B2 JP 6538785 B2 JP6538785 B2 JP 6538785B2 JP 2017171227 A JP2017171227 A JP 2017171227A JP 2017171227 A JP2017171227 A JP 2017171227A JP 6538785 B2 JP6538785 B2 JP 6538785B2
Authority
JP
Japan
Prior art keywords
touch operation
screen
image
displayed
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017171227A
Other languages
Japanese (ja)
Other versions
JP2017220256A (en
Inventor
雄紀 山田
雄紀 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2017171227A priority Critical patent/JP6538785B2/en
Publication of JP2017220256A publication Critical patent/JP2017220256A/en
Application granted granted Critical
Publication of JP6538785B2 publication Critical patent/JP6538785B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Description

本発明は、携帯端末装置、デジタルカメラ、デジタルビデオカメラ、携帯音楽プレーヤー、携帯ゲーム機等の携帯電子機器に関する。携帯端末装置は、携帯電話機、PDA(Personal Digital Assistant)、タブレットPC(TabletPC)等を含む。また、本発明は、携帯電子機器に適用できる、携帯電子機器の制御方法およびプログラムに関する。   The present invention relates to portable electronic devices such as portable terminal devices, digital cameras, digital video cameras, portable music players, portable game machines and the like. The mobile terminal device includes a mobile phone, a PDA (Personal Digital Assistant), a tablet PC (Tablet PC), and the like. The present invention also relates to a control method and program of a portable electronic device that can be applied to the portable electronic device.

近年、携帯電話機等の携帯端末装置では、筐体の正面にタッチパネルを有するディスプレイを配し、ユーザのディスプレイに対する操作をタッチパネルにより検出する構成が主流となっている(特許文献1参照)。   2. Description of the Related Art In recent years, in mobile terminal devices such as mobile phones, a display having a touch panel on the front of a housing is disposed, and a configuration in which an operation on a display of a user is detected by the touch panel has become mainstream.

特開2012−203895号公報JP, 2012-203895, A

ディスプレイに対する操作は、指により行われることが多いが、寒い季節には、防寒用のグローブを装着した指で操作が行われる場合がある。また、屋外での作業する人は作業用のグローブを装着した状態で携帯電子機器を操作したい場合がある。しかしながら、ディスプレイに表示された画面に選択可能なアイテム(オブジェクト)が密集しており、アイテムの選択に細かな操作が要求される場合には、ユーザは、グローブを装着したまま思い通りに選択操作を行うことが難しい。   The operation on the display is often performed by a finger, but in the cold season, the operation may be performed by a finger wearing a glove for cold protection. In addition, a person who works outdoors may want to operate the portable electronic device while wearing a glove for work. However, when selectable items (objects) are concentrated on the screen displayed on the display, and detailed operations are required for item selection, the user can operate the selection as desired while wearing the glove. It is difficult to do.

そこで、本発明は、ディスプレイ上での操作を円滑に行うことができる携帯電子機器を提供することを目的とする。   Then, this invention aims at providing the portable electronic device which can perform operation on a display smoothly.

本発明の第1の態様は、携帯電子機器に関する。本態様に係る携帯電子機器は、表示部と、前記表示部に対するタッチ操作を検出する操作検出部と、タッチ操作に応じた制御処理を行う制御部と、を備える。ここで、前記制御部は、タッチ操作がグローブ着用のまま行われるか否かの操作判定を行う。   A first aspect of the present invention relates to a portable electronic device. The portable electronic device according to this aspect includes a display unit, an operation detection unit that detects a touch operation on the display unit, and a control unit that performs control processing according to the touch operation. Here, the control unit determines whether or not the touch operation is performed with the glove worn.

本発明の第2の態様は、表示部と、前記表示部に対するタッチ操作を検出する操作検出部と、を備える携帯電子機器の制御方法に関する。本態様に係る制御方法は、タッチ操作がグローブ着用のまま行われるか否かの操作判定を行う。   A second aspect of the present invention relates to a control method of a portable electronic device including a display unit and an operation detection unit that detects a touch operation on the display unit. The control method according to this aspect performs an operation determination as to whether or not the touch operation is performed with the glove worn.

本発明の第3の態様は、表示部と、前記表示部に対するタッチ操作を検出する操作検出部と、を備える携帯電子機器のコンピュータに適用されるプログラムに関する。本態様に係るプログラムは、前記携帯電子機器のコンピュータに、タッチ操作がグローブ着用のまま行われるか否かの操作判定を行う機能を付与する。   A third aspect of the present invention relates to a program applied to a computer of a portable electronic device including a display unit and an operation detection unit for detecting a touch operation on the display unit. The program according to this aspect provides the computer of the portable electronic device with a function of performing an operation determination as to whether or not the touch operation is performed while wearing a glove.

本発明の一態様によれば、ディスプレイ上での操作を円滑に行うことができる携帯電子機器を提供することができる。   According to one embodiment of the present invention, it is possible to provide a portable electronic device capable of smoothly performing an operation on a display.

本発明の効果ないし意義は、以下に示す実施の形態の説明によりさらに明らかとなろう。ただし、以下の実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態に記載されたものに何ら制限されるものではない。   The effects and meanings of the present invention will become more apparent from the description of the embodiments shown below. However, the following embodiment is merely an example when implementing the present invention, and the present invention is not limited to the one described in the following embodiment.

実施の形態に係る、携帯電話機の構成を示す図である。FIG. 1 is a diagram showing a configuration of a mobile phone according to an embodiment. 実施の形態に係る、携帯電話機の全体構成を示すブロック図である。FIG. 1 is a block diagram showing an overall configuration of a mobile phone according to an embodiment. 実施の形態に係る、ホーム画面が表示されたディスプレイを示す図である。It is a figure which shows the display on which the home screen was displayed based on Embodiment. 実施の形態に係る、情報登録画面およびウェブ画面が表示されたディスプレイを示す図である。It is a figure which shows the display on which the information registration screen and web screen based on embodiment were displayed. 実施の形態に係る、コンタクト情報登録処理を示すフローチャートである。It is a flowchart which shows the contact information registration process based on embodiment. 実施の形態に係る、コンタクト情報登録処理を示すフローチャートである。It is a flowchart which shows the contact information registration process based on embodiment. 実施の形態に係る、タップ操作により、入力用の編集ボックスおよび選択用の編集ボックスが選択された状態の情報登録画面を示す図である。It is a figure which shows the information registration screen of the state as which the edit box for input and the edit box for selection were selected by tap operation based on embodiment. 実施の形態に係る、選択領域が重ねられた状態の情報登録画面、選択領域内でのスライド操作により先頭の編集ボックスが選択された状態の情報登録画面、および、選択領域内でのタップ操作により選択用の編集ボックスの表示内容が変更された状態の情報登録画面を示す図である。The information registration screen in a state in which the selection area is overlapped according to the embodiment, the information registration screen in a state in which the top edit box is selected by the slide operation in the selection area, and the tap operation in the selection area It is a figure which shows the information registration screen of the state in which the display content of the edit box for selection was changed. 実施の形態に係る、選択領域内でのスライド操作の繰り返しにより、各編集ボックスが順番に選択されていく様子を示す図である。It is a figure which shows a mode that each edit box is selected in order by repetition of the slide operation within a selection area based on embodiment. 実施の形態に係る、ブラウジング処理を示すフローチャートである。It is a flowchart which shows the browsing process based on embodiment. 実施の形態に係る、ブラウジング処理を示すフローチャートである。It is a flowchart which shows the browsing process based on embodiment. 実施の形態に係る、リンク画像に対するタップ操作がなされた状態のウェブ画面、リンク画像に対するタップ操作に基づいて表示されたリンク先のウェブ画面、および、選択領域内でのスライド操作により先頭のリンク画像が選択された状態のウェブ画面を示す図である。According to the embodiment, the web screen in the state where the tap operation is performed on the link image, the web screen of the link destination displayed based on the tap operation on the link image, and the first link image by the slide operation in the selection area It is a figure which shows the web screen of the state which was selected. 実施の形態に係る、選択領域内でのスライド操作の繰り返しにより、各リンク画像が順番に選択されていく様子を示す図である。It is a figure which shows a mode that each link image is selected in order by repetition of slide operation within a selection area based on embodiment. 変更例に係る、グローブ判定処理を示すフローチャートである。It is a flowchart which shows the glove determination processing based on the example of a change. 変更例に係る、コンタクト情報登録処理を示すフローチャートである。It is a flowchart which shows the contact information registration process based on the example of a change. その他の変更例に係る、選択領域が重ねられた状態の情報登録画面を示す図である。It is a figure which shows the information registration screen of the state on which the selection area | region was superimposed based on the example of another change.

以下、本発明の実施の形態について、図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1(a)ないし(c)は、それぞれ、携帯電話機1の正面図、背面図および右側面図である。以下、説明の便宜上、図1(a)ないし(c)に示すように、キャビネット2の長手方向を上下方向と定義し、キャビネット2の短手方向を左右方向と定義する。さらに、これら上下方向および左右方向に垂直な方向を前後方向と定義する。   FIGS. 1A to 1C are a front view, a rear view and a right side view, respectively, of the mobile phone 1. Hereinafter, for convenience of explanation, as shown in FIGS. 1A to 1C, the longitudinal direction of the cabinet 2 is defined as the vertical direction, and the lateral direction of the cabinet 2 is defined as the lateral direction. Furthermore, a direction perpendicular to the vertical direction and the horizontal direction is defined as the front-rear direction.

図1(a)ないし(c)に示されるように、携帯電話機1は、キャビネット2と、ディスプレイ3と、タッチパネル4と、マイクロフォン5と、通話スピーカ6と、外部スピーカ7と、カメラ8とを含む。   As shown in FIGS. 1A to 1C, the mobile phone 1 includes a cabinet 2, a display 3, a touch panel 4, a microphone 5, a call speaker 6, an external speaker 7, and a camera 8. Including.

キャビネット2は、正面から見て、ほぼ長方形の輪郭を有する。キャビネット2の正面側に、ディスプレイ3が配されている。ディスプレイ3には、各種の画像(画面)が表示される。ディスプレイ3は、液晶ディスプレイであり、液晶パネルと、液晶パネルを照明するLEDバックライトを含む。ディスプレイ3は、有機ELディスプレイ等、他の種類のディスプレイであってもよい。さらに、ディスプレイ3を覆うように、タッチパネル4が配置されている。タッチパネル4は、透明なシート状に形成されている。タッチパネル4として、静電容量式、超音波式、感圧式、抵抗膜式、光検知式等、各種方式のタッチパネルが用いられ得る。   The cabinet 2 has a substantially rectangular outline when viewed from the front. A display 3 is disposed on the front side of the cabinet 2. Various images (screens) are displayed on the display 3. The display 3 is a liquid crystal display, and includes a liquid crystal panel and an LED backlight for illuminating the liquid crystal panel. The display 3 may be another type of display such as an organic EL display. Furthermore, the touch panel 4 is disposed to cover the display 3. The touch panel 4 is formed in a transparent sheet shape. As the touch panel 4, various types of touch panels such as a capacitive type, an ultrasonic type, a pressure-sensitive type, a resistive film type, and a light detection type may be used.

キャビネット2の内部には、下端部にマイクロフォン5が配されている。また、キャビネット2の内部には、上端部に通話スピーカ6が配されている。マイクロフォン5は、キャビネット2の正面に形成されたマイク孔5aを通過した音声を受け付ける。マイクロフォン5は、入力された音に応じた電気信号を生成する。通話スピーカ6は、音を出力する。出力された音は、キャビネット2の正面に形成された出力孔6aを通過してキャビネット2の外に放出される。通話の際には、通信先の機器(携帯電話機等)から受信された受話音声が通話スピーカ6から出力され、ユーザが発した発話音声がマイクロフォン5に入力される。なお、音は、音声、報知音等、様々な音を含む。   Inside the cabinet 2, a microphone 5 is disposed at the lower end. Further, inside the cabinet 2, a call speaker 6 is disposed at the upper end. The microphone 5 receives the sound that has passed through the microphone hole 5 a formed in the front of the cabinet 2. The microphone 5 generates an electrical signal according to the input sound. The call speaker 6 outputs a sound. The outputted sound passes through an output hole 6 a formed in the front of the cabinet 2 and is emitted to the outside of the cabinet 2. At the time of a call, a received voice received from a device (such as a mobile phone) of a communication destination is output from the call speaker 6, and an utterance voice uttered by the user is input to the microphone 5. The sound includes various sounds such as voice and notification sound.

キャビネット2の内部には、外部スピーカ7が配されている。キャビネット2の背面には、外部スピーカ7と対向する領域に出力孔7aが形成されている。外部スピーカ7から出力された音は、出力孔7aを通過してキャビネット2の外に放出される。   An external speaker 7 is disposed inside the cabinet 2. An output hole 7 a is formed on the back of the cabinet 2 in a region facing the external speaker 7. The sound output from the external speaker 7 passes through the output hole 7 a and is emitted to the outside of the cabinet 2.

キャビネット2の上部には、背面側にカメラ8が配されている。カメラ8は、携帯電話機1の背面方向に存在する撮影対象を撮影する。カメラ8は、CCD、CMOSセンサ等の撮像素子と、撮影対象の像を撮像素子に結像させるレンズとを含む。   At the top of the cabinet 2, a camera 8 is disposed on the back side. The camera 8 shoots a shooting target present in the back direction of the mobile phone 1. The camera 8 includes an imaging device such as a CCD or a CMOS sensor, and a lens for forming an image of a subject to be imaged on the imaging device.

図2は、携帯電話機1の全体構成を示すブロック図である。   FIG. 2 is a block diagram showing the overall configuration of the mobile phone 1.

図2に示されるように、携帯電話機1は、制御部11と、記憶部12と、画像出力部13と、タッチ検出部14と、音声入力部15と、音声出力部16と、音声処理部17と、キー入力部18と、通信部19と、撮影部20と、加速度検出部21とを含む。   As shown in FIG. 2, the mobile phone 1 includes a control unit 11, a storage unit 12, an image output unit 13, a touch detection unit 14, an audio input unit 15, an audio output unit 16, and an audio processing unit. 17 includes a key input unit 18, a communication unit 19, a photographing unit 20, and an acceleration detection unit 21.

記憶部12は、ROM、RAM、外部メモリを含む。記憶部12には、各種のプログラムが記憶されている。記憶部12に記憶されるプログラムは、携帯電話機1の各部を制御するための制御プログラムの他、各種アプリケーションプログラム(以下、単に「アプリケーション」と称する)、たとえば、電話、メッセージ、電話帳(コンタクツ)、カメラ、ウェブブラウザ、地図、ゲーム、スケジュール管理、等のアプリケーションを含む。プログラムは、メーカによって携帯電話機1の製造時に記憶部12に記憶される他、通信網やメモリカード、CD−ROM等の記憶媒体を介して記憶部12に記憶される。   The storage unit 12 includes a ROM, a RAM, and an external memory. The storage unit 12 stores various programs. The programs stored in the storage unit 12 include various control programs for controlling the respective units of the mobile phone 1 as well as various application programs (hereinafter simply referred to as “application”), for example, telephones, messages, telephone directories (contacts) Includes applications such as, cameras, web browsers, maps, games, schedule management, etc. The program is stored by the manufacturer in the storage unit 12 when the mobile phone 1 is manufactured, and is also stored in the storage unit 12 via a communication network, a memory card, a storage medium such as a CD-ROM, or the like.

記憶部12には、プログラムの実行の際、一時的に利用または生成されるデータを記憶するワーキング領域も含まれる。   The storage unit 12 also includes a working area for storing data temporarily used or generated when the program is executed.

記憶部12は、コンタクト情報データベース12aを含む。コンタクト情報データベース12aには、電話番号、メールアドレス、住所等のコンタクト情報が、当該コンタクト情報の保有者毎に記憶される。   The storage unit 12 includes a contact information database 12a. The contact information database 12a stores contact information such as a telephone number, an e-mail address, and an address for each holder of the contact information.

制御部11は、CPUを含む。制御部11は、記憶部12に記憶されたプログラムに従って、携帯電話機1を構成する各部(記憶部12、画像出力部13、タッチ検出部14、音声入力部15、音声出力部16、音声処理部17、キー入力部18、通信部19、撮影部20、加速度検出部21等)を制御する。   Control unit 11 includes a CPU. Control unit 11 controls each unit (storage unit 12, image output unit 13, touch detection unit 14, voice input unit 15, voice output unit 16, voice processing unit, and the like that configures mobile phone 1 according to the program stored in storage unit 12. 17, control the key input unit 18, the communication unit 19, the imaging unit 20, the acceleration detection unit 21 and the like.

画像出力部13は、図1(a)に示すディスプレイ3を含む。画像出力部13は、制御部11からの制御信号と画像信号に基づき、ディスプレイ3に画像(画面)を表示する。また、画像出力部13は、制御部11からの制御信号に応じて、ディスプレイ3の点灯、消灯および輝度の調整を行う。   The image output unit 13 includes the display 3 shown in FIG. The image output unit 13 displays an image (screen) on the display 3 based on the control signal from the control unit 11 and the image signal. In addition, the image output unit 13 performs lighting on / off of the display 3 and adjustment of luminance according to the control signal from the control unit 11.

タッチ検出部14は、図1(a)に示すタッチパネル4を含み、タッチパネル4に対するタッチ操作を検出する。より具体的には、タッチ検出部14は、タッチパネル4に対する、ユーザの指などの接触対象が接触する位置(以下、「タッチ位置」と称する)を検出する。タッチ検出部14は、検出したタッチ位置に基づいて生成された位置信号を制御部11へ出力する。タッチパネル4に対するタッチ操作は、ディスプレイ3に表示される画面やオブジェクトを対象として行われるものであり、ディスプレイ3に対するタッチ操作である、と言い換えることができる。   The touch detection unit 14 includes the touch panel 4 illustrated in FIG. 1A, and detects a touch operation on the touch panel 4. More specifically, the touch detection unit 14 detects a position (hereinafter, referred to as a “touch position”) with which the touch object such as the finger of the user contacts the touch panel 4. The touch detection unit 14 outputs a position signal generated based on the detected touch position to the control unit 11. The touch operation on the touch panel 4 is performed on a screen or an object displayed on the display 3, and can be rephrased as a touch operation on the display 3.

なお、タッチ検出部14は、ユーザの指がディスプレイ3、すなわち、タッチパネル4に近接したときに、指が近接した位置をタッチ位置として検出する構成であってもよい。たとえば、タッチ検出部14のタッチパネル4が、静電容量式である場合、指がタッチパネル4に近接したときに静電容量の変化が検出閾値を超えるように、その感度が調整される。また、タッチパネル4を含むキャビネット2の正面が、ガラス等で構成される透明なカバーで覆われる場合、タッチパネル4へ触れようとする指はタッチパネル4でなくカバーに接触する。この場合、タッチパネル4は、指がカバーに接触したとき、あるいはカバーに近接したときにタッチ位置を検出する。   The touch detection unit 14 may be configured to detect, as the touch position, a position where the finger approaches when the finger of the user approaches the display 3, that is, the touch panel 4. For example, when the touch panel 4 of the touch detection unit 14 is of the capacitance type, its sensitivity is adjusted so that the change in capacitance exceeds the detection threshold when the finger approaches the touch panel 4. When the front of the cabinet 2 including the touch panel 4 is covered with a transparent cover made of glass or the like, a finger touching the touch panel 4 contacts not the touch panel 4 but the cover. In this case, the touch panel 4 detects a touch position when a finger touches the cover or approaches the cover.

ユーザは、タッチパネル4が設けられることにより、タッチパネル4に指を触れるあるいは近接させることにより、ディスプレイ3に対し様々なタッチ操作を行うことができる。タッチ操作は、たとえば、タップ操作、フリック操作、スライド操作等を含む。タップ操作とは、ユーザがタッチパネル4に指を接触あるいは近接させた後、短時間のうちに指をタッチパネル4から離す操作である。フリック操作とは、ユーザがタッチパネル4に指を接触あるいは近接させた後、タッチパネル4を指で任意の方向に弾くあるいは掃う操作である。スライド操作とは、ユーザがタッチパネル4に指を接触あるいは近接させたまま、任意の方向へ指を移動させる操作である。   By providing the touch panel 4, the user can perform various touch operations on the display 3 by touching or touching a finger on the touch panel 4. The touch operation includes, for example, a tap operation, a flick operation, a slide operation, and the like. The tap operation is an operation of releasing the finger from the touch panel 4 in a short time after the user brings the finger into contact with or close to the touch panel 4. The flick operation is an operation in which the user brings the touch panel 4 into contact with or approaches the touch panel 4 and then flips or sweeps the touch panel 4 with the finger in any direction. The slide operation is an operation in which the user moves the finger in an arbitrary direction while keeping the finger in contact with or close to the touch panel 4.

たとえば、タッチ検出部14がタッチ位置を検出した場合に、タッチ位置が検出されてから予め定められた第1時間以内にタッチ位置が検出されなくなると、制御部11は、タッチ操作をタップ操作と判定する。タッチ位置が検出されてから予め定められた第2時間以内に予め定められた第1距離以上タッチ位置が移動した後、タッチ位置が検出されなくなった場合、制御部11は、タッチ操作をフリック操作と判定する。タッチ位置が検出された後、予め定めた第2距離以上タッチ位置が移動すると、制御部11は、タッチ操作をスライド操作と判定する。   For example, when the touch detection unit 14 detects a touch position, when the touch position is not detected within a predetermined first time after the touch position is detected, the control unit 11 determines that the touch operation is a tap operation. judge. After the touch position is detected and the touch position is not detected after the touch position is moved within the predetermined second time within the predetermined second time after the touch position is detected, the control unit 11 flicks the touch operation. It is determined that After the touch position is detected, when the touch position moves by a predetermined second distance or more, the control unit 11 determines that the touch operation is a slide operation.

音声入力部15は、マイクロフォン5を含む。音声入力部15は、マイクロフォン5からの電気信号を音声処理部17へ出力する。   The voice input unit 15 includes a microphone 5. The voice input unit 15 outputs the electrical signal from the microphone 5 to the voice processing unit 17.

音声出力部16は、通話スピーカ6および外部スピーカ7を含む。音声出力部16には、音声処理部17からの電気信号が入力される。音声出力部16は、通話スピーカ6または外部スピーカ7から音を出力させる。   The audio output unit 16 includes a call speaker 6 and an external speaker 7. The electrical signal from the audio processing unit 17 is input to the audio output unit 16. The audio output unit 16 outputs a sound from the call speaker 6 or the external speaker 7.

音声処理部17は、音声入力部15からの電気信号にA/D変換等を施し、変換後のデジタルの音声信号を制御部11へ出力する。音声処理部17は、制御部11からのデジタルの音声信号にデコード処理およびD/A変換等を施し、変換後の電気信号を音声出力部16に出力する。   The audio processing unit 17 performs A / D conversion or the like on the electric signal from the audio input unit 15, and outputs the converted digital audio signal to the control unit 11. The audio processing unit 17 subjects the digital audio signal from the control unit 11 to decoding processing, D / A conversion and the like, and outputs the converted electrical signal to the audio output unit 16.

キー入力部18は、少なくとも1つ以上のハードキーを含む。たとえば、キー入力部18は、携帯電話機1に電源を投入するための電源キー等を含む。キー入力部18は、押下されたハードキーに対応する信号を制御部11に出力する。   The key input unit 18 includes at least one hard key. For example, the key input unit 18 includes a power key or the like for turning on the mobile phone 1. The key input unit 18 outputs a signal corresponding to the pressed hard key to the control unit 11.

通信部19は、通話や通信を行うため、信号を変換するための回路、電波を送受信するアンテナ等を含む。通信部19は、制御部11から入力される通話や通信のための信号を無線信号に変換し、変換された無線信号を、アンテナを介して基地局や他の通信装置等の通信先へ送信する。さらに、通信部19は、アンテナを介して受信した無線信号を制御部11が利用できる形式の信号へ変換し、変換された信号を制御部11へ出力する。   The communication unit 19 includes a circuit for converting a signal, an antenna for transmitting and receiving radio waves, and the like in order to make a call or communication. The communication unit 19 converts a signal for speech or communication input from the control unit 11 into a wireless signal, and transmits the converted wireless signal to a communication destination such as a base station or another communication apparatus via an antenna. Do. Furthermore, the communication unit 19 converts a radio signal received via an antenna into a signal of a format that can be used by the control unit 11, and outputs the converted signal to the control unit 11.

撮影部20は、図1(b)に示すカメラ8、撮像制御回路などを含む。撮影部20は、制御部11からの制御信号に従って動画または静止画を撮影し、撮影された動画の動画データまたは静止画の静止画データに各種の画像処理およびエンコード処理を施し、処理後の動画データまたは静止画データを制御部11に出力する。   The imaging unit 20 includes the camera 8 shown in FIG. 1B, an imaging control circuit, and the like. The imaging unit 20 captures a moving image or a still image in accordance with a control signal from the control unit 11, performs various image processing and encoding processing on the moving image data of the captured moving image or the still image data of the still image, Data or still image data is output to the control unit 11.

加速度検出部21は、3軸加速度センサを含む。3軸加速度センサは、携帯電話機1の前後方向、上下方向および左右方向の3方向に生じる加速度を検出する。加速度検出部21は、3軸加速度センサが検出した加速度を示す加速度信号を制御部11に出力する。   The acceleration detection unit 21 includes a three-axis acceleration sensor. The three-axis acceleration sensor detects accelerations generated in three directions, that is, the front-rear direction, the up-down direction, and the left-right direction of the mobile phone 1. The acceleration detection unit 21 outputs an acceleration signal indicating the acceleration detected by the three-axis acceleration sensor to the control unit 11.

図3は、ホーム画面101が表示されたディスプレイ3を示す図である。   FIG. 3 is a view showing the display 3 on which the home screen 101 is displayed.

携帯電話機1では、種々の画面がディスプレイ3に表示され、画面上においてユーザにより種々のタッチ操作がなされる。たとえば、初期画面として、ホーム画面101がディスプレイ3に表示される。図3に示すように、ホーム画面101は、各種のアプリケーションを起動するための起動用アイコン101aを含む。起動用アイコン101aには、たとえば、電話アイコン101b、メールアイコン101c、電話帳アイコン101d、ブラウザアイコン101e等が含まれる。   In the mobile phone 1, various screens are displayed on the display 3, and various touch operations are performed by the user on the screen. For example, the home screen 101 is displayed on the display 3 as an initial screen. As shown in FIG. 3, the home screen 101 includes an activation icon 101 a for activating various applications. The activation icon 101a includes, for example, a telephone icon 101b, a mail icon 101c, a telephone directory icon 101d, a browser icon 101e and the like.

ディスプレイ3には、ホーム画面101の他に、通知バー102および操作キー群103が表示される。通知バー102は、ディスプレイ3に表示されたホーム画面101の上方に表示される。通知バー102は、現在時刻、バッテリー残量を示す残量メータ、電波の強度を示す強度メータ等を含む。操作キー群103は、ホーム画面101の下方に表示される。操作キー群103は、設定キー103a、ホームキー103bおよびバックキー103cから構成されている。設定キー103aは、主に、各種設定を行う設定画面をディスプレイ3に表示させるためのキーである。ホームキー103bは、主に、ディスプレイ3の表示を他の画面からホーム画面101に移行させるためのキーである。バックキー103cは、主に、実行された処理を1ステップ前の処理に戻すためのキーである。   In addition to the home screen 101, a notification bar 102 and an operation key group 103 are displayed on the display 3. The notification bar 102 is displayed above the home screen 101 displayed on the display 3. The notification bar 102 includes the current time, a remaining amount meter indicating the battery remaining amount, an intensity meter indicating the intensity of the radio wave, and the like. The operation key group 103 is displayed below the home screen 101. The operation key group 103 includes a setting key 103a, a home key 103b, and a back key 103c. The setting key 103 a is a key mainly for causing the display 3 to display a setting screen for performing various settings. The home key 103 b is mainly a key for shifting the display of the display 3 from the other screen to the home screen 101. The back key 103c is a key mainly for returning the executed processing to the processing one step before.

各種アプリケーションを利用する場合、ユーザは、利用するアプリケーションに対応する起動用アイコン101aに対してタップ操作を行う。アプリケーションが起動されて、アプリケーションに基づく実行画面が表示される。なお、実行されたアプリケーションの実行画面が表示されても、あるいは、アプリケーションの進行に伴って実行画面が遷移しても、通知バー102は、ディスプレイ3に表示され続ける。   When using various applications, the user performs a tap operation on the activation icon 101a corresponding to the application to be used. The application is launched and an execution screen based on the application is displayed. Note that the notification bar 102 continues to be displayed on the display 3 even if the execution screen of the executed application is displayed or when the execution screen changes as the application progresses.

さて、ユーザによるディスプレイ3に対する操作は、通常、指により行われることが多いが、寒い季節には、グローブを装着した指で操作が行われる場合もある。しかしながら、ディスプレイ3に表示された画面に選択可能なオブジェクトが密集しており、オブジェクトの選択に細かな操作が要求される場合には、ユーザは、グローブを装着したまま思い通りに選択操作を行うことが難しい。   By the way, although the operation on the display 3 by the user is usually performed with a finger in many cases, the operation may be performed with a finger wearing a glove in a cold season. However, in the case where selectable objects are concentrated on the screen displayed on the display 3 and a detailed operation is required to select an object, the user performs the selection operation as desired while wearing the glove. Is difficult.

たとえば、電話帳アイコン101dに対するタップ操作により電話帳のアプリケーションが起動され、たとえば、電話帳のアプリケーションの初期画面において、コンタクト情報を登録するための操作がなされると、図4(a)に示すような、情報登録画面104がディスプレイ3に表示される。情報登録画面104は、コンタクト情報を入力するための編集ボックス104aの他、キャンセルボタン104b、セーブボタン104c、キーボード104d等を含む。ここで、情報登録画面104では、複数の編集ボックス104aが比較的密集した状態で配置されている。入力対象となる編集ボックス104aの選択は、その編集ボックス104aに対するタッチ操作により行われるが、上記のように、グローブを着用したままタッチ操作が行われた場合、所望の編集ボックス104aにうまくタッチできず、編集ボックス104aの外の位置や隣接する編集ボックス104aにタッチされやすい。タッチ操作が行われた後、選択された編集ボックス104aでは、カーソルが表示されるなど、選択されたことが識別できる表示がなされる。ユーザは、所望の編集ボックス104aに識別表示がなさないことにより、選択に失敗したことを知ると、所望の編集ボックス104aが正しく選択されるまでタッチ操作を繰り返さなければならない。なお、キーボード104dの各キーも比較的密集した状態で配置されており、グローブを装着したままでは、所望のキーへの正確なタッチが行われにくい。しかしながら、キーボード104dに対するタッチ操作においては、図4(b)に示すように、タッチ操作の途中であってそのキーがタッチされた段階で、タッチされたキーの拡大表示により、タッチされたキーが何れのキーであるかの通知がなされる。このため、ユーザは指をずらすことにより所望のキーにタッチできるので、編集ボックス104aと違って、誤ったタッチ操作によってタッチ操作の繰り返されることは少ない。   For example, when an application for the telephone directory is activated by a tap operation on the telephone directory icon 101d and, for example, an operation for registering contact information is performed on the initial screen of the application for the telephone directory, as shown in FIG. The information registration screen 104 is displayed on the display 3. The information registration screen 104 includes a cancel button 104b, a save button 104c, a keyboard 104d, and the like in addition to an edit box 104a for inputting contact information. Here, in the information registration screen 104, a plurality of editing boxes 104a are arranged in a relatively dense state. The selection of the edit box 104a to be input is performed by the touch operation on the edit box 104a, but as described above, when the touch operation is performed while wearing the glove, the desired edit box 104a can be touched well In addition, it is easy to touch the position outside the edit box 104a or the adjacent edit box 104a. After the touch operation is performed, in the selected edit box 104a, a display is made that can identify the selection, such as a cursor being displayed. When the user recognizes that the selection is unsuccessful by not identifying the desired edit box 104a, the user has to repeat the touch operation until the desired edit box 104a is correctly selected. The respective keys of the keyboard 104d are also arranged in a relatively dense state, and it is difficult to accurately touch a desired key while wearing the glove. However, in the touch operation on the keyboard 104d, as shown in FIG. 4 (b), when the key is touched during the touch operation, the touched key is enlarged due to the touched key being displayed. It is notified of which key it is. For this reason, since the user can touch a desired key by displacing the finger, unlike the editing box 104a, the touch operation is hardly repeated due to an erroneous touch operation.

また、たとえば、ブラウザアイコン101eに対するタップ操作によりウェブブラウザのアプリケーションが起動されると、図4(c)に示すような、ウェブ画面105がディスプレイ3に表示される。ウェブ画面105には、表示された文書中の特定の文字列や写真にハイパーリンクが設定される場合がある。そして、ハイパーリンクが設定された、文字列や写真等の画像105a(以下、「リンク画像105a」と称する)が、文書内において比較的密集した状態で配置される場合がある。このようなウェブ画面105において、グローブを着用したままタッチ操作が行われた場合、上述した編集ボックス104aの場合と同様、所望のリンク画像105aにうまくタッチできないことが生じやすい。別のリンク画像105aに対してタッチ操作が行われた場合には、誤ったリンク先の画面に移行されてしまうので、画面を戻してタッチ操作をやり直す必要が生じでしまい、ユーザにとって、非常に面倒な事態となってしまう。   Also, for example, when the application of the web browser is activated by a tap operation on the browser icon 101e, a web screen 105 as shown in FIG. 4C is displayed on the display 3. On the web screen 105, a hyperlink may be set to a specific character string or a photo in the displayed document. Then, images 105a (hereinafter referred to as "link images 105a") such as character strings and photographs in which hyperlinks are set may be arranged in a relatively dense state in a document. In such a web screen 105, when a touch operation is performed while wearing a glove, it is likely that the desired link image 105a can not be touched well, as in the case of the editing box 104a described above. If a touch operation is performed on another link image 105a, the screen is shifted to the wrong link destination, so it is necessary to return the screen and perform the touch operation again, which is very important for the user. It will be a bothersome situation.

そこで、本実施の形態の携帯電話機1では、複数の編集ボックス104a、複数のリンク画像105aなど、複数の選択対象となるオブジェクトが含まれる画面(情報登録画面104、ウェブ画面105)がディスプレイ3に表示される場合に、グローブが着用されたままでも容易に所望のオブジェクトの選択を可能とするための制御処理、即ち、グローブ対応制御処理が、制御部11によって実行される。   Therefore, in the mobile phone 1 of the present embodiment, the display 3 includes screens (information registration screen 104, web screen 105) including objects to be selected, such as a plurality of editing boxes 104a and a plurality of link images 105a. When displayed, the control unit 11 executes a control process, that is, a glove correspondence control process, to enable selection of a desired object easily even while the glove is worn.

<実施例1>
本実施例では、電話帳のアプリケーションに、グローブ対応制御処理が適用されている。
Example 1
In the present embodiment, glove compatible control processing is applied to the application of the telephone directory.

図5および図6は、電話帳のアプリケーションに含まれる、コンタク情報を登録するためのコンタクト情報登録処理を示すフローチャートである。図7(a)および(b)は、それぞれ、タップ操作により、入力用の編集ボックス104a1および選択用の編集ボックス104a2が選択された状態の情報登録画面104を示す図である。図8(a)、(b)および(c)は、それぞれ、選択領域106が重ねられた状態の情報登録画面104、選択領域106内でのスライド操作により先頭の編集ボックス104aが選択された状態の情報登録画面104、および、選択領域106内でのタップ操作により選択用の編集ボックス104a2の表示内容が変更された状態の情報登録画面104を示す図である。図9は、選択領域106内でのスライド操作が繰り返されることにより、各編集ボックス104aが順番に選択されていく様子を示す図である。   5 and 6 are flowcharts showing contact information registration processing for registering contact information, which is included in the application of the telephone directory. FIGS. 7A and 7B are diagrams showing the information registration screen 104 in a state where the edit box 104a1 for input and the edit box 104a2 for selection are selected by the tap operation, respectively. 8A, 8B and 8C show the state where the top editing box 104a is selected by the slide operation in the selection area 106 and the information registration screen 104 in the state in which the selection area 106 is overlapped. FIG. 10 is a diagram showing the information registration screen 104 of FIG. 10 and the information registration screen 104 in a state in which the display content of the edit box 104a2 for selection is changed by a tap operation in the selection area 106. FIG. 9 is a diagram showing a state in which each editing box 104a is selected in order as the slide operation in the selection area 106 is repeated.

電話帳のアプリケーションの起動された後、さらに、コンタクト情報を登録するための操作が行われると、制御部11により、コンタクト情報登録処理が実行される。図5および図6に示すコンタクト情報登録処理のステップS110ないしステップS112、および、ステップS115ないしステップS122の処理が、上述のグローブ対応制御処理に相当する。   After the application of the telephone directory is activated, when an operation for registering contact information is performed, the control unit 11 executes contact information registration processing. The processes of steps S110 to S112 and steps S115 to S122 of the contact information registration process shown in FIGS. 5 and 6 correspond to the glove correspondence control process described above.

制御部11は、情報登録画面104をディスプレイ3に表示させる(S101)。情報登録画面104は、図4(a)にて説明したとおりである。   The control unit 11 displays the information registration screen 104 on the display 3 (S101). The information registration screen 104 is as described in FIG.

制御部11は、ディスプレイ3に対するタッチ操作が行われたか否かを監視する(S102)。タッチ操作がなされると(S102:YES)、制御部11は、そのタッチ操作が、編集ボックス104aに対するタップ操作であるか否か、セーブボタン104cに対するタップ操作であるか否か、および、キャンセルボタン104bに対するタップ操作であるか否かを判定する(S103、S104、S105)。   The control unit 11 monitors whether a touch operation on the display 3 has been performed (S102). When the touch operation is performed (S102: YES), the control unit 11 determines whether the touch operation is a tap operation on the edit box 104a, a tap operation on the save button 104c, and a cancel button It is determined whether it is a tap operation on 104b (S103, S104, S105).

編集ボックス104aは、キーボード104dによる文字等の打ち込みにより情報が入力される入力用の編集ボックス104a1と、予め用意された複数の候補の中からの選択により情報が入力される選択用の編集ボックス104a2とを含む。   The edit box 104a includes an edit box 104a1 for input in which information is input by typing characters and the like with the keyboard 104d, and an edit box 104a2 for selection in which information is input by selection from among a plurality of candidates prepared in advance. And.

タップ操作が編集ボックス104aに対してなされた場合(S103:YES)、制御部11は、タップ操作の対象が、入力用の編集ボックス104a1および選択用の編集ボックス104a2の何れであるかを判定する(S106)。タップ操作が入力用の編集ボックス104a1に対してなされた場合(S106:入力用)、制御部11は、その入力用の編集ボックス104a1を入力対象の編集ボックス104aに設定する(S107)。そして、制御部11は、図7(a)に示すように、その入力用の編集ボックス104a1内にカーソルを表示するとともに、ボックス内を所定の色で照らすなど、その入力用の編集ボックス104a1にハイライト表示を行う(S108)。一方、タップ操作が選択用の編集ボックス104a2に対してなされた場合(S106:選択用)、制御部11は、その選択用の編集ボックス104a2の表示内容を切り替える(S109)。たとえば、図7(b)に示すように、選択用の編集ボックス104a2が電話の種類を入力するためのものである場合、選択用の編集ボックス104a2に対してタップ操作がなされる度に、「携帯」、「自宅」および「会社」の間で、表示内容が順次切り替えられる。   When the tap operation is performed on the edit box 104a (S103: YES), the control unit 11 determines which of the input edit box 104a1 and the selection edit box 104a2 is the target of the tap operation (S106). When the tap operation is performed on the input edit box 104a1 (S106: for input), the control unit 11 sets the input edit box 104a1 in the input target edit box 104a (S107). Then, as shown in FIG. 7A, the control unit 11 displays the cursor in the input edit box 104a1, and illuminates the inside of the box with a predetermined color, etc., in the input edit box 104a1. Highlight display is performed (S108). On the other hand, when the tap operation is performed on the selection edit box 104a2 (S106: selection), the control unit 11 switches the display content of the selection edit box 104a2 (S109). For example, as shown in FIG. 7B, when the selection edit box 104a2 is for inputting a type of telephone, each time a tap operation is performed on the selection edit box 104a2, Display contents are sequentially switched among "mobile", "home" and "company".

このように、編集ボックス104aへのタップ操作が検出されれば、ステップS106ないしステップS109の処理が行われ、グローブの着用の有無に関係なく、編集ボックス104aへのタップ操作に基づいて編集ボックス104aが選択される。   As described above, when the tap operation to the editing box 104a is detected, the processing from step S106 to step S109 is performed, and the editing box 104a is processed based on the tap operation to the editing box 104a regardless of whether the glove is worn or not. Is selected.

ステップS102で検出されたタッチ操作が、編集ボックス104aに対するタップ操作、セーブボタン104cに対するタップ操作およびキャンセルボタン104bに対するタップ操作の何れでもない場合(S103:NO→S104:NO→S105:NO)、たとえば、編集ボックス104a、セーブボタン104cおよびキャンセルボタン104b以外の位置へのタップ操作や情報登録画面104の任意の位置へのフリック操作またはスライド操作である場合、制御部11は、ディスプレイ3に選択領域106が表示されているか否かを判定する(S110)。   When the touch operation detected in step S102 is neither a tap operation on edit box 104a nor a tap operation on save button 104c or a tap operation on cancel button 104b (S103: NO → S104: NO → S105: NO), for example, In the case of a tap operation to a position other than the edit box 104a, the save button 104c and the cancel button 104b or a flick operation or a slide operation to an arbitrary position of the information registration screen 104, the control unit 11 selects the selection area 106 on the display 3. Is determined (S110).

選択領域106が表示されていなければ(S110:NO)、制御部11は、ステップS102で検出されたタッチ操作が、グローブを着用したままのタッチ操作であるか否かを判定する(S111)。   If the selection area 106 is not displayed (S110: NO), the control unit 11 determines whether the touch operation detected in step S102 is a touch operation with gloves on (S111).

グローブがタッチパネル4に触れた場合は、指が直接タッチパネル4に触れた場合に比べ、静電容量の変化量が小さくなる。指やグローブがタッチパネル4に触れたときに静電容量の変化量は最大となるので、たとえば、制御部11は、タッチ操作の過程において、静電容量の変化量の最大値を検出し、最大値が所定の第1閾値より小さい場合にはグローブによるタッチ操作であり、最大値が第1閾値以上である場合は、指によるタッチ操作であると判定する。また、グローブによるタッチ操作の場合、指によるタッチ操作に比べ、タッチパネル4に対する接触面積が大きくなる。よって、たとえば、制御部11は、タッチ操作の過程において、接触面積の最大値を検出し、最大値が所定の第2閾値より大きい場合にはグローブによるタッチ操作であり、最大値が第2閾値以下である場合は、指によるタッチ操作であると判定しても良い。あるいは、制御部11は、静電容量の変化量の最大値が第1閾値より小さく、且つ、接触面積の最大値が第2閾値より大きい場合にはグローブによるタッチ操作であり、それ以外の場合は指によるタッチ操作であると判定しても良い。   When the glove touches the touch panel 4, the amount of change in capacitance is smaller than when the finger directly touches the touch panel 4. When the finger or the glove touches the touch panel 4, the amount of change in capacitance is maximized. For example, the control unit 11 detects the maximum value of the amount of change in capacitance in the process of touch operation. When the value is smaller than a predetermined first threshold, it is a touch operation by the glove, and when the maximum value is equal to or more than the first threshold, it is determined that the touch operation is a finger. Moreover, in the case of the touch operation by a glove, the contact area with respect to the touch panel 4 becomes larger than the touch operation by a finger. Therefore, for example, the control unit 11 detects the maximum value of the contact area in the process of the touch operation, and when the maximum value is larger than the predetermined second threshold, the touch operation is performed by the glove, and the maximum value is the second threshold. In the case of the following, it may be determined that the touch operation is by a finger. Alternatively, when the maximum value of the change amount of the capacitance is smaller than the first threshold and the maximum value of the contact area is larger than the second threshold, the control unit 11 performs the touch operation by the glove, otherwise It may be determined that the touch operation is a finger touch operation.

グローブを着用したままタッチ操作がなされた場合(S111:YES)、制御部11は、情報登録画面104の編集ボックス104aを避けるようにして、ディスプレイ3に、選択領域106を表示させる(S112)。   When the touch operation is performed while wearing the glove (S111: YES), the control unit 11 displays the selection area 106 on the display 3 so as to avoid the edit box 104a of the information registration screen 104 (S112).

選択領域106は、グローブを着用したまま、その領域内で容易にスライド操作が行えるよう、編集ボックス104aより十分に大きな面積を有する画像とされる。選択領域106は、たとえば、図8(a)に示すように、縦長の長方形状を有する画像とされる。   The selection area 106 is an image having a sufficiently larger area than the editing box 104 a so that the slide operation can be easily performed in the area while wearing the glove. The selection area 106 is, for example, an image having a vertically long rectangular shape as shown in FIG.

制御部11は、ステップS102で検出されたタッチ操作に割り当てられた処理があれば(S113:YES)、割り当てられた処理を実行する(S114)。そして、制御部11は、ステップS102に処理を戻し、新たなタッチ操作を監視する。   If there is a process assigned to the touch operation detected in step S102 (S113: YES), the control unit 11 executes the assigned process (S114). Then, the control unit 11 returns the process to step S102 and monitors a new touch operation.

選択領域106が表示された後は、ステップS110において、選択領域106が表示中であると判定される。選択領域106が表示中である場合(S110:YES)、制御部11は、ステップS102で検出されたタッチ操作が、選択領域106内でのスライド操作であるか否かを判定する(S115)。   After the selection area 106 is displayed, it is determined in step S110 that the selection area 106 is being displayed. When the selection area 106 is being displayed (S110: YES), the control unit 11 determines whether the touch operation detected in step S102 is a slide operation in the selection area 106 (S115).

検出されたタッチ操作が、選択領域106内でのスライド操作である場合、(S115:YES)、制御部11は、そのスライド操作が、選択領域106内での最初のスライド操作であれば(S116:YES)、情報登録画面104の最も上に位置する先頭の編集ボックス104aを入力対象の編集ボックス104aに設定する(S117)。そして、制御部11は、図8(b)に示すように、先頭の編集ボックス104a内にカーソルを表示するとともに、先頭の編集ボックス104aにハイライト表示を行う(S118)。   If the detected touch operation is a slide operation in the selection area 106 (S115: YES), the control unit 11 determines that the slide operation is the first slide operation in the selection area 106 (S116). (YES), the top edit box 104a located at the top of the information registration screen 104 is set in the edit box 104a to be input (S117). Then, as shown in FIG. 8B, the control unit 11 displays the cursor in the top editing box 104a and highlights the top editing box 104a (S118).

一方、スライド操作が、選択領域106内での最初のスライド操作でなければ(S116:NO)、制御部11は、次の編集ボックス104aを入力対象の編集ボックス104aに設定し(S119)、その編集ボックス104a内にカーソルを表示するとともに、その編集ボックス104aにハイライト表示を行う(S118)。なお、入力対象に設定された編集ボックス104aが、選択用の編集ボックス104aである場合には、ハイライト表示は行われるがカーソル表示は行われない。   On the other hand, if the slide operation is not the first slide operation in the selection area 106 (S116: NO), the control unit 11 sets the next edit box 104a to the input target edit box 104a (S119), While displaying the cursor in the edit box 104a, highlight display is performed in the edit box 104a (S118). When the edit box 104a set as the input target is the selection edit box 104a, highlight display is performed but cursor display is not performed.

こうして、図9に示すように、選択領域106内でのスライド操作が行われる度に、上から下へ、左から右へと、入力対象となる編集ボックス104aが切り替えられていく。ここで、編集ボックス104aの配置領域に全ての編集ボックス104aが配置できない場合、現在、ディスプレイ3に表示されている編集ボックス104aの下方に存在する編集ボックス104aが入力対象に設定されると、情報登録画面104における配置領域の部分がスクロールし、入力対象に設定された編集ボックス104aが現れる。現れた編集ボックス104a内にカーソルが表示されるとともに、その編集ボックス104aにハイライト表示が行われる。   Thus, as shown in FIG. 9, each time a slide operation is performed in the selection area 106, the edit box 104a to be input is switched from the top to the bottom and from the left to the right. Here, when all the edit boxes 104a can not be arranged in the arrangement area of the edit box 104a, if the edit box 104a existing below the edit box 104a currently displayed on the display 3 is set as an input target, the information The portion of the placement area in the registration screen 104 scrolls, and an edit box 104a set as an input target appears. While the cursor is displayed in the appearing edit box 104a, highlight display is performed in the edit box 104a.

なお、最後尾の編集ボックス104aが入力対象に設定されているときに、選択領域106内でのスライド操作がなされると、次の編集ボックス104aとして先頭の編集ボックス104aが入力対象に設定されるような構成とされても良い。また、切替え順序は、上から下、左から右への順序に限られず、他の順序であっても良い。たとえば、入力頻度の高いコンタクト情報が入力される編集ボックス104aの順位が上位となる順序付けがなされても良い。また、入力が必須の編集ボックス104aと入力が必須でない編集ボックス104aとが存在する場合に、入力が必須の編集ボックス104aの順位が上位となる順位付けがなされても良い。   When the last editing box 104a is set as an input target, if a slide operation is performed in the selection area 106, the first editing box 104a is set as an input target as the next editing box 104a. It may be configured as such. Further, the switching order is not limited to the order from top to bottom and from left to right, but may be another order. For example, ordering may be performed in which the order of the editing box 104a in which contact information with high input frequency is input is higher. Further, in the case where there is an edit box 104a that requires an input and an edit box 104a that does not require an input, the edit box 104a that requires an input may be ranked higher.

ステップS102で検出されたタッチ操作が、選択領域106内でのスライド操作でない場合(S115:NO)、制御部11は、そのタッチ操作が、選択領域106内でのタップ操作であるか否かを判定する(S120)。タッチ操作が、選択領域106内でのタップ操作である場合(S120:YES)、制御部11は、現在、入力対象に設定されている編集ボックス104aが、選択用の編集ボックス104a2であれば(S121:YES)、ステップS109と同様に、その選択用の編集ボックス104a2の表示内容を切り替える(S122)。図8(c)に示すように、選択用の編集ボックス104a2が電話の種類を入力するためのものである場合、選択領域106内でタップ操作がなされる度に、「携帯」、「自宅」および「会社」の間で、表示内容が順次切り替えられる。   If the touch operation detected in step S102 is not a slide operation in the selection area 106 (S115: NO), the control unit 11 determines whether the touch operation is a tap operation in the selection area 106 or not. It determines (S120). If the touch operation is a tap operation in the selection area 106 (S120: YES), the control unit 11 determines that the edit box 104a currently set as the input target is the selection edit box 104a2 ( S121: YES), as in step S109, the display content of the selection edit box 104a2 is switched (S122). As shown in FIG. 8C, when the edit box for selection 104a2 is for inputting the type of telephone, “portable”, “home” every time a tap operation is performed in the selection area 106. The display contents are sequentially switched between the "company" and the "company".

ステップS102で検出されたタッチ操作が、選択領域106内でのスライド操作でもタップ操作でもない場合(S115:NO→S120:NO)、制御部11は、そのタッチ操作に割り当てられた処理があれば(S113:YES)、その処理を実行する(S114)。たとえば、入力用の編集ボックス104a1にカーソル表示とハイライト表示がなされ、その入力用の編集ボックス104a1への入力を待つ状態にある場合に、キーボード104dの何れかの文字キーに対してタップ操作がなされると、ステップS114において、制御部11により、タップ操作がなされた文字キーに対応する文字を入力する処理が実行され、その入力用の編集ボックス104a1に、入力された文字が表示される。   If the touch operation detected in step S102 is neither a slide operation nor a tap operation in the selection area 106 (S115: NO → S120: NO), the control unit 11 determines that there is a process assigned to the touch operation. (S113: YES), the process is executed (S114). For example, when cursor display and highlight display are made in the edit box 104a1 for input and there is a state of waiting for an input to the edit box 104a1 for input, tap operation is performed on any character key of the keyboard 104d. Then, in step S114, the control unit 11 executes a process of inputting a character corresponding to the character key subjected to the tap operation, and the input character is displayed in the input edit box 104a1.

入力すべき編集ボックス104a内へのコンタクト情報の入力が完了し、セーブボタン104cに対するタップ操作がなされると(S104:YES)、制御部11は、入力されたコンタクト情報を記憶部12のコンタクト情報データベース12aに保存し(S123)、ディスプレイ3から情報登録画面104を消去させる(S124)。また、コンタクト情報の登録を中止するため、キャンセルボタン104bに対するタップ操作がなされると(S105:YES)、制御部11は、ディスプレイ3から情報登録画面104を消去させる(S124)。こうして、制御部11は、ディスプレイ3から情報登録画面104を消去させると(S124)、コンタクト情報登録処理を終了する。   When the input of the contact information into the edit box 104a to be input is completed and the save button 104c is tapped (S104: YES), the control unit 11 determines the input contact information as the contact information of the storage unit 12 It is stored in the database 12a (S123), and the information registration screen 104 is erased from the display 3 (S124). Further, when the tap operation is performed on the cancel button 104b to cancel the registration of the contact information (S105: YES), the control unit 11 erases the information registration screen 104 from the display 3 (S124). Thus, when the information registration screen 104 is erased from the display 3 (S124), the control unit 11 ends the contact information registration process.

<実施例2>
本実施例では、ウェブブラウザのアプリケーションに、グローブ対応制御処理が適用されている。
Example 2
In the present embodiment, globe compatible control processing is applied to the application of the web browser.

図10および図11は、ウェブブラウザのアプリケーションに含まれる、ウェブ画面105を表示するためのブラウジング処理を示すフローチャートである。図12(a)、(b)および(c)は、それぞれ、リンク画像105aに対するタップ操作がなされた状態のウェブ画面105、リンク画像105aに対するタップ操作に基づいて表示されたリンク先のウェブ画面105、および、選択領域106内でのスライド操作により先頭のリンク画像105aが選択された状態のウェブ画面105を示す図である。図13は、選択領域106内でのスライド操作が繰り返されることにより、各リンク画像105aが順番に選択されていく様子を示す図である。   10 and 11 are flowcharts showing the browsing process for displaying the web screen 105, which is included in the application of the web browser. 12A, 12 B and 12 C respectively show the web screen 105 in the state where the tap operation is performed on the link image 105 a and the web screen 105 of the link destination displayed based on the tap operation on the link image 105 a. 5A and 5B are diagrams showing the web screen 105 in a state where the top link image 105a is selected by the slide operation in the selection area 106. FIG. 13 is a diagram showing a state in which each link image 105a is selected in order as the slide operation in the selection area 106 is repeated.

ウェブブラウザのアプリケーションが起動されると、制御部11により、ブラウジング処理が実行される。図10および図11に示すブラウジング処理のステップS206ないしステップS208、および、ステップS211ないしステップS218の処理が、上述のグローブ対応制御処理に相当する。   When an application of the web browser is activated, the control unit 11 executes a browsing process. The processes of steps S206 to S208 and the steps S211 to S218 of the browsing process shown in FIGS. 10 and 11 correspond to the above-mentioned glove correspondence control process.

制御部11は、ウェブ画面105をディスプレイ3に表示させる(S201)。ウェブ画面105は、図4(c)にて説明したとおりである。   The control unit 11 displays the web screen 105 on the display 3 (S201). The web screen 105 is as described in FIG.

ディスプレイ3に対するタッチ操作がなされると(S202:YES)、制御部11は、そのタッチ操作が、リンク画像105aに対するタップ操作であるか否か、および、クローズボタン105bに対するタップ操作であるか否かを判定する(S203、S204)。   When the touch operation is performed on the display 3 (S202: YES), the control unit 11 determines whether the touch operation is a tap operation on the link image 105a and a tap operation on the close button 105b. Are determined (S203, S204).

図12(a)に示すように、タップ操作がリンク画像105aに対してなされた場合(S203:YES)、制御部11は、図12(b)に示すように、タップ操作がなされたリンク画像105aが示すリンク先のウェブ画面105をディスプレイ3に表示させる(S205)。そして、制御部11は、ステップS202に処理を戻し、新たなウェブ画面105が表示されたディスプレイ3において、タップ操作の監視を行う。   As shown in FIG. 12 (a), when the tap operation is performed on the link image 105a (S203: YES), as shown in FIG. 12 (b), the control unit 11 performs the link image on which the tap operation is performed. The web screen 105 of the link destination indicated by 105a is displayed on the display 3 (S205). Then, the control unit 11 returns the process to step S202, and monitors the tap operation on the display 3 on which the new web screen 105 is displayed.

このように、リンク画像105aに対するタップ操作が検出されれば、ステップS205の処理が行われ、グローブの着用の有無に関係なく、リンク画像105aに対するタップ操作に基づいてリンク先のウェブ画面105がディスプレイ3に表示される。   As described above, when the tap operation on the link image 105a is detected, the process of step S205 is performed, and the web screen 105 of the link destination is displayed based on the tap operation on the link image 105a regardless of the wearing of the glove. Displayed on 3.

ステップS202で検出されたタッチ操作が、リンク画像105aに対するタップ操作およびクローズボタン105bに対するタップ操作の何れでもない場合(S203:NO→S204:NO)、制御部11は、ディスプレイ3に選択領域106が表示されているか否かを判定する(S206)。   When the touch operation detected in step S202 is neither a tap operation on the link image 105a nor a tap operation on the close button 105b (S203: NO → S204: NO), the control unit 11 causes the display 3 to select the selected area 106. It is determined whether it is displayed (S206).

選択領域106が表示されていなければ(S206:NO)、制御部11は、ステップS202で検出されたタッチ操作が、グローブを着用したままのタッチ操作であるか否かを判定する(S207)。グローブを着用したままタッチ操作がなされた場合(S207:YES)、制御部11は、ウェブ画面105のリンク画像105aを避けるようにして、ディスプレイ3に、選択領域106を表示させる(S208)。なお、選択領域106は、リンク画像105aよりも面積が大きい。   If the selection area 106 is not displayed (S206: NO), the control unit 11 determines whether the touch operation detected in step S202 is a touch operation with gloves on (S207). When the touch operation is performed while wearing the glove (S207: YES), the control unit 11 causes the display 3 to display the selection area 106 so as to avoid the link image 105a of the web screen 105 (S208). The selection area 106 has a larger area than the link image 105 a.

制御部11は、ステップS202で検出されたタッチ操作に割り当てられた処理があれば(S209:YES)、割り当てられた処理を実行する(S210)。たとえば、ウェブ画面105の任意の位置に対して、上方向または下方向へのフリック操作がなされた場合、制御部11は、ウェブ画面105を上方向または下方向へスクロールさせる。そして、制御部11は、ステップS202に処理を戻し、新たなタッチ操作を監視する。   If there is a process assigned to the touch operation detected in step S202 (S209: YES), the control unit 11 executes the assigned process (S210). For example, when an upward or downward flick operation is performed on an arbitrary position of the web screen 105, the control unit 11 scrolls the web screen 105 upward or downward. Then, the control unit 11 returns the process to step S202 and monitors a new touch operation.

選択領域106が表示された後は、ステップS206において、選択領域106が表示中であると判定される。選択領域106が表示中である場合(S206:YES)、制御部11は、ステップS202で検出されたタッチ操作が、選択領域106内でのスライド操作であるか否かを判定する(S211)。   After the selection area 106 is displayed, it is determined in step S206 that the selection area 106 is being displayed. When the selection area 106 is being displayed (S206: YES), the control unit 11 determines whether the touch operation detected in step S202 is a slide operation in the selection area 106 (S211).

検出されたタッチ操作が、選択領域106内でのスライド操作である場合、(S211:YES)、制御部11は、そのスライド操作が、選択領域106内での最初のスライド操作であれば(S212:YES)、ウェブ画面105の最も上に位置する先頭のリンク画像105aを操作対象のリンク画像105aに設定する(S213)。そして、制御部11は、図12(c)に示すように、先頭のリンク画像105aにハイライト表示を行う(S214)。   If the detected touch operation is a slide operation in the selection area 106 (S211: YES), the control unit 11 determines that the slide operation is the first slide operation in the selection area 106 (S212). (YES), the top link image 105a located at the top of the web screen 105 is set as the operation target link image 105a (S213). Then, as shown in FIG. 12C, the control unit 11 performs highlight display on the first link image 105a (S214).

一方、スライド操作が、選択領域106内での最初のスライド操作でなければ(S211:NO)、制御部11は、次のリンク画像105aを操作対象のリンク画像105aに設定し(S215)、そのリンク画像105aにハイライト表示を行う(S214)。   On the other hand, if the slide operation is not the first slide operation in the selection area 106 (S211: NO), the control unit 11 sets the next link image 105a as the operation target link image 105a (S215). Highlight display is performed on the link image 105a (S214).

こうして、図13に示すように、選択領域106内でのスライド操作が行われる度に、上から下へと、操作対象となるリンク画像105aが切り替えられていく。ここで、ウェブ画面105全体が一度にディスプレイ3に表示できない場合、現在、ディスプレイ3に表示されているリンク画像105aの下方に存在するリンク画像105aが操作対象に設定されると、ウェブ画面105がスクロールし、操作対象に設定されたリンク画像105aが現れる。現れたリンク画像105aにハイライト表示が行われる。   Thus, as shown in FIG. 13, each time the slide operation is performed in the selection area 106, the link image 105a to be operated is switched from the top to the bottom. Here, when the entire web screen 105 can not be displayed on the display 3 at one time, if the link image 105 a existing below the link image 105 a currently displayed on the display 3 is set as the operation target, the web screen 105 is displayed. It scrolls and the link image 105a set as operation object appears. Highlight display is performed on the link image 105 a that has appeared.

なお、最後尾のリンク画像105aが操作対象に設定されているときに、選択領域106内でのスライド操作がなされると、次のリンク画像105aとして先頭のリンク画像105aが操作対象に設定されるような構成とされても良い。また、切替え順序は、上から下の順序に限られず、他の順序であっても良い。たとえば、現在表示されているウェブ画面105に関連性の高いウェブ画面105がリンク先となるリンク画像105aの順位が上位となる順序付けがなされても良い。   When the last link image 105a is set as the operation target, when the slide operation is performed in the selection area 106, the first link image 105a is set as the next link image 105a as the operation target. It may be configured as such. Also, the switching order is not limited to the top to bottom order, but may be another order. For example, ordering may be performed such that the link image 105a to which the web screen 105 highly relevant to the currently displayed web screen 105 is linked is ranked higher.

ステップS202で検出されたタッチ操作が、選択領域106内でのスライド操作でない場合(S211:NO)、制御部11は、そのタッチ操作が、選択領域106内でのタップ操作であるか否かを判定する(S216)。タッチ操作が、選択領域106内でのタップ操作である場合(S216:YES)、制御部11は、何れかのリンク画像105aが操作対象に設定されていれば(S217:YES)、ステップS205と同様に、そのリンク画像105aが示すリンク先のウェブ画面105をディスプレイ3に表示させる(S218)。そして、制御部11は、ステップS202に処理を戻し、新たなウェブ画面105が表示されたディスプレイ3に対し、タップ操作の監視を行う。   If the touch operation detected in step S202 is not a slide operation in the selection area 106 (S211: NO), the control unit 11 determines whether the touch operation is a tap operation in the selection area 106 or not. It judges (S216). When the touch operation is a tap operation in the selection area 106 (S216: YES), if any link image 105a is set as the operation target (S217: YES), the control unit 11 and the step S205. Similarly, the web screen 105 of the link destination indicated by the link image 105a is displayed on the display 3 (S218). Then, the control unit 11 returns the process to step S202, and monitors the tap operation on the display 3 on which the new web screen 105 is displayed.

ステップS202で検出されたタッチ操作が、選択領域106内でのスライド操作でもタップ操作でもない場合(S211:NO→S216:NO)、制御部11は、そのタッチ操作に割り当てられた処理があれば(S209:YES)、その処理を実行する(S210)。   If the touch operation detected in step S202 is neither a slide operation nor a tap operation in the selection area 106 (S211: NO → S216: NO), the control unit 11 determines that there is a process assigned to the touch operation. (S209: YES), the process is executed (S210).

ウェブ画面105の閲覧が終了し、クローズボタン105bに対するタップ操作がなされると(S204:YES)、制御部11は、ディスプレイ3からウェブ画面105を消去させ(S219)、ブラウジング処理を終了する。   When the browsing of the web screen 105 ends and a tap operation is performed on the close button 105 b (S 204: YES), the control unit 11 erases the web screen 105 from the display 3 (S 219) and ends the browsing process.

<本実施の形態による効果>
本実施の形態によれば、複数の選択対象となるオブジェクト(編集ボックス104a、リンク画像105a)が含まれる画面(情報登録画面104、ウェブ画面105)がディスプレイ3に表示される場合に、タッチ操作が、グローブを着用したままのタッチ操作であるか否かが判定される。そして、グローブを着用したままでのタッチ操作であるとの判定がなされた場合、オブジェクトよりも領域が大きな選択領域106がディスプレイ3に表示され、選択領域106内でのスライド操作によりオブジェクトの選択が行われる。したがって、ユーザは、グローブを着用したままでも容易に所望のオブジェクトの選択を行うことができ、誤操作の防止を図ることができる。
<Effect of this embodiment>
According to the present embodiment, when a screen (information registration screen 104, web screen 105) including a plurality of objects to be selected (edit box 104a, link image 105a) is displayed on display 3, the touch operation is performed. However, it is determined whether or not the touch operation is performed while wearing the glove. Then, when it is determined that the touch operation is performed while wearing the glove, the selection area 106 having a larger area than the object is displayed on the display 3, and the object is selected by the slide operation in the selection area 106. To be done. Therefore, the user can easily select a desired object while wearing the glove, and can prevent an erroneous operation.

複数の選択対象となるオブジェクトが、タッチ操作の途中であってそのオブジェクトがタッチされた段階で、タッチされたことを示す通知がなされないオブジェクトである場合、ユーザは、当該通知に基づいたタッチ位置の修正を行うことができないので、グローブ着用による誤操作が生じると、タッチ操作を繰り返さなければならなくなる。本実施の形態によれば、このようなオブジェクトが含まれる画面に関して、グローブ対応制御処理が行われるため、誤操作の発生によって無駄にタッチ操作が繰り返されてしまう、という事態が生じることを防止できる。   When a plurality of objects to be selected are objects not being notified that they have been touched in the middle of a touch operation and at the stage when the objects are touched, the user can use the touch position based on the notification. In the case of an erroneous operation caused by wearing a glove, it is necessary to repeat the touch operation. According to the present embodiment, the glove correspondence control process is performed on the screen including such an object, so that it is possible to prevent a situation in which the touch operation is unnecessarily repeated due to the occurrence of an erroneous operation.

さらに、本実施の形態によれば、選択領域106が、選択対象となるオブジェクトを避けるようにディスプレイ3に表示されるので、オブジェクトの表示を妨げることがない。   Furthermore, according to the present embodiment, since the selection area 106 is displayed on the display 3 so as to avoid the object to be selected, the display of the object is not hindered.

さらに、本実施の形態によれば、選択領域106内での、オブジェクトを選択するためのタッチ操作が、スライド操作、即ち、タッチ位置の移動を伴うタッチ操作であるので、ユーザは、各オブジェクトが順次、選択されていく操作であることを直感でき、分かりやすい。   Furthermore, according to the present embodiment, since the touch operation for selecting an object in the selection area 106 is a slide operation, that is, a touch operation accompanied by movement of a touch position, the user can set each object to It can be intuitive and easy to understand that the operation is to be selected sequentially.

さらに、本実施の形態によれば、複数の選択対象となるオブジェクトを含む画面(情報登録画面104、ウェブ画面105)、即ち、選択領域106による操作が必要とされる画面が実際に表示されたディスプレイ3に対するタッチ操作に基づいてグローブ着用によるタッチ操作の有無に係る判定が行われるので、選択領域106を精度良く表示させることができる。   Furthermore, according to the present embodiment, a screen (information registration screen 104, web screen 105) including a plurality of objects to be selected, that is, a screen requiring an operation by the selection area 106 is actually displayed. Since the determination regarding the presence or absence of the touch operation by glove wearing is performed based on the touch operation on the display 3, the selection area 106 can be displayed with high accuracy.

さらに、本実施の形態によれば、選択対象となるオブジェクトに対して正確にタッチ操作がなされたときには、グローブ着用によるタッチ操作の有無に係る判定は行われず、そのタッチ操作がグローブ着用によるものであった場合でも選択領域106が表示されない。このように、不要と思われるときには選択領域106が表示されないようにすることで、ディスプレイ3に表示された画面の表示が選択領域106の表示によって妨げられることを、極力、防止することができる。   Further, according to the present embodiment, when the touch operation is accurately performed on the object to be selected, the determination regarding the presence or absence of the touch operation by glove wearing is not performed, and the touch operation is by glove wearing. Even if there is a selection area 106 is not displayed. As described above, by not displaying the selection area 106 when it seems unnecessary, it is possible to prevent, as much as possible, the display of the screen displayed on the display 3 from being disturbed by the display of the selection area 106.

以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態等によって何ら制限されるものではなく、また、本発明の実施の形態も、上記以外に種々の変更が可能である。   As mentioned above, although the embodiment of the present invention was described, the present invention is not limited at all by the above-mentioned embodiment etc. In addition, the embodiment of the present invention can be variously modified in addition to the above. is there.

<変更例>
上記実施の形態では、複数の選択対象となるオブジェクトを含む画面が実際に表示されたディスプレイ3に対するタッチ操作に基づいて、グローブ着用によるタッチ操作の有無に係る判定が行われる。しかしながら、複数の選択対象となるオブジェクトを含む画面が表示される前に、当該画面以外の他の画面がディスプレイ3に表示される際に、グローブ着用によるタッチ操作の有無に係る判定を行うためのグローブ判定処理が、制御部11により実行されても良い。そして、複数の選択対象となるオブジェクトを含む画面がディスプレイ3に表示されたときに、グローブ判定処理の結果を利用して、選択領域106の表示が行われても良い。
<Modification example>
In the above embodiment, based on the touch operation on the display 3 on which a screen including a plurality of objects to be selected is actually displayed, the determination regarding the presence or absence of the touch operation by glove wearing is performed. However, before a screen including a plurality of objects to be selected is displayed, when a screen other than the screen is displayed on the display 3, the determination regarding the presence or absence of the touch operation by glove wearing is performed. The glove determination process may be performed by the control unit 11. Then, when a screen including a plurality of objects to be selected is displayed on the display 3, the result of the glove determination process may be used to display the selection area 106.

記憶部12には、グローブ判定処理に用いられるグローブ検出フラグが設けられる。   The storage unit 12 is provided with a glove detection flag used for the glove determination process.

図14は、本変更例に係る、グローブ判定処理を示すフローチャートである。グローブ判定処理は、たとえば、ディスプレイ3に他の画面が表示される度に実行される。   FIG. 14 is a flowchart showing glove determination processing according to the present modified example. The glove determination process is performed, for example, each time another screen is displayed on the display 3.

制御部11は、他の画面が表示されたディスプレイ3に対してタッチ操作がなされると(S301)、そのタッチ操作が、グローブを着用したままのタッチ操作であるか否かを判定する(S302)。検出されたタッチ操作が、グローブを着用したままのタッチ操作である場合(S302:YES)、制御部11は、グローブ検出フラグがリセット状態であれば(S303:YES)、グローブ検出フラグをセットし(S304)、グローブ検出フラグがセット状態であれば(S303:NO)、セット状態を維持する。一方、検出されたタッチ操作が、グローブを着用したままのタッチ操作でない場合(S302:NO)、制御部11は、グローブ検出フラグがセット状態であれば(S305:YES)、グローブ検出フラグをリセットし(S306)、グローブ検出フラグがリセット状態であれば(S305:NO)、リセット状態を維持する。   When a touch operation is performed on the display 3 on which another screen is displayed (S301), the control unit 11 determines whether the touch operation is a touch operation while wearing a glove (S302). ). If the detected touch operation is a touch operation while wearing a glove (S302: YES), the control unit 11 sets the glove detection flag if the glove detection flag is in a reset state (S303: YES). (S304) If the glove detection flag is in the set state (S303: NO), the set state is maintained. On the other hand, if the detected touch operation is not the touch operation with the glove worn (S302: NO), the control unit 11 resets the glove detection flag if the glove detection flag is in the set state (S305: YES) If the glove detection flag is in the reset state (S305: NO), the reset state is maintained.

図15は、本変更例に係る、コンタクト情報登録処理を示すフローチャートである。本変更例のコンタクト情報登録処理では、図5に示す上記実施の形態のコンタクト情報登録処理と対比すると、ステップS101の処理とステップS102の処理との間に、ステップS131およびステップS132の処理が追加されている。   FIG. 15 is a flowchart showing contact information registration processing according to the present modification. In the contact information registration process of this modification, in contrast to the contact information registration process of the above embodiment shown in FIG. 5, the processes of step S131 and step S132 are added between the process of step S101 and the process of step S102. It is done.

本変更例では、情報登録画面104が表示されると(S101)、次に、制御部11は、グローブ検出フラグがセットされているか否かを判定する(S131)。即ち、情報登録画面104が表示される以前の画面において、既に、グローブを着用したままのタッチ操作がなされているか否かを判定する。グローブ検出フラグがセットされている場合(S131:YES)、情報登録画面104においてもグローブを着用したままのタッチ操作がなされる可能性が高い。よって、制御部11は、ステップS112の処理と同様、ディスプレイ3に選択領域106を表示させる(S132)。   In the present modified example, when the information registration screen 104 is displayed (S101), next, the control unit 11 determines whether or not the glove detection flag is set (S131). That is, in the screen before the information registration screen 104 is displayed, it is determined whether the touch operation with the glove worn has already been made. When the glove detection flag is set (S131: YES), there is a high possibility that the touch operation with the glove worn may be performed on the information registration screen 104 as well. Therefore, the control unit 11 causes the display 3 to display the selection area 106 as in the process of step S112 (S132).

なお、本変更例の構成が、コンタクト情報登録処理でなく、ブラウジング処理に適用されても良い。この場合は、図10に示すブラウジング処理のステップS201の処理とステップS202の処理との間に、図15に示すステップS131およびステップS132の処理が追加される。   The configuration of the present modification may be applied not to contact information registration processing but to browsing processing. In this case, the processes of step S131 and step S132 shown in FIG. 15 are added between the process of step S201 of the browsing process shown in FIG. 10 and the process of step S202.

このように、本変更例によれば、グローブを着用したままのタッチ操作がなされる可能性が高い場合には、複数の選択対象となるオブジェクトを含む画面が表示されると、タッチ操作を待つことなく、選択領域106が表示されるので、ユーザは、グローブを着用している場合に、素早く、選択領域106を利用することができる。   As described above, according to this modification, when a touch operation with a plurality of objects to be selected is displayed when there is a high possibility that the touch operation with the glove worn is performed, the user waits for the touch operation. Since the selection area 106 is displayed, the user can use the selection area 106 quickly when wearing a glove.

<その他の変更例>
上記実施の形態では、選択領域106内でのスライド操作に基づいてオブジェクトの選択が行われる。しかしながら、これに限られず、スライド操作と同じタッチ位置の移動を伴うタッチ操作である、フリック操作に基づいてオブジェクトの選択が行われても良い。
Other Modifications
In the above embodiment, the selection of the object is performed based on the slide operation in the selection area 106. However, the present invention is not limited to this, and the selection of an object may be performed based on a flick operation, which is a touch operation involving the same movement of the touch position as the slide operation.

さらに、上記実施の形態では、電話帳のアプリケーションおよびウェブブラウザのアプリケーションにグローブ対応制御処理が適用されている。しかしながら、複数の選択対象のオブジェクトを含む画面を実行画面とする他のアプリケーションにグローブ対応制御処理が適用されても良い。   Furthermore, in the above-described embodiment, globe compatible control processing is applied to the application of the telephone directory and the application of the web browser. However, glove corresponding control processing may be applied to other applications in which a screen including a plurality of objects to be selected is an execution screen.

さらに、上記実施の形態において、選択領域106が表示中のタッチ操作に基づいて、グローブによるタッチ操作の有無に係る判定が行われ、そのタッチ操作が、グローブ着用のままのタッチ操作でないと判定されたときに、選択領域106が消去されるような一連の処理が、制御部11により実行されても良い。このようにすれば、ユーザがグローブを外してタッチ操作を行うと、選択領域106がディスプレイ3から消えるので、選択領域106で隠れていた画面部分をディスプレイ3に表示させることができる。   Furthermore, in the above embodiment, based on the touch operation while the selection area 106 is displayed, the determination regarding the presence or absence of the touch operation by the glove is performed, and it is determined that the touch operation is not the touch operation as it is worn. A series of processes may be performed by the control unit 11 so that the selected area 106 is erased when it occurs. In this way, when the user removes the glove and performs a touch operation, the selected area 106 disappears from the display 3, so that the screen portion hidden in the selected area 106 can be displayed on the display 3.

さらに、上記実施の形態の選択領域106に替えて、図16(a)に示す選択領域116が、グローブによるタッチ操作の有無に係る判定に基づいて、ディスプレイ3に表示されても良い。選択領域116は、上下方向に一列に並ぶ複数のバー116aにより構成される。この場合、図16(b)に示すように、下方へのスライド操作に応じて、上から順番に各バー116aが点灯していく。このようにすれば、各バー116aの点灯により、ユーザは、スライド操作が受け付けられたことを認識できる。   Furthermore, instead of the selection area 106 of the above-described embodiment, the selection area 116 shown in FIG. 16A may be displayed on the display 3 based on the determination related to the presence or absence of the touch operation by the glove. The selection area 116 is composed of a plurality of bars 116 a aligned in the vertical direction. In this case, as shown in FIG. 16 (b), the bars 116a light up in order from the top according to the slide operation downward. In this way, the user can recognize that the slide operation has been accepted by the lighting of each bar 116a.

さらに、上記実施の形態では、1回のスライド操作により、選択対象が1つ先のオブジェクトへと移る。しかしながら、スライド操作の長さに応じて、2つ先、3つ先というように、移動するオブジェクトの個数が変わるような構成とされても良い。この場合、上記の選択領域116が用いられると、スライド操作の度合いがユーザに分かりやすくて良い。   Furthermore, in the above-described embodiment, the selection target is shifted to the next object by one slide operation. However, depending on the length of the slide operation, the number of moving objects may be changed, such as two or three ahead. In this case, when the selection area 116 described above is used, the degree of the slide operation may be easily understood by the user.

さらに、上記実施の形態では、スマートフォン型の携帯電話機に本発明が適用されている。しかしながら、これに限らず、ストレート式、折りたたみ式、スライド式等、他のタイプの携帯電話機に本発明が適用されても良い。   Furthermore, in the above embodiment, the present invention is applied to a smartphone-type mobile phone. However, the present invention is not limited to this, and the present invention may be applied to other types of mobile phones such as straight type, folding type, sliding type and the like.

さらに、本発明は、携帯電話機に限られず、PDA(Personal DigitalAssistant)、タブレットPC(Tablet PC)等、種々の携帯端末装置に適用可能である。さらに、本発明は、デジタルカメラ、デジタルビデオカメラ、携帯音楽プレーヤーおよび携帯ゲーム機にも適用可能である。即ち、本発明は、ディスプレイ上で操作が行われる各種の携帯電子機器に適用可能である。   Furthermore, the present invention is not limited to mobile phones, and can be applied to various mobile terminal devices such as PDAs (Personal Digital Assistants) and tablet PCs (Tablet PCs). Furthermore, the present invention is also applicable to digital cameras, digital video cameras, portable music players and portable game machines. That is, the present invention is applicable to various portable electronic devices whose operation is performed on a display.

この他、本発明の実施形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。   In addition to the above, the embodiment of the present invention can be variously modified as appropriate within the scope of the technical idea shown in the claims.

3 ディスプレイ
4 タッチパネル
11 制御部
104a 編集ボックス
105a リンク画像
106 選択領域
3 Display
4 Touch panel
11 control unit 104a edit box 105a link image
106 Selection area

Claims (7)

アプリケーションの画面と、前記画面に重ねられて表示される選択領域の画像と、を表示する表示部と、
前記表示部に対するタッチ操作を検出する操作検出部と、
タッチ操作に応じた制御処理を行う制御部と、を備え、
前記制御部は、
前記タッチ操作による静電容量の変化量および前記タッチ操作による接触面積の少なくとも一つに対応する特徴を前記操作検出部により検出し、
前記特徴が第1の特徴である場合、前記タッチ操作がグローブによる第1タッチ操作と判定し、
前記特徴が第2の特徴である場合、前記タッチ操作が素手による第2タッチ操作と判定し、
前記タッチ操作が前記第1タッチ操作と判定した場合、前記画像を前記画面上に表示し、前記画像を表示した後、前記画像における前記第1タッチ操作に応じて前記画面を操作し、
前記タッチ操作が前記第2タッチ操作と判定した場合、前記画像を前記画面上に表示しない、
ことを特徴とする電子機器。
A display unit for displaying a screen of an application and an image of a selected area displayed superimposed on the screen ;
An operation detection unit that detects a touch operation on the display unit;
A control unit that performs control processing according to the touch operation;
The control unit
The operation detection unit detects a feature corresponding to at least one of an amount of change in capacitance due to the touch operation and a contact area due to the touch operation,
If the feature is a first feature, the touch operation is determined to be a first touch operation by a glove;
If the feature is a second feature, the touch operation is determined to be a second touch operation by a bare hand;
If the touch operation is determined to the first touch operation, before the Kiga image displayed on the screen, after displaying said image, said screen by operating in accordance with the first touch operation in the image,
When the touch operation is determined to be the second touch operation, the image is not displayed on the screen.
An electronic device characterized by
請求項に記載の電子機器において、
前記画面は、前記画像と異なる複数のオブジェクトを含み、
前記制御部は、
前記画像を前記画面上に表示した後、前記画像上においての前記第1タッチ操作による操作に応じて、前記複数のオブジェクトのうちいずれを選択対象とするか変更するよう前記画面を操作する、
ことを特徴とする電子機器。
In the electronic device according to claim 1 ,
The screen includes a plurality of objects different from the image,
The control unit
After the image is displayed on the screen, the screen is operated to change which one of the plurality of objects is to be selected according to an operation by the first touch operation on the image.
An electronic device characterized by
請求項1または2に記載の電子機器において、
前記制御部は、
前記画像を前記画面上に表示した後に、前記タッチ操作が前記第2タッチ操作と判定した場合、前記画像を前記画面上から消去する、
ことを特徴とする電子機器。
In the electronic device according to claim 1 or 2,
The control unit
After the image is displayed on the screen, if the touch operation is determined to be the second touch operation, the image is erased from the screen.
An electronic device characterized by
請求項に記載の電子機器において、
前記制御部は、前記表示部において、前記複数のオブジェクトを表示しない位置に、前記画像を表示させる、
ことを特徴とする電子機器。
In the electronic device according to claim 2 ,
The control unit causes the display unit to display the image at a position where the plurality of objects are not displayed.
An electronic device characterized by
請求項1に記載の電子機器において、
前記制御部は、
前記タッチ操作が前記第2タッチ操作と判定した場合、前記画像を前記画面上に表示しないで、前記第2タッチ操作に応じて前記画面を操作する、
ことを特徴とする電子機器。
In the electronic device according to claim 1,
The control unit
When it is determined that the touch operation is the second touch operation, the screen is operated according to the second touch operation without displaying the image on the screen.
An electronic device characterized by
アプリケーションの画面と、前記画面に重ねられて表示される選択領域の画像と、を表示する表示部と、前記表示部に対するタッチ操作を検出する操作検出部と、を備える電子機器の制御方法であって、
前記タッチ操作による静電容量の変化量および前記タッチ操作による接触面積の少なくとも一つに対応する特徴を前記操作検出部により検出し、
前記特徴が第1の特徴である場合、前記タッチ操作がグローブによる第1タッチ操作と判定し、
前記特徴が第2の特徴である場合、前記タッチ操作が素手による第2タッチ操作と判定し、
前記タッチ操作が前記第1タッチ操作と判定した場合、前記画像を前記画面上に表示し、前記画像を表示した後、前記画像における前記第1タッチ操作に応じて前記画面を操作し、
前記タッチ操作が前記第2タッチ操作と判定した場合、前記画像を前記画面上に表示しない、
ことを特徴とする制御方法。
A control method of an electronic device, comprising: a display unit configured to display an application screen; and an image of a selected area displayed superimposed on the screen; and an operation detection unit configured to detect a touch operation on the display unit. ,
The operation detection unit detects a feature corresponding to at least one of an amount of change in capacitance due to the touch operation and a contact area due to the touch operation,
If the feature is a first feature, the touch operation is determined to be a first touch operation by a glove;
If the feature is a second feature, the touch operation is determined to be a second touch operation by a bare hand;
If the touch operation is determined to the first touch operation, before the Kiga image displayed on the screen, after displaying said image, said screen by operating in accordance with the first touch operation in the image,
When the touch operation is determined to be the second touch operation, the image is not displayed on the screen.
Control method characterized by
アプリケーションの画面と、前記画面に重ねられて表示される選択領域の画像と、を表示する表示部と、前記表示部に対するタッチ操作を検出する操作検出部と、を備える電子機器のコンピュータに、
前記タッチ操作による静電容量の変化量および前記タッチ操作による接触面積の少なくとも一つに対応する特徴を前記操作検出部により検出する機能と、
前記特徴が第1の特徴である場合、前記タッチ操作がグローブによる第1タッチ操作と判定する機能と、
前記特徴が第2の特徴である場合、前記タッチ操作が素手による第2タッチ操作と判定する機能と、
前記タッチ操作が前記第1タッチ操作と判定した場合、前記画像を前記画面上に表示し、前記画像を表示した後、前記画像における前記第1タッチ操作に応じて前記画面を操作する機能と、
前記タッチ操作が前記第2タッチ操作と判定した場合、前記画像を前記画面上に表示しない機能と、を付与する、
ことを特徴とするプログラム。
In a computer of an electronic device, comprising: a display unit that displays an application screen , an image of a selection area displayed overlapping the screen, and an operation detection unit that detects a touch operation on the display unit
A function of detecting, by the operation detection unit, a feature corresponding to at least one of an amount of change in capacitance by the touch operation and a contact area by the touch operation;
A function of determining that the touch operation is a first touch operation by a glove when the feature is a first feature;
If the feature is a second feature, a function of determining that the touch operation is a second touch operation by a bare hand;
If the touch operation is determined to the first touch operation, before the Kiga image displayed on the screen after displaying the image, the ability to manipulate the screen in response to the first touch operation in the image When,
When the touch operation is determined to be the second touch operation, a function of not displaying the image on the screen is provided.
A program characterized by
JP2017171227A 2017-09-06 2017-09-06 Electronic device, control method of electronic device, and program Active JP6538785B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017171227A JP6538785B2 (en) 2017-09-06 2017-09-06 Electronic device, control method of electronic device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017171227A JP6538785B2 (en) 2017-09-06 2017-09-06 Electronic device, control method of electronic device, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014110666A Division JP6208082B2 (en) 2014-05-28 2014-05-28 Portable electronic device, control method and program for portable electronic device

Publications (2)

Publication Number Publication Date
JP2017220256A JP2017220256A (en) 2017-12-14
JP6538785B2 true JP6538785B2 (en) 2019-07-03

Family

ID=60657643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017171227A Active JP6538785B2 (en) 2017-09-06 2017-09-06 Electronic device, control method of electronic device, and program

Country Status (1)

Country Link
JP (1) JP6538785B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019090717A (en) 2017-11-15 2019-06-13 株式会社イシダ Combination metering device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009026155A (en) * 2007-07-20 2009-02-05 Toshiba Corp Input display apparatus and mobile wireless terminal apparatus
JP5397707B2 (en) * 2011-03-29 2014-01-22 カシオ計算機株式会社 Touch display device and program
JP5920343B2 (en) * 2011-06-10 2016-05-18 日本電気株式会社 Input device and touch panel control method
JP5809516B2 (en) * 2011-10-17 2015-11-11 ローム株式会社 TOUCH TYPE INPUT DEVICE, ITS CONTROLLER, CONTROL METHOD, AND ELECTRONIC DEVICE
JP5836105B2 (en) * 2011-12-20 2015-12-24 シャープ株式会社 Information processing apparatus, information processing apparatus control method, information processing apparatus control program, and computer-readable recording medium storing the program
JP2012146324A (en) * 2012-03-23 2012-08-02 Toshiba Corp Information processor
JP2013239010A (en) * 2012-05-15 2013-11-28 Sharp Corp Input device, information processing device, and electrostatic coupling state determination method
JP5579780B2 (en) * 2012-06-06 2014-08-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Input device, input support method, and program
US9678605B2 (en) * 2012-06-28 2017-06-13 Synaptics Incorporated Systems and methods for switching sensing regimes for gloved and ungloved user input
JP5972692B2 (en) * 2012-07-11 2016-08-17 株式会社Nttドコモ User interface device, user interface method and program

Also Published As

Publication number Publication date
JP2017220256A (en) 2017-12-14

Similar Documents

Publication Publication Date Title
JP6046064B2 (en) Mobile device, touch position correction method and program
KR101369655B1 (en) Input receiving device, input receiving method, recording medium, and mobile communication terminal
WO2014104033A1 (en) Portable terminal device, screen control method, and program
KR101154157B1 (en) Touch-sensitive display with capacitive and resistive touch sensors and method of control
WO2014065254A1 (en) Portable terminal device and input operation acceptance method
JP6120731B2 (en) Electronic device and control method of electronic device
WO2014208691A1 (en) Portable device and method for controlling portable device
JP2012141976A (en) Apparatus and method for controlling a screen display in portable terminal
JP5854928B2 (en) Electronic device having touch detection function, program, and control method of electronic device having touch detection function
US20150363040A1 (en) Electronic apparatus and storage medium, and operating method of electronic apparatus
CN106878546B (en) graph display method and terminal
US20160077551A1 (en) Portable apparatus and method for controlling portable apparatus
JP6514061B2 (en) Electronics
JP6538785B2 (en) Electronic device, control method of electronic device, and program
JP5748959B2 (en) Portable electronic devices
US20160202867A1 (en) Electronic apparatus, recording medium and operating method of electronic apparatus
JP2011160375A (en) Communication terminal
JP6208082B2 (en) Portable electronic device, control method and program for portable electronic device
JP5993802B2 (en) Portable device, control program, and control method in portable device
JP6046562B2 (en) Mobile device, control method and program for mobile device
JP5998105B2 (en) Mobile device, control method and program for mobile device
US20130147717A1 (en) Mobile terminal device, storage medium and display control method
JP6047066B2 (en) Portable device, control program, and control method in portable device
JP6321387B2 (en) Portable device, method for detecting touch position of portable device, and program
JP6174956B2 (en) Device having call function, control method and program for device having call function

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190606

R150 Certificate of patent or registration of utility model

Ref document number: 6538785

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150