WO2013108627A1 - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
WO2013108627A1
WO2013108627A1 PCT/JP2013/000211 JP2013000211W WO2013108627A1 WO 2013108627 A1 WO2013108627 A1 WO 2013108627A1 JP 2013000211 W JP2013000211 W JP 2013000211W WO 2013108627 A1 WO2013108627 A1 WO 2013108627A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
icon
proximity sensor
electronics
application
Prior art date
Application number
PCT/JP2013/000211
Other languages
English (en)
French (fr)
Inventor
博 戸田
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Publication of WO2013108627A1 publication Critical patent/WO2013108627A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Definitions

  • the present invention relates to an electronic device such as a smartphone equipped with a proximity sensor.
  • Touch panels include a proximity sensor type that allows input without touching the panel surface. Examples of electronic devices using this type of touch panel are described in Patent Documents 1 and 2.
  • the touch panel device described in Patent Document 1 enlarges an image being displayed on the display only in the vicinity of the finger when the finger approaches the display having the touch panel and the distance from the finger to the touch panel is within a certain range. Like to do.
  • the electro-optical device described in Patent Document 2 detects that the finger has approached a certain distance by light detection, the pixel area near the finger is displayed in black and white.
  • the touch panel device described in Patent Document 1 described above enlarges an image near the finger, and a description of means for solving the problem that an icon at a distance that the finger cannot reach cannot be touched with one hand is described. I can't find it.
  • the electro-optical device described in Patent Document 2 described above displays an image hidden under a finger in black and white, and in this prior art, it is possible to touch an icon at a distance that the finger cannot reach with one hand. There is no description of the means to solve the problem that cannot be done.
  • the present invention has been made in view of such circumstances, and an object of the present invention is to provide an electronic device that can be easily operated with one hand in an electronic device equipped with a proximity sensor.
  • the electronic apparatus includes a display unit and a proximity sensor disposed so as to overlap the display unit, and a distance between the proximity sensor and an object falls within a predetermined range, and When the substantially stationary state of the object is held for a predetermined time or longer, a specific icon is displayed at a position facing the object on the display unit.
  • the position facing the finger on the display unit Since a specific icon is displayed on the screen, it is possible to easily select an icon in a place where a finger has not reached when one-handed operation is performed.
  • the substantially stationary state is a substantially stationary state in a direction parallel to the display unit.
  • the stationary state is limited, so that erroneous operations can be reduced.
  • the object is a finger or a nib.
  • the specific icon is a previously selected icon.
  • the icon can be easily selected when one-hand operation is performed this time.
  • the specific icon is an icon that is most frequently selected in a predetermined period.
  • the specific icon is a preset icon.
  • the icon can be easily selected during one-hand operation.
  • the application is a telephone function.
  • the application has an e-mail function.
  • the application is a browser function.
  • the Internet can be easily accessed even with one-handed operation.
  • FIG. 1 is a block diagram showing a schematic configuration of an electronic device according to Embodiment 1 of the present invention.
  • FIG. 1 is a block diagram showing a schematic configuration of an electronic apparatus according to Embodiment 1 of the present invention.
  • an electronic apparatus 1 according to the present embodiment includes a proximity sensor 2, a detection unit 3, a determination unit 4, a storage unit 5, and a display unit 6.
  • the electronic device 1 according to the present embodiment includes a proximity sensor 2 that corresponds to a touch panel such as a smartphone.
  • the detection unit 3, the determination unit 4, and the storage unit 5 include a CPU, a volatile memory such as a RAM, a non-volatile memory such as a ROM, and a mass storage device such as a hard disk or an SSD (Solid State Drive). (Microcomputer) 7.
  • the proximity sensor 2 is arranged so as to overlap the display unit 6 and detects that a finger or a pen tip as an object is approaching.
  • the main methods of the proximity sensor 2 include an induction type, a capacitance type, an ultrasonic type, an electromagnetic wave type, and an infrared type.
  • the detection unit 3 outputs coordinate information (X, Y, Z) of the object detected by the proximity sensor 2.
  • the determination unit 4 is based on the coordinate information (X, Y, Z) output from the detection unit 3, the distance between the proximity sensor 2 and the target is within a predetermined range, and is an abbreviation of the target with respect to the proximity sensor 2. It is determined whether or not the stationary state is longer than a predetermined time.
  • the storage unit 5 If it is determined that the condition is satisfied, it is confirmed whether or not information (application information) related to the previously selected application is stored in the storage unit 5.
  • a display command for displaying the icon of the application previously selected by the user is output to the display unit 6 together with the coordinate information (X, Y).
  • the determination unit 4 has a timer (not shown) for measuring the time during which the substantially stationary state of the object is held.
  • the display unit 6 obtains the display command output from the determination unit 4 and the coordinate information (X, Y), thereby displaying the icon of the previously selected application at a position based on the coordinate information (X, Y).
  • FIGS. 2A and 2B are schematic diagrams showing functions of the determination unit 4.
  • (A) of the same figure is a figure which shows the positional relationship of the proximity sensor 2 and the finger
  • FIG. Moreover, (b) of the figure is a figure which shows the time change of the distance Z of the proximity sensor 2 and the finger
  • the distance Z between the proximity sensor 2 and the finger 100 falls within a predetermined range (Z1 ⁇ Z ⁇ Z2), the position (X, Y) on the plane hardly moves, and the state has passed a predetermined time Th.
  • ⁇ t (t2 ⁇ t1) ⁇ Th the icon 10 of the previously selected application is displayed at the coordinates (X, Y) near the finger 100.
  • FIG. 3 is a flowchart for explaining the operation of electronic device 1 according to the first embodiment.
  • the detection unit 3 first determines whether the proximity sensor 2 has detected an object (step S1). When it is determined that the object is not detected (that is, when “No” is determined in the determination of step S1), this step is repeated until the proximity sensor 2 detects the object. On the other hand, when it is determined that the proximity sensor 2 has detected the object (that is, when “Yes” is determined in the determination of step S1), the coordinates (X, Y, Z) of the object are output from the output of the proximity sensor 2. ) Is calculated (step S2).
  • step S6 the process proceeds to step S4.
  • Step S7 it is determined whether or not the time T during which the substantially stationary state of the object continues has exceeded a predetermined time Th. That is, it is determined whether T ⁇ Th. If it is determined that the time T has not passed the predetermined time Th (that is, if “No” is determined in the determination in step S7), the process returns to step S6. When the process returns to step S6, the timer count is incremented by 1, and the processes of step S6 and step S7 are performed again.
  • the determination unit 4 selects the previous time from the storage unit 5 when it is determined that the time T for which the substantially stationary state of the object continues has passed the predetermined time Th (that is, when “Yes” is determined in step S7).
  • the acquired application information is acquired, and a display command and coordinate information (X, Y) based on the acquired application information are output to the display unit 6 (step S8).
  • the display unit 6 acquires the coordinate information (X, Y) and the display command output from the determination unit 4, the display unit 6 displays the icon of the previously selected application at the coordinate (X, Y) (step S9). After performing this process, the present process ends.
  • the electronic device 1 includes the display unit 6 and the proximity sensor 2 disposed so as to overlap the display unit 6, and the proximity sensor 2 and the finger or the pen tip that is the object If the distance between the object and the proximity sensor 2 is within a predetermined range and the target object is in a substantially stationary state after a predetermined time, the icon of the previously selected application is displayed at a position facing the object on the display unit 6. Since it is displayed, it is possible to easily select an icon in a place where the finger has not reached, particularly when one-handed operation is performed with the finger.
  • FIG. 4 is a flowchart for explaining the operation of the electronic apparatus 1 in such a case. In the figure, steps S1 to S7 are the same as described with reference to FIG. In FIG.
  • step S when the determination unit 4 determines in step S ⁇ b> 7 that the predetermined time Th has passed the time T during which the substantially stationary state of the object continues, information on the application with the highest selection frequency from the storage unit 5. Is acquired (step S10). Next, the icon of the application with the highest selection frequency is displayed at the coordinates (X, Y) (step S11). Thus, the icon of the application with the highest selection frequency is displayed at a position facing the object on the display unit 6. Even in this way, similarly to the electronic device 1 according to the first embodiment, when one-handed operation is performed, it is possible to easily select an icon in a place where the finger has not reached.
  • FIG. 5 is a block diagram showing a schematic configuration of an electronic apparatus according to Embodiment 2 of the present invention.
  • the electronic device 20 according to the second embodiment adopts a configuration in which an input unit 21 that allows a user to set a desired application is added to the circuit configuration of the electronic device 1 shown in FIG.
  • the user uses the input unit 21 to set a desired application.
  • the distance between the proximity sensor 2 and the target object falls within a predetermined range, and when the substantially stationary state of the target object with respect to the proximity sensor 2 has passed a predetermined time, the application Is displayed near the object.
  • FIG. 6 is a flowchart for explaining the operation of the electronic device 20 according to the second embodiment.
  • steps S1 to S3 and steps S5 to S7 are the same as described with reference to FIG.
  • step S5 when the determination unit 4 determines in step S3 that the distance Z between the object and the proximity sensor 2 is not within a predetermined range (Z1 ⁇ Z ⁇ Z2), no icon is displayed. This operation is executed (step S15), and this process is finished.
  • the determination unit 4 determines in step S7 that the time T during which the substantially stationary state of the object continues has passed the predetermined time Th, the information on the application preset by the user using the input unit 21 is obtained. Obtained from the storage unit 5 (step S16).
  • an application icon set by the user is displayed at coordinates (X, Y), and then the application is activated (step S17).
  • the application is started after the icon of the application set by the user is displayed at a position facing the object of the display unit 6. Even in this way, similarly to the electronic device 1 according to the first embodiment, when one-handed operation is performed, it is possible to easily select and activate an icon in a place where a finger has not reached.
  • the distance between the proximity sensor 2 and the target object is within a predetermined range, and the substantially stationary state of the target object with respect to the proximity sensor 2 has passed a predetermined time.
  • the application icon designated in advance by the user is displayed and the application is activated. Specifically, the user may initiate a call to the other party designated in advance. A new mail may be activated to a partner designated in advance by the user, or a browser having a URL (Uniform Resource Locator) designated in advance by the user may be launched.
  • URL Uniform Resource Locator
  • step S16 processing information for calling the designated partner is acquired from the storage unit 5, and the process is started in step S17. Further, when starting a new mail to the designated partner, in step S16, processing information for sending a new mail to the designated partner is obtained from the storage unit 5, and the process is started in step S17. If the browser with the designated URL is to be launched, information about the process for launching the browser with the designated URL is acquired from the storage unit 5 in step S16, and the process is started in step S17.
  • a program describing processing (each processing in FIGS. 3, 4, and 6) in each of the electronic device 1 according to the first embodiment, its application example, and the electronic device 20 according to the second embodiment is stored on a magnetic disk. It is also possible to store and distribute in a storage medium such as an optical disk, a magneto-optical disk, or a semiconductor memory, or distribute using an electric communication line such as the Internet.
  • the present invention has an effect that one-handed operation can be easily performed in an electronic device equipped with a proximity sensor, and can be applied to an electronic device equipped with a large proximity sensor such as a smartphone.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 表示部6と、表示部6に重ねて配置された近接センサ2と、を備え、近接センサ2と対象物である指又はペン先との距離が所定の範囲内に入り、かつ近接センサ2に対する対象物の略静止状態が所定の時間を経過した場合、表示部6の対象物に対向する位置に前回選択されたアプリケーションのアイコンを表示する。これにより、特に指で片手操作する際に、指が届かなかった場所にあるアイコンも容易に選択することが可能となる。

Description

電子機器
 本発明は、近接センサを搭載したスマートフォン等の電子機器に関する。
 タッチパネルには、パネル面に触れなくても入力が可能な近接センサ型のものがある。この種のタッチパネルを用いた電子機器の一例が特許文献1,2に記載されている。特許文献1に記載されたタッチパネル装置は、タッチパネルを有するディスプレイに指が接近し、その指からタッチパネルまでの距離がある一定の範囲内のときに、ディスプレイに表示中の画像を指の近傍だけ拡大するようにしている。特許文献2に記載された電気光学装置は、光検出により、指がある一定距離に近づいたことを検知すると、指の近傍の画素領域を白黒表示するようにしている。
日本国特開平11-65769号公報 日本国特開2009-199204号公報
 ところで、図7に示すように、タッチパネルを搭載した電子機器で片手操作する際、指が届かない距離にあるアイコンに触れることができず、片手での操作が困難であるという課題がある。
 なお、前述した特許文献1に記載されたタッチパネル装置は、指近傍の画像を拡大するものであり、指が届かない距離にあるアイコンに片手で触れることができないという課題を解決する手段の記載は見当たらない。また、前述した特許文献2に記載された電気光学装置は、指の下に隠れる画像を白黒表示するものであり、この先行技術にも、指が届かない距離にあるアイコンに片手で触れることができないという課題を解決する手段の記載は見当たらない。
 本発明は、係る事情に鑑みてなされたものであり、近接センサを搭載した電子機器において、容易に片手操作を行うことができる電子機器を提供することを目的とする。
 本発明の電子機器は、表示部と、前記表示部に重ねて配置された近接センサと、を備え、前記近接センサと対象物との距離が所定の範囲内に入り、かつ前記近接センサに対する前記対象物の略静止状態が所定の時間以上保持された場合に、前記表示部の前記対象物に対向する位置に、特定のアイコンを表示する。
 上記構成によれば、例えば指が近接センサに対して所定の距離範囲内に入り、かつ近接センサに対する指の略静止状態が所定の時間以上である場合に、表示部の該指に対向する位置に特定のアイコンを表示するので、片手操作する際に、指が届かなかった場所にあるアイコンも容易に選択することが可能となる。
 上記構成において、前記略静止状態は、前記表示部に平行な方向に関する略静止状態である。
 上記構成によれば、静止状態を限定するので、誤操作を少なくできる。
 上記構成において、前記対象物は、指又はペン先である。
 上記構成において、前記特定のアイコンは、前回選択されたアイコンである。
 上記構成によれば、前回選択されたアイコンが、片手操作時に指が届かなかった位置にあるものであれば、今回片手操作を行った際に、当該アイコンを容易に選択することが可能となる。
 上記構成において、前記特定のアイコンは、所定の期間において最も選択頻度の高いアイコンである。
 上記構成によれば、片手操作時における操作性向上が図れる。
 上記構成において、前記特定のアイコンは、予め設定されたアイコンである。
 上記構成によれば、例えば、片手操作時に指が届かない位置にあるアイコンを登録しておくことで、片手操作時に当該アイコンを容易に選択することが可能となる。
 上記構成において、前記予め設定されたアイコンを表示した上で、該アイコンに対応するアプリケーションを実行する。
 上記構成によれば、片手操作時に指が届かない位置にあるアイコンに対するアプリケーションを容易に実行させることが可能となる。
 上記構成において、前記アプリケーションは、電話機能である。
 上記構成によれば、片手操作でも容易に電話をかけることが可能となる。
 上記構成において、前記アプリケーションは、電子メール機能である。
 上記構成によれば、片手操作でも容易に電子メールの送受信を行うことが可能となる。
 上記構成において、前記アプリケーションは、ブラウザ機能である。
 上記構成によれば、片手操作でも容易にインターネットにアクセスすることが可能となる。
 本発明によれば、近接センサを搭載した電子機器において、片手操作時における操作性向上を図ることができる。
本発明の実施の形態1に係る電子機器の概略構成を示すブロック図 (a),(b)図1の電子機器の判定部の機能を示す模式図 図1の電子機器の動作を説明するためのフローチャート 図1の電子機器の応用例の動作を説明するためのフローチャート 本発明の実施の形態2に係る電子機器の概略構成を示すブロック図 図5に示す電子機器の動作を説明するためのフローチャート 従来のタッチパネルを搭載した電子機器における問題点を説明するための図
 以下、本発明を実施するための好適な実施の形態について、図面を参照して詳細に説明する。
 (実施の形態1)
 図1は、本発明の実施の形態1に係る電子機器の概略構成を示すブロック図である。同図において、本実施の形態の電子機器1は、近接センサ2と、検出部3と、判定部4と、記憶部5と、表示部6とを備える。本実施の形態の電子機器1は、例えばスマートフォン等のタッチパネルに相当する近接センサ2を搭載したものである。検出部3、判定部4及び記憶部5は、CPU、RAM等の揮発性メモリ、及びROM等の不揮発性メモリ、及びハードディスク又はSSD(Solid State Drive)等の大容量記憶装置等を備えたコンピュータ(マイクロコンピュータ)7によって構成される。
 近接センサ2は、表示部6に重ねて配置され、対象物である指又はペン先が近づいたことを検知する。近接センサ2の主な方式としては、誘導型、静電容量型、超音波型、電磁波型、赤外線型などがある。検出部3は、近接センサ2で検知された対象物の座標情報(X,Y,Z)を出力する。判定部4は、検出部3から出力された座標情報(X,Y,Z)に基づき、近接センサ2と対象物との距離が所定の範囲内に入り、かつ近接センサ2に対する対象物の略静止状態が所定の時間以上であるかどうか判定し、当該条件を満たすと判断した場合、前回選択したアプリケーションに関する情報(アプリケーション情報)が記憶部5に記憶されているかどうか確認する。該当するアプリケーション情報が記憶部5に記憶されていることを確認すると、ユーザが前回選択したアプリケーションのアイコンを表示させるための表示コマンドを、座標情報(X,Y)と共に表示部6に出力する。判定部4は、対象物の略静止状態が保持された時間を測定するためのタイマ(図示略)を有している。表示部6は、判定部4から出力された表示コマンドと座標情報(X,Y)を得ることで、該座標情報(X,Y)に基づく位置に前回選択されたアプリケーションのアイコンを表示する。
 図2(a),(b)は、判定部4の機能を示す模式図である。同図の(a)は、近接センサ2と指100との位置関係を示す図である。また、同図の(b)は、近接センサ2と指100との距離Zの時間的変化を示す図であり、縦軸が距離Z、横軸が時間tである。近接センサ2と指100との距離Zが所定の範囲(Z1<Z<Z2)内に入り、平面上の位置(X,Y)が殆ど動かず、さらに、その状態が所定時間Thを経過したときに(△t(t2-t1)≧Thのときに)、指100の近傍の座標(X,Y)に前回選択されたアプリケーションのアイコン10が表示される。
 次に、実施の形態1に係る電子機器1の動作について説明する。
 図3は、実施の形態1に係る電子機器1の動作を説明するためのフローチャートである。同図において、まず検出部3は、近接センサ2が対象物を検知したかどうか判定する(ステップS1)。対象物を検知していないと判断した場合(即ち、ステップS1の判定で「No」と判断した場合)、近接センサ2が対象物を検知するまで本ステップを繰り返す。これに対し、近接センサ2が対象物を検知したと判断した場合(即ち、ステップS1の判定で「Yes」と判断した場合)、近接センサ2の出力から対象物の座標(X,Y,Z)を算出する(ステップS2)。
 検出部3が対象物の座標(X,Y,Z)を算出した後、判定部4が、対象物と近接センサ2との距離Zが所定の範囲(Z1<Z<Z2)内かどうか判定する(ステップS3)。当該距離Zが所定の範囲内でないと判断した場合(即ち、ステップS3の判定で「No」と判断した場合)、アイコンを表示せず、それ以外の動作を実行し(ステップS4)、本処理を終える。これに対し、当該距離Zが所定の範囲内であると判断した場合(即ち、ステップS3の判定で「Yes」と判断した場合)、対象物の略静止状態が継続する時間を測定するために、タイマにT=0を設定し、測定を開始する(ステップS5)。
 そして、時間Tにおいて、対象物と近接センサ2との距離Zが、Z1<Z(T)<Z2、かつ対象物と近接センサ2のX軸方向の距離が、X(0)-dx<X(T)<X(0)+dx、かつ対象物と近接センサ2のY軸方向の距離が、Y(0)-dy<Y(T)<Y(0)+dyの3条件を同時に満足するかどうか判定する(ステップS6)。時間Tにおいて同条件を満足しないと判断した場合(即ち、ステップS6の判定で「No」と判断した場合)、ステップS4の処理に移行する。これに対し、同条件を満足すると判断した場合(即ち、ステップS6の判定で「Yes」と判断した場合)、対象物の略静止状態が継続する時間Tが所定時間Thを経過したかどうか判定する(ステップS7)。即ち、T≧Thかどうか判定する。当該時間Tが所定時間Thを経過していないと判断した場合(即ち、ステップS7の判定で「No」と判断した場合)、ステップS6に戻る。ステップS6に戻った場合、タイマのカウントを1つ増加させて、再びステップS6及びステップS7の処理を行う。
 判定部4は、対象物の略静止状態が継続する時間Tが所定時間Thを経過したと判断した場合(即ち、ステップS7の判定で「Yes」と判断した場合)、記憶部5から前回選択されたアプリケーションの情報を取得し、取得したアプリケーション情報に基づく表示コマンドと座標情報(X,Y)を表示部6に出力する(ステップS8)。表示部6は、判定部4から出力された座標情報(X,Y)と表示コマンドを取得すると、座標(X,Y)に前回選択されたアプリケーションのアイコンを表示する(ステップS9)。当該処理を行った後、本処理を終える。
 このように実施の形態1に係る電子機器1によれば、表示部6と、表示部6に重ねて配置された近接センサ2と、を備え、近接センサ2と対象物である指又はペン先との距離が所定の範囲内に入り、かつ近接センサ2に対する対象物の略静止状態が所定の時間を経過した場合、表示部6の対象物に対向する位置に前回選択されたアプリケーションのアイコンを表示するので、特に指で片手操作する際に、指が届かなかった場所にあるアイコンも容易に選択することが可能となる。
 なお、実施の形態1に係る電子機器1では、近接センサ2と対象物との距離が所定の範囲内に入り、かつ近接センサ2に対する対象物の略静止状態が所定の時間経過した場合、対象物の近傍の座標に前回選択されたアプリケーションのアイコンを表示するようにしたが、所定の期間において選択頻度が最も高いアプリケーションのアイコンを表示するようにしても良い。図4は、そのようにした場合の電子機器1の動作を説明するためのフローチャートである。同図において、ステップS1~ステップS7の各処理は、図3で説明した通りであるので省略する。図4において、判定部4は、ステップS7の判定で、対象物の略静止状態が継続する時間Tが所定時間Thを経過したと判断した場合、記憶部5から最も選択頻度の高いアプリケーションの情報を取得する(ステップS10)。次いで、座標(X,Y)に、最も選択頻度の高いアプリケーションのアイコンを表示する(ステップS11)。このように、表示部6の対象物に対向する位置に、最も選択頻度の高いアプリケーションのアイコンを表示する。このようにしても実施の形態1に係る電子機器1と同様に、片手操作する際に、指が届かなかった場所にあるアイコンを容易に選択することが可能となる。
 (実施の形態2)
 図5は、本発明の実施の形態2に係る電子機器の概略構成を示すブロック図である。同図において、実施の形態2に係る電子機器20は、図1に示す電子機器1の回路構成に、ユーザが所望のアプリケーションを設定できる入力部21を追加した構成を採る。ユーザは、入力部21を使用して所望のアプリケーションを設定する。ユーザが所望のアプリケーションを設定することで、近接センサ2と対象物との距離が所定の範囲内に入り、かつ近接センサ2に対する対象物の略静止状態が所定の時間を経過した場合、当該アプリケーションのアイコンが対象物の近傍に表示される。
 図6は、実施の形態2に係る電子機器20の動作を説明するためのフローチャートである。同図において、ステップS1~ステップS3及びステップS5~ステップS7の各処理は、図3で説明した通りであるので省略する。図5において、判定部4は、ステップS3で、対象物と近接センサ2との距離Zが所定の範囲(Z1<Z<Z2)内でないと判断した場合、アイコンの表示をせず、それ以外の動作を実行し(ステップS15)、本処理を終える。また、判定部4は、ステップS7で、対象物の略静止状態が継続する時間Tが所定時間Thを経過したと判断した場合、ユーザが入力部21を使用して予め設定したアプリケーションの情報を記憶部5から取得する(ステップS16)。次いで、座標(X,Y)に、ユーザが設定したアプリケーションのアイコンを表示した上で該アプリケーションを起動する(ステップS17)。このように、表示部6の対象物に対向する位置に、ユーザが設定したアプリケーションのアイコンを表示した上で該アプリケーションを起動する。このようにしても実施の形態1に係る電子機器1と同様に、片手操作する際に、指が届かなかった場所にあるアイコンを容易に選択し、起動させることが可能となる。
 なお、上記実施の形態2に係る電子機器20においては、近接センサ2と対象物との距離が所定の範囲内に入り、かつ近接センサ2に対する対象物の略静止状態が所定の時間を経過した場合に、ユーザが予め指定したアプリケーションのアイコンを表示した上で、該アプリケーションを起動するようにしたが、具体的には、ユーザが予め指定した相手への電話を開始するようにしても良いし、ユーザが予め指定した相手への新規メールの起動を行うようにしても良いし、さらに、ユーザが予め指定したURL(Uniform Resource Locator)のブラウザを立ち上げるようにしても良い。
 ここで、指定した相手への電話を開始する場合は、ステップS16で、指定した相手に電話をかけるための処理の情報を記憶部5から取得し、ステップS17で当該処理を開始する。また、指定した相手への新規メールの起動を行う場合は、ステップS16で、指定した相手に新規メールを行うための処理の情報を記憶部5から取得し、ステップS17で当該処理を開始する。また、指定したURLのブラウザを立ち上げる場合は、ステップS16で、指定したURLのブラウザを立ち上げるための処理の情報を記憶部5から取得し、ステップS17で当該処理を開始する。
 また、上記実施の形態1に係る電子機器1、その応用例及び実施の形態2に係る電子機器20それぞれにおける処理(図3、図4及び図6の各処理)を記述したプログラムを、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ等の記憶媒体に格納して配布したり、インターネット等の電気通信回線を利用して配布したりすることも可能である。
 本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
 本出願は、2012年1月17日出願の日本特許出願(特願2012-007171)に基づくものであり、その内容はここに参照として取り込まれる。
 本発明は、近接センサを搭載した電子機器において、片手操作を容易に行うことができるといった効果を有し、スマートフォン等の大型の近接センサを搭載した電子機器への適用が可能である。
 1,20 電子機器
 2 近接センサ
 3 検出部
 4 判定部
 5 記憶部
 6 表示部
 7 コンピュータ
 10 アイコン
 21 入力部

Claims (10)

  1.  表示部と、
     前記表示部に重ねて配置された近接センサと、を備え、
     前記近接センサと対象物との距離が所定の範囲内に入り、かつ前記近接センサに対する前記対象物の略静止状態が所定の時間以上保持された場合に、
     前記表示部の前記対象物に対向する位置に、特定のアイコンを表示する、
     電子機器。
  2.  請求項1に記載の電子機器であって、
     前記略静止状態は、前記表示部に平行な方向に関する略静止状態である、
     電子機器。
  3.  請求項1又は請求項2に記載の電子機器であって、
     前記対象物は、指又はペン先である、
     電子機器。
  4.  請求項1から請求項3のいずれか1項に記載の電子機器であって、
     前記特定のアイコンは、前回選択されたアイコンである、
     電子機器。
  5.  請求項1から請求項3のいずれか1項に記載の電子機器であって、
     前記特定のアイコンは、所定の期間において最も選択頻度の高いアイコンである、
     電子機器。
  6.  請求項1から請求項3のいずれか1項に記載の電子機器であって、
     前記特定のアイコンは、予め設定されたアイコンである、
     電子機器。
  7.  請求項6に記載の電子機器であって、
     前記予め設定されたアイコンを表示した上で、該アイコンに対応するアプリケーションを実行する、
     電子機器。
  8.  請求項7に記載の電子機器であって、
     前記アプリケーションは、電話機能である、
     電子機器。
  9.  請求項7に記載の電子機器であって、
     前記アプリケーションは、電子メール機能である、
     電子機器。
  10.  請求項7に記載の電子機器であって、
     前記アプリケーションは、ブラウザ機能である、
     電子機器。
PCT/JP2013/000211 2012-01-17 2013-01-17 電子機器 WO2013108627A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012007171A JP2015062091A (ja) 2012-01-17 2012-01-17 電子機器
JP2012-007171 2012-01-17

Publications (1)

Publication Number Publication Date
WO2013108627A1 true WO2013108627A1 (ja) 2013-07-25

Family

ID=48799058

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/000211 WO2013108627A1 (ja) 2012-01-17 2013-01-17 電子機器

Country Status (2)

Country Link
JP (1) JP2015062091A (ja)
WO (1) WO2013108627A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7165604B2 (ja) * 2019-03-06 2022-11-04 日産自動車株式会社 仮想オブジェクト出力装置及び仮想オブジェクト出力方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2282172A1 (en) * 2009-07-27 2011-02-09 HTC Corporation Method for operating navigation frame, navigation apparatus and computer program product
JP2011134273A (ja) * 2009-12-25 2011-07-07 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2011215313A (ja) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd 地図表示装置、及び、プログラム
JP2012009009A (ja) * 2010-05-28 2012-01-12 Panasonic Corp 情報端末、画面部品表示方法、プログラム、及び記録媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2282172A1 (en) * 2009-07-27 2011-02-09 HTC Corporation Method for operating navigation frame, navigation apparatus and computer program product
JP2011134273A (ja) * 2009-12-25 2011-07-07 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2011215313A (ja) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd 地図表示装置、及び、プログラム
JP2012009009A (ja) * 2010-05-28 2012-01-12 Panasonic Corp 情報端末、画面部品表示方法、プログラム、及び記録媒体

Also Published As

Publication number Publication date
JP2015062091A (ja) 2015-04-02

Similar Documents

Publication Publication Date Title
US10073493B2 (en) Device and method for controlling a display panel
JP5732580B2 (ja) 電子機器および座標検出方法
AU2014200701B2 (en) Method and electronic device for displaying virtual keypad
JP5620440B2 (ja) 表示制御装置、表示制御方法及びプログラム
US9542904B2 (en) Electronic apparatus
JP2015053033A (ja) 電子機器および座標検出方法
US20160328143A1 (en) Application display method and terminal
US20160034131A1 (en) Methods and systems of a graphical user interface shift
JP2012168890A (ja) 表示装置、通信装置及びプログラム
JP2011048606A (ja) 入力装置
CN106168894B (zh) 一种内容显示方法及移动终端
US20140247218A1 (en) Modifying key size on a touch screen based on fingertip location
TWM486792U (zh) 行動裝置
JP7043166B2 (ja) 表示制御装置、表示制御システム及び表示制御方法
WO2014029910A1 (en) Methods, apparatuses, and computer program products for determination of the digit being used by a user to provide input
US9760277B2 (en) Electronic device and method for detecting proximity input and touch input
TW201102884A (en) Touch-controlled electronic apparatus and related control method
WO2014057929A1 (ja) ユーザインタフェース装置、ユーザインタフェース方法及びプログラム
WO2014148090A1 (ja) 情報処理装置及び情報処理方法
JP2015215840A (ja) 情報処理装置及び入力方法
WO2013108627A1 (ja) 電子機器
JP2015035206A (ja) 電子機器および座標検出方法
JP6069117B2 (ja) 電子機器及び制御プログラム並びに動作方法
JP2017084216A (ja) 入力処理装置、及びそれを備えた画像形成装置
EP2956850A1 (en) Methods, apparatuses, and computer program products for executing functions based on hover gestures or touch gestures

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13738441

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 13738441

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP

NENP Non-entry into the national phase

Ref country code: DE