JP2015062091A - Electronic apparatus - Google Patents

Electronic apparatus Download PDF

Info

Publication number
JP2015062091A
JP2015062091A JP2012007171A JP2012007171A JP2015062091A JP 2015062091 A JP2015062091 A JP 2015062091A JP 2012007171 A JP2012007171 A JP 2012007171A JP 2012007171 A JP2012007171 A JP 2012007171A JP 2015062091 A JP2015062091 A JP 2015062091A
Authority
JP
Japan
Prior art keywords
icon
electronic device
proximity sensor
electronics
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012007171A
Other languages
Japanese (ja)
Inventor
博 戸田
Hiroshi Toda
博 戸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2012007171A priority Critical patent/JP2015062091A/en
Priority to PCT/JP2013/000211 priority patent/WO2013108627A1/en
Publication of JP2015062091A publication Critical patent/JP2015062091A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus that has a proximity sensor mounted thereon and can be easily operated with one hand.SOLUTION: An electronic apparatus includes a display part 6, and a proximity sensor 2 arranged overlapped with the display part 6; when the distance between the proximity sensor 2 and a finger or the tip of a pen being an object falls within a predetermined range, and the object has been in a substantially static state with respect to the proximity sensor 2 for a predetermined time, the electronic apparatus displays the icon of a previously selected application at a position on the display part 6 opposite to the object. Thus, icons can be easily selected, which are located at positions that cannot be reached with a finger when the electronic apparatus is operated with one hand especially with a finger.

Description

本発明は、近接センサを搭載したスマートフォン等の電子機器に関する。   The present invention relates to an electronic device such as a smartphone equipped with a proximity sensor.

タッチパネルには、パネル面に触れなくても入力が可能な近接センサ型のものがある。この種のタッチパネルを用いた電子機器の一例が特許文献1,2に記載されている。特許文献1に記載されたタッチパネル装置は、タッチパネルを有するディスプレイに指が接近し、その指からタッチパネルまでの距離がある一定の範囲内のときに、ディスプレイに表示中の画像を指の近傍だけ拡大するようにしている。特許文献2に記載された電気光学装置は、光検出により、指がある一定距離に近づいたことを検知すると、指の近傍の画素領域を白黒表示するようにしている。   There is a proximity sensor type touch panel that allows input without touching the panel surface. Examples of electronic devices using this type of touch panel are described in Patent Documents 1 and 2. The touch panel device described in Patent Document 1 enlarges an image being displayed on the display only in the vicinity of the finger when the finger approaches the display having the touch panel and the distance from the finger to the touch panel is within a certain range. Like to do. When the electro-optical device described in Patent Document 2 detects that the finger has approached a certain distance by light detection, the pixel area near the finger is displayed in black and white.

特開平11−65769号公報Japanese Patent Laid-Open No. 11-65769 特開2009−199204号公報JP 2009-199204 A

ところで、図7に示すように、タッチパネルを搭載した電子機器で片手操作する際、指が届かない距離にあるアイコンに触れることができず、片手での操作が困難であるという課題がある。   By the way, as shown in FIG. 7, when one-handed operation is performed with an electronic device equipped with a touch panel, there is a problem that it is difficult to operate with one hand because it is impossible to touch an icon at a distance that a finger cannot reach.

なお、前述した特許文献1に記載されたタッチパネル装置は、指近傍の画像を拡大するものであり、指が届かない距離にあるアイコンに片手で触れることができないという課題を解決する手段の記載は見当たらない。また、前述した特許文献2に記載された電気光学装置は、指の下に隠れる画像を白黒表示するものであり、この先行技術にも、指が届かない距離にあるアイコンに片手で触れることができないという課題を解決する手段の記載は見当たらない。   Note that the touch panel device described in Patent Document 1 described above enlarges an image near the finger, and a description of means for solving the problem that an icon at a distance that the finger cannot reach cannot be touched with one hand is described. I can't find it. Further, the electro-optical device described in Patent Document 2 described above displays an image hidden under a finger in black and white, and in this prior art, it is possible to touch an icon at a distance that the finger cannot reach with one hand. There is no description of the means to solve the problem that cannot be done.

本発明は、係る事情に鑑みてなされたものであり、近接センサを搭載した電子機器において、容易に片手操作を行うことができる電子機器を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an electronic device that can be easily operated with one hand in an electronic device equipped with a proximity sensor.

本発明の電子機器は、表示部と、前記表示部に重ねて配置された近接センサと、を備え、前記近接センサと対象物との距離が所定の範囲内に入り、かつ前記近接センサに対する前記対象物の略静止状態が所定の時間以上保持された場合に、前記表示部の前記対象物に対向する位置に、特定のアイコンを表示する。   The electronic apparatus according to the present invention includes a display unit and a proximity sensor disposed so as to overlap the display unit, and a distance between the proximity sensor and an object falls within a predetermined range, and When the substantially stationary state of the object is held for a predetermined time or longer, a specific icon is displayed at a position facing the object on the display unit.

上記構成によれば、例えば指が近接センサに対して所定の距離範囲内に入り、かつ近接センサに対する指の略静止状態が所定の時間以上である場合に、表示部の該指に対向する位置に特定のアイコンを表示するので、片手操作する際に、指が届かなかった場所にあるアイコンも容易に選択することが可能となる。   According to the above configuration, for example, when the finger is within a predetermined distance range with respect to the proximity sensor and the finger is substantially stationary with respect to the proximity sensor for a predetermined time or more, the position facing the finger on the display unit Since a specific icon is displayed on the screen, it is possible to easily select an icon in a place where a finger has not reached when one-handed operation is performed.

上記構成において、前記略静止状態は、前記表示部に平行な方向に関する略静止状態である。   The said structure WHEREIN: The said substantially stationary state is a substantially stationary state regarding the direction parallel to the said display part.

上記構成によれば、静止状態を限定するので、誤操作を少なくできる。   According to the above configuration, the stationary state is limited, so that erroneous operations can be reduced.

上記構成において、前記対象物は、指又はペン先である。   In the above configuration, the object is a finger or a nib.

上記構成において、前記特定のアイコンは、前回選択されたアイコンである。   In the above configuration, the specific icon is a previously selected icon.

上記構成によれば、前回選択されたアイコンが、片手操作時に指が届かなかった位置にあるものであれば、今回片手操作を行った際に、当該アイコンを容易に選択することが可能となる。   According to the above configuration, if the previously selected icon is in a position where the finger did not reach during one-hand operation, the icon can be easily selected when one-hand operation is performed this time. .

上記構成において、前記特定のアイコンは、所定の期間において最も選択頻度の高いアイコンである。   In the above configuration, the specific icon is an icon that is most frequently selected in a predetermined period.

上記構成によれば、片手操作時における操作性向上が図れる。   According to the said structure, the operativity improvement at the time of one hand operation can be aimed at.

上記構成において、前記特定のアイコンは、予め設定されたアイコンである。   In the above configuration, the specific icon is a preset icon.

上記構成によれば、例えば、片手操作時に指が届かない位置にあるアイコンを登録しておくことで、片手操作時に当該アイコンを容易に選択することが可能となる。   According to the above configuration, for example, by registering an icon at a position where a finger cannot reach during one-hand operation, the icon can be easily selected during one-hand operation.

上記構成において、前記予め設定されたアイコンを表示した上で、該アイコンに対応するアプリケーションを実行する。   In the above configuration, after displaying the preset icon, an application corresponding to the icon is executed.

上記構成によれば、片手操作時に指が届かない位置にあるアイコンに対するアプリケーションを容易に実行させることが可能となる。   According to the above configuration, it is possible to easily execute an application for an icon at a position where a finger cannot reach during one-hand operation.

上記構成において、前記アプリケーションは、電話機能である。   In the above configuration, the application is a telephone function.

上記構成によれば、片手操作でも容易に電話をかけることが可能となる。   According to the above configuration, it is possible to easily make a call even with one-handed operation.

上記構成において、前記アプリケーションは、電子メール機能である。   In the above configuration, the application has an e-mail function.

上記構成によれば、片手操作でも容易に電子メールの送受信を行うことが可能となる。   According to the above configuration, it is possible to easily send and receive e-mails even with one-handed operation.

上記構成において、前記アプリケーションは、ブラウザ機能である。   In the above configuration, the application is a browser function.

上記構成によれば、片手操作でも容易にインターネットにアクセスすることが可能となる。   According to the above configuration, the Internet can be easily accessed even with one-handed operation.

本発明によれば、近接センサを搭載した電子機器において、片手操作時における操作性向上を図ることができる。   ADVANTAGE OF THE INVENTION According to this invention, in the electronic device carrying a proximity sensor, the operativity improvement at the time of one hand operation can be aimed at.

本発明の実施の形態1に係る電子機器の概略構成を示すブロック図1 is a block diagram showing a schematic configuration of an electronic device according to Embodiment 1 of the present invention. 図1の電子機器の判定部の機能を示す模式図Schematic diagram showing the function of the determination unit of the electronic device of FIG. 図1の電子機器の動作を説明するためのフローチャートThe flowchart for demonstrating operation | movement of the electronic device of FIG. 図1の電子機器の応用例の動作を説明するためのフローチャートThe flowchart for demonstrating operation | movement of the application example of the electronic device of FIG. 本発明の実施の形態2に係る電子機器の概略構成を示すブロック図The block diagram which shows schematic structure of the electronic device which concerns on Embodiment 2 of this invention. 図5に示す電子機器の動作を説明するためのフローチャートFlowchart for explaining the operation of the electronic device shown in FIG. 従来のタッチパネルを搭載した電子機器における問題点を説明するための図The figure for demonstrating the problem in the electronic device carrying the conventional touch panel

以下、本発明を実施するための好適な実施の形態について、図面を参照して詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments for carrying out the invention will be described in detail with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る電子機器の概略構成を示すブロック図である。同図において、本実施の形態の電子機器1は、近接センサ2と、検出部3と、判定部4と、記憶部5と、表示部6とを備える。本実施の形態の電子機器1は、例えばスマートフォン等のタッチパネルに相当する近接センサ2を搭載したものである。検出部3、判定部4及び記憶部5は、CPU、RAM等の揮発性メモリ、及びROM等の不揮発性メモリ、及びハードディスク又はSSD(Solid State Drive)等の大容量記憶装置等を備えたコンピュータ(マイクロコンピュータ)7によって構成される。
(Embodiment 1)
FIG. 1 is a block diagram showing a schematic configuration of an electronic apparatus according to Embodiment 1 of the present invention. In the figure, an electronic apparatus 1 according to the present embodiment includes a proximity sensor 2, a detection unit 3, a determination unit 4, a storage unit 5, and a display unit 6. The electronic device 1 according to the present embodiment includes a proximity sensor 2 that corresponds to a touch panel such as a smartphone. The detection unit 3, the determination unit 4, and the storage unit 5 include a CPU, a volatile memory such as a RAM, a non-volatile memory such as a ROM, and a mass storage device such as a hard disk or an SSD (Solid State Drive). (Microcomputer) 7.

近接センサ2は、表示部6に重ねて配置され、対象物である指又はペン先が近づいたことを検知する。近接センサ2の主な方式としては、誘導型、静電容量型、超音波型、電磁波型、赤外線型などがある。検出部3は、近接センサ2で検知された対象物の座標情報(X,Y,Z)を出力する。判定部4は、検出部3から出力された座標情報(X,Y,Z)に基づき、近接センサ2と対象物との距離が所定の範囲内に入り、かつ近接センサ2に対する対象物の略静止状態が所定の時間以上であるかどうか判定し、当該条件を満たすと判断した場合、前回選択したアプリケーションに関する情報(アプリケーション情報)が記憶部5に記憶されているかどうか確認する。該当するアプリケーション情報が記憶部5に記憶されていることを確認すると、ユーザが前回選択したアプリケーションのアイコンを表示させるための表示コマンドを、座標情報(X,Y)と共に表示部6に出力する。判定部4は、対象物の略静止状態が保持された時間を測定するためのタイマ(図示略)を有している。表示部6は、判定部4から出力された表示コマンドと座標情報(X,Y)を得ることで、該座標情報(X,Y)に基づく位置に前回選択されたアプリケーションのアイコンを表示する。   The proximity sensor 2 is arranged so as to overlap the display unit 6 and detects that a finger or a pen tip as an object is approaching. The main methods of the proximity sensor 2 include an induction type, a capacitance type, an ultrasonic type, an electromagnetic wave type, and an infrared type. The detection unit 3 outputs coordinate information (X, Y, Z) of the object detected by the proximity sensor 2. The determination unit 4 is based on the coordinate information (X, Y, Z) output from the detection unit 3, the distance between the proximity sensor 2 and the target is within a predetermined range, and is an abbreviation of the target with respect to the proximity sensor 2. It is determined whether or not the stationary state is longer than a predetermined time. If it is determined that the condition is satisfied, it is confirmed whether or not information (application information) related to the previously selected application is stored in the storage unit 5. When it is confirmed that the corresponding application information is stored in the storage unit 5, a display command for displaying the icon of the application previously selected by the user is output to the display unit 6 together with the coordinate information (X, Y). The determination unit 4 has a timer (not shown) for measuring the time during which the substantially stationary state of the object is held. The display unit 6 obtains the display command output from the determination unit 4 and the coordinate information (X, Y), thereby displaying the icon of the previously selected application at a position based on the coordinate information (X, Y).

図2は、判定部4の機能を示す模式図である。同図の(a)は、近接センサ2と指100との位置関係を示す図である。また、同図の(b)は、近接センサ2と指100との距離Zの時間的変化を示す図であり、縦軸が距離Z、横軸が時間tである。近接センサ2と指100との距離Zが所定の範囲(Z1<Z<Z2)内に入り、平面上の位置(X,Y)が殆ど動かず、さらに、その状態が所定時間Thを経過したときに(△t(t2−t1)≧Thのときに)、指100の近傍の座標(X,Y)に前回選択されたアプリケーションのアイコン10が表示される。   FIG. 2 is a schematic diagram illustrating the function of the determination unit 4. (A) of the same figure is a figure which shows the positional relationship of the proximity sensor 2 and the finger | toe 100. FIG. Moreover, (b) of the figure is a figure which shows the time change of the distance Z of the proximity sensor 2 and the finger | toe 100, and the vertical axis | shaft is the distance Z and the horizontal axis is the time t. The distance Z between the proximity sensor 2 and the finger 100 falls within a predetermined range (Z1 <Z <Z2), the position (X, Y) on the plane hardly moves, and the state has passed a predetermined time Th. Sometimes (when Δt (t2-t1) ≧ Th), the icon 10 of the previously selected application is displayed at the coordinates (X, Y) in the vicinity of the finger 100.

次に、実施の形態1に係る電子機器1の動作について説明する。
図3は、実施の形態1に係る電子機器1の動作を説明するためのフローチャートである。同図において、まず検出部3は、近接センサ2が対象物を検知したかどうか判定する(ステップS1)。対象物を検知していないと判断した場合(即ち、ステップS1の判定で「No」と判断した場合)、近接センサ2が対象物を検知するまで本ステップを繰り返す。これに対し、近接センサ2が対象物を検知したと判断した場合(即ち、ステップS1の判定で「Yes」と判断した場合)、近接センサ2の出力から対象物の座標(X,Y,Z)を算出する(ステップS2)。
Next, the operation of the electronic device 1 according to the first embodiment will be described.
FIG. 3 is a flowchart for explaining the operation of electronic device 1 according to the first embodiment. In the figure, the detection unit 3 first determines whether the proximity sensor 2 has detected an object (step S1). When it is determined that the object is not detected (that is, when “No” is determined in the determination of step S1), this step is repeated until the proximity sensor 2 detects the object. On the other hand, when it is determined that the proximity sensor 2 has detected the object (that is, when “Yes” is determined in the determination of step S1), the coordinates (X, Y, Z) of the object are output from the output of the proximity sensor 2. ) Is calculated (step S2).

検出部3が対象物の座標(X,Y,Z)を算出した後、判定部4が、対象物と近接センサ2との距離Zが所定の範囲(Z1<Z<Z2)内かどうか判定する(ステップS3)。当該距離Zが所定の範囲内でないと判断した場合(即ち、ステップS3の判定で「No」と判断した場合)、アイコンを表示せず、それ以外の動作を実行し(ステップS4)、本処理を終える。これに対し、当該距離Zが所定の範囲内であると判断した場合(即ち、ステップS3の判定で「Yes」と判断した場合)、対象物の略静止状態が継続する時間を測定するために、タイマにT=0を設定し、測定を開始する(ステップS5)。   After the detection unit 3 calculates the coordinates (X, Y, Z) of the object, the determination unit 4 determines whether the distance Z between the object and the proximity sensor 2 is within a predetermined range (Z1 <Z <Z2). (Step S3). If it is determined that the distance Z is not within the predetermined range (that is, if “No” is determined in the determination in step S3), the icon is not displayed and other operations are performed (step S4). Finish. On the other hand, when it is determined that the distance Z is within the predetermined range (that is, when “Yes” is determined in the determination of step S3), in order to measure the time for which the substantially stationary state of the object continues. Then, T = 0 is set in the timer, and measurement is started (step S5).

そして、時間Tにおいて、対象物と近接センサ2との距離Zが、Z1<Z(T)<Z2、かつ対象物と近接センサ2のX軸方向の距離が、X(0)−dx<X(T)<X(0)+dx、かつ対象物と近接センサ2のY軸方向の距離が、Y(0)−dy<Y(T)<Y(0)+dyの3条件を同時に満足するかどうか判定する(ステップS6)。時間Tにおいて同条件を満足しないと判断した場合(即ち、ステップS6の判定で「No」と判断した場合)、ステップS4の処理に移行する。これに対し、同条件を満足すると判断した場合(即ち、ステップS6の判定で「Yes」と判断した場合)、対象物の略静止状態が継続する時間Tが所定時間Thを経過したかどうか判定する(ステップS7)。即ち、T≧Thかどうか判定する。当該時間Tが所定時間Thを経過していないと判断した場合(即ち、ステップS7の判定で「No」と判断した場合)、ステップS6に戻る。ステップS6に戻った場合、タイマのカウントを1つ増加させて、再びステップS6及びステップS7の処理を行う。   At time T, the distance Z between the object and the proximity sensor 2 is Z1 <Z (T) <Z2, and the distance between the object and the proximity sensor 2 in the X-axis direction is X (0) −dx <X. Whether (T) <X (0) + dx and the distance between the target and the proximity sensor 2 in the Y-axis direction satisfy the three conditions of Y (0) −dy <Y (T) <Y (0) + dy simultaneously It is determined whether or not (step S6). When it is determined that the same condition is not satisfied at time T (that is, when “No” is determined in the determination in step S6), the process proceeds to step S4. On the other hand, when it is determined that the same condition is satisfied (that is, when “Yes” is determined in the determination in step S6), it is determined whether or not the time T during which the substantially stationary state of the object continues has exceeded a predetermined time Th. (Step S7). That is, it is determined whether T ≧ Th. If it is determined that the time T has not passed the predetermined time Th (that is, if “No” is determined in the determination in step S7), the process returns to step S6. When the process returns to step S6, the timer count is incremented by 1, and the processes of step S6 and step S7 are performed again.

判定部4は、対象物の略静止状態が継続する時間Tが所定時間Thを経過したと判断した場合(即ち、ステップS7の判定で「Yes」と判断した場合)、記憶部5から前回選択されたアプリケーションの情報を取得し、取得したアプリケーション情報に基づく表示コマンドと座標情報(X,Y)を表示部6に出力する(ステップS8)。表示部6は、判定部4から出力された座標情報(X,Y)と表示コマンドを取得すると、座標(X,Y)に前回選択されたアプリケーションのアイコンを表示する(ステップS9)。当該処理を行った後、本処理を終える。   The determination unit 4 selects the previous time from the storage unit 5 when it is determined that the time T for which the substantially stationary state of the object continues has passed the predetermined time Th (that is, when “Yes” is determined in step S7). The acquired application information is acquired, and a display command and coordinate information (X, Y) based on the acquired application information are output to the display unit 6 (step S8). When the display unit 6 acquires the coordinate information (X, Y) and the display command output from the determination unit 4, the display unit 6 displays the icon of the previously selected application at the coordinate (X, Y) (step S9). After performing this process, the present process ends.

このように実施の形態1に係る電子機器1によれば、表示部6と、表示部6に重ねて配置された近接センサ2と、を備え、近接センサ2と対象物である指又はペン先との距離が所定の範囲内に入り、かつ近接センサ2に対する対象物の略静止状態が所定の時間を経過した場合、表示部6の対象物に対向する位置に前回選択されたアプリケーションのアイコンを表示するので、特に指で片手操作する際に、指が届かなかった場所にあるアイコンも容易に選択することが可能となる。   As described above, the electronic device 1 according to the first embodiment includes the display unit 6 and the proximity sensor 2 disposed so as to overlap the display unit 6, and the proximity sensor 2 and the finger or the pen tip that is the object If the distance between the object and the proximity sensor 2 is within a predetermined range and the target object is in a substantially stationary state after a predetermined time, the icon of the previously selected application is displayed at a position facing the object on the display unit 6. Since it is displayed, it is possible to easily select an icon in a place where the finger has not reached, particularly when one-handed operation is performed with the finger.

なお、実施の形態1に係る電子機器1では、近接センサ2と対象物との距離が所定の範囲内に入り、かつ近接センサ2に対する対象物の略静止状態が所定の時間経過した場合、対象物の近傍の座標に前回選択されたアプリケーションのアイコンを表示するようにしたが、所定の期間において選択頻度が最も高いアプリケーションのアイコンを表示するようにしても良い。図4は、そのようにした場合の電子機器1の動作を説明するためのフローチャートである。同図において、ステップS1〜ステップS7の各処理は、図3で説明した通りであるので省略する。図4において、判定部4は、ステップS7の判定で、対象物の略静止状態が継続する時間Tが所定時間Thを経過したと判断した場合、記憶部5から最も選択頻度の高いアプリケーションの情報を取得する(ステップS10)。次いで、座標(X,Y)に、最も選択頻度の高いアプリケーションのアイコンを表示する(ステップS11)。このように、表示部6の対象物に対向する位置に、最も選択頻度の高いアプリケーションのアイコンを表示する。このようにしても実施の形態1に係る電子機器1と同様に、片手操作する際に、指が届かなかった場所にあるアイコンを容易に選択することが可能となる。   Note that in the electronic device 1 according to the first embodiment, when the distance between the proximity sensor 2 and the target object is within a predetermined range, and the substantially stationary state of the target object with respect to the proximity sensor 2 has elapsed for a predetermined time, the target Although the icon of the application selected last time is displayed at the coordinates in the vicinity of the object, the icon of the application with the highest selection frequency may be displayed in a predetermined period. FIG. 4 is a flowchart for explaining the operation of the electronic apparatus 1 in such a case. In the same figure, since each process of step S1-step S7 is as having demonstrated in FIG. 3, it abbreviate | omits. In FIG. 4, when the determination unit 4 determines in step S <b> 7 that the predetermined time Th has passed the time T during which the substantially stationary state of the object continues, information on the application with the highest selection frequency from the storage unit 5. Is acquired (step S10). Next, the icon of the application with the highest selection frequency is displayed at the coordinates (X, Y) (step S11). Thus, the icon of the application with the highest selection frequency is displayed at a position facing the object on the display unit 6. Even in this way, similarly to the electronic device 1 according to the first embodiment, when one-handed operation is performed, it is possible to easily select an icon in a place where the finger has not reached.

(実施の形態2)
図5は、本発明の実施の形態2に係る電子機器の概略構成を示すブロック図である。同図において、実施の形態2に係る電子機器20は、図1に示す電子機器1の回路構成に、ユーザが所望のアプリケーションを設定できる入力部21を追加した構成を採る。ユーザは、入力部21を使用して所望のアプリケーションを設定する。ユーザが所望のアプリケーションを設定することで、近接センサ2と対象物との距離が所定の範囲内に入り、かつ近接センサ2に対する対象物の略静止状態が所定の時間を経過した場合、当該アプリケーションのアイコンが対象物の近傍に表示される。
(Embodiment 2)
FIG. 5 is a block diagram showing a schematic configuration of an electronic apparatus according to Embodiment 2 of the present invention. In the figure, the electronic device 20 according to the second embodiment adopts a configuration in which an input unit 21 that allows a user to set a desired application is added to the circuit configuration of the electronic device 1 shown in FIG. The user uses the input unit 21 to set a desired application. When the user sets a desired application, the distance between the proximity sensor 2 and the target object falls within a predetermined range, and when the substantially stationary state of the target object with respect to the proximity sensor 2 has passed a predetermined time, the application Is displayed near the object.

図6は、実施の形態2に係る電子機器20の動作を説明するためのフローチャートである。同図において、ステップS1〜ステップS3及びステップS5〜ステップS7の各処理は、図3で説明した通りであるので省略する。図5において、判定部4は、ステップS3で、対象物と近接センサ2との距離Zが所定の範囲(Z1<Z<Z2)内でないと判断した場合、アイコンの表示をせず、それ以外の動作を実行し(ステップS15)、本処理を終える。また、判定部4は、ステップS7で、対象物の略静止状態が継続する時間Tが所定時間Thを経過したと判断した場合、ユーザが入力部21を使用して予め設定したアプリケーションの情報を記憶部5から取得する(ステップS16)。次いで、座標(X,Y)に、ユーザが設定したアプリケーションのアイコンを表示した上で該アプリケーションを起動する(ステップS17)。このように、表示部6の対象物に対向する位置に、ユーザが設定したアプリケーションのアイコンを表示した上で該アプリケーションを起動する。このようにしても実施の形態1に係る電子機器1と同様に、片手操作する際に、指が届かなかった場所にあるアイコンを容易に選択し、起動させることが可能となる。   FIG. 6 is a flowchart for explaining the operation of the electronic apparatus 20 according to the second embodiment. In the figure, steps S1 to S3 and steps S5 to S7 are the same as described in FIG. In FIG. 5, when the determination unit 4 determines in step S3 that the distance Z between the object and the proximity sensor 2 is not within a predetermined range (Z1 <Z <Z2), no icon is displayed. This operation is executed (step S15), and this process is finished. In addition, when the determination unit 4 determines in step S7 that the time T during which the substantially stationary state of the object continues has passed the predetermined time Th, the information on the application preset by the user using the input unit 21 is obtained. Obtained from the storage unit 5 (step S16). Next, an application icon set by the user is displayed at coordinates (X, Y), and then the application is activated (step S17). In this way, the application is started after the icon of the application set by the user is displayed at a position facing the object of the display unit 6. Even in this way, similarly to the electronic device 1 according to the first embodiment, when one-handed operation is performed, it is possible to easily select and activate an icon in a place where a finger has not reached.

なお、上記実施の形態2に係る電子機器20においては、近接センサ2と対象物との距離が所定の範囲内に入り、かつ近接センサ2に対する対象物の略静止状態が所定の時間を経過した場合に、ユーザが予め指定したアプリケーションのアイコンを表示した上で、該アプリケーションを起動するようにしたが、具体的には、ユーザが予め指定した相手への電話を開始するようにしても良いし、ユーザが予め指定した相手への新規メールの起動を行うようにしても良いし、さらに、ユーザが予め指定したURL(Uniform Resource Locator)のブラウザを立ち上げるようにしても良い。   In the electronic device 20 according to the second embodiment, the distance between the proximity sensor 2 and the target object is within a predetermined range, and the substantially stationary state of the target object with respect to the proximity sensor 2 has passed a predetermined time. In this case, the application icon designated in advance by the user is displayed and the application is activated. Specifically, the user may initiate a call to the other party designated in advance. A new mail may be activated to a partner designated in advance by the user, or a browser of a URL (Uniform Resource Locator) designated in advance by the user may be launched.

ここで、指定した相手への電話を開始する場合は、ステップS16で、指定した相手に電話をかけるための処理の情報を記憶部5から取得し、ステップS17で当該処理を開始する。また、指定した相手への新規メールの起動を行う場合は、ステップS16で、指定した相手に新規メールを行うための処理の情報を記憶部5から取得し、ステップS17で当該処理を開始する。また、指定したURLのブラウザを立ち上げる場合は、ステップS16で、指定したURLのブラウザを立ち上げるための処理の情報を記憶部5から取得し、ステップS17で当該処理を開始する。   Here, when the telephone call to the designated partner is started, in step S16, processing information for calling the designated partner is acquired from the storage unit 5, and the process is started in step S17. Further, when starting a new mail to the designated partner, in step S16, processing information for sending a new mail to the designated partner is obtained from the storage unit 5, and the process is started in step S17. If the browser with the designated URL is to be launched, information about the process for launching the browser with the designated URL is acquired from the storage unit 5 in step S16, and the process is started in step S17.

また、上記実施の形態1に係る電子機器1、その応用例及び実施の形態2に係る電子機器20それぞれにおける処理(図3、図4及び図6の各処理)を記述したプログラムを、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ等の記憶媒体に格納して配布したり、インターネット等の電気通信回線を利用して配布したりすることも可能である。   In addition, a program describing processing (each processing in FIGS. 3, 4, and 6) in each of the electronic device 1 according to the first embodiment, its application example, and the electronic device 20 according to the second embodiment is stored on a magnetic disk. It is also possible to store and distribute in a storage medium such as an optical disk, a magneto-optical disk, or a semiconductor memory, or distribute using an electric communication line such as the Internet.

本発明は、近接センサを搭載した電子機器において、片手操作を容易に行うことができるといった効果を有し、スマートフォン等の大型の近接センサを搭載した電子機器への適用が可能である。   The present invention has an effect that one-handed operation can be easily performed in an electronic device equipped with a proximity sensor, and can be applied to an electronic device equipped with a large proximity sensor such as a smartphone.

1,20 電子機器
2 近接センサ
3 検出部
4 判定部
5 記憶部
6 表示部
7 コンピュータ
10 アイコン
21 入力部
DESCRIPTION OF SYMBOLS 1,20 Electronic device 2 Proximity sensor 3 Detection part 4 Judgment part 5 Memory | storage part 6 Display part 7 Computer 10 Icon 21 Input part

Claims (10)

表示部と、
前記表示部に重ねて配置された近接センサと、を備え、
前記近接センサと対象物との距離が所定の範囲内に入り、かつ前記近接センサに対する前記対象物の略静止状態が所定の時間以上保持された場合に、
前記表示部の前記対象物に対向する位置に、特定のアイコンを表示する、
電子機器。
A display unit;
A proximity sensor disposed over the display unit,
When the distance between the proximity sensor and the target object falls within a predetermined range, and the substantially stationary state of the target object with respect to the proximity sensor is maintained for a predetermined time or more,
A specific icon is displayed at a position facing the object of the display unit.
Electronics.
請求項1に記載の電子機器であって、
前記略静止状態は、前記表示部に平行な方向に関する略静止状態である、
電子機器。
The electronic device according to claim 1,
The substantially stationary state is a substantially stationary state with respect to a direction parallel to the display unit.
Electronics.
請求項1又は請求項2に記載の電子機器であって、
前記対象物は、指又はペン先である、
電子機器。
The electronic device according to claim 1 or 2,
The object is a finger or a nib,
Electronics.
請求項1から請求項3のいずれか1項に記載の電子機器であって、
前記特定のアイコンは、前回選択されたアイコンである、
電子機器。
The electronic device according to any one of claims 1 to 3,
The specific icon is a previously selected icon.
Electronics.
請求項1から請求項3のいずれか1項に記載の電子機器であって、
前記特定のアイコンは、所定の期間において最も選択頻度の高いアイコンである、
電子機器。
The electronic device according to any one of claims 1 to 3,
The specific icon is an icon having the highest selection frequency in a predetermined period.
Electronics.
請求項1から請求項3のいずれか1項に記載の電子機器であって、
前記特定のアイコンは、予め設定されたアイコンである、
電子機器。
The electronic device according to any one of claims 1 to 3,
The specific icon is a preset icon.
Electronics.
請求項6に記載の電子機器であって、
前記予め設定されたアイコンを表示した上で、該アイコンに対応するアプリケーションを実行する、
電子機器。
The electronic device according to claim 6,
Displaying the preset icon and executing an application corresponding to the icon;
Electronics.
請求項7に記載の電子機器であって、
前記アプリケーションは、電話機能である、
電子機器。
The electronic device according to claim 7,
The application is a telephone function.
Electronics.
請求項7に記載の電子機器であって、
前記アプリケーションは、電子メール機能である、
電子機器。
The electronic device according to claim 7,
The application is an email function.
Electronics.
請求項7に記載の電子機器であって、
前記アプリケーションは、ブラウザ機能である、
電子機器。
The electronic device according to claim 7,
The application is a browser function.
Electronics.
JP2012007171A 2012-01-17 2012-01-17 Electronic apparatus Pending JP2015062091A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012007171A JP2015062091A (en) 2012-01-17 2012-01-17 Electronic apparatus
PCT/JP2013/000211 WO2013108627A1 (en) 2012-01-17 2013-01-17 Electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012007171A JP2015062091A (en) 2012-01-17 2012-01-17 Electronic apparatus

Publications (1)

Publication Number Publication Date
JP2015062091A true JP2015062091A (en) 2015-04-02

Family

ID=48799058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012007171A Pending JP2015062091A (en) 2012-01-17 2012-01-17 Electronic apparatus

Country Status (2)

Country Link
JP (1) JP2015062091A (en)
WO (1) WO2013108627A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020144577A (en) * 2019-03-06 2020-09-10 日産自動車株式会社 Virtual object output device and virtual object output method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110022307A1 (en) * 2009-07-27 2011-01-27 Htc Corporation Method for operating navigation frame, navigation apparatus and recording medium
JP2011134273A (en) * 2009-12-25 2011-07-07 Sony Corp Information processor, information processing method, and program
JP5424049B2 (en) * 2010-03-31 2014-02-26 アイシン・エィ・ダブリュ株式会社 Map display device and program
JP5501992B2 (en) * 2010-05-28 2014-05-28 パナソニック株式会社 Information terminal, screen component display method, program, and recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020144577A (en) * 2019-03-06 2020-09-10 日産自動車株式会社 Virtual object output device and virtual object output method
JP7165604B2 (en) 2019-03-06 2022-11-04 日産自動車株式会社 Virtual object output device and virtual object output method

Also Published As

Publication number Publication date
WO2013108627A1 (en) 2013-07-25

Similar Documents

Publication Publication Date Title
US10073493B2 (en) Device and method for controlling a display panel
JP5620440B2 (en) Display control apparatus, display control method, and program
US9864514B2 (en) Method and electronic device for displaying virtual keypad
JP5732580B2 (en) Electronic device and coordinate detection method
US9639265B2 (en) Distance-time based hit-testing for displayed target graphical elements
EP3000016B1 (en) User input using hovering input
EP2560086B1 (en) Method and apparatus for navigating content on screen using pointing device
JP2015053033A (en) Electronic device and coordinate detecting method
US20150193112A1 (en) User interface device, user interface method, and program
US9747025B2 (en) Modifying key size on a touch screen based on fingertip location
US9047008B2 (en) Methods, apparatuses, and computer program products for determination of the digit being used by a user to provide input
WO2014057929A1 (en) User interface device, user interface method and program
US9823823B2 (en) Information processing device and information processing method
JP6411067B2 (en) Information processing apparatus and input method
WO2013108627A1 (en) Electronic device
JP6069117B2 (en) Electronic device, control program, and operation method
JP2017084216A (en) Input processing apparatus and image forming apparatus including the same
WO2014125165A1 (en) Methods, apparatuses, and computer program products for executing functions based on hover gestures or touch gestures
KR101992314B1 (en) Method for controlling pointer and an electronic device thereof
WO2013118227A1 (en) Information processing device
US11360652B2 (en) Apparatus and method for providing for receipt of indirect touch input to a touch screen display
KR101819104B1 (en) Method and device of providing mouse function based on touch screen
US20150242058A1 (en) Touch sensing device and touch sensing method