JP2015062091A - Electronic apparatus - Google Patents
Electronic apparatus Download PDFInfo
- Publication number
- JP2015062091A JP2015062091A JP2012007171A JP2012007171A JP2015062091A JP 2015062091 A JP2015062091 A JP 2015062091A JP 2012007171 A JP2012007171 A JP 2012007171A JP 2012007171 A JP2012007171 A JP 2012007171A JP 2015062091 A JP2015062091 A JP 2015062091A
- Authority
- JP
- Japan
- Prior art keywords
- icon
- electronic device
- proximity sensor
- electronics
- finger
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
Abstract
Description
本発明は、近接センサを搭載したスマートフォン等の電子機器に関する。 The present invention relates to an electronic device such as a smartphone equipped with a proximity sensor.
タッチパネルには、パネル面に触れなくても入力が可能な近接センサ型のものがある。この種のタッチパネルを用いた電子機器の一例が特許文献1,2に記載されている。特許文献1に記載されたタッチパネル装置は、タッチパネルを有するディスプレイに指が接近し、その指からタッチパネルまでの距離がある一定の範囲内のときに、ディスプレイに表示中の画像を指の近傍だけ拡大するようにしている。特許文献2に記載された電気光学装置は、光検出により、指がある一定距離に近づいたことを検知すると、指の近傍の画素領域を白黒表示するようにしている。
There is a proximity sensor type touch panel that allows input without touching the panel surface. Examples of electronic devices using this type of touch panel are described in
ところで、図7に示すように、タッチパネルを搭載した電子機器で片手操作する際、指が届かない距離にあるアイコンに触れることができず、片手での操作が困難であるという課題がある。 By the way, as shown in FIG. 7, when one-handed operation is performed with an electronic device equipped with a touch panel, there is a problem that it is difficult to operate with one hand because it is impossible to touch an icon at a distance that a finger cannot reach.
なお、前述した特許文献1に記載されたタッチパネル装置は、指近傍の画像を拡大するものであり、指が届かない距離にあるアイコンに片手で触れることができないという課題を解決する手段の記載は見当たらない。また、前述した特許文献2に記載された電気光学装置は、指の下に隠れる画像を白黒表示するものであり、この先行技術にも、指が届かない距離にあるアイコンに片手で触れることができないという課題を解決する手段の記載は見当たらない。
Note that the touch panel device described in Patent Document 1 described above enlarges an image near the finger, and a description of means for solving the problem that an icon at a distance that the finger cannot reach cannot be touched with one hand is described. I can't find it. Further, the electro-optical device described in
本発明は、係る事情に鑑みてなされたものであり、近接センサを搭載した電子機器において、容易に片手操作を行うことができる電子機器を提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an electronic device that can be easily operated with one hand in an electronic device equipped with a proximity sensor.
本発明の電子機器は、表示部と、前記表示部に重ねて配置された近接センサと、を備え、前記近接センサと対象物との距離が所定の範囲内に入り、かつ前記近接センサに対する前記対象物の略静止状態が所定の時間以上保持された場合に、前記表示部の前記対象物に対向する位置に、特定のアイコンを表示する。 The electronic apparatus according to the present invention includes a display unit and a proximity sensor disposed so as to overlap the display unit, and a distance between the proximity sensor and an object falls within a predetermined range, and When the substantially stationary state of the object is held for a predetermined time or longer, a specific icon is displayed at a position facing the object on the display unit.
上記構成によれば、例えば指が近接センサに対して所定の距離範囲内に入り、かつ近接センサに対する指の略静止状態が所定の時間以上である場合に、表示部の該指に対向する位置に特定のアイコンを表示するので、片手操作する際に、指が届かなかった場所にあるアイコンも容易に選択することが可能となる。 According to the above configuration, for example, when the finger is within a predetermined distance range with respect to the proximity sensor and the finger is substantially stationary with respect to the proximity sensor for a predetermined time or more, the position facing the finger on the display unit Since a specific icon is displayed on the screen, it is possible to easily select an icon in a place where a finger has not reached when one-handed operation is performed.
上記構成において、前記略静止状態は、前記表示部に平行な方向に関する略静止状態である。 The said structure WHEREIN: The said substantially stationary state is a substantially stationary state regarding the direction parallel to the said display part.
上記構成によれば、静止状態を限定するので、誤操作を少なくできる。 According to the above configuration, the stationary state is limited, so that erroneous operations can be reduced.
上記構成において、前記対象物は、指又はペン先である。 In the above configuration, the object is a finger or a nib.
上記構成において、前記特定のアイコンは、前回選択されたアイコンである。 In the above configuration, the specific icon is a previously selected icon.
上記構成によれば、前回選択されたアイコンが、片手操作時に指が届かなかった位置にあるものであれば、今回片手操作を行った際に、当該アイコンを容易に選択することが可能となる。 According to the above configuration, if the previously selected icon is in a position where the finger did not reach during one-hand operation, the icon can be easily selected when one-hand operation is performed this time. .
上記構成において、前記特定のアイコンは、所定の期間において最も選択頻度の高いアイコンである。 In the above configuration, the specific icon is an icon that is most frequently selected in a predetermined period.
上記構成によれば、片手操作時における操作性向上が図れる。 According to the said structure, the operativity improvement at the time of one hand operation can be aimed at.
上記構成において、前記特定のアイコンは、予め設定されたアイコンである。 In the above configuration, the specific icon is a preset icon.
上記構成によれば、例えば、片手操作時に指が届かない位置にあるアイコンを登録しておくことで、片手操作時に当該アイコンを容易に選択することが可能となる。 According to the above configuration, for example, by registering an icon at a position where a finger cannot reach during one-hand operation, the icon can be easily selected during one-hand operation.
上記構成において、前記予め設定されたアイコンを表示した上で、該アイコンに対応するアプリケーションを実行する。 In the above configuration, after displaying the preset icon, an application corresponding to the icon is executed.
上記構成によれば、片手操作時に指が届かない位置にあるアイコンに対するアプリケーションを容易に実行させることが可能となる。 According to the above configuration, it is possible to easily execute an application for an icon at a position where a finger cannot reach during one-hand operation.
上記構成において、前記アプリケーションは、電話機能である。 In the above configuration, the application is a telephone function.
上記構成によれば、片手操作でも容易に電話をかけることが可能となる。 According to the above configuration, it is possible to easily make a call even with one-handed operation.
上記構成において、前記アプリケーションは、電子メール機能である。 In the above configuration, the application has an e-mail function.
上記構成によれば、片手操作でも容易に電子メールの送受信を行うことが可能となる。 According to the above configuration, it is possible to easily send and receive e-mails even with one-handed operation.
上記構成において、前記アプリケーションは、ブラウザ機能である。 In the above configuration, the application is a browser function.
上記構成によれば、片手操作でも容易にインターネットにアクセスすることが可能となる。 According to the above configuration, the Internet can be easily accessed even with one-handed operation.
本発明によれば、近接センサを搭載した電子機器において、片手操作時における操作性向上を図ることができる。 ADVANTAGE OF THE INVENTION According to this invention, in the electronic device carrying a proximity sensor, the operativity improvement at the time of one hand operation can be aimed at.
以下、本発明を実施するための好適な実施の形態について、図面を参照して詳細に説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments for carrying out the invention will be described in detail with reference to the drawings.
(実施の形態1)
図1は、本発明の実施の形態1に係る電子機器の概略構成を示すブロック図である。同図において、本実施の形態の電子機器1は、近接センサ2と、検出部3と、判定部4と、記憶部5と、表示部6とを備える。本実施の形態の電子機器1は、例えばスマートフォン等のタッチパネルに相当する近接センサ2を搭載したものである。検出部3、判定部4及び記憶部5は、CPU、RAM等の揮発性メモリ、及びROM等の不揮発性メモリ、及びハードディスク又はSSD(Solid State Drive)等の大容量記憶装置等を備えたコンピュータ(マイクロコンピュータ)7によって構成される。
(Embodiment 1)
FIG. 1 is a block diagram showing a schematic configuration of an electronic apparatus according to Embodiment 1 of the present invention. In the figure, an electronic apparatus 1 according to the present embodiment includes a
近接センサ2は、表示部6に重ねて配置され、対象物である指又はペン先が近づいたことを検知する。近接センサ2の主な方式としては、誘導型、静電容量型、超音波型、電磁波型、赤外線型などがある。検出部3は、近接センサ2で検知された対象物の座標情報(X,Y,Z)を出力する。判定部4は、検出部3から出力された座標情報(X,Y,Z)に基づき、近接センサ2と対象物との距離が所定の範囲内に入り、かつ近接センサ2に対する対象物の略静止状態が所定の時間以上であるかどうか判定し、当該条件を満たすと判断した場合、前回選択したアプリケーションに関する情報(アプリケーション情報)が記憶部5に記憶されているかどうか確認する。該当するアプリケーション情報が記憶部5に記憶されていることを確認すると、ユーザが前回選択したアプリケーションのアイコンを表示させるための表示コマンドを、座標情報(X,Y)と共に表示部6に出力する。判定部4は、対象物の略静止状態が保持された時間を測定するためのタイマ(図示略)を有している。表示部6は、判定部4から出力された表示コマンドと座標情報(X,Y)を得ることで、該座標情報(X,Y)に基づく位置に前回選択されたアプリケーションのアイコンを表示する。
The
図2は、判定部4の機能を示す模式図である。同図の(a)は、近接センサ2と指100との位置関係を示す図である。また、同図の(b)は、近接センサ2と指100との距離Zの時間的変化を示す図であり、縦軸が距離Z、横軸が時間tである。近接センサ2と指100との距離Zが所定の範囲(Z1<Z<Z2)内に入り、平面上の位置(X,Y)が殆ど動かず、さらに、その状態が所定時間Thを経過したときに(△t(t2−t1)≧Thのときに)、指100の近傍の座標(X,Y)に前回選択されたアプリケーションのアイコン10が表示される。
FIG. 2 is a schematic diagram illustrating the function of the determination unit 4. (A) of the same figure is a figure which shows the positional relationship of the
次に、実施の形態1に係る電子機器1の動作について説明する。
図3は、実施の形態1に係る電子機器1の動作を説明するためのフローチャートである。同図において、まず検出部3は、近接センサ2が対象物を検知したかどうか判定する(ステップS1)。対象物を検知していないと判断した場合(即ち、ステップS1の判定で「No」と判断した場合)、近接センサ2が対象物を検知するまで本ステップを繰り返す。これに対し、近接センサ2が対象物を検知したと判断した場合(即ち、ステップS1の判定で「Yes」と判断した場合)、近接センサ2の出力から対象物の座標(X,Y,Z)を算出する(ステップS2)。
Next, the operation of the electronic device 1 according to the first embodiment will be described.
FIG. 3 is a flowchart for explaining the operation of electronic device 1 according to the first embodiment. In the figure, the detection unit 3 first determines whether the
検出部3が対象物の座標(X,Y,Z)を算出した後、判定部4が、対象物と近接センサ2との距離Zが所定の範囲(Z1<Z<Z2)内かどうか判定する(ステップS3)。当該距離Zが所定の範囲内でないと判断した場合(即ち、ステップS3の判定で「No」と判断した場合)、アイコンを表示せず、それ以外の動作を実行し(ステップS4)、本処理を終える。これに対し、当該距離Zが所定の範囲内であると判断した場合(即ち、ステップS3の判定で「Yes」と判断した場合)、対象物の略静止状態が継続する時間を測定するために、タイマにT=0を設定し、測定を開始する(ステップS5)。
After the detection unit 3 calculates the coordinates (X, Y, Z) of the object, the determination unit 4 determines whether the distance Z between the object and the
そして、時間Tにおいて、対象物と近接センサ2との距離Zが、Z1<Z(T)<Z2、かつ対象物と近接センサ2のX軸方向の距離が、X(0)−dx<X(T)<X(0)+dx、かつ対象物と近接センサ2のY軸方向の距離が、Y(0)−dy<Y(T)<Y(0)+dyの3条件を同時に満足するかどうか判定する(ステップS6)。時間Tにおいて同条件を満足しないと判断した場合(即ち、ステップS6の判定で「No」と判断した場合)、ステップS4の処理に移行する。これに対し、同条件を満足すると判断した場合(即ち、ステップS6の判定で「Yes」と判断した場合)、対象物の略静止状態が継続する時間Tが所定時間Thを経過したかどうか判定する(ステップS7)。即ち、T≧Thかどうか判定する。当該時間Tが所定時間Thを経過していないと判断した場合(即ち、ステップS7の判定で「No」と判断した場合)、ステップS6に戻る。ステップS6に戻った場合、タイマのカウントを1つ増加させて、再びステップS6及びステップS7の処理を行う。
At time T, the distance Z between the object and the
判定部4は、対象物の略静止状態が継続する時間Tが所定時間Thを経過したと判断した場合(即ち、ステップS7の判定で「Yes」と判断した場合)、記憶部5から前回選択されたアプリケーションの情報を取得し、取得したアプリケーション情報に基づく表示コマンドと座標情報(X,Y)を表示部6に出力する(ステップS8)。表示部6は、判定部4から出力された座標情報(X,Y)と表示コマンドを取得すると、座標(X,Y)に前回選択されたアプリケーションのアイコンを表示する(ステップS9)。当該処理を行った後、本処理を終える。
The determination unit 4 selects the previous time from the
このように実施の形態1に係る電子機器1によれば、表示部6と、表示部6に重ねて配置された近接センサ2と、を備え、近接センサ2と対象物である指又はペン先との距離が所定の範囲内に入り、かつ近接センサ2に対する対象物の略静止状態が所定の時間を経過した場合、表示部6の対象物に対向する位置に前回選択されたアプリケーションのアイコンを表示するので、特に指で片手操作する際に、指が届かなかった場所にあるアイコンも容易に選択することが可能となる。
As described above, the electronic device 1 according to the first embodiment includes the
なお、実施の形態1に係る電子機器1では、近接センサ2と対象物との距離が所定の範囲内に入り、かつ近接センサ2に対する対象物の略静止状態が所定の時間経過した場合、対象物の近傍の座標に前回選択されたアプリケーションのアイコンを表示するようにしたが、所定の期間において選択頻度が最も高いアプリケーションのアイコンを表示するようにしても良い。図4は、そのようにした場合の電子機器1の動作を説明するためのフローチャートである。同図において、ステップS1〜ステップS7の各処理は、図3で説明した通りであるので省略する。図4において、判定部4は、ステップS7の判定で、対象物の略静止状態が継続する時間Tが所定時間Thを経過したと判断した場合、記憶部5から最も選択頻度の高いアプリケーションの情報を取得する(ステップS10)。次いで、座標(X,Y)に、最も選択頻度の高いアプリケーションのアイコンを表示する(ステップS11)。このように、表示部6の対象物に対向する位置に、最も選択頻度の高いアプリケーションのアイコンを表示する。このようにしても実施の形態1に係る電子機器1と同様に、片手操作する際に、指が届かなかった場所にあるアイコンを容易に選択することが可能となる。
Note that in the electronic device 1 according to the first embodiment, when the distance between the
(実施の形態2)
図5は、本発明の実施の形態2に係る電子機器の概略構成を示すブロック図である。同図において、実施の形態2に係る電子機器20は、図1に示す電子機器1の回路構成に、ユーザが所望のアプリケーションを設定できる入力部21を追加した構成を採る。ユーザは、入力部21を使用して所望のアプリケーションを設定する。ユーザが所望のアプリケーションを設定することで、近接センサ2と対象物との距離が所定の範囲内に入り、かつ近接センサ2に対する対象物の略静止状態が所定の時間を経過した場合、当該アプリケーションのアイコンが対象物の近傍に表示される。
(Embodiment 2)
FIG. 5 is a block diagram showing a schematic configuration of an electronic apparatus according to
図6は、実施の形態2に係る電子機器20の動作を説明するためのフローチャートである。同図において、ステップS1〜ステップS3及びステップS5〜ステップS7の各処理は、図3で説明した通りであるので省略する。図5において、判定部4は、ステップS3で、対象物と近接センサ2との距離Zが所定の範囲(Z1<Z<Z2)内でないと判断した場合、アイコンの表示をせず、それ以外の動作を実行し(ステップS15)、本処理を終える。また、判定部4は、ステップS7で、対象物の略静止状態が継続する時間Tが所定時間Thを経過したと判断した場合、ユーザが入力部21を使用して予め設定したアプリケーションの情報を記憶部5から取得する(ステップS16)。次いで、座標(X,Y)に、ユーザが設定したアプリケーションのアイコンを表示した上で該アプリケーションを起動する(ステップS17)。このように、表示部6の対象物に対向する位置に、ユーザが設定したアプリケーションのアイコンを表示した上で該アプリケーションを起動する。このようにしても実施の形態1に係る電子機器1と同様に、片手操作する際に、指が届かなかった場所にあるアイコンを容易に選択し、起動させることが可能となる。
FIG. 6 is a flowchart for explaining the operation of the electronic apparatus 20 according to the second embodiment. In the figure, steps S1 to S3 and steps S5 to S7 are the same as described in FIG. In FIG. 5, when the determination unit 4 determines in step S3 that the distance Z between the object and the
なお、上記実施の形態2に係る電子機器20においては、近接センサ2と対象物との距離が所定の範囲内に入り、かつ近接センサ2に対する対象物の略静止状態が所定の時間を経過した場合に、ユーザが予め指定したアプリケーションのアイコンを表示した上で、該アプリケーションを起動するようにしたが、具体的には、ユーザが予め指定した相手への電話を開始するようにしても良いし、ユーザが予め指定した相手への新規メールの起動を行うようにしても良いし、さらに、ユーザが予め指定したURL(Uniform Resource Locator)のブラウザを立ち上げるようにしても良い。
In the electronic device 20 according to the second embodiment, the distance between the
ここで、指定した相手への電話を開始する場合は、ステップS16で、指定した相手に電話をかけるための処理の情報を記憶部5から取得し、ステップS17で当該処理を開始する。また、指定した相手への新規メールの起動を行う場合は、ステップS16で、指定した相手に新規メールを行うための処理の情報を記憶部5から取得し、ステップS17で当該処理を開始する。また、指定したURLのブラウザを立ち上げる場合は、ステップS16で、指定したURLのブラウザを立ち上げるための処理の情報を記憶部5から取得し、ステップS17で当該処理を開始する。
Here, when the telephone call to the designated partner is started, in step S16, processing information for calling the designated partner is acquired from the
また、上記実施の形態1に係る電子機器1、その応用例及び実施の形態2に係る電子機器20それぞれにおける処理(図3、図4及び図6の各処理)を記述したプログラムを、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ等の記憶媒体に格納して配布したり、インターネット等の電気通信回線を利用して配布したりすることも可能である。 In addition, a program describing processing (each processing in FIGS. 3, 4, and 6) in each of the electronic device 1 according to the first embodiment, its application example, and the electronic device 20 according to the second embodiment is stored on a magnetic disk. It is also possible to store and distribute in a storage medium such as an optical disk, a magneto-optical disk, or a semiconductor memory, or distribute using an electric communication line such as the Internet.
本発明は、近接センサを搭載した電子機器において、片手操作を容易に行うことができるといった効果を有し、スマートフォン等の大型の近接センサを搭載した電子機器への適用が可能である。 The present invention has an effect that one-handed operation can be easily performed in an electronic device equipped with a proximity sensor, and can be applied to an electronic device equipped with a large proximity sensor such as a smartphone.
1,20 電子機器
2 近接センサ
3 検出部
4 判定部
5 記憶部
6 表示部
7 コンピュータ
10 アイコン
21 入力部
DESCRIPTION OF SYMBOLS 1,20
Claims (10)
前記表示部に重ねて配置された近接センサと、を備え、
前記近接センサと対象物との距離が所定の範囲内に入り、かつ前記近接センサに対する前記対象物の略静止状態が所定の時間以上保持された場合に、
前記表示部の前記対象物に対向する位置に、特定のアイコンを表示する、
電子機器。 A display unit;
A proximity sensor disposed over the display unit,
When the distance between the proximity sensor and the target object falls within a predetermined range, and the substantially stationary state of the target object with respect to the proximity sensor is maintained for a predetermined time or more,
A specific icon is displayed at a position facing the object of the display unit.
Electronics.
前記略静止状態は、前記表示部に平行な方向に関する略静止状態である、
電子機器。 The electronic device according to claim 1,
The substantially stationary state is a substantially stationary state with respect to a direction parallel to the display unit.
Electronics.
前記対象物は、指又はペン先である、
電子機器。 The electronic device according to claim 1 or 2,
The object is a finger or a nib,
Electronics.
前記特定のアイコンは、前回選択されたアイコンである、
電子機器。 The electronic device according to any one of claims 1 to 3,
The specific icon is a previously selected icon.
Electronics.
前記特定のアイコンは、所定の期間において最も選択頻度の高いアイコンである、
電子機器。 The electronic device according to any one of claims 1 to 3,
The specific icon is an icon having the highest selection frequency in a predetermined period.
Electronics.
前記特定のアイコンは、予め設定されたアイコンである、
電子機器。 The electronic device according to any one of claims 1 to 3,
The specific icon is a preset icon.
Electronics.
前記予め設定されたアイコンを表示した上で、該アイコンに対応するアプリケーションを実行する、
電子機器。 The electronic device according to claim 6,
Displaying the preset icon and executing an application corresponding to the icon;
Electronics.
前記アプリケーションは、電話機能である、
電子機器。 The electronic device according to claim 7,
The application is a telephone function.
Electronics.
前記アプリケーションは、電子メール機能である、
電子機器。 The electronic device according to claim 7,
The application is an email function.
Electronics.
前記アプリケーションは、ブラウザ機能である、
電子機器。 The electronic device according to claim 7,
The application is a browser function.
Electronics.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012007171A JP2015062091A (en) | 2012-01-17 | 2012-01-17 | Electronic apparatus |
PCT/JP2013/000211 WO2013108627A1 (en) | 2012-01-17 | 2013-01-17 | Electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012007171A JP2015062091A (en) | 2012-01-17 | 2012-01-17 | Electronic apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015062091A true JP2015062091A (en) | 2015-04-02 |
Family
ID=48799058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012007171A Pending JP2015062091A (en) | 2012-01-17 | 2012-01-17 | Electronic apparatus |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2015062091A (en) |
WO (1) | WO2013108627A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020144577A (en) * | 2019-03-06 | 2020-09-10 | 日産自動車株式会社 | Virtual object output device and virtual object output method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110022307A1 (en) * | 2009-07-27 | 2011-01-27 | Htc Corporation | Method for operating navigation frame, navigation apparatus and recording medium |
JP2011134273A (en) * | 2009-12-25 | 2011-07-07 | Sony Corp | Information processor, information processing method, and program |
JP5424049B2 (en) * | 2010-03-31 | 2014-02-26 | アイシン・エィ・ダブリュ株式会社 | Map display device and program |
JP5501992B2 (en) * | 2010-05-28 | 2014-05-28 | パナソニック株式会社 | Information terminal, screen component display method, program, and recording medium |
-
2012
- 2012-01-17 JP JP2012007171A patent/JP2015062091A/en active Pending
-
2013
- 2013-01-17 WO PCT/JP2013/000211 patent/WO2013108627A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020144577A (en) * | 2019-03-06 | 2020-09-10 | 日産自動車株式会社 | Virtual object output device and virtual object output method |
JP7165604B2 (en) | 2019-03-06 | 2022-11-04 | 日産自動車株式会社 | Virtual object output device and virtual object output method |
Also Published As
Publication number | Publication date |
---|---|
WO2013108627A1 (en) | 2013-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10073493B2 (en) | Device and method for controlling a display panel | |
JP5620440B2 (en) | Display control apparatus, display control method, and program | |
US9864514B2 (en) | Method and electronic device for displaying virtual keypad | |
JP5732580B2 (en) | Electronic device and coordinate detection method | |
US9639265B2 (en) | Distance-time based hit-testing for displayed target graphical elements | |
EP3000016B1 (en) | User input using hovering input | |
EP2560086B1 (en) | Method and apparatus for navigating content on screen using pointing device | |
JP2015053033A (en) | Electronic device and coordinate detecting method | |
US20150193112A1 (en) | User interface device, user interface method, and program | |
US9747025B2 (en) | Modifying key size on a touch screen based on fingertip location | |
US9047008B2 (en) | Methods, apparatuses, and computer program products for determination of the digit being used by a user to provide input | |
WO2014057929A1 (en) | User interface device, user interface method and program | |
US9823823B2 (en) | Information processing device and information processing method | |
JP6411067B2 (en) | Information processing apparatus and input method | |
WO2013108627A1 (en) | Electronic device | |
JP6069117B2 (en) | Electronic device, control program, and operation method | |
JP2017084216A (en) | Input processing apparatus and image forming apparatus including the same | |
WO2014125165A1 (en) | Methods, apparatuses, and computer program products for executing functions based on hover gestures or touch gestures | |
KR101992314B1 (en) | Method for controlling pointer and an electronic device thereof | |
WO2013118227A1 (en) | Information processing device | |
US11360652B2 (en) | Apparatus and method for providing for receipt of indirect touch input to a touch screen display | |
KR101819104B1 (en) | Method and device of providing mouse function based on touch screen | |
US20150242058A1 (en) | Touch sensing device and touch sensing method |