JP2010128685A - Electronic equipment - Google Patents

Electronic equipment Download PDF

Info

Publication number
JP2010128685A
JP2010128685A JP2008301201A JP2008301201A JP2010128685A JP 2010128685 A JP2010128685 A JP 2010128685A JP 2008301201 A JP2008301201 A JP 2008301201A JP 2008301201 A JP2008301201 A JP 2008301201A JP 2010128685 A JP2010128685 A JP 2010128685A
Authority
JP
Japan
Prior art keywords
information input
finger
unit
display
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008301201A
Other languages
Japanese (ja)
Other versions
JP2010128685A5 (en
Inventor
Tomonori Takeuchi
友則 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2008301201A priority Critical patent/JP2010128685A/en
Publication of JP2010128685A publication Critical patent/JP2010128685A/en
Publication of JP2010128685A5 publication Critical patent/JP2010128685A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide electronic equipment allowing input by easy operation, and allowing prevention of erroneous input. <P>SOLUTION: The electronic equipment includes: a display screen displaying a selectable information input means; a finger detection part detecting an approach position of a finger in the display screen when the finger approaches within a prescribed distance sphere from the display screen; a display control part making the information input means in the approach position be magnified and displayed on the display screen when detecting the approach position; and an information output part outputting input data corresponding to the information input means in a contact position when the finger comes into contact with the display screen in a state that display information is magnified and displayed. Thereby, a user can magnify and display the information input means by the easy operation, confirms the magnified and displayed information input means, and thereafter can perform the input to prevent the erroneous input. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、情報入力部に手指が接触したときにその接触位置に対応する入力データを出力する情報出力部を有する電子機器に関し、特に、情報入力部における情報入力手段の拡大表示を行う技術に関する。   The present invention relates to an electronic apparatus having an information output unit that outputs input data corresponding to a contact position when a finger touches the information input unit, and more particularly to a technique for performing enlarged display of information input means in the information input unit. .

近年、カーナビゲーション、テレビジョン装置、オーディオ機器などの機能が一体化された車載用の電子機器が知られている。かかる電子機器は、主に車両内のインストルメントパネルに搭載して用いられるが、近年では、インストルメントパネルから取り外してユーザが携行でき、車外でも使用可能なPND(Personal Navigation Device)タイプの電子機器も普及しつつある。   In recent years, in-vehicle electronic devices in which functions such as car navigation, a television device, and an audio device are integrated are known. Such an electronic device is mainly used by being mounted on an instrument panel in a vehicle, but in recent years, it is a PND (Personal Navigation Device) type electronic device that can be removed from the instrument panel and carried by a user and used outside the vehicle. Is also spreading.

かかる電子機器は、車室内のインストルメントパネルの限られたスペースに搭載したり携行したりすることから、小型化(例えば幅200mm、高さ15mm、奥行き10mm程度)の傾向にある。一方、テレビ映像や地図画像を表示する表示画面は、映像や画像の見やすさのためにある程度の大きさ(例えば4〜5インチ)を必要とする。よって、上記のような小型サイズの電子機器における表示画面の占める割合が大きくなる。すると、多機能化に対応した種々の操作ボタンを配置するスペースが圧迫され、操作ボタンの配置が困難となる。   Such electronic devices tend to be miniaturized (for example, about 200 mm in width, 15 mm in height, and 10 mm in depth) because they are mounted or carried in a limited space of an instrument panel in a vehicle interior. On the other hand, a display screen for displaying a television image or a map image needs a certain size (for example, 4 to 5 inches) for easy viewing of the image or image. Therefore, the proportion of the display screen in the small-sized electronic device as described above increases. Then, the space for arranging various operation buttons corresponding to the multi-function is pressed, and it becomes difficult to arrange the operation buttons.

よって、かかる電子機器では表示画面の面積と操作ボタンの配置スペースを同時に確保するために、タッチパネル式の入力インターフェースが用いられる。すなわち、表示画面上に透明の圧力検知デバイスにより構成されるタッチパネルを設け、表示画面に情報入力手段(例えば文字キーやアイコン画像など)を表示する。そして、ユーザが選択した情報入力手段の表示箇所に手指で接触すると、タッチパネルが接触位置に表示された入力データを出力し、この入力データは目的地までの経路探索や映像、楽曲の検索を実行する情報処理部に取り込まれる。   Therefore, in such an electronic device, a touch panel type input interface is used in order to ensure the area of the display screen and the space for arranging the operation buttons at the same time. That is, a touch panel composed of a transparent pressure detection device is provided on the display screen, and information input means (for example, a character key or an icon image) is displayed on the display screen. When the user touches the display location of the information input means selected by the user with a finger, the touch panel outputs the input data displayed at the contact position, and this input data performs a route search to the destination and a search for video and music. To the information processing unit.

ところで、かかるタッチパネル式の入力インターフェースを用いる場合であっても、限られた面積の表示画面に表示可能な情報入力手段の量には自ずと限界がある。すると、一度に大量の情報入力手段を表示しようとすると個々の情報入力手段の表示が小さくなり、ユーザが手指で接触するのに不都合が生じる。例えば、文字の選択入力を行うための文字キーや地図上の目的地を選択入力するためのアイコン画像を表示する場合に、個々キーやアイコン画像の表示面積が小さいと、ユーザが誤ったキーやアイコン画像に接触して、誤入力するおそれがある。   Even when such a touch panel type input interface is used, the amount of information input means that can be displayed on a display screen with a limited area is naturally limited. Then, if a large amount of information input means is displayed at a time, the display of each information input means becomes small, which causes inconvenience for the user to touch with fingers. For example, when displaying a character key for selecting and inputting a character or an icon image for selecting and inputting a destination on a map, if the display area of an individual key or icon image is small, the user may select an incorrect key or There is a risk of erroneous input by touching the icon image.

よって、かかる問題に対処すべく、入力を支援する方法が種々提案されている。その1つとして、ユーザが情報入力手段を選択する際に、一旦これを拡大表示することでユーザが選択しようとする情報入力手段を確認でき、誤入力を防止する方法が提案されている。たとえば、特許文献1、2には、ユーザが接触した文字キーや文字列といった情報入力手段を拡大表示する方法が記載されている。
特開2000−284774号公報 特開2004−355336号公報
Therefore, various methods for assisting input have been proposed to deal with such problems. As one of the methods, when a user selects an information input means, a method for preventing an erroneous input is proposed by temporarily displaying the information input means so that the user can confirm the information input means to be selected. For example, Patent Documents 1 and 2 describe a method for enlarging and displaying information input means such as a character key or a character string touched by a user.
JP 2000-284774 A JP 2004-355336 A

しかしながら、上記の方法では、ユーザが最初の接触位置を誤ると目的とする情報入力手段が拡大表示されない。すると、ユーザは再度、情報入力手段を拡大表示させるための操作が必要となる。よって、目的とする情報入力手段を拡大表示させてこれを確認し、選択するまでの操作が煩雑なものとなる。   However, in the above method, if the user makes a mistake in the initial contact position, the target information input means is not enlarged and displayed. Then, the user again needs to perform an operation for enlarging and displaying the information input means. Therefore, the operation until the target information input means is enlarged and displayed and checked and selected becomes complicated.

そこで、本発明の目的は、より簡易な操作で情報入力手段を選択入力でき、かつ誤入力を防止できる電子機器を提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide an electronic device that can select and input information input means with a simpler operation and prevent erroneous input.

本発明の第1の側面によれば、電子機器は、情報入力部と、前記情報入力部から所定距離圏内に手指が接近するときに、当該手指の前記情報入力部への接近位置を検出する手指検出部と、前記接近位置を検出したときに、当該接近位置における前記情報入力部の情報入力手段を拡大表示させる表示制御部と、前記情報入力手段が拡大表示された状態で、前記情報入力部に前記手指が接触したときにその接触位置に対応する入力データを出力する情報出力部とを有する。   According to the first aspect of the present invention, the electronic device detects an approach position of the finger to the information input unit when the finger approaches within a predetermined distance from the information input unit and the information input unit. A finger detection unit; a display control unit for enlarging and displaying the information input unit of the information input unit at the approach position when the approach position is detected; and the information input unit in a state where the information input unit is displayed in an enlarged manner. And an information output unit that outputs input data corresponding to the contact position when the finger touches the unit.

上記側面の好ましい態様によれば、前記表示制御部は、手指と表示画面の距離に応じて前記情報入力手段の拡大比率を変化させることを特徴とする。   According to a preferred aspect of the above aspect, the display control unit changes an enlargement ratio of the information input unit according to a distance between a finger and a display screen.

上記側面の別の好ましい態様によれば、前記表示制御部は、前記手指の移動方向を検出したときに当該移動方向に表示された情報入力手段を拡大表示することを特徴とする。   According to another preferable aspect of the above aspect, the display control unit enlarges and displays the information input means displayed in the movement direction when the movement direction of the finger is detected.

上記側面の別の好ましい態様によれば、前記表示制御部は、前記接近位置における情報入力手段に入力候補に対応する情報入力手段が含まれるときに、当該情報入力手段の表示状態を変更することを特徴とする。   According to another preferable aspect of the above aspect, the display control unit changes the display state of the information input unit when the information input unit corresponding to the input candidate is included in the information input unit at the approach position. It is characterized by.

本発明の電子機器は、より簡易な操作で情報入力手段の選択入力ができ、かつ誤入力を防止できる。   The electronic apparatus according to the present invention can select and input information input means with a simpler operation and can prevent erroneous input.

以下、図面にしたがって本発明の実施の形態について説明する。但し、本発明の技術的範囲はこれらの実施の形態に限定されず、特許請求の範囲に記載された事項とその均等物まで及ぶものである。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the technical scope of the present invention is not limited to these embodiments, but extends to the matters described in the claims and equivalents thereof.

図1は、本実施形態における電子機器の外観を示す図である。この電子機器10は、一例としてカーナビゲーション、テレビジョン装置、オーディオ機器としての機能を有し、車室内のインストルメントパネルに搭載して使用したり、あるいはユーザが携行して車外で使用したりすることが可能なPNDタイプの電子機器である。   FIG. 1 is a diagram illustrating an appearance of an electronic device according to the present embodiment. The electronic device 10 has functions as a car navigation system, a television device, and an audio device as an example, and is used by being mounted on an instrument panel in a vehicle interior or used outside a vehicle by being carried by a user. It is a PND type electronic device that can be used.

電子機器10は、地図画像やテレビ映像を表示するとともに、ユーザが選択可能な情報入力手段を表示する表示画面12を有する。ここでは、文字キーが情報入力手段として示されるが、情報入力手段には、文字列や記号、あるいは操作ボタンやアイコンなどの画像などが含まれる。表示画面12は、たとえば液晶表示パネルまたは有機ELパネルで構成される。また、表示画面12上には、透明の圧力検知デバイスにより構成されユーザの手指の接触による圧力を検知するタッチパネル14が設けられる。そして、表示画面12とタッチパネル14とで情報入力部11を構成する。そして、電子機器10の本体内部には、電子機器10の各種機能を実現する電子回路が格納される。   The electronic device 10 includes a display screen 12 that displays a map image and a television image and displays information input means that can be selected by the user. Here, a character key is shown as the information input unit, but the information input unit includes a character string, a symbol, or an image such as an operation button or an icon. The display screen 12 is composed of, for example, a liquid crystal display panel or an organic EL panel. On the display screen 12, a touch panel 14 configured by a transparent pressure detection device that detects pressure caused by contact of a user's finger is provided. The display screen 12 and the touch panel 14 constitute the information input unit 11. An electronic circuit for realizing various functions of the electronic device 10 is stored in the main body of the electronic device 10.

図2は、本実施形態における電子機器10の概略構成図である。電子機器10は、上述したように表示画面12とタッチパネル14とで構成される情報入力部11を有する。そして、電子機器10は、表示画面12の表示出力を制御する表示制御部18と、タッチパネル14における接触位置を検出する情報出力部16を有する。情報出力部16は、ユーザの手指が情報入力部11に接触したときに、その接触位置に表示された情報入力手段に対応する入力データを表示制御部18から取得して、後述する情報処理部に出力する。たとえば電子機器10をカーナビゲーションとして使用する際の目的地の選択入力、テレビジョン装置として使用する際のチャネルや映像データの選択入力、あるいはオーディオ機器として使用する際の楽曲データの選択入力は、情報入力部11と情報出力部16から行われる。   FIG. 2 is a schematic configuration diagram of the electronic device 10 according to the present embodiment. The electronic device 10 includes the information input unit 11 including the display screen 12 and the touch panel 14 as described above. The electronic device 10 includes a display control unit 18 that controls display output of the display screen 12 and an information output unit 16 that detects a contact position on the touch panel 14. When the user's finger touches the information input unit 11, the information output unit 16 acquires input data corresponding to the information input means displayed at the contact position from the display control unit 18, and an information processing unit described later Output to. For example, a destination selection input when the electronic device 10 is used as a car navigation, a channel or video data selection input when used as a television device, or a song data selection input when used as an audio device is information. This is performed from the input unit 11 and the information output unit 16.

また電子機器10は、情報出力部16からの入力データに基づき各種情報処理を実行する「情報処理部」を有する。ここでは、ナビゲーション制御部20、AV(オーディオ・ビジュアル)制御部22が情報処理部に対応する。   The electronic device 10 also includes an “information processing unit” that executes various information processing based on input data from the information output unit 16. Here, the navigation control unit 20 and the AV (audio / visual) control unit 22 correspond to an information processing unit.

ナビゲーション制御部20には、ユーザが選択入力した目的地データ、GPS(Global Positioning System)受信機28が取得した現在位置データ、及び記憶装置30に予め格納される地図データが入力される。ナビゲーション制御部20は、予めその内部または外部のメモリに格納される処理プログラムに従って、地図データに基づき現在地から目的地までの経路探索処理を実行する。そして、探索結果を、表示制御部18を介して表示画面12に表示出力させる。   The navigation control unit 20 receives destination data selected and input by the user, current position data acquired by a GPS (Global Positioning System) receiver 28, and map data stored in advance in the storage device 30. The navigation control unit 20 executes a route search process from the current location to the destination based on the map data in accordance with a processing program stored in advance in an internal or external memory. Then, the search result is displayed on the display screen 12 via the display control unit 18.

AV制御部22は、ユーザが選択入力したチャネルや映像名などの入力データが入力される。そして、入力されたチャネルの受信をテレビジョン受信機36に指示し、または記憶装置30に格納された映像データのリストを記憶装置30から取得して、リストからユーザが選択した映像データの所在を検索する。そして、検索した映像データを記憶装置30から読み出して、映像信号とその同期信号を表示制御部18に、音声信号を音声出力部34に出力する。そして表示制御部18は、映像信号と同期信号に基づき映像を表示画面12に出力する。また、音声出力部34は、音声信号に基づき音声出力を行う。   The AV control unit 22 receives input data such as a channel selected by the user and a video name. Then, the television receiver 36 is instructed to receive the input channel, or a list of video data stored in the storage device 30 is acquired from the storage device 30, and the location of the video data selected by the user from the list is determined. Search for. Then, the retrieved video data is read from the storage device 30, and the video signal and its synchronization signal are output to the display control unit 18 and the audio signal is output to the audio output unit 34. Then, the display control unit 18 outputs the video to the display screen 12 based on the video signal and the synchronization signal. The audio output unit 34 outputs audio based on the audio signal.

あるいは、AV制御部22は、ユーザが選択入力した楽曲名などの入力データが入力される。そして、記憶装置30に格納された楽曲データのリストを記憶装置30から取得して、リストからユーザが選択した楽曲データの所在を検索する。そして、検索した楽曲データを記憶装置30から読み出して音声出力部34に出力し、音声出力部34が楽曲の音声を出力する。   Alternatively, the AV control unit 22 receives input data such as a song name selected and input by the user. Then, a list of music data stored in the storage device 30 is acquired from the storage device 30, and the location of the music data selected by the user is searched from the list. Then, the retrieved music data is read from the storage device 30 and output to the audio output unit 34, and the audio output unit 34 outputs the audio of the music.

なお、記憶装置30は、ハードディスクやDVD、あるいは不揮発性メモリなどの記憶媒体で構成される。   The storage device 30 is configured by a storage medium such as a hard disk, a DVD, or a nonvolatile memory.

また電子機器10は、情報入力部11に接近する手指の情報入力部11における接近位置を検出する手指検出部26を有する。手指検出部26は、赤外線センサ、静電センサ、小型レーダなどで構成される手指検知センサ24の検知結果に基づき、手指の情報入力部11上における位置を検出する。さらに好ましくは、手指検出部26は、情報入力部11からの手指の距離を検出する。   In addition, the electronic device 10 includes a finger detection unit 26 that detects an approach position of the finger approaching the information input unit 11 in the information input unit 11. The finger detection unit 26 detects the position of the finger on the information input unit 11 based on the detection result of the finger detection sensor 24 configured by an infrared sensor, an electrostatic sensor, a small radar, or the like. More preferably, the finger detection unit 26 detects the distance of the finger from the information input unit 11.

手指検知センサ24としてユーザの手指が発する赤外線を検出する赤外線センサを用いる場合には、複数の赤外線センサを表示画面12周囲(たとえば表示画面12の四隅)に配置する。赤外線センサの検知結果が手指検出部26に入力されると、手指検出部26は手指を検知した赤外線センサの位置に基づき、情報入力部11における手指の接近位置を検出する。またこの場合、情報入力部11から手指までの距離は、赤外線センサが手指を検知可能な距離圏内にあることが検出される。   When an infrared sensor that detects infrared rays emitted by the user's fingers is used as the finger detection sensor 24, a plurality of infrared sensors are arranged around the display screen 12 (for example, at the four corners of the display screen 12). When the detection result of the infrared sensor is input to the finger detection unit 26, the finger detection unit 26 detects the approach position of the finger in the information input unit 11 based on the position of the infrared sensor that has detected the finger. In this case, the distance from the information input unit 11 to the finger is detected to be within a distance range in which the infrared sensor can detect the finger.

また、手指検知センサ24として、赤外線センサの代わりに接近する手指に静電結合したときに静電容量の変化を検知する静電センサを用いてもよい。この場合、手指検出部26は、手指を検知した静電センサの位置に基づき手指の接近位置を検出する。また、情報入力部11から手指までの距離は、静電センサが手指を検知可能な距離圏内にあることを検出する。   Moreover, you may use the electrostatic sensor which detects the change of an electrostatic capacitance when it couple | bonds with the finger which approaches instead of an infrared sensor as the finger detection sensor 24. FIG. In this case, the finger detection unit 26 detects the approach position of the finger based on the position of the electrostatic sensor that has detected the finger. Further, the distance from the information input unit 11 to the finger detects that the electrostatic sensor is within a distance within which the finger can be detected.

さらに、手指検知センサ24として小型のレーダ装置を用いる場合には、表示画面12の周囲における同一直線上にない三点にレーダ送受信アンテナを配置する。そして、例えばレーダ送受信アンテナはパルス波を送信して手指による反射を受信する。そして、手指検出部26は、パルス波の往復時間から、三点から手指までの距離を求める。ここで、三点は同一直線上にないので、3つの計測距離により情報入力部11における手指の接近位置と情報入力部11からの距離とが検出される。   Further, when a small radar device is used as the finger detection sensor 24, radar transmission / reception antennas are arranged at three points that are not on the same straight line around the display screen 12. Then, for example, the radar transmission / reception antenna transmits a pulse wave and receives reflection by a finger. And the finger detection part 26 calculates | requires the distance from three points to fingers from the round-trip time of a pulse wave. Here, since the three points are not on the same straight line, the approach position of the finger in the information input unit 11 and the distance from the information input unit 11 are detected from the three measurement distances.

なお、上記構成において、表示制御部18、タッチパネル制御部16、ナビゲーション制御部20、AV制御部22、手指検出部26は、たとえば特定目的用集積回路やDSP(Digital Signal Processor)などの演算処理装置、あるいはマイクロコンピュータで構成される。また、各部は電子機器10の内蔵バッテリから電源を取得可能に構成される。   In the above configuration, the display control unit 18, the touch panel control unit 16, the navigation control unit 20, the AV control unit 22, and the finger detection unit 26 are arithmetic processing devices such as a special purpose integrated circuit or a DSP (Digital Signal Processor). Or a microcomputer. Each unit is configured to be able to obtain power from the built-in battery of the electronic device 10.

上記のように構成される電子機器10では、手指検出部26が検出した手指の接近位置やその移動、または情報入力部11からの距離は、表示制御部18に入力される。そして、情報入力部11からの手指の距離と情報入力部11上での接近位置とが検出されたときに、表示制御部18が接近位置における情報入力手段を情報入力部11に拡大表示させる。そうすることで、ユーザは手指を情報入力部11に接近させるだけの容易な操作によって情報入力手段を拡大表示させることができ、これを確認してから情報入力部11上に接触することで選択入力できる。よって、より容易な操作で情報入力手段の選択入力ができ、かつ誤入力を防止できる。   In the electronic device 10 configured as described above, the approach position of the finger detected by the finger detection unit 26 and its movement, or the distance from the information input unit 11 is input to the display control unit 18. When the distance of the finger from the information input unit 11 and the approach position on the information input unit 11 are detected, the display control unit 18 causes the information input unit 11 to display an enlarged information input unit at the approach position. By doing so, the user can enlarge and display the information input means by an easy operation of simply bringing a finger close to the information input unit 11, and after confirming this, the user can select by touching on the information input unit 11 You can enter. Therefore, selection input of the information input means can be performed with easier operation, and erroneous input can be prevented.

次に、電子機器10の詳細な手順を説明する。   Next, a detailed procedure of the electronic device 10 will be described.

[第1の実施例]
第1の実施例として、手指の距離が所定距離圏内のときに拡大表示する動作手順を説明する。ここで、所定距離圏内は、手指検知センサ24が手指を検知可能な距離を基準にして任意に設定される。ここでは、電子機器30がカーナビゲーションとして使用されるときの目的地入力を例として、情報入力部11が情報入力手段として文字キーを表示する場合を示す。
[First embodiment]
As a first embodiment, an operation procedure for enlarging display when the distance between fingers is within a predetermined distance will be described. Here, the predetermined distance range is arbitrarily set based on the distance that the finger detection sensor 24 can detect the finger. Here, as an example of destination input when the electronic device 30 is used for car navigation, a case where the information input unit 11 displays a character key as information input means is shown.

図3は、第1の実施例における電子機器10の動作手順を説明するフローチャート図である。図4は、情報入力部11が表示する情報入力手段の遷移を示す画面遷移図である。図4を参照しつつ、図3に従って動作手順を説明する。   FIG. 3 is a flowchart for explaining the operation procedure of the electronic apparatus 10 in the first embodiment. FIG. 4 is a screen transition diagram showing transition of the information input means displayed by the information input unit 11. The operation procedure will be described according to FIG. 3 with reference to FIG.

図3の手順は、1つの文字が選択入力されるごとに実行される。まず、表示制御部18は、文字キーの初期表示を行う(S2)。図4(A)は、初期表示の例を示す。情報入力部11の下段に選択入力可能な表示情報としての文字キーが表示され、情報入力部11の上段には選択入力済みの文字が表示される。   The procedure in FIG. 3 is executed every time one character is selected and input. First, the display control unit 18 performs initial display of character keys (S2). FIG. 4A shows an example of initial display. Character keys as display information that can be selectively input are displayed in the lower part of the information input unit 11, and characters that have been selected and input are displayed in the upper part of the information input unit 11.

ここで、例えばユーザが「K」の文字キーを押す場合には、ユーザは手指を文字キー「K」に接近させる。すると、手指検出部26が手指の接近を検出する(S4)。手指が検出された時点で、情報入力部11と手指の距離は検知可能な所定の距離圏内にあるので(S6のYES )、情報入力部11上における手指の接近位置を検出する(S8)。ここで、手指が文字キー「K」付近にあることが検出される。   Here, for example, when the user presses the character key “K”, the user brings his / her finger close to the character key “K”. Then, the finger detection unit 26 detects the approach of the finger (S4). When the finger is detected, the distance between the information input unit 11 and the finger is within a predetermined detectable range (YES in S6). Therefore, the approach position of the finger on the information input unit 11 is detected (S8). Here, it is detected that the finger is near the character key “K”.

そして、表示制御部18は、手指の接近位置付近を拡大表示する(S10)。図4(B)は、接近位置付近が拡大表示された状態を示す。ここにおいて、文字キー「K」を含む文字キー「K」付近の文字キーが拡大表示されるので、ユーザは文字キー「K」の位置を容易に確認でき、誤ることなくこれに接触することができる。   The display control unit 18 enlarges and displays the vicinity of the approach position of the finger (S10). FIG. 4B shows a state in which the vicinity of the approach position is enlarged and displayed. Here, since the character keys near the character key “K” including the character key “K” are displayed in an enlarged manner, the user can easily confirm the position of the character key “K” and can touch it without making an error. it can.

情報出力部16は、手指の接触を検出すると(S12のYES)、情報入力部11における接触位置に対応する表示情報、つまり文字「K」を表示制御部18から取得して、これに対応する入力データを情報処理部に出力する(S14)。なお、このとき情報出力部16から表示制御部18に選択された入力データが送られ、選択済みの文字として表示される。そして、拡大表示を終了する(S16)。よって、図4(C)に示すように、初期表示に戻る。また、情報入力部11と手指の距離が検知可能な所定距離圏外となったときに初期表示に戻る手順を実行してもよい。   When the information output unit 16 detects a finger contact (YES in S12), the information output unit 16 acquires display information corresponding to the contact position in the information input unit 11, that is, the letter “K” from the display control unit 18, and responds to this. The input data is output to the information processing unit (S14). At this time, the selected input data is sent from the information output unit 16 to the display control unit 18 and displayed as a selected character. Then, the enlarged display ends (S16). Therefore, the display returns to the initial display as shown in FIG. Further, a procedure for returning to the initial display may be executed when the distance between the information input unit 11 and the finger is out of a predetermined distance range that can be detected.

なお、初期表示や拡大表示のための画像データは、表示制御部18の内部メモリに格納される。あるいは、ナビゲーション制御部20やAV制御部22の内部メモリに格納される画像データを表示制御部18が取得してもよい。   Note that image data for initial display and enlarged display is stored in the internal memory of the display control unit 18. Alternatively, the display control unit 18 may acquire image data stored in the internal memory of the navigation control unit 20 or the AV control unit 22.

[第2の実施例]
次に、表示制御部18が、手指と情報入力部11の距離に応じて前記情報入力手段の拡大比率を変化させる場合について説明する。小型のレーダを手指検知センサ24として用いた構成によれば、情報入力部11からの手指の距離を検出できる。
[Second Embodiment]
Next, a case where the display control unit 18 changes the enlargement ratio of the information input unit according to the distance between the finger and the information input unit 11 will be described. According to the configuration using a small radar as the finger detection sensor 24, the distance of the finger from the information input unit 11 can be detected.

図5は、第2の実施例における電子機器10の動作手順を説明するフローチャート図である。図5は、図3のフローチャート図の変形例に対応する。図6は、情報入力部11に表示される情報入力手段の遷移を示す画面遷移図である。図6を参照しつつ、図5に従って動作手順を説明する。   FIG. 5 is a flowchart for explaining the operation procedure of the electronic apparatus 10 in the second embodiment. FIG. 5 corresponds to a modification of the flowchart of FIG. FIG. 6 is a screen transition diagram showing transition of the information input means displayed on the information input unit 11. The operation procedure will be described according to FIG. 5 with reference to FIG.

まず、表示制御部18は、図6(A)に示すように文字キーの初期表示を行う(S2)。ここで、例えばユーザが「K」の文字キーを押す場合には、ユーザは手指を文字キー「K」に接近させる。すると、手指検出部26が手指の接近を検出する(S4)。手指が検出された時点で、情報入力部11と手指の距離は検知可能な所定の距離圏内にあるので(S6のYES )、手順S7に進む。   First, the display control unit 18 performs initial display of character keys as shown in FIG. 6A (S2). Here, for example, when the user presses the character key “K”, the user brings his / her finger close to the character key “K”. Then, the finger detection unit 26 detects the approach of the finger (S4). When a finger is detected, the distance between the information input unit 11 and the finger is within a predetermined detectable range (YES in S6), the process proceeds to step S7.

第2の実施例では、手指検出部26は情報入力部11から手指までの距離を検出する(S7)。そして、情報入力部11上における手指の接近位置を検出する(S8)。ここで手指が文字キー「K」付近にあることが検出される。   In the second embodiment, the finger detection unit 26 detects the distance from the information input unit 11 to the finger (S7). Then, the approach position of the finger on the information input unit 11 is detected (S8). Here, it is detected that the finger is near the character key “K”.

そして、表示制御部18は、手指の距離に対応した拡大率を算出する(S9)。ここで、距離が小さいほど大きい拡大率が算出される。拡大率の算出に際しては、予め定めた関係式に基づき演算処理を行ってもよいし、距離と拡大率が対応づけられたマップデータを予めメモリに格納しておき、これを用いて拡大率を導出してもよい。そして、表示制御部18は、導出した拡大率に基づいて接近位置付近を拡大表示する(S10)。図6(B)は、接近位置付近が拡大表示された状態を示す。ここにおいて、文字キー「K」を含む文字キー「K」付近の文字キーが拡大表示される。   Then, the display control unit 18 calculates an enlargement ratio corresponding to the finger distance (S9). Here, a larger enlargement ratio is calculated as the distance is smaller. When calculating the enlargement ratio, calculation processing may be performed based on a predetermined relational expression, or map data in which the distance and the enlargement ratio are associated is stored in a memory in advance, and the enlargement ratio is calculated using this. It may be derived. Then, the display control unit 18 enlarges and displays the vicinity of the approach position based on the derived enlargement ratio (S10). FIG. 6B shows a state in which the vicinity of the approach position is enlarged and displayed. Here, the character keys near the character key “K” including the character key “K” are enlarged and displayed.

そして、情報出力部16が手指の接触を検出しないまま(S12のNO)所定時間(任意に設定可能な動作周期とする)が経過し、さらに手指が接近すると、手順S4〜S10が実行される。そして、手指の距離に応じた拡大率で文字キーが拡大表示される。図6(C)は、さらに大きい拡大率で接近位置付近が拡大表示された状態を示す。このように、文字キー「K」を含む文字キー「K」付近の文字キーがさらに大きく拡大表示されるので、ユーザは容易に文字キー「K」の位置を確認でき、これに接触することができる。   Then, when the information output unit 16 does not detect a finger contact (NO in S12), when a predetermined time (which can be arbitrarily set as an operation cycle) has elapsed and the finger has further approached, steps S4 to S10 are executed. . Then, the character key is enlarged and displayed at an enlargement rate corresponding to the distance of the fingers. FIG. 6C shows a state in which the vicinity of the approach position is enlarged and displayed at a larger enlargement ratio. As described above, since the character keys near the character key “K” including the character key “K” are further enlarged and displayed, the user can easily check the position of the character key “K” and touch the character key “K”. it can.

そして、情報出力部16は、手指の接触を検出すると(S12のYES)、情報入力部11における接触位置に対応する表示情報、つまり文字「K」を表示制御部18から取得して、これに対応する入力データを情報処理部に出力する(S14)。なお、このとき情報出力部16から表示制御部18に選択された入力データが送られ、選択済みの文字として表示される。そして、拡大表示を終了する(S16)と、図6(D)に示すように初期表示に戻る。   When the information output unit 16 detects a finger contact (YES in S12), the information output unit 16 acquires display information corresponding to the contact position in the information input unit 11, that is, the letter “K” from the display control unit 18, Corresponding input data is output to the information processing section (S14). At this time, the selected input data is sent from the information output unit 16 to the display control unit 18 and displayed as a selected character. When the enlarged display ends (S16), the display returns to the initial display as shown in FIG.

上記の説明では2段階の拡大率の場合を例としたが、さらに複数の段階に分けることができる。段階数が多いほどシームレスな拡大表示が可能となる。このように、手指が接近するほど大きい拡大率で段階的に拡大表示されるので、拡大表示されたときに目的のキーを一時的に見失うということがない。つまり、ユーザは戸惑いを感じることなく目的のキーを認識できるので、利便性を向上できる。そして、誤ることなく目的の文字キーに接触することができる。   In the above description, the case of a two-stage enlargement ratio is taken as an example, but it can be further divided into a plurality of stages. As the number of stages increases, seamless enlargement display becomes possible. As described above, the larger the magnification rate, the closer the finger is approached, so that the target key is not temporarily lost when the enlarged display is performed. That is, since the user can recognize the target key without feeling confused, the convenience can be improved. And it can touch the target character key without mistake.

[第3の実施例]
次に、表示制御部18が、手指の移動方向に応じて拡大表示される情報入力手段を変化させる変形例について説明する。
[Third embodiment]
Next, a modified example in which the display control unit 18 changes the information input unit that is enlarged and displayed according to the moving direction of the finger will be described.

図7は、第3の実施例における電子機器10の動作手順を説明するフローチャート図である。図7は、図5のフローチャート図の変形例に対応する。図8は、情報入力部11に表示される情報入力手段の遷移を示す画面遷移図である。図8を参照しつつ、図7に従って動作手順を説明する。   FIG. 7 is a flowchart for explaining the operation procedure of the electronic apparatus 10 in the third embodiment. FIG. 7 corresponds to a modification of the flowchart in FIG. FIG. 8 is a screen transition diagram showing transition of information input means displayed on the information input unit 11. With reference to FIG. 8, the operation procedure will be described according to FIG.

まず、表示制御部18は、図8(A)に示すように文字キーの初期表示を行う(S2)。例えばユーザが「M」の文字キーを押す場合には、ユーザは手指を文字キー「M」に接近させる。ここで、ユーザの手指が文字キー「M」ではなく「K」付近に接近すると、手指検出部26が手指の接近を検出する(S4)。そして手指が検出された時点で、情報入力部11と手指の距離は検知可能な距離圏内にあるので(S6のYES )、情報入力部11からの手指の距離を検出し(S7)、情報入力部11上における手指の接近位置を検出する(S8)。そして手指が文字キー「K」付近にあることが検出される。   First, the display control unit 18 performs initial display of character keys as shown in FIG. 8A (S2). For example, when the user presses the letter key “M”, the user brings his / her finger close to the letter key “M”. Here, when the user's finger approaches the vicinity of "K" instead of the character key "M", the finger detection unit 26 detects the approach of the finger (S4). When the finger is detected, the distance between the information input unit 11 and the finger is within a detectable distance range (YES in S6), so the distance of the finger from the information input unit 11 is detected (S7), and the information input The approach position of the finger on the unit 11 is detected (S8). Then, it is detected that the finger is near the character key “K”.

第3の実施例では、表示制御部18は、手指の接近位置が移動したことを確認する(S8a)。まず、移動が確認されない場合(S8aのNO)、手指の距離に対応した拡大率を算出し(S9)、導出した拡大率に基づいて、図8(B)に示すように接近位置付近を拡大表示する(S10)。よって、まず文字キー「K」付近が拡大表示される。   In the third embodiment, the display control unit 18 confirms that the approach position of the finger has moved (S8a). First, when the movement is not confirmed (NO in S8a), an enlargement ratio corresponding to the finger distance is calculated (S9), and the vicinity of the approach position is enlarged based on the derived enlargement ratio as shown in FIG. 8B. Display (S10). Therefore, the vicinity of the character key “K” is first enlarged and displayed.

そして、手指の接触が検出されない場合には(S12のNO)、手順S4からS8aが繰り返し実行される。ここで、図8(C)に示すように、手指が目的とする文字キー「M」に向けて右側に移動すると、接近位置の移動が確認される(S8aのYES)。すると、表示制御部18は、接近位置を再度検出する(S8b)。そして手指の距離に対応した拡大率を算出し(S9)、導出した拡大率に基づいて接近位置付近を拡大表示する(S10)。よって、表示画面が全体的に左側にスクロールし、文字キー「M」付近が拡大表示される。   If no finger contact is detected (NO in S12), steps S4 to S8a are repeatedly executed. Here, as shown in FIG. 8C, when the finger moves to the right toward the target character key “M”, the movement of the approach position is confirmed (YES in S8a). Then, the display control unit 18 detects the approach position again (S8b). Then, an enlargement factor corresponding to the finger distance is calculated (S9), and the vicinity of the approach position is enlarged and displayed based on the derived enlargement factor (S10). Therefore, the display screen is scrolled to the left as a whole, and the vicinity of the character key “M” is enlarged and displayed.

そして、情報出力部16が手指の接触を検出しないまま(S12のNO)所定時間が経過し、さらに手指が接近すると、手順S4〜S10が実行される。そして、手指の距離に応じた拡大率で文字キーが拡大表示される。図8(D)は、再度検出された接近位置付近が拡大表示された状態を示す。ここにおいて、文字キー「M」を含む文字キー「M」付近の文字キーがさらに大きく拡大表示されるので、ユーザは文字キー「M」の位置を容易に確認でき、誤ることなくこれに接触することができる。   Then, when the predetermined time elapses without the information output unit 16 detecting the finger contact (NO in S12), and steps S4 to S10 are executed when the finger approaches. Then, the character key is enlarged and displayed at an enlargement rate corresponding to the distance of the fingers. FIG. 8D shows a state in which the vicinity of the approach position detected again is enlarged and displayed. Here, since the character key near the character key “M” including the character key “M” is further enlarged and displayed, the user can easily confirm the position of the character key “M” and touch it without error. be able to.

そして、情報出力部16は、手指の接触を検出すると(S12のYES)、情報入力部11における接触位置に対応する表示情報、つまり文字「M」を表示制御部18から取得して、これに対応する入力データを情報処理部に出力する(S14)。なお、このとき情報出力部16から表示制御部18に選択された入力データが送られ、選択済みの文字として表示される。そして、拡大表示を終了する(S16)と、初期表示に戻る。   When the information output unit 16 detects a finger contact (YES in S12), the information output unit 16 acquires display information corresponding to the contact position in the information input unit 11, that is, the letter “M” from the display control unit 18, Corresponding input data is output to the information processing section (S14). At this time, the selected input data is sent from the information output unit 16 to the display control unit 18 and displayed as a selected character. When the enlarged display ends (S16), the display returns to the initial display.

このように、手指が接近してある程度の拡大率で情報入力手段が拡大表示され、目的とする情報入力手段に向けて手指を移動させると、移動方向に表示された情報入力手段が情報入力部11中央に表示される。このような手順によれば、目的のキーが押しやすい位置に表示されるので、ユーザは目的のキーを確認しやすくなる。よって、目的のキーを容易に認識できるので、利便性を向上できる。   In this way, when the finger approaches, the information input means is enlarged and displayed at a certain magnification, and when the finger is moved toward the target information input means, the information input means displayed in the moving direction is changed to the information input unit. 11 is displayed in the center. According to such a procedure, since the target key is displayed at a position where it can be easily pressed, the user can easily confirm the target key. Therefore, since the target key can be easily recognized, convenience can be improved.

[第4の実施例]
上記では、情報入力手段として文字キーを表示する場合を示した。次に、画像を情報入力手段として表示する場合について説明する。次に示す例は、カーナビゲーションを使用するときに、地図画像とその上に表示される目的地アイコンが情報入力手段に対応する。
[Fourth embodiment]
In the above, the case where a character key is displayed as an information input means was shown. Next, a case where an image is displayed as information input means will be described. In the following example, when using car navigation, a map image and a destination icon displayed thereon correspond to the information input means.

図9は、情報入力部11に表示される情報入力手段の遷移を示す画面遷移図である。なお、電子機器10の動作手順は、第1〜第3の実施例で示した動作手順と同じ手順が適用される。   FIG. 9 is a screen transition diagram showing transition of information input means displayed on the information input unit 11. The operation procedure of the electronic device 10 is the same as the operation procedure shown in the first to third embodiments.

図9(A)は地図画像と目的地アイコンの初期表示状態を示す。図9(B)は手指が接近したときの表示状態、図9(C)は、さらに手指が接近したときの表示状態を示す。このように、初期表示状態では市街地などの目的地が密集した地域では特に目的地アイコンが接近して接触しにくいが、手指の接近に応じて接近位置における地図画像と目的地アイコンとが拡大表示されることで、拡大表示されたエリアでは目的地アイコンは適度な間隔に配置される。よって、ユーザは目的とするアイコンに容易に確認して接触することができる。そして、情報出力部16から、接触位置に対応する目的地データがナビゲーション制御部20に出力される。   FIG. 9A shows an initial display state of the map image and the destination icon. FIG. 9B shows a display state when a finger approaches, and FIG. 9C shows a display state when a finger further approaches. In this way, in the initial display state, in the area where the destinations are dense such as urban areas, the destination icons are close to each other and difficult to touch, but the map image and the destination icon at the approach position are enlarged according to the approach of the fingers. Thus, the destination icons are arranged at appropriate intervals in the enlarged display area. Therefore, the user can easily confirm and touch the target icon. Then, the destination data corresponding to the contact position is output from the information output unit 16 to the navigation control unit 20.

なお、初期表示や拡大表示のための画像データは、表示制御部18の内部メモリに格納される。あるいは、ナビゲーション制御部20の内部メモリや、記憶装置30に格納される画像データを表示制御部18が取得してもよい。   Note that image data for initial display and enlarged display is stored in the internal memory of the display control unit 18. Alternatively, the display control unit 18 may acquire image data stored in the internal memory of the navigation control unit 20 or the storage device 30.

[第5の実施例]
上記の第1〜第3の実施例の変形例として、拡大表示される情報入力手段のうち、入力可能な情報をさらに選択し易いように表示する場合について説明する。
[Fifth embodiment]
As a modification of the first to third embodiments described above, a case will be described in which information that can be input is displayed so as to be more easily selected from the information input means displayed in an enlarged manner.

図10は、第5の実施例における電子機器10の動作手順を説明するフローチャート図である。図10は、図3、5、7のフローチャート図における手順S10のサブルーチンに対応する。図11は、情報入力部11の表示例(図11(A))と、入力候補データについて説明する図である。図11を参照しつつ、図10に従って動作手順を説明する。   FIG. 10 is a flowchart for explaining the operation procedure of the electronic apparatus 10 in the fifth embodiment. FIG. 10 corresponds to the subroutine of step S10 in the flowcharts of FIGS. FIG. 11 is a diagram for explaining a display example of the information input unit 11 (FIG. 11A) and input candidate data. The operation procedure will be described according to FIG. 10 with reference to FIG.

まず、表示制御部18は手指の接近位置付近の文字キーを拡大表示する(S101)。ここで、図11(A)に示すように、文字「A」「B」が入力済みの状態で、次の文字「C」を入力する場合について説明する。第5の実施例では、表示制御部18の内部メモリ、あるいは記憶装置30には、図11(B)に示すような入力候補データDBが予め格納される。ここでは、入力候補データDBは、入力候補として、「ABCビル」、「ACデパート」、「BAホテル」という目的地の入力候補を有する。   First, the display control unit 18 enlarges and displays the character keys near the approach position of the finger (S101). Here, as shown in FIG. 11A, a case where the next character “C” is input while the characters “A” and “B” have been input will be described. In the fifth embodiment, the input candidate data DB as shown in FIG. 11B is stored in advance in the internal memory of the display control unit 18 or the storage device 30. Here, the input candidate data DB has input candidates of destinations “ABC Building”, “AC Department Store”, and “BA Hotel” as input candidates.

まず、表示制御部18は、表示済みの文字「A」「B」からなる文字列「AB」と前方一致する入力候補を入力候補データDBから検索する(S102)。すると、一致する文字列「ABCビル」が検索される(S104のYES)。   First, the display control unit 18 searches the input candidate data DB for input candidates that match the character string “AB” including the displayed characters “A” and “B” (S102). Then, a matching character string “ABC building” is searched (YES in S104).

次に、表示制御部18は、文字列「AB」の次の文字として選択されたときに、入力候補「ABCビル」と前方一致する文字列「ABC」を構成する文字「C」が手指の接近位置に表示される文字キーに含まれることを確認する(S106のYES)。そして、ユーザが文字キー「C」を選択し易いように、表示状態を変更する(S108)。ここでは、他の文字キーより文字キー「C」をさらに大きく表示する例が示される。このようにして、ユーザの効率的な入力を支援できる。入力した文字列が無効の場合に、ユーザに再入力をさせる必要がなくなるので、利便性が向上する。   Next, when the display control unit 18 is selected as the next character of the character string “AB”, the character “C” that forms the character string “ABC” that matches the input candidate “ABC building” in front of the finger It is confirmed that it is included in the character key displayed at the approach position (YES in S106). Then, the display state is changed so that the user can easily select the character key “C” (S108). Here, an example in which the character key “C” is displayed larger than the other character keys is shown. In this way, efficient user input can be supported. When the input character string is invalid, it is not necessary for the user to input again, and convenience is improved.

なお、表示状態は上記のほか、選択可能でない文字キーを非表示にしたり、情報出力部が選択不可能に制御したりすることが可能である。さらに、前方一致する文字が複数ある場合には、その複数の文字を同じ大きさに表示することが可能である。あるいは、過去の入力履歴を表示制御部18のメモリに格納しておき、入力頻度に応じて文字の表示状態に差をつけてもよい。例えば、入力頻度が上位の文字を大きく表示し、下位の文字を小さく表示することなどが可能である。   In addition to the above, the display state can be controlled such that non-selectable character keys are not displayed or the information output unit cannot be selected. Furthermore, when there are a plurality of characters that match forward, it is possible to display the characters in the same size. Alternatively, the past input history may be stored in the memory of the display control unit 18, and the character display state may be differentiated according to the input frequency. For example, it is possible to display a character with a higher input frequency in a larger size and display a lower character in a smaller size.

上述においては、カーナビゲーションを使用するときの目的地入力を例として説明したが、テレビジョン機能を使用するときのチャネルや映像名の選択入力や、オーディオ機能を使用するときの楽曲名の選択入力にも、上述の手順が適用できる。さらに、情報入力手段として上述した文字キーやアイコン画像の他に、文字列や種々の記号、あるいは操作ボタンなどの画像を用いた場合にも、上記の手順が適用できる。   In the above description, the destination input when using the car navigation has been described as an example. However, the channel and video name selection input when using the television function and the song name selection input when using the audio function are described. In addition, the above-described procedure can be applied. Furthermore, in addition to the character keys and icon images described above as information input means, the above procedure can also be applied when images such as character strings, various symbols, or operation buttons are used.

また、上述においては、カーナビゲーション、テレビ受像機、オーディオなどの機能が一体化された車載用の電子機器を例としたが、これら個々の機能を別々に有する携帯用のテレビやオーディオプレーヤー、あるいはPDA(Personal Digital Assistance)などの情報処理機能を備えた電子機器にも本実施形態は適用できる。   Further, in the above description, an in-vehicle electronic device in which functions such as car navigation, a television receiver, and audio are integrated is taken as an example, but a portable television or audio player having these functions separately, or The present embodiment can also be applied to an electronic device having an information processing function such as a PDA (Personal Digital Assistance).

以上説明したとおり、本実施形態によれば、より簡易な操作で情報入力手段を選択入力でき、かつ誤入力を防止できる電子機器が提供される。   As described above, according to this embodiment, an electronic apparatus that can select and input information input means with a simpler operation and can prevent erroneous input is provided.

本実施形態における電子機器の外観を示す図である。It is a figure which shows the external appearance of the electronic device in this embodiment. 本実施形態における電子機器10の概略構成図である。It is a schematic block diagram of the electronic device 10 in this embodiment. 第1の実施例における電子機器10の動作手順を説明するフローチャート図である。It is a flowchart figure explaining the operation | movement procedure of the electronic device 10 in a 1st Example. 情報入力部11が表示する情報入力手段の遷移を示す画面遷移図である。It is a screen transition diagram which shows the transition of the information input means which the information input part 11 displays. 第2の実施例における電子機器10の動作手順を説明するフローチャート図The flowchart figure explaining the operation | movement procedure of the electronic device 10 in a 2nd Example. 情報入力部11に表示される情報入力手段の遷移を示す画面遷移図である。6 is a screen transition diagram showing transition of information input means displayed on the information input unit 11. FIG. 第3の実施例における電子機器10の動作手順を説明するフローチャート図である。It is a flowchart figure explaining the operation | movement procedure of the electronic device 10 in a 3rd Example. 図8は、情報入力部11に表示される情報入力手段の遷移を示す画面遷移図である。FIG. 8 is a screen transition diagram showing transition of information input means displayed on the information input unit 11. 情報入力部11に表示される情報入力手段の遷移を示す画面遷移図である。6 is a screen transition diagram showing transition of information input means displayed on the information input unit 11. FIG. 第5の実施例における電子機器10の動作手順を説明するフローチャート図である。It is a flowchart figure explaining the operation | movement procedure of the electronic device 10 in a 5th Example. 情報入力部11の表示例と、入力候補について説明する図である。It is a figure explaining the example of a display of the information input part 11, and an input candidate.

符号の説明Explanation of symbols

10:電子機器、11:情報入力部、12:表示画面、14:タッチパネル、16:情報出力部、18:表示制御部、20:ナビゲーション制御部、22:AV制御部、24:手指検知センサ、26:手指検出部 10: Electronic device 11: Information input unit 12: Display screen 14: Touch panel 16: Information output unit 18: Display control unit 20: Navigation control unit 22: AV control unit 24: Finger detection sensor 26: Finger detection unit

Claims (4)

情報入力部と、
前記情報入力部から所定距離圏内に手指が接近するときに、当該手指の前記情報入力部への接近位置を検出する手指検出部と、
前記接近位置を検出したときに、当該接近位置における前記情報入力部の情報入力手段を拡大表示させる表示制御部と、
前記情報入力手段が拡大表示された状態で、前記情報入力部に前記手指が接触したときにその接触位置に対応する入力データを出力する情報出力部とを有する電子機器。
An information input section;
A finger detection unit that detects an approach position of the finger to the information input unit when the finger approaches within a predetermined distance from the information input unit;
A display control unit that enlarges and displays the information input means of the information input unit at the approach position when the approach position is detected;
An electronic apparatus comprising: an information output unit that outputs input data corresponding to a contact position when the finger touches the information input unit in a state where the information input unit is displayed in an enlarged manner.
請求項1において、
前記表示制御部は、手指と前記情報入力部との距離に応じて前記情報入力手段の拡大比率を変化させることを特徴とする電子機器。
In claim 1,
The electronic apparatus according to claim 1, wherein the display control unit changes an enlargement ratio of the information input unit according to a distance between a finger and the information input unit.
請求項1において、
前記表示制御部は、前記手指の移動方向が検出されたときに当該移動方向における情報入力手段を拡大表示することを特徴とする電子機器。
In claim 1,
The display device is an electronic apparatus that enlarges and displays information input means in the moving direction when the moving direction of the finger is detected.
請求項1において、
前記表示制御部は、前記接近位置における情報入力手段に入力候補に対応する情報入力手段が含まれるときに、当該情報入力手段の表示状態を変更することを特徴とする電子機器。
In claim 1,
The display control unit changes the display state of the information input unit when the information input unit corresponding to the input candidate is included in the information input unit at the approach position.
JP2008301201A 2008-11-26 2008-11-26 Electronic equipment Pending JP2010128685A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008301201A JP2010128685A (en) 2008-11-26 2008-11-26 Electronic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008301201A JP2010128685A (en) 2008-11-26 2008-11-26 Electronic equipment

Publications (2)

Publication Number Publication Date
JP2010128685A true JP2010128685A (en) 2010-06-10
JP2010128685A5 JP2010128685A5 (en) 2012-11-08

Family

ID=42329047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008301201A Pending JP2010128685A (en) 2008-11-26 2008-11-26 Electronic equipment

Country Status (1)

Country Link
JP (1) JP2010128685A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102591514A (en) * 2010-11-10 2012-07-18 索尼公司 Display device, display program, and display method
JP2012163611A (en) * 2011-02-03 2012-08-30 Nec Casio Mobile Communications Ltd Processor, processing method, and program
WO2012117690A1 (en) * 2011-02-28 2012-09-07 Sony Corporation Electronic apparatus, display method, and program
JP2012208633A (en) * 2011-03-29 2012-10-25 Ntt Docomo Inc Information terminal, display control method, and display control program
JP2013073366A (en) * 2011-09-27 2013-04-22 Nec Casio Mobile Communications Ltd Information processing device
JP2013539113A (en) * 2010-08-24 2013-10-17 クアルコム,インコーポレイテッド Method and apparatus for interacting with electronic device applications by moving an object in the air above the electronic device display
WO2014017032A1 (en) * 2012-07-27 2014-01-30 パナソニック株式会社 Electronic apparatus
CN104024986A (en) * 2012-01-03 2014-09-03 英特尔公司 Touch screen interaction methods and apparatuses
KR20140136500A (en) * 2012-03-15 2014-11-28 노키아 코포레이션 Touch screen hover input handling
JP2016045519A (en) * 2014-08-19 2016-04-04 京セラドキュメントソリューションズ株式会社 Display control apparatus and electronic device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269022A (en) * 1997-03-25 1998-10-09 Hitachi Ltd Portable information processor with communication function
JPH1165769A (en) * 1997-08-25 1999-03-09 Oki Electric Ind Co Ltd Touch panel display control method and recording medium for recording the same
JP2006031499A (en) * 2004-07-20 2006-02-02 Denso Corp Information input/display device
JP2008009759A (en) * 2006-06-29 2008-01-17 Toyota Motor Corp Touch panel device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269022A (en) * 1997-03-25 1998-10-09 Hitachi Ltd Portable information processor with communication function
JPH1165769A (en) * 1997-08-25 1999-03-09 Oki Electric Ind Co Ltd Touch panel display control method and recording medium for recording the same
JP2006031499A (en) * 2004-07-20 2006-02-02 Denso Corp Information input/display device
JP2008009759A (en) * 2006-06-29 2008-01-17 Toyota Motor Corp Touch panel device

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013539113A (en) * 2010-08-24 2013-10-17 クアルコム,インコーポレイテッド Method and apparatus for interacting with electronic device applications by moving an object in the air above the electronic device display
CN102591514A (en) * 2010-11-10 2012-07-18 索尼公司 Display device, display program, and display method
JP2012163611A (en) * 2011-02-03 2012-08-30 Nec Casio Mobile Communications Ltd Processor, processing method, and program
WO2012117690A1 (en) * 2011-02-28 2012-09-07 Sony Corporation Electronic apparatus, display method, and program
JP2012181613A (en) * 2011-02-28 2012-09-20 Sony Corp Electronic device, display method, and program
KR20140006893A (en) * 2011-02-28 2014-01-16 소니 주식회사 Electronic apparatus, display method, and program
KR102067295B1 (en) * 2011-02-28 2020-01-16 소니 주식회사 Electronic apparatus, display control method, and recording medium
CN103380410B (en) * 2011-02-28 2016-10-19 索尼公司 Electronic equipment, display packing and program
JP2012208633A (en) * 2011-03-29 2012-10-25 Ntt Docomo Inc Information terminal, display control method, and display control program
JP2013073366A (en) * 2011-09-27 2013-04-22 Nec Casio Mobile Communications Ltd Information processing device
JP2015503795A (en) * 2012-01-03 2015-02-02 インテル・コーポレーション Touch screen interaction method and apparatus
CN104024986A (en) * 2012-01-03 2014-09-03 英特尔公司 Touch screen interaction methods and apparatuses
CN104321734A (en) * 2012-03-15 2015-01-28 诺基亚公司 Touch screen hover input handling
KR20140136500A (en) * 2012-03-15 2014-11-28 노키아 코포레이션 Touch screen hover input handling
JP2015510211A (en) * 2012-03-15 2015-04-02 ノキア コーポレイション Touch screen hover input processing
KR101720849B1 (en) * 2012-03-15 2017-03-28 노키아 테크놀로지스 오와이 Touch screen hover input handling
US9189104B2 (en) 2012-07-27 2015-11-17 Panasonic Intellectual Property Corporation Of America Electronic apparatus
WO2014017032A1 (en) * 2012-07-27 2014-01-30 パナソニック株式会社 Electronic apparatus
JP2016045519A (en) * 2014-08-19 2016-04-04 京セラドキュメントソリューションズ株式会社 Display control apparatus and electronic device

Similar Documents

Publication Publication Date Title
JP2010128685A (en) Electronic equipment
JP5095321B2 (en) Sightseeing information display device, navigation device, and sightseeing information display system
JP5379259B2 (en) Screen display device
JP4645299B2 (en) In-vehicle display device
JP5129478B2 (en) Screen display device
JP3171145B2 (en) Information display device provided with touch panel and storage medium
JP5295392B2 (en) Input device
US20060097986A1 (en) Image display system
US20090160803A1 (en) Information processing device and touch operation detection method
EP2306154A2 (en) Navigation device and program
JP2008033497A (en) Remote input device and electronic device using the same
JP4605059B2 (en) Operation control device
JP2007003328A (en) Car navigation system
JP6177660B2 (en) Input device
JP5358215B2 (en) Map display device
JP2008090794A (en) Character-input device and program
JP2010061348A (en) Button display method and portable device using the same
JP2008114772A (en) Display device
JPH07271824A (en) Method for displaying menu in navigation device
US20050110756A1 (en) Device and method for controlling symbols displayed on a display device
JP4471618B2 (en) Item search device and item search method
JP2012168594A (en) Operation menu screen switching device and operation menu screen switching method
JP2012190231A (en) Touch panel type operation device, method for operating touch panel, and computer program
JP5378037B2 (en) Navigation device and destination setting method thereof
JP2010032280A (en) Route display apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130625