JP2008047027A - Display controller - Google Patents

Display controller Download PDF

Info

Publication number
JP2008047027A
JP2008047027A JP2006224090A JP2006224090A JP2008047027A JP 2008047027 A JP2008047027 A JP 2008047027A JP 2006224090 A JP2006224090 A JP 2006224090A JP 2006224090 A JP2006224090 A JP 2006224090A JP 2008047027 A JP2008047027 A JP 2008047027A
Authority
JP
Japan
Prior art keywords
display
input
item
user
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006224090A
Other languages
Japanese (ja)
Other versions
JP4841359B2 (en
Inventor
Taku Oikawa
卓 及川
Akitoshi Wada
昭敏 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2006224090A priority Critical patent/JP4841359B2/en
Publication of JP2008047027A publication Critical patent/JP2008047027A/en
Application granted granted Critical
Publication of JP4841359B2 publication Critical patent/JP4841359B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a "display controller" for displaying input buttons in an item included in list display when a finger of a user is made to come close to a touch panel. <P>SOLUTION: When the user's finger is made to come close to the display, the display controller detects the finger to display input buttons J5, J6 and J7 to urge the user to make an input in a selected item J4 in the list display. Thus, a limited display space is effectively utilized, and the next input instruction can be promoted while providing the user with as much information as possible. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、複数の項目をリスト表示する表示制御装置に関し、特に、タッチパネル等により入力可能な入力ボタンを併せて表示する技術に関する。   The present invention relates to a display control apparatus that displays a list of a plurality of items, and more particularly to a technique for displaying input buttons that can be input using a touch panel or the like.

タッチパネルは、液晶やCRTスクリーン上に取り付けられており、タッチスクリーンとも呼ばれ、PDA、銀行のATM、駅の券売機、ナビゲーション装置、AV機器などの電子機器への入力手段として広く利用されている。タッチパネルは、指や専用のペンにより画面が接触されると、その接触された位置を検知し、これにより入力操作の有無が判別できるようになっている。   The touch panel is mounted on a liquid crystal or CRT screen, also called a touch screen, and is widely used as an input means to electronic devices such as PDAs, bank ATMs, station ticket machines, navigation devices, and AV devices. . When the screen is touched by a finger or a dedicated pen, the touch panel detects the touched position and thereby can determine whether or not an input operation has been performed.

タッチパネルは、ディスプレイの下に配置して圧力の変化を検出するタイプと、専用の透明なスクリーンで画面を覆うタイプがある。また画面への接触の検知方法には、感圧式や静電式がある。前者は圧力の変化を感知し、後者は静電気による電気信号を感知している。しかしながら、ディスプレイ等は、表示画面の大きさが限られており、1つの表示画面がユーザに提供できる情報量が限られている。   There are two types of touch panels: one that is placed under the display to detect pressure changes, and the other that covers the screen with a dedicated transparent screen. Further, there are a pressure-sensitive method and an electrostatic method for detecting contact with the screen. The former senses changes in pressure, and the latter senses electrical signals due to static electricity. However, a display or the like has a limited display screen size, and the amount of information that a single display screen can provide to a user is limited.

特許文献1は、表示画面に配置したタッチパネルを介してユーザ操作を受け付ける場合に、タッチパネルへの指の接近によりメニューを表示するものである。タッチパネルの表面にセンサが配置されており、ユーザの指の接近を検知できるようになっている。これにより、ユーザに種々の情報を確実に提供することができる。   In Patent Document 1, when a user operation is received via a touch panel arranged on a display screen, a menu is displayed by the approach of a finger to the touch panel. A sensor is arranged on the surface of the touch panel so that the approach of the user's finger can be detected. Thereby, various information can be reliably provided to the user.

特開2002−358162JP 2002-358162 A

車載用ナビゲーション装置やオーディオ装置等において、大容量のハードディスクやDVD等の記憶媒体が利用されることに伴い、取り扱われる情報量が格段に増加する傾向にある。情報量の増加は、ユーザにとって利便性を与える反面、そのような情報から所望の情報を迅速に、かつ効率良く抽出しなければならない。例えば、格納されたオーディオデータから所望の楽曲を検索したり、住所データベースから所望の施設を検索する場合、ディスプレイには、複数の項目を含むリストが表示され、そこから階層的な絞込みが行われるのが一般的である。ディスプレイのサイズにより表示できる文字数に制限はあるが、できるたけ多くの情報をユーザに提示することが望ましい。そこで、特許文献1のように、通常、メニュー画面等を表示せず、画面全体を情報の表示に利用できるようにし、タッチパネルに指が接近したときのみ、メニュー画面を表示している。   In a vehicle-mounted navigation device, an audio device, and the like, the amount of information to be handled tends to increase significantly as a storage medium such as a large-capacity hard disk or DVD is used. While an increase in the amount of information provides convenience for the user, desired information must be extracted quickly and efficiently from such information. For example, when searching for a desired piece of music from stored audio data or searching for a desired facility from an address database, a list including a plurality of items is displayed on the display, and hierarchical narrowing is performed therefrom. It is common. Although the number of characters that can be displayed is limited by the size of the display, it is desirable to present as much information as possible to the user. Therefore, as in Patent Document 1, normally, the menu screen or the like is not displayed, the entire screen can be used for displaying information, and the menu screen is displayed only when a finger approaches the touch panel.

しかしながら、ディスプレイ上に表示されるメニュー画面の位置や大きさに制約がないと、メニュー画面によって大事な情報が隠されてしまう場合があり、必ずしも、ユーザに対し最大限の情報を提示しているとは言い難いという課題があった。   However, if there is no restriction on the position and size of the menu screen displayed on the display, important information may be hidden by the menu screen, and the maximum information is always presented to the user. However, it was difficult to say.

本発明は、上記従来の課題を解決するために成されたものであり、ユーザの指がディスプレイに接近すると、リストの項目内に入力ボタンを表示する表示制御装置を提供することを目的とする。   The present invention has been made to solve the above-described conventional problems, and an object of the present invention is to provide a display control device that displays an input button in a list item when a user's finger approaches the display. .

本発明に係る表示制御装置は、ディスプレイと、情報を記憶する記憶手段と、記憶手段から読み出された情報に基づき複数の項目をディスプレイに表示する第1の表示手段と、ディスプレイに物体が接近したことを検出する検出手段と、検出手段によりディスプレイへの物体の接近が検出されたとき、少なくとも1つの項目内に入力を促す少なくとも1つの入力ボタンを表示する第2の表示手段とを有する。   A display control apparatus according to the present invention includes a display, a storage unit that stores information, a first display unit that displays a plurality of items on the display based on information read from the storage unit, and an object that approaches the display. And a second display unit that displays at least one input button that prompts an input in at least one item when the approach of the object to the display is detected by the detection unit.

項目は、情報を表示し得る領域であって、その表示形態や種類は問われず、限定的に解されるものではない。また入力ボタンは、ユーザに入力を促す表示、または入力を案内する表示であって、広く解されるものである。例えば、メニュー表示、入力キー、操作キー、選択ボタン等を含む。   The item is an area where information can be displayed, and its display form and type are not limited and are not limitedly understood. The input button is a display that prompts the user for input or a display that guides the input, and is widely understood. For example, a menu display, input keys, operation keys, selection buttons, and the like are included.

好ましくは、前記検出手段は、物体が接近した2次元位置を検出し、第2の表示手段は、前記2次元位置に基づき選択された項目内に入力ボタンを表示する。例えば、物体の接近した位置に最も近い項目が選択される。また、第1の表示手段は、複数の項目をリスト表示するものであってもよい。   Preferably, the detection unit detects a two-dimensional position where the object approaches, and the second display unit displays an input button in an item selected based on the two-dimensional position. For example, the item closest to the close position of the object is selected. The first display means may display a plurality of items as a list.

好ましくは、第2の表示手段は、項目内に入力ボタンを表示したとき、当該項目内の情報をスクロールするためのスクロールキーを表示する。第2の表示手段は、一定時間内に前記入力ボタンに対する入力操作が行われなかった場合、前記項目から入力ボタンの表示を消去する。   Preferably, when the input button is displayed in the item, the second display means displays a scroll key for scrolling information in the item. The second display means deletes the display of the input button from the item when the input operation for the input button is not performed within a predetermined time.

好ましくは、表示制御装置はさらに、ディスプレイへの接触により入力を検出する入力検出手段を含み、前記入力ボタンへの接触があったとき、当該入力ボタンへの入力が検出される。   Preferably, the display control device further includes input detection means for detecting an input by touching the display, and when the input button is touched, the input to the input button is detected.

本発明の表示制御装置によれば、ユーザの指等の物体がディスプレイに接近することで、項目内に入力ボタンを表示するようにしたので、ユーザに可能な限り最大限の情報を提示しつつ、必要なときに次の動作への入力案内を行うことができる。   According to the display control apparatus of the present invention, since an input button is displayed in an item when an object such as a user's finger approaches the display, the maximum possible information is presented to the user. When necessary, input guidance to the next operation can be performed.

本発明の最良の実施の形態について図面を参照して詳細に説明する。   The best mode for carrying out the present invention will be described in detail with reference to the drawings.

図1は、本実施例に係る表示制御装置の構成を示すブロック図である。本実施例の表示制御装置10は、ディスプレイ20、システム制御装置30、およびオーディオ装置40とを含んでいる。ディスプレイ20は、液晶等の表示パネル22上に、指などの接触により入力を可能とするタッチパネル24が取り付けられている。タッチパネル24は、例えば透明電極を備えたシート状のものを表示パネル22上に積層することができる。さらにタッチパネル24上には赤外線センサ26が取り付けられており、タッチパネル24への物体の接近を検知することができる。好ましくは、ディスプレイ20は、表示パネル22、タッチパネル24および赤外線センサ26を一体化した表示ユニットから構成される。   FIG. 1 is a block diagram illustrating the configuration of the display control apparatus according to the present embodiment. The display control device 10 according to the present embodiment includes a display 20, a system control device 30, and an audio device 40. In the display 20, a touch panel 24 that allows input by touching a finger or the like is attached to a display panel 22 such as a liquid crystal display. As the touch panel 24, for example, a sheet-like one provided with a transparent electrode can be laminated on the display panel 22. Further, an infrared sensor 26 is attached on the touch panel 24, and an approach of an object to the touch panel 24 can be detected. Preferably, the display 20 includes a display unit in which the display panel 22, the touch panel 24, and the infrared sensor 26 are integrated.

システム制御装置30は、ディスプレイ20を接続されるとともに、複数の電子機器を接続し、ディスプレイ20と複数の電子機器との間のインターフェース的な役割を果たす。本実施例では、システム制御装置30には、オーディオ装置40が接続され、これに加えて他の電子機器50が接続されている。他の電子機器50は、例えば、ポータブルデバイスやナビゲーション装置等の機器である。複数の電子機器が接続されている場合、どの電子機器をソースに使用するかは、ユーザからの指示によって決定される。システム制御装置30は、ユーザからの指示に応じて、選択された電子機器に対し、当該選択された電子機器を動作可能状態にするためのイネーブル信号を通信線S1を介して供給する。動作可能状態となった電子機器は、画像信号線46を介して画像データをディスプレイ20に供給し、そこに所望の画像を表示させることができる。   The system control device 30 is connected to the display 20 and connects a plurality of electronic devices, and serves as an interface between the display 20 and the plurality of electronic devices. In the present embodiment, an audio device 40 is connected to the system control device 30, and in addition to this, another electronic device 50 is connected. The other electronic device 50 is, for example, a device such as a portable device or a navigation device. When a plurality of electronic devices are connected, which electronic device is used as a source is determined by an instruction from the user. In response to an instruction from the user, the system control device 30 supplies an enable signal for making the selected electronic device operable to the selected electronic device via the communication line S1. The electronic device in the operable state can supply image data to the display 20 via the image signal line 46 and display a desired image there.

システム制御装置30は、タッチパネル24への入力を検出する検出部32と、メインマイクロコンピュータ(以下、メインマイコン)36と、メモリ38とを含んでいる。検出部32は、タッチパネル24への入力があったとき、当該入力が行われた位置データを出力する。赤外線センサ26は、ディスプレイ20への物体の接近を検出し、その検出結果をメインマイコン36へ出力する。メモリ38は、タッチパネル24への入力操作が有効か否かを判定するための入力操作判定用データ等を格納し、この入力操作判定用データは、ディスプレイ20への表示に応答してオーディオ装置40または他の電子機器50から供給される。メインマイコン36は、検出部32からの位置データを受け取り、位置データとメモリ38から読み出された入力判定用データとを比較して入力操作が有効か無効かを判定する。また、メインマイコン36は、赤外線センサ26の出力に基づき、タッチパネル24への物体の接近があるか否かを判定するとともに、接近した物体の2次元位置を判定する。さらにメインマイコン36は、オーディオ装置40および他の電子機器50との間で制御信号等のデータ通信を制御する。   The system control device 30 includes a detection unit 32 that detects an input to the touch panel 24, a main microcomputer (hereinafter, main microcomputer) 36, and a memory 38. When there is an input to the touch panel 24, the detection unit 32 outputs position data where the input is performed. The infrared sensor 26 detects the approach of an object to the display 20 and outputs the detection result to the main microcomputer 36. The memory 38 stores input operation determination data and the like for determining whether or not the input operation to the touch panel 24 is valid. The input operation determination data is in response to the display on the display 20 and the audio device 40. Alternatively, it is supplied from another electronic device 50. The main microcomputer 36 receives the position data from the detection unit 32 and compares the position data with the input determination data read from the memory 38 to determine whether the input operation is valid or invalid. The main microcomputer 36 determines whether or not there is an approach of the object to the touch panel 24 based on the output of the infrared sensor 26 and determines the two-dimensional position of the approached object. Further, the main microcomputer 36 controls data communication such as control signals between the audio device 40 and other electronic devices 50.

オーディオ装置40は、システム制御装置30との間で通信等を行うメインマイコン42、オーディオ装置40の各種設定および再生動作等を制御するオーディオ用マイコン44を有する。楽曲データやユーザインターフェース用の画像データ等は、ハードディスク等の大容量記憶媒体48に格納される。楽曲データは、通信手段を用いて外部サーバからダウンロードしたものを記憶媒体48に記憶するものであってもよい。オーディオ用マイコン44は、ユーザにより選択された楽曲を再生したり、接続されているスピーカー60等を制御する。また、ユーザインターフェースのために、画像信号線46を介して画像信号をディスプレイ20に供給する。   The audio device 40 includes a main microcomputer 42 that communicates with the system control device 30 and an audio microcomputer 44 that controls various settings and playback operations of the audio device 40. Music data, user interface image data, and the like are stored in a large-capacity storage medium 48 such as a hard disk. Music data downloaded from an external server using communication means may be stored in the storage medium 48. The audio microcomputer 44 reproduces the music selected by the user and controls the connected speaker 60 and the like. Further, an image signal is supplied to the display 20 via the image signal line 46 for the user interface.

図2は、タッチパネル24に取り付けられた赤外線センサ26の配置を示す正面から見た平面図である。赤外線センサ26は、対になった発光素子26aと受光素子26bを複数対用いて構成され、各対がタッチパネル24上において2次元的に対向するように配置されている。発光素子26aより出射された赤外光26cは、対応する受光素子26bにより受光される。これにより、赤外光26cがタッチパネル24上でアレイ状になるような走査網を形成する。   FIG. 2 is a plan view seen from the front showing the arrangement of the infrared sensor 26 attached to the touch panel 24. The infrared sensor 26 is configured by using a plurality of pairs of light emitting elements 26 a and light receiving elements 26 b that are paired, and each pair is disposed on the touch panel 24 so as to be two-dimensionally opposed. The infrared light 26c emitted from the light emitting element 26a is received by the corresponding light receiving element 26b. As a result, a scanning network is formed such that the infrared light 26c is arrayed on the touch panel 24.

タッチパネル24に物体が接近したとき、赤外光26cは遮断され、メインマイコン36は、赤外線センサ26の出力に基づき、物体の接近を検出する。さらにメインマイコン36は、物体により遮断された赤外光26cの位置に基づき、物体が接近した2次元位置を検出することができる。本実施例では赤外線センサ26を用いたが、タッチパネル24への接近を検出するようなセンサであれば、超音波センサ等の他の接近検出センサであってもよい。   When an object approaches the touch panel 24, the infrared light 26c is blocked, and the main microcomputer 36 detects the approach of the object based on the output of the infrared sensor 26. Further, the main microcomputer 36 can detect the two-dimensional position where the object approaches based on the position of the infrared light 26c blocked by the object. In the present embodiment, the infrared sensor 26 is used. However, as long as the sensor detects the approach to the touch panel 24, another approach detection sensor such as an ultrasonic sensor may be used.

次に、本実施例に係る表示制御装置10の表示動作について図3のフローチャートを参照して説明する。以下、ディスプレイの表示を参照しながらスピーカーの設定を行う例を説明する。車内には、前部中央、前部右側、前部左側、後部右側等に複数のスピーカー60が設置されている。初めに、ユーザは、タッチパネル24または他の図示しない入力装置からスピーカーの設定を行う旨の指示を与える。この指示は、システム制御装置30を介してオーディオ装置40に伝えられる。オーディオ用マイコン44は、記憶媒体48よりスピーカー設定を行うための画像データを読み込み、画像信号線46を介してディスプレイ20に図4に示すようなリストを表示する(ステップS101)。   Next, the display operation of the display control apparatus 10 according to the present embodiment will be described with reference to the flowchart of FIG. Hereinafter, an example in which the speaker is set with reference to the display on the display will be described. In the vehicle, a plurality of speakers 60 are installed at the front center, front right side, front left side, rear right side, and the like. First, the user gives an instruction to set a speaker from the touch panel 24 or other input device (not shown). This instruction is transmitted to the audio device 40 via the system control device 30. The audio microcomputer 44 reads image data for speaker setting from the storage medium 48 and displays a list as shown in FIG. 4 on the display 20 via the image signal line 46 (step S101).

図4に示すように前部中央、前部右側、前部左側、後部右側の項目J1〜J4を含むリストが表示される。各項目J1〜J4は、表示できる文字数に制限があるが、各項目J1〜J4の中からユーザが操作したい項目を容易に選択できるようにするため、ディスプレイ20の幅全体を項目表示領域として使用し、可能な限りの情報をユーザに提示するようにしている。各項目J1〜J4には、例えばスピーカーの設置位置、スピーカーの電源状態、およびスピーカーの出力音圧レベルが表示されている。   As shown in FIG. 4, a list including items J1 to J4 of the front center, the front right side, the front left side, and the rear right side is displayed. Although the number of characters that can be displayed for each item J1 to J4 is limited, the entire width of the display 20 is used as the item display area so that the user can easily select an item that the user wants to operate from among the items J1 to J4. In addition, as much information as possible is presented to the user. In each item J1 to J4, for example, the installation position of the speaker, the power state of the speaker, and the output sound pressure level of the speaker are displayed.

次に、ユーザがディスプレイ20に指を接近させると、メインマイコン36は、ユーザの指がディスプレイ20に接近したか否かを判定する(ステップS102)。指がディスプレイ20に接近していないと判定された場合、メインマイコン36は、図4に示すリスト表示を維持し(ステップS103)、入力ボタンの表示は行わない。   Next, when the user brings a finger close to the display 20, the main microcomputer 36 determines whether or not the user's finger has approached the display 20 (step S102). When it is determined that the finger is not approaching the display 20, the main microcomputer 36 maintains the list display shown in FIG. 4 (step S103) and does not display the input button.

メインマイコン36は、指がディスプレイ20に接近したと判定した場合、指が接近した位置を検出する。メインマイコン36は、リスト内のどの項目に対してユーザが次の操作を行おうとしているのかを予測し、指が接近する位置に最も近い項目を特定する(ステップS104)。   When determining that the finger has approached the display 20, the main microcomputer 36 detects the position at which the finger has approached. The main microcomputer 36 predicts for which item in the list the user is going to perform the next operation, and specifies the item closest to the position where the finger approaches (step S104).

例えば、指が「後部右側スピーカー」を示す項目J4に向けて接近された場合には、項目J4が特定される。メインマイコン36は、通信線S1、S2を介し、オーディオ装置40のオーディオ用マイコン44に項目J4内に入力を案内するための入力ボタンを表示するように伝える。   For example, when the finger is approached toward the item J4 indicating “rear right speaker”, the item J4 is specified. The main microcomputer 36 informs the audio microcomputer 44 of the audio apparatus 40 to display an input button for guiding the input in the item J4 via the communication lines S1 and S2.

オーディオ用マイコン44は、メインマイコン36の指示に基づき、記憶媒体48よりスピーカー設定を行うための入力ボタンの画像データを読み込み、これを画像信号線46を介してディスプレイ20の項目J4内に表示する(ステップS105)。   The audio microcomputer 44 reads the image data of the input button for speaker setting from the storage medium 48 based on the instruction of the main microcomputer 36 and displays it in the item J4 of the display 20 via the image signal line 46. (Step S105).

図5(a)は、「後部右側スピーカー」を示す項目J4にユーザの指が接近したときの表示例である。ユーザが項目J4に指を近づけることにより、項目J4内に、次の動作を入力指示できるような入力ボタンJ5〜J7が表示される。入力ボタンは、例えばスピーカーの電源をオンする入力ボタンJ5、オフする入力ボタンJ6、およびその他の設定を行うための設定ボタンJ7を含んでいる。ユーザは、これら入力ボタンJ5〜J7にタッチすることで、後部右側スピーカー60の電源状態をオンまたはオフしたり、出力音圧レベルの変更を行うことができる。   FIG. 5A is a display example when the user's finger approaches the item J4 indicating “rear right speaker”. When the user brings his / her finger close to the item J4, input buttons J5 to J7 are displayed in the item J4 so that the next operation can be input. The input buttons include, for example, an input button J5 for turning on the speaker, an input button J6 for turning off, and a setting button J7 for performing other settings. The user can turn on or off the power state of the rear right speaker 60 or change the output sound pressure level by touching these input buttons J5 to J7.

次に、ユーザは、ディスプレイに表示された入力ボタンを操作し、入力を指示する。メインマイコン36は、検出部32の出力に基づき、ユーザが入力ボタンへの入力操作を行ったか否かを判定する(ステップS106)。一定の時間内に入力ボタンへの入力操作が行われなかった場合、メインマイコン44は、入力ボタンを消去する(ステップS107)。   Next, the user operates the input button displayed on the display to instruct input. Based on the output of the detection unit 32, the main microcomputer 36 determines whether or not the user has performed an input operation on the input button (step S106). When the input operation to the input button is not performed within a certain time, the main microcomputer 44 deletes the input button (step S107).

次に、メインマイコン36は、入力操作の対象となった入力ボタンを識別する。例えば、項目J4内の電源をオフするため入力ボタンJ6への入力操作が行われた場合、メインマイコン36は、検出部32から受け取った位置データとメモリ38から読み出された入力判定用データを比較し、ユーザの入力操作の判定を行う(ステップS108)。   Next, the main microcomputer 36 identifies the input button that is the target of the input operation. For example, when an input operation to the input button J6 is performed to turn off the power in the item J4, the main microcomputer 36 receives the position data received from the detection unit 32 and the input determination data read from the memory 38. The user input operation is determined by comparison (step S108).

図5(a)に示すスピーカー設定画面への入力操作を判定するための入力判定用データを図5(b)に示す。入力判定用データR1〜R4は、各項目J1〜J4にそれぞれ対応し、入力判定用データR5〜R7は、入力ボタンJ5〜J7にそれぞれ対応する。入力操作が入力操作判定用データR5〜R7に含まれていれば、当該入力操作は有効と判定され、いずれの入力判定用データR5〜R7に含まれていなければ、当該入力操作は無効と判定される。   FIG. 5B shows input determination data for determining an input operation to the speaker setting screen shown in FIG. The input determination data R1 to R4 correspond to the items J1 to J4, respectively, and the input determination data R5 to R7 correspond to the input buttons J5 to J7, respectively. If the input operation is included in the input operation determination data R5 to R7, the input operation is determined to be valid. If the input operation is not included in any of the input determination data R5 to R7, the input operation is determined to be invalid. Is done.

次に、メインマイコン36は、通信線S1、S2を介し、オーディオ用マイコン44に対し、入力操作が行われた入力ボタンを伝える。オーディオ用マイコン44は、入力ボタンに応じた処理を実行する(ステップS109)。例えば、上記したように後部右側に設置されているスピーカーの電源をオフにする入力であれば、その入力に従いスピーカーをオフにする。   Next, the main microcomputer 36 notifies the audio microcomputer 44 of the input button on which the input operation has been performed via the communication lines S1 and S2. The audio microcomputer 44 executes processing corresponding to the input button (step S109). For example, as described above, if the input is to turn off the power of the speaker installed on the rear right side, the speaker is turned off according to the input.

このように、ディスプレイにリストを表示し、そこから次の入力操作を行うような場合、指が接近したときに初めて入力ボタンをディスプレイに表示させるようにしたので、ユーザの入力操作前には、リスト内の各項目に関する情報を可能な限りユーザに提示させることができる。また、項目表示領域内に入力ボタンを表示するので、他の項目が入力ボタンによって隠されることがない。そして、表示された入力ボタンを操作することで、ユーザは、項目の選択とその項目に関する操作を一度に決定することができる。   In this way, when the list is displayed on the display and the next input operation is performed from there, the input button is displayed on the display for the first time when the finger approaches, so before the user input operation, Information about each item in the list can be presented to the user as much as possible. In addition, since the input button is displayed in the item display area, other items are not hidden by the input button. Then, by operating the displayed input button, the user can select an item and determine an operation related to the item at a time.

上記実施例では、車載用オーディオ装置におけるスピーカー設定画面について説明したが、図6(a)に示すように、記憶媒体48に格納されたオーディオデータから再生する楽曲を検索するような場合に、複数のアルバム名(あるいはアーティスト名や曲名)を含むリストが表示され、指が接近したとき、選択された項目内に複数の入力ボタンを表示する。また図6(b)に示すように、ナビゲーション装置において目的地を設定する場合に、複数の施設を含むリストが表示されるが、このような画面においても指が接近したとき、選択された項目内に複数の入力ボタンを表示させることができる。これ以外にも、図7(a)に示すように装置のセットアップ画面において、複数の項目がリスト表示され、例えば、消費電力を節約の項目内に「ON」、「OFF」、「NEXT」の入力ボタンが表示される。図7(b)に示すように電話番号の発信履歴リストであれば、「CALL」、「削除」、「編集」の入力ボタンが表示され、または地上波デジタル放送を利用したテレビの番組リストであれば、同様に「詳細」、「視聴」、「予約」の入力ボタンが表示される。また、入力ボタンの種類は、リスト表示の内容等に応じて適宜選択される。   In the above embodiment, the speaker setting screen in the in-vehicle audio apparatus has been described. However, as shown in FIG. 6A, when searching for music to be played back from audio data stored in the storage medium 48, a plurality of screens are displayed. A list including album names (or artist names and song names) is displayed, and when the finger approaches, a plurality of input buttons are displayed in the selected item. Also, as shown in FIG. 6B, when setting a destination in the navigation device, a list including a plurality of facilities is displayed. Even in such a screen, when the finger approaches, the item selected A plurality of input buttons can be displayed inside. In addition to this, a plurality of items are displayed in a list on the apparatus setup screen as shown in FIG. 7A. For example, “ON”, “OFF”, “NEXT” are included in the items for saving power consumption. An input button is displayed. As shown in FIG. 7B, in the case of a telephone number transmission history list, input buttons of “CALL”, “Delete”, and “Edit” are displayed, or a TV program list using terrestrial digital broadcasting is displayed. If there are, input buttons for “detail”, “view”, and “reservation” are displayed in the same manner. The type of the input button is appropriately selected according to the contents of the list display.

上記実施例では、接近した指の位置情報に基づき、当該位置に最も近い項目を選択し、当該項目内(項目表示領域内)に入力ボタンを表示するようにしたが、これに限らず、ディスプレイに指が接近したときに、複数の項目内に入力ボタンを表示したり、あるいはリスト表示内のすべての項目内に入力ボタンを表示するようにしてもよい。   In the above embodiment, based on the position information of the approaching finger, the item closest to the position is selected, and the input button is displayed in the item (in the item display area). When a finger approaches, input buttons may be displayed in a plurality of items, or input buttons may be displayed in all items in the list display.

また、図8(a)に示すように、リスト表示に項目J1〜J4の他にも多数の項目があることを示すマークMが表示されている場合、図8(b)に示すようにユーザの指がマークM近傍に接近すると、項目J1〜J4の表示が縮小され、スクロールボタンJ10が表示されるようにしてもよい。ユーザは、スクロールボタンJ10を入力操作することにより、リスト内の項目をスクロールさせ、表示されていない他の項目を表示する。   Further, as shown in FIG. 8A, when a mark M indicating that there are a large number of items in addition to the items J1 to J4 is displayed in the list display, as shown in FIG. When the finger approaches the vicinity of the mark M, the display of the items J1 to J4 may be reduced and the scroll button J10 may be displayed. The user performs an input operation of the scroll button J10 to scroll the items in the list and display other items that are not displayed.

また、リスト表示内の項目に複数の入力ボタンが表示されたとき、項目内の文字等の表示が入力ボタンによって隠されてしまうことがある。このような場合には、項目内の文字等をこの項目表示領域内(入力ボタンの表示領域を除いた領域内)で自動的にスクロール表示したり、図9(a)に示すように、項目内の文字表示を水平方向にスクロールさせるようなスクロールボタンJ10を併せて表示するようにしてもよい。   In addition, when a plurality of input buttons are displayed for an item in the list display, the display of characters or the like in the item may be hidden by the input button. In such a case, characters or the like in the item are automatically scrolled and displayed in this item display area (in the area excluding the input button display area), or as shown in FIG. A scroll button J10 that scrolls the character display in the horizontal direction may also be displayed.

上記実施例では、ユーザが指を近づけると、リスト表示内の項目内に入力ボタンを表示したが、必ずしもリスト表示だけに限定されるものではない。例えば、図9(b)に示すように、ディスプレイにメニュー表示J1〜J4がある場合、ユーザが指を近づけた位置に対応するメニュー表示J1内の表示領域に入力ボタンJ5〜J8を表示するものであってもよい。   In the above embodiment, when the user brings his finger close, the input button is displayed in the item in the list display. However, the present invention is not necessarily limited to the list display. For example, as shown in FIG. 9B, when there are menu displays J1 to J4 on the display, the input buttons J5 to J8 are displayed in the display area in the menu display J1 corresponding to the position where the user brings his finger close. It may be.

このように本実施例によれば、ディスプレイの表示領域を有効に活用しつつ、ユーザの指がタッチパネルに接近することで、ユーザが次に操作するであろう入力ボタンを適宜表示させ、ユーザの利便性を図っている。これにより、ユーザの項目選択の意志決定前に多くの情報を提示することができる。   As described above, according to the present embodiment, while the display area of the display is effectively used, the user's finger approaches the touch panel so that the input button that the user will operate next is appropriately displayed. It is designed for convenience. Thereby, a lot of information can be presented before the user's decision to select an item.

以上、本発明の好ましい実施の形態について詳述したが、本発明に係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the specific embodiments according to the present invention, and various modifications can be made within the scope of the gist of the present invention described in the claims. Deformation / change is possible.

本発明に係る表示制御装置は、ナビゲーション装置、AV機器、ATMなど、ユーザからの入力に応じて処理を実行する電子機器において広く利用することができる。   The display control device according to the present invention can be widely used in electronic devices that execute processing in response to input from a user, such as navigation devices, AV devices, and ATMs.

本発明の実施例に係る表示制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the display control apparatus which concerns on the Example of this invention. 赤外線センサの配置を示す正面から見た平面図である。It is the top view seen from the front which shows arrangement | positioning of an infrared sensor. 本発明に係る表示制御装置における表示動作を説明するフローチャートである。It is a flowchart explaining the display operation | movement in the display control apparatus which concerns on this invention. スピーカー設定の表示例を示す図である。It is a figure which shows the example of a display of a speaker setting. 図5(a)は、後部右側スピーカー設定の表示例を示す図である。図5(b)は、図5(a)の入力操作判定用の座標位置データを説明する図である。FIG. 5A is a diagram illustrating a display example of the rear right speaker setting. FIG. 5B is a diagram for explaining the coordinate position data for determining the input operation in FIG. 図6(a)は、オーディオ装置による再生リストの表示例を示す図である。図6(b)は、ナビゲーション装置による目的地設定リストの表示例を示す図である。FIG. 6A is a diagram illustrating a display example of a reproduction list by the audio device. FIG. 6B is a diagram illustrating a display example of the destination setting list by the navigation device. 図7(a)は、セットアップリストの表示例を示す図である。図7(b)は、発信履歴リストの表示例を示す図である。FIG. 7A is a diagram illustrating a display example of a setup list. FIG. 7B is a diagram illustrating a display example of a call history list. 図8(a)は、再生リストの表示例を示す図である。図8(b)は、リストをスクロールするスクロールボタンの表示例である。FIG. 8A is a diagram showing a display example of a reproduction list. FIG. 8B is a display example of scroll buttons for scrolling the list. 図9(a)は、項目内の文字表示をスクロールするスクロールボタンJ10の表示例である。図9(b)は、メニュー表示の表示例である。FIG. 9A shows a display example of the scroll button J10 for scrolling the character display in the item. FIG. 9B is a display example of menu display.

符号の説明Explanation of symbols

10:表示制御装置 20:ディスプレイ
22:表示パネル 24:タッチパネル
26:赤外線センサ 26a:発光素子
26b:受光素子 26c:赤外光
30:システム制御装置 32:検出部
36:メインマイコン 38:メモリ
40:オーディオ装置 42:メインマイコン
44:オーディオ用マイコン 46:画像信号線
48:記憶媒体 50:他の電子機器
60:スピーカー 62:音声信号線
10: Display control device 20: Display 22: Display panel 24: Touch panel 26: Infrared sensor 26a: Light emitting element 26b: Light receiving element 26c: Infrared light 30: System control device 32: Detection unit 36: Main microcomputer 38: Memory 40: Audio device 42: Main microcomputer 44: Audio microcomputer 46: Image signal line 48: Storage medium 50: Other electronic device 60: Speaker 62: Audio signal line

Claims (6)

ディスプレイと、
情報を記憶する記憶手段と、
記憶手段から読み出された情報に基づき複数の項目をディスプレイに表示する第1の表示手段と、
ディスプレイに物体が接近したことを検出する検出手段と、
検出手段によりディスプレイへの物体の接近が検出されたとき、少なくとも1つの項目内に入力を促す少なくとも1つの入力ボタンを表示する第2の表示手段と、
を有する表示制御装置。
Display,
Storage means for storing information;
First display means for displaying a plurality of items on a display based on information read from the storage means;
Detecting means for detecting that an object has approached the display;
Second display means for displaying at least one input button for prompting input in at least one item when the approach of the object to the display is detected by the detection means;
A display control device.
前記検出手段は、物体が接近した2次元位置を検出し、第2の表示手段は、前記2次元位置に基づき選択された項目内に入力ボタンを表示する、請求項1に記載の表示制御装置。 The display control apparatus according to claim 1, wherein the detection unit detects a two-dimensional position where the object approaches, and the second display unit displays an input button in an item selected based on the two-dimensional position. . 第1の表示手段は、複数の項目をリスト表示する、請求項1または2に記載の表示制御装置。 The display control apparatus according to claim 1, wherein the first display unit displays a plurality of items as a list. 第2の表示手段は、項目内に入力ボタンを表示したとき、当該項目内の情報をスクロールするためのスクロールキーを表示する、請求項1ないし3いずれか1つに記載の表示制御装置。 The display control apparatus according to claim 1, wherein when the input button is displayed in the item, the second display unit displays a scroll key for scrolling information in the item. 第2の表示手段は、一定時間内に前記入力ボタンに対する入力操作が行われなかった場合、前記項目から入力ボタンの表示を消去する、請求項1ないし4いずれか1つに記載の表示制御装置。 5. The display control device according to claim 1, wherein the second display unit deletes the display of the input button from the item when an input operation is not performed on the input button within a predetermined time. 6. . 表示制御装置はさらに、ディスプレイへの接触により入力を検出する入力検出手段を含み、前記入力ボタンへの接触があったとき、当該入力ボタンへの入力が検出される、請求項1ないし5いずれか1つに記載の表示制御装置。 The display control device further includes input detection means for detecting an input by touching a display, and when the input button is touched, an input to the input button is detected. The display control apparatus according to one.
JP2006224090A 2006-08-21 2006-08-21 Display control device Active JP4841359B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006224090A JP4841359B2 (en) 2006-08-21 2006-08-21 Display control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006224090A JP4841359B2 (en) 2006-08-21 2006-08-21 Display control device

Publications (2)

Publication Number Publication Date
JP2008047027A true JP2008047027A (en) 2008-02-28
JP4841359B2 JP4841359B2 (en) 2011-12-21

Family

ID=39180677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006224090A Active JP4841359B2 (en) 2006-08-21 2006-08-21 Display control device

Country Status (1)

Country Link
JP (1) JP4841359B2 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009075656A (en) * 2007-09-18 2009-04-09 Toyota Motor Corp Input display device
JP2011134111A (en) * 2009-12-24 2011-07-07 Sony Corp Touch panel device, touch panel control method, program, and storage medium
JP2011134272A (en) * 2009-12-25 2011-07-07 Sony Corp Information processor, information processing method, and program
JP2011165192A (en) * 2010-02-12 2011-08-25 Samsung Electronics Co Ltd Method for executing menu in portable terminal apparatus, and the portable terminal apparatus
JP2011199504A (en) * 2010-03-18 2011-10-06 Kyocera Mita Corp Display input device and image forming device provided therewith
JP2012008954A (en) * 2010-06-28 2012-01-12 Brother Ind Ltd Input device, compound machine and input control program
JP2012058881A (en) * 2010-09-07 2012-03-22 Sony Corp Information processor, information processing method and computer program
CN102470806A (en) * 2009-07-31 2012-05-23 本田技研工业株式会社 Operation system for vehicle
JP2012150833A (en) * 2008-01-21 2012-08-09 Sony Computer Entertainment America Llc Hand-held device with touch screen and digital tactile pixels
JP2013505505A (en) * 2009-09-23 2013-02-14 ディンナン ハン GUI (Graphical User Interface) structure method and method in touch operation environment
JP2013054738A (en) * 2011-08-31 2013-03-21 Samsung Electronics Co Ltd Method for providing user interface in portable terminal and apparatus thereof
WO2013063372A1 (en) * 2011-10-26 2013-05-02 Google Inc. Detecting object moving toward or away from a computing device
JP2013190862A (en) * 2012-03-12 2013-09-26 Panasonic Corp Input device, input support method and program
JP2014179111A (en) * 2014-04-23 2014-09-25 Casio Comput Co Ltd Information output device and program
KR101513023B1 (en) 2008-03-25 2015-04-22 엘지전자 주식회사 Terminal and method of displaying information therein
JP2016004397A (en) * 2014-06-16 2016-01-12 富士フイルム株式会社 Hierarchy menu display device, method, and program, and print order receiving machine
JP2016088262A (en) * 2014-11-04 2016-05-23 三菱電機株式会社 Electronic equipment
WO2016085253A1 (en) * 2014-11-27 2016-06-02 Samsung Electronics Co., Ltd. Screen configuration method, electronic device, and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002358162A (en) * 2001-06-01 2002-12-13 Sony Corp Picture display device
JP2004038894A (en) * 2002-06-28 2004-02-05 Clarion Co Ltd Display control device
JP2006164261A (en) * 2004-12-03 2006-06-22 Picsel (Research) Ltd Data processor having advanced user interface, and system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002358162A (en) * 2001-06-01 2002-12-13 Sony Corp Picture display device
JP2004038894A (en) * 2002-06-28 2004-02-05 Clarion Co Ltd Display control device
JP2006164261A (en) * 2004-12-03 2006-06-22 Picsel (Research) Ltd Data processor having advanced user interface, and system

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009075656A (en) * 2007-09-18 2009-04-09 Toyota Motor Corp Input display device
JP2012150833A (en) * 2008-01-21 2012-08-09 Sony Computer Entertainment America Llc Hand-held device with touch screen and digital tactile pixels
KR101513023B1 (en) 2008-03-25 2015-04-22 엘지전자 주식회사 Terminal and method of displaying information therein
CN102470806A (en) * 2009-07-31 2012-05-23 本田技研工业株式会社 Operation system for vehicle
EP2460694A4 (en) * 2009-07-31 2013-01-23 Honda Motor Co Ltd Operation system for vehicle
EP2460694A1 (en) * 2009-07-31 2012-06-06 Honda Motor Co., Ltd. Operation system for vehicle
JP2013505505A (en) * 2009-09-23 2013-02-14 ディンナン ハン GUI (Graphical User Interface) structure method and method in touch operation environment
JP2011134111A (en) * 2009-12-24 2011-07-07 Sony Corp Touch panel device, touch panel control method, program, and storage medium
JP2011134272A (en) * 2009-12-25 2011-07-07 Sony Corp Information processor, information processing method, and program
US9665244B2 (en) 2010-02-12 2017-05-30 Samsung Electronics Co., Ltd. Menu executing method and apparatus in portable terminal
US9195389B2 (en) 2010-02-12 2015-11-24 Samsung Electronics Co., Ltd. Menu executing method and apparatus in portable terminal
JP2011165192A (en) * 2010-02-12 2011-08-25 Samsung Electronics Co Ltd Method for executing menu in portable terminal apparatus, and the portable terminal apparatus
US9015600B2 (en) 2010-03-18 2015-04-21 Kyocera Document Solutions Inc. Display input device, image forming apparatus, displaying method of a display input device
JP2011199504A (en) * 2010-03-18 2011-10-06 Kyocera Mita Corp Display input device and image forming device provided therewith
JP2012008954A (en) * 2010-06-28 2012-01-12 Brother Ind Ltd Input device, compound machine and input control program
JP2012058881A (en) * 2010-09-07 2012-03-22 Sony Corp Information processor, information processing method and computer program
JP2013054738A (en) * 2011-08-31 2013-03-21 Samsung Electronics Co Ltd Method for providing user interface in portable terminal and apparatus thereof
WO2013063372A1 (en) * 2011-10-26 2013-05-02 Google Inc. Detecting object moving toward or away from a computing device
JP2013190862A (en) * 2012-03-12 2013-09-26 Panasonic Corp Input device, input support method and program
US9891753B2 (en) 2012-03-12 2018-02-13 Panasonic Intellectual Property Corporation Of America Input device, input assistance method and program
JP2014179111A (en) * 2014-04-23 2014-09-25 Casio Comput Co Ltd Information output device and program
JP2016004397A (en) * 2014-06-16 2016-01-12 富士フイルム株式会社 Hierarchy menu display device, method, and program, and print order receiving machine
JP2016088262A (en) * 2014-11-04 2016-05-23 三菱電機株式会社 Electronic equipment
WO2016085253A1 (en) * 2014-11-27 2016-06-02 Samsung Electronics Co., Ltd. Screen configuration method, electronic device, and storage medium
US11442580B2 (en) 2014-11-27 2022-09-13 Samsung Electronics Co., Ltd. Screen configuration method, electronic device, and storage medium

Also Published As

Publication number Publication date
JP4841359B2 (en) 2011-12-21

Similar Documents

Publication Publication Date Title
JP4841359B2 (en) Display control device
US20200356265A1 (en) User terminal device and control method thereof
JP4166229B2 (en) Display device with touch panel
US8737966B2 (en) Mobile device supporting touch semi-lock state and method for operating the same
EP3022848B1 (en) Method of providing message and user device supporting the same
RU2605359C2 (en) Touch control method and portable terminal supporting same
JP4115198B2 (en) Display device with touch panel
US20110177798A1 (en) Mobile communication terminal and method for controlling application program
KR20170057823A (en) Method and electronic apparatus for touch input via edge screen
US20140164976A1 (en) Input method and electronic device for processing the same
JP5876013B2 (en) Input device
CN101876877A (en) Touch screen zooming and displaying system and method
JPWO2010146684A1 (en) Information display device
KR20110103265A (en) Text input method and portable device supporting the same
CN101989174A (en) Information input device and information input method
JP4793787B2 (en) Display control device
CN102541492A (en) Display method and electronic equipment
JP2006199115A (en) Input control device, and input screen display method
JP2008131515A (en) Information processor, information processing method and program
JP2006134166A (en) Input system using touch panel
CN103902223B (en) Virtual keyboard control system and method
TW201101113A (en) Electronic device having virtual keyboard and the operating method of virtual keyboard
KR102452540B1 (en) Vehicle terminal and method for controlling operation thereof
US11659077B2 (en) Mobile terminal and method for controlling the same
JP2010033107A (en) Display with touch panel, program, recording medium and usb switch device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111004

R150 Certificate of patent or registration of utility model

Ref document number: 4841359

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141014

Year of fee payment: 3