JP2008310643A - Information processor and image display control method - Google Patents

Information processor and image display control method Download PDF

Info

Publication number
JP2008310643A
JP2008310643A JP2007158751A JP2007158751A JP2008310643A JP 2008310643 A JP2008310643 A JP 2008310643A JP 2007158751 A JP2007158751 A JP 2007158751A JP 2007158751 A JP2007158751 A JP 2007158751A JP 2008310643 A JP2008310643 A JP 2008310643A
Authority
JP
Japan
Prior art keywords
display
image
display device
menu image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007158751A
Other languages
Japanese (ja)
Inventor
Masaki Takada
将樹 高田
Susumu Matsumoto
晋 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2007158751A priority Critical patent/JP2008310643A/en
Publication of JP2008310643A publication Critical patent/JP2008310643A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve user-friendliness in operating an information processor by using a ranging sensor. <P>SOLUTION: A control processing part 211 analyzes detection data OBD and a current image display state or the like when detecting that an object has intruded into the neighborhood of a display device for a touch operation on the basis of detection data OBD based on a result obtained by a ranging sensor. Then, a control processing part 211 transmits a menu image acquisition command MNC corresponding to the analytic result to a menu image acquisition part 212, and transmits a display data generation command PIC to a display data generation part 113. A menu image acquisition part 212 acquires menu image data designated by the menu display command MNC from a storage device, and transmits the menu image data as a menu image MND to a display data generation part 113. The display data generation part 113 generates display data IMD for arranging the menu image MND according to the display data generation command PIC. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、情報処理装置、画像表示制御方法、画像表示制御プログラム、及び、当該画像表示制御プログラムを記録した記録媒体に関する。   The present invention relates to an information processing apparatus, an image display control method, an image display control program, and a recording medium on which the image display control program is recorded.

従来から、様々な情報処理装置が、利用者に提供されている。こうした情報処理装置の中には、測距センサを搭載したものがある。当該装置に搭載された測距センサは、当該装置に近づく物体との距離等を測定することで、当該装置の機能に資するものとなっているが、その測定結果の利用方法は様々である。   Conventionally, various information processing apparatuses have been provided to users. Some of these information processing apparatuses are equipped with a distance measuring sensor. The distance measuring sensor mounted on the device contributes to the function of the device by measuring the distance to an object approaching the device, but there are various methods of using the measurement results.

かかる利用方法の一例として、利用者や物体が情報処理装置に近づいたことを感知して、当該装置の機能を有効に実行する「動作モード」と、当該装置の機能の一部を停止させる「節電モード」とを切替える技術が提案されている(特許文献1等参照:以下、「従来例」と呼ぶ)。この従来例の技術は、物体が測距センサから所定領域内に侵入したときに、「節電モード」となるものである。   As an example of such a usage method, an “operation mode” that senses that a user or an object has approached the information processing apparatus and effectively executes the function of the apparatus, and a part of the function of the apparatus is stopped. A technique for switching between the “power saving mode” has been proposed (see Patent Document 1, etc .: hereinafter referred to as “conventional example”). This prior art technique is a “power saving mode” when an object enters a predetermined area from a distance measuring sensor.

特開平10−271199号公報JP-A-10-271199

しかしながら、上述した従来例の技術では、測距センサによる測定結果に基づいて、情報処理装置の「動作モード」と「節電モード」とを切替えるだけである。そのため、従来例の技術は、当該装置の節電以外には、何ら利用者に特別の利便性を与えるものではなかった。このため、情報処理装置に測距センサを搭載した場合に、測距センサによる測定結果を利用し、有効に活用して、利用者の利便性を大きく高める技術が待望されている。かかる要望に応えることが、本発明が解決すべき課題の一つとして挙げられる。   However, in the conventional technology described above, only the “operation mode” and “power saving mode” of the information processing apparatus are switched based on the measurement result of the distance measuring sensor. Therefore, the technology of the conventional example does not give any special convenience to the user other than power saving of the device. For this reason, when a distance measuring sensor is mounted on the information processing apparatus, a technique for greatly enhancing the convenience of the user by using the measurement result by the distance measuring sensor and effectively using it is desired. Meeting this demand is one of the problems to be solved by the present invention.

本発明は、上記の事情を鑑みてなされたものであり、測距センサを利用しつつ、利用者の利便性を向上することができる画像表示装置及び画像表示制御方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide an image display device and an image display control method capable of improving user convenience while using a distance measuring sensor. To do.

請求項1に記載の発明は、画像を表示する表示デバイスと;前記表示デバイスの表示面上に被タッチ部分が配設されたタッチパネル手段と;前記被タッチ部分に対するタッチ操作を行う物体が、前記被タッチ部分の近傍領域に侵入したことを検出する侵入検出手段と;前記侵入検出手段により前記物体の侵入が検出されたときに、前記表示デバイスに既に表示されている第1画像に重ねて、タッチ操作案内画像である第2画像を前記表示デバイスに表示させる画像表示制御手段と;を備えることを特徴とする情報処理装置である。   The invention according to claim 1 is a display device that displays an image; touch panel means in which a touched portion is disposed on a display surface of the display device; and an object that performs a touch operation on the touched portion, An intrusion detection means for detecting that an intrusion has occurred in the vicinity of the touched portion; and when the intrusion detection means detects the intrusion of the object, it is superimposed on a first image already displayed on the display device, An information display apparatus comprising: an image display control unit that causes the display device to display a second image that is a touch operation guide image.

請求項6に記載の発明は、画像表示する表示デバイスと;前記表示デバイスの表示面上に被タッチ部分が配設されたタッチパネル手段と;を備える情報処理装置において使用される画像表示制御方法であって、前記被タッチ部分に対するタッチ操作を行う物体が、前記被タッチ部分の近傍領域に侵入したことを検出する侵入検出工程と;前記侵入検出工程において前記物体の侵入が検出されたときに、前記表示デバイスに既に表示されている第1画像に重ねて、タッチ操作案内画像である第2画像を前記表示デバイスに表示させる画像表示制御工程と;を備えることを特徴とする画像表示制御方法である。   The invention according to claim 6 is an image display control method used in an information processing apparatus comprising: a display device for displaying an image; and touch panel means having a touched portion disposed on a display surface of the display device. An intrusion detection step of detecting that an object performing a touch operation on the touched portion has intruded into a region near the touched portion; and when an intrusion of the object is detected in the intrusion detection step, An image display control step of causing the display device to display a second image, which is a touch operation guidance image, overlaid on the first image already displayed on the display device. is there.

請求項7に記載の発明は、請求項6に記載の画像表示制御方法を演算手段に実行させる、ことを特徴とする画像表示制御プログラムである。   According to a seventh aspect of the present invention, there is provided an image display control program for causing a calculation means to execute the image display control method according to the sixth aspect.

請求項8に記載の発明は、請求項7に記載の画像表示制御プログラムが、演算手段により読み取り可能に記録された記録媒体である。   The invention according to claim 8 is a recording medium on which the image display control program according to claim 7 is recorded so as to be readable by the arithmetic means.

以下、本発明の一実施形態を、図1〜図8を参照して説明する。なお、以下の説明及び図面においては、同一又は同等の要素には同一の符号を付し、重複する説明は省略する。   Hereinafter, an embodiment of the present invention will be described with reference to FIGS. In the following description and drawings, the same or equivalent elements will be denoted by the same reference numerals, and redundant description will be omitted.

[構成]
図1には、一実施形態に係る情報処理装置としての機能を有する車両搭載用のナビゲーション装置100の概略的な構成がブロック図にて示されている。また、図2には、ナビゲーション装置100の外観構成が、正面図にて示されている。
[Constitution]
FIG. 1 is a block diagram illustrating a schematic configuration of a vehicle-mounted navigation device 100 having a function as an information processing device according to an embodiment. FIG. 2 is a front view showing the external configuration of the navigation device 100.

図1に示されるように、ナビゲーション装置100は、制御ユニット110と、ハードディスク装置等の記憶装置120とを備えている。   As shown in FIG. 1, the navigation device 100 includes a control unit 110 and a storage device 120 such as a hard disk device.

また、ナビゲーション装置100は、音出力ユニット130と、表示ユニット140と、操作入力ユニット150と、走行センサユニット160と、GPS(Global Positioning System)受信ユニット170とを備えている。さらに、ナビゲーション装置100は、侵入検出手段としての物体検知ユニット190を備えている。   The navigation device 100 also includes a sound output unit 130, a display unit 140, an operation input unit 150, a travel sensor unit 160, and a GPS (Global Positioning System) receiving unit 170. Furthermore, the navigation apparatus 100 includes an object detection unit 190 as an intrusion detection unit.

なお、上記の制御ユニット110以外の要素120〜190は、制御ユニット110に接続されている。   The elements 120 to 190 other than the control unit 110 are connected to the control unit 110.

制御ユニット110は、ナビゲーション装置100の全体を統括制御する。この制御ユニット110の詳細については、後述する。   The control unit 110 performs overall control of the navigation device 100. Details of the control unit 110 will be described later.

記憶装置120は、不揮発性の記憶装置であるハードディスク装置等から構成される。記憶装置120内には、ナビゲーション利用情報121、メニュー画像情報125などの様々な情報が記憶されている。ここで、ナビゲーション利用情報121には、地図情報122等のナビゲーションのために利用される情報が含まれている。   The storage device 120 includes a hard disk device that is a nonvolatile storage device. Various information such as navigation usage information 121 and menu image information 125 is stored in the storage device 120. Here, the navigation usage information 121 includes information used for navigation such as the map information 122.

メニュー画像情報125とは、アプリケーションのユーザーインターフェイスとして用いられるメニューの画像データである。メニュー画像情報125は、階層構造になっており、上位の初期メニュー画像(メインメニュー画像)データと、下位の複数個のサブメニュー画像データから構成されている。メニュー画像情報125に基づく画像が、制御ユニット110による制御のもとで、表示デバイス141に表示される。   The menu image information 125 is menu image data used as a user interface of an application. The menu image information 125 has a hierarchical structure, and is composed of upper initial menu image (main menu image) data and a plurality of lower submenu image data. An image based on the menu image information 125 is displayed on the display device 141 under the control of the control unit 110.

音出力ユニット130は、(i)制御ユニット110から受信したデジタル音声データをアナログ信号に変換するDA変換器(Digital to Analog Converter)と、(ii)当該DA変換器から出力されたアナログ信号を増幅する増幅器と、(iii)増幅されたアナログ信号を音声に変換するスピーカとを備えて構成されている。この音出力ユニット130は、制御ユニット110による制御のもとで、車両の進行方向、走行状況、交通状況等の案内用音声、音楽等を出力する。   The sound output unit 130 (i) a digital to analog converter that converts digital audio data received from the control unit 110 into an analog signal, and (ii) amplifies the analog signal output from the DA converter. And (iii) a speaker that converts the amplified analog signal into sound. Under the control of the control unit 110, the sound output unit 130 outputs guidance voice, music, etc., such as the traveling direction of the vehicle, the traveling situation, and the traffic situation.

表示ユニット140は、(i)液晶パネル、有機EL(Electric Luminescence)パネル、PDP(Plasma Display Panel)等の表示デバイス141(図2参照)と、(ii)制御ユニット110から送出された表示制御データに基づいて、表示ユニット140全体の制御を行うグラフィックレンダラ等の表示コントローラと、(iii)表示画像データを記憶する表示画像メモリ等を備えて構成されている。この表示ユニット140は、制御ユニット110による制御のもとで、地図情報、ルート情報、メニュー画像、操作ガイダンス情報等を表示する。   The display unit 140 includes (i) a display device 141 (see FIG. 2) such as a liquid crystal panel, an organic EL (Electric Luminescence) panel, a PDP (Plasma Display Panel), and (ii) display control data sent from the control unit 110. And a display controller such as a graphic renderer for controlling the entire display unit 140, and (iii) a display image memory for storing display image data. The display unit 140 displays map information, route information, menu images, operation guidance information, and the like under the control of the control unit 110.

操作入力ユニット150は、ハードキーユニット151と、タッチパネル手段としてのタッチパネルユニット156とを備えている。ハードキーユニット151は、図2に示されるように、ナビゲーション装置100の本体部に設けられた複数のハードキー1521〜1527等を備えて構成されている。 The operation input unit 150 includes a hard key unit 151 and a touch panel unit 156 as touch panel means. Hard key unit 151, as shown in FIG. 2, is configured to include a plurality of hard keys 152 1-152 7 or the like provided in the main body of the navigation device 100.

タッチパネルユニット156は、タッチパネル157と、このタッチパネル157を駆動する駆動回路等とを備えて構成されている。タッチパネル157は、図3に示されるように、表示デバイス141の表示面上に配設されている。駆動回路は、タッチパネル157に対して行われたタッチ操作の位置に関するデータを取得して、タッチ位置データTPDとして、制御ユニット110へ向けて送る。   The touch panel unit 156 includes a touch panel 157 and a drive circuit that drives the touch panel 157. As shown in FIG. 3, the touch panel 157 is disposed on the display surface of the display device 141. The drive circuit acquires data related to the position of the touch operation performed on the touch panel 157 and sends the data to the control unit 110 as touch position data TPD.

この操作入力ユニット150を利用者が操作することにより、ナビゲーション装置100の動作内容の設定が行われる。本実施形態では、ハードキーユニット151を利用者が操作することにより、ナビゲーション装置100の電源のオン・オフ、音出力ユニット130のスピーカから出力する音声の音量調整等を行うことができる。また、タッチパネルユニット156を利用者が操作することにより、目的地の設定、情報の検索設定、車両の走行状況表示設定等を行うことができる。こうした入力内容は、操作入力ユニット150から制御ユニット110へ送られる。   When the user operates the operation input unit 150, the operation content of the navigation device 100 is set. In the present embodiment, the user can operate the hard key unit 151 to turn on / off the power of the navigation device 100, adjust the volume of the sound output from the speaker of the sound output unit 130, and the like. Further, the user can operate the touch panel unit 156 to perform destination setting, information search setting, vehicle driving condition display setting, and the like. Such input contents are sent from the operation input unit 150 to the control unit 110.

図1に戻り、走行センサユニット160は、(i)車両の移動速度を検出する車速センサと、(ii)車両に作用している加速度を検出する加速度センサと、(iii)車両の角速度を検出する角速度センサとを備えている。ここで、車速センサは、車軸や車輪の回転により出力されるパルス信号を検出する。また、加速度センサは、例えば、3次元方向の加速度を検出する。また、加速度センサは、例えば、いわゆるジャイロセンサとして構成され、加速度を検出する。   Returning to FIG. 1, the travel sensor unit 160 (i) a vehicle speed sensor that detects the moving speed of the vehicle, (ii) an acceleration sensor that detects acceleration acting on the vehicle, and (iii) an angular velocity of the vehicle. And an angular velocity sensor. Here, the vehicle speed sensor detects a pulse signal output by rotation of an axle or a wheel. The acceleration sensor detects, for example, acceleration in a three-dimensional direction. The acceleration sensor is configured as a so-called gyro sensor, for example, and detects acceleration.

GPS受信ユニット170は、複数のGPS衛星からの電波の受信結果に基づいて、車両の現在位置の擬似座標値を算出し、制御ユニット110へ報告する。また、GPS受信ユニット170は、GPS衛星から送出された時刻情報に基づいて、現在時刻を計時し、制御ユニット110へ送る。   The GPS receiving unit 170 calculates pseudo coordinate values of the current position of the vehicle based on reception results of radio waves from a plurality of GPS satellites, and reports them to the control unit 110. Further, the GPS receiving unit 170 measures the current time based on the time information transmitted from the GPS satellite and sends the current time to the control unit 110.

物体検知ユニット190は、測距センサ191,192を備えて構成されている。測距センサ191,192は、図2に示されるように、左右2方向に沿うタッチパネル157の設置近傍域に対称配置される。測距センサ191,192は、タッチ操作を行う物体(例えば、利用者の指)までの距離を計測し、これらの計測結果から、当該物体がタッチパネル157の正面に対して右方向(+X方向)からタッチパネル157の近傍領域に侵入したか、タッチパネル157の正面に対して左方向(−X方向)からタッチパネル157の近傍領域に侵入したかを検出する。物体検知ユニット190による検出結果は、検出データOBDとして、制御ユニット110へ向けて送られる。なお、これらの測距センサ191,192としては、例えば、20cm程度以下の範囲内にある任意物体の存在を、赤外線の反射を利用して検知するものを採用することができる。   The object detection unit 190 includes distance measuring sensors 191 and 192. As shown in FIG. 2, the distance measuring sensors 191 and 192 are symmetrically arranged in the vicinity of the installation of the touch panel 157 along the left and right directions. The distance measuring sensors 191 and 192 measure the distance to an object (for example, a user's finger) that performs a touch operation, and based on these measurement results, the object is in the right direction (+ X direction) with respect to the front of the touch panel 157. From the left side (−X direction) with respect to the front surface of the touch panel 157 is detected. The detection result by the object detection unit 190 is sent to the control unit 110 as detection data OBD. As these distance measuring sensors 191, 192, for example, a sensor that detects the presence of an arbitrary object within a range of about 20 cm or less by using infrared reflection can be employed.

制御ユニット110は、図4に示されるように、ナビゲーション処理部111と、タッチ操作処理部112と、表示データ生成部113とを備えている。   As illustrated in FIG. 4, the control unit 110 includes a navigation processing unit 111, a touch operation processing unit 112, and a display data generation unit 113.

ナビゲーション処理部111は、記憶装置120にアクセスして、ナビゲーション利用情報121における地図情報122等を適宜参照し、かつ上述した構成要素130〜190を利用して、利用者にナビゲーション情報を提供する。すなわち、ナビゲーション処理に対する操作入力ユニット150からの入力結果に沿って、走行センサユニット160による検出結果及びGPS受信ユニット170による測位結果に対応して、記憶装置120に記憶されたナビゲーション用のデータを適宜読み出す。つまり、ナビゲーション処理部111は、(a)利用者が指定する地域の地図を表示ユニット140の表示デバイス141に表示するための地図表示、(b)自車が地図上のどこに位置するのか、また、どの方角に向かっているのかを算出し、表示ユニット140の表示デバイス141に表示して利用者に提示するマップマッチング、(c)現在自車が存在する位置から、利用者が指定する任意の位置である目的地までの最適ルート検索、(d)設定されたルートに沿って目的地まで運転するときに、表示ユニット140の表示デバイス141に案内表示をしたり、音出力ユニット130のスピーカを用いて音声案内を出力したりする、といったようなルート案内等を行う。   The navigation processing unit 111 accesses the storage device 120, appropriately refers to the map information 122 and the like in the navigation usage information 121, and provides the navigation information to the user using the above-described components 130 to 190. That is, according to the input result from the operation input unit 150 for the navigation process, the navigation data stored in the storage device 120 is appropriately stored corresponding to the detection result by the traveling sensor unit 160 and the positioning result by the GPS receiving unit 170. read out. That is, the navigation processing unit 111 (a) a map display for displaying a map of an area designated by the user on the display device 141 of the display unit 140, (b) where the vehicle is located on the map, , Which direction is calculated, map matching displayed on the display device 141 of the display unit 140 and presented to the user, (c) any position specified by the user from the current vehicle position (D) When driving to a destination along a set route, a guidance display is displayed on the display device 141 of the display unit 140, or the speaker of the sound output unit 130 is turned on. Route guidance, such as using it to output voice guidance, is performed.

また、ナビゲーション処理部111は、タッチ操作処理部112から、ナビゲーション処理に関する実行指令CMDを受けるようになっている。   The navigation processing unit 111 receives an execution command CMD related to navigation processing from the touch operation processing unit 112.

タッチ操作処理部112は、タッチパネル157に対するタッチ操作により入力される指令を処理したり、表示デバイス141にメニュー画像を表示するため、記憶装置120から画像データを取得したりする。このタッチ操作処理部112は、図5に示されるように、画像表示制御手段としての制御処理部211と、メニュー画像取得部212とを備えている。   The touch operation processing unit 112 processes a command input by a touch operation on the touch panel 157 and acquires image data from the storage device 120 in order to display a menu image on the display device 141. As shown in FIG. 5, the touch operation processing unit 112 includes a control processing unit 211 as an image display control unit and a menu image acquisition unit 212.

なお、以下の説明において、表示デバイス141に地図画像のみが表示されている状態を「単独表示」状態といい、地図画像に重ねてメニュー画像が表示されている状態を「重畳表示」状態という。   In the following description, a state where only the map image is displayed on the display device 141 is referred to as a “single display” state, and a state where the menu image is displayed over the map image is referred to as a “superimposed display” state.

制御処理部211は、タッチ操作処理部112におけるタッチ操作処理等を制御する。制御処理部211は、物体検知ユニット190から検出データOBDを受け、タッチパネルユニット156からタッチ位置データTPDを受ける。   The control processing unit 211 controls touch operation processing and the like in the touch operation processing unit 112. The control processing unit 211 receives detection data OBD from the object detection unit 190 and receives touch position data TPD from the touch panel unit 156.

そして、制御処理部211は、検出データOBD、タッチ位置データTPD、現在の表示デバイス141の画像表示状態等を総合的に解析する。制御処理部211は、この解析結果に応じたメニュー画像取得指令MNCをメニュー画像取得部212へ向けて送るとともに、表示データ生成指令PICを表示データ生成部113へ向けて送る。   Then, the control processing unit 211 comprehensively analyzes the detection data OBD, the touch position data TPD, the current image display state of the display device 141, and the like. The control processing unit 211 sends a menu image acquisition command MNC corresponding to the analysis result to the menu image acquisition unit 212 and sends a display data generation command PIC to the display data generation unit 113.

より詳細に説明すると、表示デバイス141が「単独表示」状態にあり、検出データOBDが物体の存在を感知したものであるときは、制御処理部211は、記憶装置120から初期メニュー画像データを取得すべき旨のメニュー画像取得指令MNCを、メニュー画像取得部212へ向けて発行する。制御処理部211は、この指令発行と同時に、取得した初期メニュー画像データに対応するメニュー画像を、表示デバイス141に既に表示されている地図画像上に重ねた画像に対応する表示データIMDを作成すべき旨の表示データ生成指令PICを、表示データ生成部113へ向けて発行する。   More specifically, when the display device 141 is in the “single display” state and the detection data OBD senses the presence of an object, the control processing unit 211 acquires initial menu image data from the storage device 120. A menu image acquisition command MNC indicating that it should be issued is issued to the menu image acquisition unit 212. At the same time when the command is issued, the control processing unit 211 creates display data IMD corresponding to an image obtained by superimposing the menu image corresponding to the acquired initial menu image data on the map image already displayed on the display device 141. A display data generation command PIC indicating power is issued to the display data generation unit 113.

なお、本実施形態では、タッチ操作を行う物体がタッチパネル157の正面に対して右方向(+X方向)からタッチパネル157の近傍領域に侵入を開始したことが検出された場合には、表示デバイス141の右側の領域に初期メニュー画像を重ねて表示するようになっている(後述する図8(A)参照)。一方、当該物体がタッチパネル157の正面に対して左方向(−X方向)からタッチパネル157の近傍領域に侵入を開始したことが検出された場合には、表示デバイス141の左側の領域に初期メニュー画像を重ねて表示するようになっている(後述する図8(B)参照)。   In the present embodiment, when it is detected that an object to be touched has started to enter the area near the touch panel 157 from the right direction (+ X direction) with respect to the front surface of the touch panel 157, the display device 141 The initial menu image is displayed so as to overlap the right area (see FIG. 8A described later). On the other hand, when it is detected that the object has started to enter the area near the touch panel 157 from the left direction (−X direction) with respect to the front surface of the touch panel 157, the initial menu image is displayed in the left area of the display device 141. Are superimposed and displayed (see FIG. 8B described later).

制御処理部211は、表示デバイス141が「重畳表示」状態のときに、タッチ位置データTPDを受けると、まず、タッチ位置データTPDを解析する。そして、タッチ位置データTPDに基づいて、タッチ操作による入力指令がサブメニュー画像等を表示デバイス141に表示すべき旨の指令であると判断された場合には、制御処理部211は、タッチ操作による入力指令に対応するメニューの画像データを記憶装置120から取得すべき旨のメニュー画像取得指令MNCを、メニュー画像取得部212へ向けて発行する。この指令発行と同時に、制御処理部211は、メニュー画像データMNDと地図画像データMPDとを重ねた表示データIMDを作成すべき旨の表示データ生成指令PICを、表示データ生成部113へ向けて発行する。   When receiving the touch position data TPD when the display device 141 is in the “superimposed display” state, the control processing unit 211 first analyzes the touch position data TPD. When it is determined that the input command by the touch operation is a command to display the submenu image or the like on the display device 141 based on the touch position data TPD, the control processing unit 211 performs the touch operation. A menu image acquisition command MNC is issued to the menu image acquisition unit 212 to the effect that the menu image data corresponding to the input command should be acquired from the storage device 120. Simultaneously with the issuance of this command, the control processing unit 211 issues a display data generation command PIC to the display data generating unit 113 that the display data IMD in which the menu image data MND and the map image data MPD are to be created is to be created. To do.

一方、タッチ操作による入力指令がナビゲーション処理部111に対する指令であると判断された場合には、タッチ位置データTPDに対応する実行指令CMDを、ナビゲーション処理部111へ向けて送る。   On the other hand, when it is determined that the input command by the touch operation is a command for the navigation processing unit 111, an execution command CMD corresponding to the touch position data TPD is sent to the navigation processing unit 111.

また、制御処理部211は、表示デバイス141が「重畳表示」状態のときに、検出データOBDの結果に基づいて、物体が所定時間にわたりタッチパネル157の近傍領域に侵入していないと判断したときは、地図画像データMPDのみから表示データIMDを生成すべき旨の表示データ生成指令PICを、表示データ生成部113へ向けて発行する。なお、当該所定時間は、利用者の利便性の観点から、実験、シニュレーション、経験等によって予め定められる。   When the control processing unit 211 determines that the object has not entered the vicinity of the touch panel 157 for a predetermined time based on the result of the detection data OBD when the display device 141 is in the “superimposed display” state. Then, a display data generation command PIC for generating the display data IMD from only the map image data MPD is issued to the display data generation unit 113. Note that the predetermined time is determined in advance by experiments, sinulation, experience, and the like from the viewpoint of user convenience.

メニュー画像取得部212は、制御処理部211からのメニュー画像取得指令MNCに従って、記憶装置120から、メニュー画像取得指令MNCにより指定された画像データMNIを取得する。そして、メニュー画像取得部212は、この画像データMNIをメニュー画像データMNDとして、表示データ生成部113へ向けて送る。   The menu image acquisition unit 212 acquires the image data MNI specified by the menu image acquisition command MNC from the storage device 120 in accordance with the menu image acquisition command MNC from the control processing unit 211. Then, the menu image acquisition unit 212 sends this image data MNI to the display data generation unit 113 as menu image data MND.

図4に戻り、表示データ生成部113は、ナビゲーション処理部111から地図画像データMPDを受けるとともに、タッチ操作処理部112のメニュー画像取得部212(図5参照)からメニュー画像データMNDを受ける。そして、表示データ生成部113は、制御処理部211からの表示データ生成指令PICに従って、地図画像にメニュー画像を重ねた画像に対応する重畳表示画像データ、又は、地図画像のみに対応する単独表示画像データを、表示データIMDとして生成する。こうして生成された表示データIMDは、表示ユニット140へ向けて送られる。   Returning to FIG. 4, the display data generation unit 113 receives the map image data MPD from the navigation processing unit 111 and the menu image data MND from the menu image acquisition unit 212 (see FIG. 5) of the touch operation processing unit 112. Then, the display data generation unit 113, according to the display data generation command PIC from the control processing unit 211, the superimposed display image data corresponding to the image obtained by superimposing the menu image on the map image, or the single display image corresponding only to the map image Data is generated as display data IMD. The display data IMD generated in this way is sent to the display unit 140.

[動作]
次に、上記のように構成されたナビゲーション装置100の動作について、タッチ操作処理部112によるタッチパネル157の操作処理及び表示デバイス141へのメニュー画像の表示処理に、主に着目して説明する。
[Operation]
Next, the operation of the navigation device 100 configured as described above will be described mainly focusing on the operation processing of the touch panel 157 by the touch operation processing unit 112 and the display processing of the menu image on the display device 141.

なお、この処理は、所定の時間間隔で周期的に実行される。かかる所定の時間間隔は、利用者に対して違和感を感じさせないという観点から、実験、シミュレーション、経験等に基づいて、予め定められる。例えば、所定の時間間隔を、数10m秒〜数100mの時間間隔とすることができる。   This process is periodically executed at predetermined time intervals. The predetermined time interval is determined in advance based on experiments, simulations, experiences, and the like from the viewpoint of not causing the user to feel uncomfortable. For example, the predetermined time interval can be a time interval of several tens of milliseconds to several hundreds of meters.

まず、図6に示されるように、タッチ操作処理部112の制御処理部211は、ステップS11の処理を実行する。なお、このステップS11の段階では、表示デバイス141は「単独表示」状態でありは、図7に示されるような地図画像データMPDに基づく地図画像だけが表示デバイス141に表示されており、メニュー画像データMNDに基づくメニュー画像は表示されていないものとする。   First, as illustrated in FIG. 6, the control processing unit 211 of the touch operation processing unit 112 executes the process of step S <b> 11. At this stage of step S11, the display device 141 is in the “single display” state, and only the map image based on the map image data MPD as shown in FIG. 7 is displayed on the display device 141, and the menu image is displayed. It is assumed that the menu image based on the data MND is not displayed.

図6のステップS11では、制御処理部211が、物体検知ユニット190から送られてくる検出データOBDを解析し、物体(利用者の指)が、タッチパネル157の右側(+X方向)からタッチパネル157の近傍領域内に侵入したか否かを判定する。この判定は、物体探知ユニット190からの報告結果に基づいて行われる。ステップS11における判定の結果が肯定的であった場合(ステップS11:Y)には、処理はステップS13へ進む。   In step S11 of FIG. 6, the control processing unit 211 analyzes the detection data OBD sent from the object detection unit 190, and the object (user's finger) moves from the right side (+ X direction) of the touch panel 157 to the touch panel 157. It is determined whether or not an intrusion has occurred in the vicinity area. This determination is made based on a report result from the object detection unit 190. If the result of the determination in step S11 is affirmative (step S11: Y), the process proceeds to step S13.

ステップS13では、物体がタッチパネル157の右側から侵入していることから、制御処理部211は、タッチパネル157の右側からの操作入力を容易にする右側操作モードにする。   In step S <b> 13, since the object has entered from the right side of the touch panel 157, the control processing unit 211 enters the right operation mode that facilitates operation input from the right side of the touch panel 157.

右側操作モードになると、処理はステップS14へ進む。このステップS14では、制御処理部211が、表示デバイス141が「重畳表示」状態であるか否かを判断する。この判定の結果が否定的であった場合(ステップS14:N)には、処理はステップS15へ進む。   When the right operation mode is set, the process proceeds to step S14. In step S14, the control processing unit 211 determines whether or not the display device 141 is in the “superimposed display” state. If the result of this determination is negative (step S14: N), the process proceeds to step S15.

ステップS15では、まず、制御処理部211が、記憶装置120から初期メニュー画像データを取得すべき旨のメニュー画像取得指令MNCを、メニュー画像取得部212へ向けて発行する。次いで、メニュー画像取得部212が、記憶装置120から、メニュー画像取得指令MNCにより指定された初期メニュー画像データを画像データMNIとして取得する。そして、メニュー画像取得部212は、この画像データMNIをメニュー画像データMNDとして、表示データ生成部113へ向けて送る。   In step S <b> 15, first, the control processing unit 211 issues a menu image acquisition command MNC indicating that initial menu image data should be acquired from the storage device 120 to the menu image acquisition unit 212. Next, the menu image acquisition unit 212 acquires the initial menu image data designated by the menu image acquisition command MNC from the storage device 120 as the image data MNI. Then, the menu image acquisition unit 212 sends this image data MNI to the display data generation unit 113 as menu image data MND.

また、制御処理部211は、前述したメニュー画像取得指令MNCの発行と同時に、取得した初期メニュー画像データに対応するメニュー画像を、表示デバイス141に既に表示されている地図画像上の右側領域に重ねた画像に対応する表示データIMDを作成すべき旨の表示データ生成指令PICを、表示データ生成部113へ向けて発行する。この指令を受けた表示データ生成部113は、地図画像の右側領域にメニュー画像を重ねた画像に対応する重畳表示画像データを生成する。こうして生成された重畳表示画像データは、表示データIMDとして、表示ユニット140へ向けて送られる。これにより、図8(A)に示されるように、表示デバイス141に既に表示されている地図画像に重ねて、表示デバイス141の右側領域にメニュー画像が表示される。その後、処理はステップS16へ進む。   In addition, the control processing unit 211 simultaneously overlays the menu image corresponding to the acquired initial menu image data on the right side area on the map image already displayed on the display device 141 at the same time when the menu image acquisition command MNC is issued. The display data generation command PIC to the effect that the display data IMD corresponding to the image should be generated is issued to the display data generation unit 113. Upon receiving this command, the display data generation unit 113 generates superimposed display image data corresponding to an image in which the menu image is superimposed on the right region of the map image. The superimposed display image data generated in this way is sent to the display unit 140 as display data IMD. As a result, as shown in FIG. 8A, the menu image is displayed in the right area of the display device 141 so as to overlap the map image already displayed on the display device 141. Thereafter, the process proceeds to step S16.

ステップS16では、制御処理部211が、カウンタ値Tの値を、所定の初期値にセットする。カウンタ値Tをセットした後は、制御処理部211は、今回の処理を終了させる。なお、カウンタ値Tは、物体がタッチパネル157の近傍領域に侵入していない状態の継続時間を計測するためのものである。このカウンタ値Tの所定の初期値は、前述した処理の割込時間間隔との関係で、利用者に違和感のないように、実験、経験等に基づいて、予め定められる。本実施形態では、例示としてカウンタ値Tの所定の初期値は、「100」とする。   In step S16, the control processing unit 211 sets the counter value T to a predetermined initial value. After setting the counter value T, the control processing unit 211 ends the current process. The counter value T is for measuring the duration of the state in which the object has not entered the vicinity area of the touch panel 157. The predetermined initial value of the counter value T is determined in advance based on experiments, experiences, and the like so that the user does not feel uncomfortable in relation to the above-described processing interruption time interval. In the present embodiment, as an example, the predetermined initial value of the counter value T is “100”.

一方、ステップS14における判定の結果が肯定的であった場合(ステップS14:Y)、すなわち、表示デバイス141が「重畳表示」状態であった場合には、処理はステップS16へ進む。ステップS16では、前述したように、制御処理部211がカウンタ値Tを初期値である「100」にセットする。その後、制御処理部211は、今回の処理を終了させる。   On the other hand, if the result of the determination in step S14 is affirmative (step S14: Y), that is, if the display device 141 is in the “superimposed display” state, the process proceeds to step S16. In step S16, as described above, the control processing unit 211 sets the counter value T to the initial value “100”. Thereafter, the control processing unit 211 ends the current process.

ステップS11へ戻り、この判定の結果が否定的であった場合(ステップS11:N)には、処理はステップS17へ進む。   Returning to step S11, if the result of this determination is negative (step S11: N), the process proceeds to step S17.

ステップS17では、制御処理部211が、物体検知ユニット190から送られてくる検出データOBDを解析し、物体が、タッチパネル157の左側(−X方向)からタッチパネル157の近傍領域内に侵入したか否かを判断する。この判定の結果が肯定的であった場合(ステップS17:Y)には、タッチパネル157の左側からのみ物体が侵入しているため、タッチパネル157の左側からの操作入力を容易にする左側操作モードとなる(ステップS18)。   In step S <b> 17, the control processing unit 211 analyzes the detection data OBD sent from the object detection unit 190, and determines whether or not the object has entered the area near the touch panel 157 from the left side (−X direction) of the touch panel 157. Determine whether. If the result of this determination is affirmative (step S17: Y), since the object has entered only from the left side of the touch panel 157, the left operation mode that facilitates operation input from the left side of the touch panel 157 (Step S18).

左側操作モードになると、処理はステップS19へ進む。このステップS19では、制御処理部211が、表示デバイス141が「重畳表示」状態であるか否かを判断する。この判定の結果が否定的であった場合(ステップS19:N)には、処理はステップS20へ進む。   When the left operation mode is set, the process proceeds to step S19. In step S19, the control processing unit 211 determines whether or not the display device 141 is in the “superimposed display” state. If the result of this determination is negative (step S19: N), the process proceeds to step S20.

ステップS20では、まず、制御処理部211が、記憶装置120から初期メニュー画像データを取得すべき旨のメニュー画像取得指令MNCを、メニュー画像取得部212へ向けて発行する。次いで、メニュー画像取得部212が、記憶装置120から、メニュー画像取得指令MNCにより指定された初期メニュー画像データを画像データMNIとして取得する。そして、メニュー画像取得部212は、この画像データMNIをメニュー画像MNDとして、表示データ生成部113へ向けて送る。   In step S <b> 20, first, the control processing unit 211 issues a menu image acquisition command MNC indicating that initial menu image data should be acquired from the storage device 120 to the menu image acquisition unit 212. Next, the menu image acquisition unit 212 acquires the initial menu image data designated by the menu image acquisition command MNC from the storage device 120 as the image data MNI. Then, the menu image acquisition unit 212 sends the image data MNI as the menu image MND to the display data generation unit 113.

また、制御処理部211は、メニュー画像取得指令MNCの発行と同時に、取得した初期メニュー画像データに対応するメニュー画像を、表示デバイス141に既に表示されている地図画像上の左側領域に重ねた画像に対応する表示データIMDを作成すべき旨の表示データ生成指令PICを、表示データ生成部113へ向けて発行する。この指令を受けた表示データ生成部113は、地図画像の左側領域にメニュー画像を重ねた画像に対応する重畳表示画像データを生成する。こうして生成された重畳表示画像データは、表示データIMDとして、表示ユニット140へ向けて送られる。これにより、図8(B)に示されるように、表示デバイス141に既に表示されている地図画像に重ねて、表示デバイス141の左側領域にメニュー画像が表示される。続いて、処理は前述したステップS16へと進み、制御処理部211が、カウンタ値Tを初期値である「100」にセットする。その後、制御処理部211が、今回の処理を終了させる。   In addition, the control processing unit 211 simultaneously superimposes the menu image corresponding to the acquired initial menu image data on the left area on the map image already displayed on the display device 141 at the same time when the menu image acquisition command MNC is issued. A display data generation command PIC for generating display data IMD corresponding to is issued to the display data generation unit 113. Upon receiving this command, the display data generation unit 113 generates superimposed display image data corresponding to an image in which the menu image is superimposed on the left region of the map image. The superimposed display image data generated in this way is sent to the display unit 140 as display data IMD. As a result, as shown in FIG. 8B, the menu image is displayed in the left area of the display device 141 so as to overlap the map image already displayed on the display device 141. Subsequently, the process proceeds to step S16 described above, and the control processing unit 211 sets the counter value T to “100” which is an initial value. Thereafter, the control processing unit 211 ends the current process.

一方、ステップS19における判定の結果が肯定的であった場合(ステップS19:Y)にも、処理は前述したステップS16と進み、カウンタ値Tを初期値である「100」にセットした後、今回の処理を終了させる。   On the other hand, when the result of the determination in step S19 is affirmative (step S19: Y), the process proceeds to step S16 described above, and after setting the counter value T to the initial value “100”, this time End the process.

ステップS17へ戻り、この判定の結果が否定的であった場合(ステップS17:N)には、処理はステップS21へ進む。なお、この判定の結果が否定的である場合(ステップS17:N)とは、物体が、タッチパネル157の近傍領域内に侵入していない場合である。   Returning to step S17, if the result of this determination is negative (step S17: N), the process proceeds to step S21. In addition, the case where the result of this determination is negative (step S17: N) is a case where the object has not entered the vicinity region of the touch panel 157.

ステップS21では、制御処理部211が、カウンタ値Tを「1」だけデクリメントする。その後、処理はステップS22へ進む。ステップS22では、制御処理部211が、カウンタ値Tが「0」より小さいか否かを判定する。この判定の結果が否定的であった場合(ステップS22:N)には、制御処理部211は、今回の処理を終了させる。   In step S21, the control processing unit 211 decrements the counter value T by “1”. Thereafter, the process proceeds to step S22. In step S <b> 22, the control processing unit 211 determines whether or not the counter value T is smaller than “0”. If the result of this determination is negative (step S22: N), the control processing unit 211 ends the current process.

一方、ステップS22における判定の結果が肯定的になると(ステップS22:Y)、処理はステップS23へ進む。ここで、カウンタ値Tが「0」より小さくなるとは、制御処理部211によって、所定時間にわたり、物体がタッチパネル157の近傍領域に侵入していないと判断される場合である。例えば、ステップS16において設定するカウンタ値Tの初期値を「100」、処理の割込時間間隔を「0.1秒」に採用すれば、所定時間は「10秒」とすることができる。   On the other hand, when the result of the determination in step S22 is affirmative (step S22: Y), the process proceeds to step S23. Here, the case where the counter value T is smaller than “0” is a case where the control processing unit 211 determines that an object has not entered the vicinity of the touch panel 157 for a predetermined time. For example, if the initial value of the counter value T set in step S16 is “100” and the processing interruption time interval is “0.1 second”, the predetermined time can be “10 seconds”.

ステップS23では、ステップS15やステップS20のときと異なり、制御処理部211は、メニュー画像取得部212へ向けてのメニュー画像取得指令を発行せず、表示データ生成部113へ向けてのみ表示データ生成指令PICを発行する。この場合の表示データ生成指令PICは、地図画像のみに対応する単独表示画像データを、表示データIMDとして生成すべき旨の指令である。この指令を受けた表示データ生成部113は、地図画像だけを表示デバイス141に表示する表示データIMDを作成する。そして、この表示データIMDは、表示ユニット140へ向けて送られる。これにより、図7に示したような画像が、表示デバイス141に表示される。その後、制御処理部211は、今回の処理を終了させる。   In step S23, unlike in steps S15 and S20, the control processing unit 211 does not issue a menu image acquisition command toward the menu image acquisition unit 212, and generates display data only toward the display data generation unit 113. Issue command PIC. The display data generation command PIC in this case is a command that the single display image data corresponding to only the map image should be generated as the display data IMD. Upon receiving this command, the display data generating unit 113 creates display data IMD for displaying only the map image on the display device 141. This display data IMD is sent to the display unit 140. Thereby, an image as shown in FIG. 7 is displayed on the display device 141. Thereafter, the control processing unit 211 ends the current process.

以上説明したように、本実施形態では、タッチ操作処理部112の制御処理部211は、物体検知ユニット190から検出データOBDを受け、また、タッチパネルユニット156からタッチ位置データTPDを受ける。そして、制御処理部211は、検出データOBD、タッチ位置データTPD、表示デバイス141の画像表示状態等を総合的に解析し、解析結果に応じたメニュー画像取得指令MNCをメニュー画像取得部212へ向けて送るとともに、表示データ生成指令PICを表示データ生成部113へ向けて送る。これにより、利用者の指がタッチパネル157の右側から近づいた場合には、利用者が操作しやすいように表示デバイス141の右側に初期メニュー画像を表示し、また、利用者の指がタッチパネル157の左側から近づいた場合には、利用者が操作しやすいように表示デバイス141の左側に初期メニュー画像を表示することができる。   As described above, in the present embodiment, the control processing unit 211 of the touch operation processing unit 112 receives the detection data OBD from the object detection unit 190 and the touch position data TPD from the touch panel unit 156. Then, the control processing unit 211 comprehensively analyzes the detection data OBD, the touch position data TPD, the image display state of the display device 141, and the like, and directs the menu image acquisition command MNC according to the analysis result to the menu image acquisition unit 212. And a display data generation command PIC is sent to the display data generation unit 113. Thus, when the user's finger approaches from the right side of the touch panel 157, the initial menu image is displayed on the right side of the display device 141 so that the user can easily operate, and the user's finger is displayed on the touch panel 157. When approaching from the left side, an initial menu image can be displayed on the left side of the display device 141 so that the user can easily operate.

また、本実施形態では、利用者がタッチパネル157に対するタッチ操作を、所定時間にわたって行わない場合には、表示デバイス141は「単独表示」状態となり、表示デバイス141にメニュー画面は表示されない。このため、利用者がタッチパネル157に対するタッチ操作を行わない間は、メニュー画面が地図画面を見る際の障害とはならず、利用者にとって、広い範囲の地図を見ることができ、地図が見やすくなる。   In the present embodiment, when the user does not perform a touch operation on the touch panel 157 for a predetermined time, the display device 141 is in the “single display” state, and the menu screen is not displayed on the display device 141. For this reason, while the user does not perform a touch operation on the touch panel 157, the menu screen does not become an obstacle when viewing the map screen, and the user can see a wide range of maps and the map is easy to see. .

したがって、本実施形態によれば、ナビゲーション装置100に搭載した測距センサ191,192を活用して、ナビゲーション装置100の操作を補助することができ、利用者の利便性を向上させることができる。   Therefore, according to the present embodiment, it is possible to assist the operation of the navigation device 100 by utilizing the distance measuring sensors 191 and 192 mounted on the navigation device 100, and to improve the convenience for the user.

[実施形態の変形]
本発明は、上記の実施形態に限定されるものではなく、様々な変形が可能である。
[Modification of Embodiment]
The present invention is not limited to the above-described embodiment, and various modifications are possible.

例えば、上記の実施形態では、タッチパネル157の近傍領域に侵入する物体の検知を、左右2方向から行った。これに対して、例えば、タッチパネル157の近傍領域に侵入する物体の検知を、上下左右の4方向から行う等、物体の検知方法は、いかなるものであってもよい。   For example, in the above-described embodiment, the detection of an object that enters the area near the touch panel 157 is performed from the left and right directions. On the other hand, for example, any object detection method may be used, such as detecting an object that enters a region near the touch panel 157 from four directions (up, down, left, and right).

また、上記の実施形態では、ステップS14における判定の結果が否定的(ステップS14:N)であった場合と、ステップS19における判定の結果が否定的(ステップS19:N)であった場合に、表示デバイス141に表示する各初期メニュー画像は、表示位置が異なるだけ、表示内容は同じとした。これに対して、各初期メニュー画像の表示位置は同じにして、表示内容を異なるものにしてもよいし、また、各初期メニュー画像の表示位置と表示内容のいずれも異なるものにしてもよい。   Moreover, in said embodiment, when the result of determination in step S14 is negative (step S14: N), and when the result of determination in step S19 is negative (step S19: N), Each initial menu image displayed on the display device 141 has the same display contents except for the display position. On the other hand, the display position of each initial menu image may be the same and the display content may be different, or the display position and display content of each initial menu image may be different.

また、上記の実施形態では、物体がタッチパネル157の近傍領域に侵入しない場合に、メニュー画像を非表示にするまでの所定時間として10秒を例示したが、この所定時間は10秒よりも長くてもよいし、また、10秒よりも短くてもよい。   In the above embodiment, when the object does not enter the area near the touch panel 157, 10 seconds is exemplified as the predetermined time until the menu image is not displayed. However, the predetermined time is longer than 10 seconds. Alternatively, it may be shorter than 10 seconds.

また、上記の実施形態では、操作入力ユニット150は、ハードキーユニット151と、タッチパネルユニット156とを備えることとした。これに対して、操作入力ユニット150が、上記の要素に加え、又はハードキーユニット151に代えて、キー部を備えるリモート入力装置を採用することもできるし、音声入力する構成を採用することもできる。   In the above embodiment, the operation input unit 150 includes the hard key unit 151 and the touch panel unit 156. On the other hand, the operation input unit 150 can adopt a remote input device including a key unit in addition to the above elements or instead of the hard key unit 151, or can adopt a configuration for inputting voice. it can.

また、上記の実施形態では、ナビゲーション装置100に本発明を適用したが、家庭内等で使用するナビゲーション装置以外の情報処理装置にも本発明を適用することができるのは、勿論である。   Further, in the above embodiment, the present invention is applied to the navigation device 100, but it is needless to say that the present invention can also be applied to an information processing device other than the navigation device used in the home.

なお、上記の実施形態における制御ユニット110の一部又は全部を中央処理装置(CPU:Central Processing Unit)、DSP(Digital Signal Processor)、読出専用メモリ(ROM:Read Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)等を備えた演算手段としてのコンピュータとして構成し、予め用意されたプログラムを当該コンピュータで実行することにより、上記の実施形態における処理の一部又は全部を実行するようにしてもよい。このプログラムはハードディスク、CD−ROM、DVD等のコンピュータで読み取り可能な記録媒体に記録され、当該コンピュータによって記録媒体から読み出されて実行される。また、このプログラムは、CD−ROM、DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配送の形態で取得されるようにしてもよい。   In addition, a part or all of the control unit 110 in the above-described embodiment includes a central processing unit (CPU), a DSP (Digital Signal Processor), a read only memory (ROM), a random access memory (RAM). : Random Access Memory) or the like, and configured as a computer, and a part of or all of the processing in the above embodiment is executed by executing a program prepared in advance on the computer. Good. This program is recorded on a computer-readable recording medium such as a hard disk, CD-ROM, or DVD, and is read from the recording medium and executed by the computer. The program may be acquired in a form recorded on a portable recording medium such as a CD-ROM or DVD, or may be acquired in a form of delivery via a network such as the Internet. Also good.

本発明の一実施形態に係るナビゲーション装置の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the navigation apparatus which concerns on one Embodiment of this invention. 図1に示されるナビゲーション装置の外観構成を示す図である。It is a figure which shows the external appearance structure of the navigation apparatus shown by FIG. 表示デバイスとタッチパネルの配置関係を説明するための図である。It is a figure for demonstrating the arrangement | positioning relationship between a display device and a touchscreen. 図1の制御ユニットの構成を示すブロック図である。It is a block diagram which shows the structure of the control unit of FIG. 図4のタッチ操作処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the touch operation process part of FIG. 図5のタッチ操作処理部における表示デバイスへのメニュー画像の表示処理を説明するためのフローチャートである。6 is a flowchart for explaining menu image display processing on a display device in the touch operation processing unit of FIG. 5. 表示デバイスへの画像の表示例である(その1)。It is the example of a display of the image on a display device (the 1). 表示デバイスへの画像の表示例である(その2)。It is the example of a display of the image on a display device (the 2).

符号の説明Explanation of symbols

100 … ナビゲーション装置(情報処理装置)
141 … 表示デバイス
156 … タッチパネルユニット(タッチパネル手段)
190 … 物体検知ユニット(侵入検出手段)
211 … 制御処理部(画像表示制御手段)
100 ... Navigation device (information processing device)
141 ... Display device 156 ... Touch panel unit (touch panel means)
190 ... Object detection unit (intrusion detection means)
211... Control processing unit (image display control means)

Claims (8)

画像を表示する表示デバイスと;
前記表示デバイスの表示面上に被タッチ部分が配設されたタッチパネル手段と;
前記被タッチ部分に対するタッチ操作を行う物体が、前記被タッチ部分の近傍領域に侵入したことを検出する侵入検出手段と;
前記侵入検出手段により前記物体の侵入が検出されたときに、前記表示デバイスに既に表示されている第1画像に重ねて、タッチ操作案内画像である第2画像を前記表示デバイスに表示させる画像表示制御手段と;
を備えることを特徴とする情報処理装置。
A display device for displaying images;
Touch panel means having a touched portion disposed on a display surface of the display device;
Intrusion detection means for detecting that an object that performs a touch operation on the touched portion has entered a region near the touched portion;
When the intrusion detection unit detects the intrusion of the object, an image display that causes the display device to display a second image, which is a touch operation guidance image, overlaid on the first image already displayed on the display device. Control means;
An information processing apparatus comprising:
前記侵入検出手段は、前記物体の侵入位置情報を検出し、
前記画像表示制御手段は、前記侵入検出手段により検出された侵入位置情報に基づいて、複数の候補の中から前記第2画像を特定する、
ことを特徴とする請求項1に記載の情報処理装置。
The intrusion detection means detects intrusion position information of the object;
The image display control means identifies the second image from a plurality of candidates based on the intrusion position information detected by the intrusion detection means;
The information processing apparatus according to claim 1.
前記複数の候補は、互いに前記表示デバイスの表示面における表示位置及び表示内容の少なくとも一方が異なる、ことを特徴とする請求項2に記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the plurality of candidates are different from each other in at least one of a display position and display content on a display surface of the display device. 前記画像表示制御手段は、前記第1画像に重ねた前記第2画像の表示後、前記物体侵入検出手段による検出結果に基づいて、所定時間にわたり前記物体が前記近傍領域に侵入していないと判断された場合には、前記第1画像のみを前記表示デバイスに表示させる、
ことを特徴とする請求項1〜3のいずれか一項に記載の情報処理装置。
The image display control means determines that the object has not entered the neighboring area for a predetermined time based on a detection result by the object intrusion detection means after displaying the second image superimposed on the first image. If so, only the first image is displayed on the display device.
The information processing apparatus according to any one of claims 1 to 3.
移動体に搭載される、ことを特徴とする請求項1〜4のいずれか一項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the information processing apparatus is mounted on a moving body. 画像表示する表示デバイスと;前記表示デバイスの表示面上に被タッチ部分が配設されたタッチパネル手段と;を備える情報処理装置において使用される画像表示制御方法であって、
前記被タッチ部分に対するタッチ操作を行う物体が、前記被タッチ部分の近傍領域に侵入したことを検出する侵入検出工程と;
前記侵入検出工程において前記物体の侵入が検出されたときに、前記表示デバイスに既に表示されている第1画像に重ねて、タッチ操作案内画像である第2画像を前記表示デバイスに表示させる画像表示制御工程と;
を備えることを特徴とする画像表示制御方法。
An image display control method used in an information processing apparatus comprising: a display device for displaying an image; and a touch panel means having a touched portion disposed on a display surface of the display device,
An intrusion detection step of detecting that an object that performs a touch operation on the touched part has intruded into a region near the touched part;
When the intrusion of the object is detected in the intrusion detection step, an image display for causing the display device to display a second image, which is a touch operation guidance image, superimposed on the first image already displayed on the display device A control process;
An image display control method comprising:
請求項6に記載の画像表示制御方法を演算手段に実行させる、ことを特徴とする画像表示制御プログラム。   An image display control program for causing an arithmetic means to execute the image display control method according to claim 6. 請求項7に記載の画像表示制御プログラムが、演算手段により読み取り可能に記録された記録媒体。   A recording medium on which the image display control program according to claim 7 is recorded so as to be readable by a calculation means.
JP2007158751A 2007-06-15 2007-06-15 Information processor and image display control method Pending JP2008310643A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007158751A JP2008310643A (en) 2007-06-15 2007-06-15 Information processor and image display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007158751A JP2008310643A (en) 2007-06-15 2007-06-15 Information processor and image display control method

Publications (1)

Publication Number Publication Date
JP2008310643A true JP2008310643A (en) 2008-12-25

Family

ID=40238178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007158751A Pending JP2008310643A (en) 2007-06-15 2007-06-15 Information processor and image display control method

Country Status (1)

Country Link
JP (1) JP2008310643A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144217A1 (en) * 2011-04-22 2012-10-26 パナソニック株式会社 Input device for vehicle and input method for vehicle
JP2013205564A (en) * 2012-03-28 2013-10-07 Aisin Aw Co Ltd Composite device, method for opening/closing display part of composite device, and display part opening/closing program
JP2014157439A (en) * 2013-02-15 2014-08-28 Mitsubishi Electric Corp Display control device and display control method
CN111061443A (en) * 2018-10-17 2020-04-24 杭州海康威视数字技术股份有限公司 Menu image display method and device, electronic equipment and machine-readable storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1153111A (en) * 1997-08-06 1999-02-26 Sony Corp Information input/output device
JP2002358162A (en) * 2001-06-01 2002-12-13 Sony Corp Picture display device
JP2006047534A (en) * 2004-08-03 2006-02-16 Alpine Electronics Inc Display control system
JP2006215543A (en) * 2006-01-10 2006-08-17 Fujitsu Ten Ltd Operation controller unit
JP2006300786A (en) * 2005-04-22 2006-11-02 Alpine Electronics Inc Apparatus and system for detecting object
JP2007099191A (en) * 2005-10-07 2007-04-19 Matsushita Electric Ind Co Ltd Data processor
JP2007102077A (en) * 2005-10-07 2007-04-19 Matsushita Electric Ind Co Ltd Data processing device
JP2007108841A (en) * 2005-10-11 2007-04-26 Matsushita Electric Ind Co Ltd Data processor

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1153111A (en) * 1997-08-06 1999-02-26 Sony Corp Information input/output device
JP2002358162A (en) * 2001-06-01 2002-12-13 Sony Corp Picture display device
JP2006047534A (en) * 2004-08-03 2006-02-16 Alpine Electronics Inc Display control system
JP2006300786A (en) * 2005-04-22 2006-11-02 Alpine Electronics Inc Apparatus and system for detecting object
JP2007099191A (en) * 2005-10-07 2007-04-19 Matsushita Electric Ind Co Ltd Data processor
JP2007102077A (en) * 2005-10-07 2007-04-19 Matsushita Electric Ind Co Ltd Data processing device
JP2007108841A (en) * 2005-10-11 2007-04-26 Matsushita Electric Ind Co Ltd Data processor
JP2006215543A (en) * 2006-01-10 2006-08-17 Fujitsu Ten Ltd Operation controller unit

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144217A1 (en) * 2011-04-22 2012-10-26 パナソニック株式会社 Input device for vehicle and input method for vehicle
CN102958756A (en) * 2011-04-22 2013-03-06 松下电器产业株式会社 Input device for vehicle and input method for vehicle
JP5842157B2 (en) * 2011-04-22 2016-01-13 パナソニックIpマネジメント株式会社 VEHICLE INPUT DEVICE AND VEHICLE INPUT METHOD
US9384166B2 (en) 2011-04-22 2016-07-05 Panasonic Intellectual Property Management Co., Ltd. Vehicular input device and vehicular input method
CN102958756B (en) * 2011-04-22 2016-07-06 松下知识产权经营株式会社 Vehicle input equipment and vehicle input method
JP2013205564A (en) * 2012-03-28 2013-10-07 Aisin Aw Co Ltd Composite device, method for opening/closing display part of composite device, and display part opening/closing program
JP2014157439A (en) * 2013-02-15 2014-08-28 Mitsubishi Electric Corp Display control device and display control method
CN111061443A (en) * 2018-10-17 2020-04-24 杭州海康威视数字技术股份有限公司 Menu image display method and device, electronic equipment and machine-readable storage medium
CN111061443B (en) * 2018-10-17 2023-10-10 杭州海康威视数字技术股份有限公司 Menu image display method, menu image display device, electronic equipment and machine-readable storage medium

Similar Documents

Publication Publication Date Title
JP4678534B2 (en) Navigation device and map scroll processing method
US7577518B2 (en) Navigation system
US20140354452A1 (en) Parking assistance system
JP2007331692A (en) In-vehicle electronic equipment and touch panel device
JP5795386B2 (en) Display device and control method
JP2011169621A (en) Map display device
JP2007042029A (en) Display device and program
JP4558753B2 (en) Display device
JP4305538B2 (en) Display device
JP2018128466A (en) Navigation device, head-up display, control method, program, and storage medium
JP2008310643A (en) Information processor and image display control method
JP2008230560A (en) Parking assistance device, parking assistance control method, and parking assistance program
JP3955718B2 (en) Navigation device
JP2015105903A (en) Navigation device, head-up display, control method, program, and storage medium
JP2008191055A (en) Navigation system
JP5358215B2 (en) Map display device
JP5702476B2 (en) Display device, control method, program, storage medium
JPWO2009028085A1 (en) Map display device, map display method, and map display program
JP2008185452A (en) Navigation device
JP2009204477A (en) Navigation device
WO2006112210A1 (en) Voice output device, voice output method, voice output program, and recording medium
JP2004252820A (en) Image display device and onboard navigation device
JP2007232390A (en) Information apparatus, guide information providing method, and program
JP2011118491A (en) Information processing apparatus, input control method, input control program, and recording medium
JP2007292834A (en) Map display device and navigation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110818

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111207