JP2008310643A - Information processor and image display control method - Google Patents

Information processor and image display control method Download PDF

Info

Publication number
JP2008310643A
JP2008310643A JP2007158751A JP2007158751A JP2008310643A JP 2008310643 A JP2008310643 A JP 2008310643A JP 2007158751 A JP2007158751 A JP 2007158751A JP 2007158751 A JP2007158751 A JP 2007158751A JP 2008310643 A JP2008310643 A JP 2008310643A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
display
image
unit
display device
object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007158751A
Other languages
Japanese (ja)
Inventor
Susumu Matsumoto
Masaki Takada
晋 松本
将樹 高田
Original Assignee
Pioneer Electronic Corp
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve user-friendliness in operating an information processor by using a ranging sensor. <P>SOLUTION: A control processing part 211 analyzes detection data OBD and a current image display state or the like when detecting that an object has intruded into the neighborhood of a display device for a touch operation on the basis of detection data OBD based on a result obtained by a ranging sensor. Then, a control processing part 211 transmits a menu image acquisition command MNC corresponding to the analytic result to a menu image acquisition part 212, and transmits a display data generation command PIC to a display data generation part 113. A menu image acquisition part 212 acquires menu image data designated by the menu display command MNC from a storage device, and transmits the menu image data as a menu image MND to a display data generation part 113. The display data generation part 113 generates display data IMD for arranging the menu image MND according to the display data generation command PIC. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、情報処理装置、画像表示制御方法、画像表示制御プログラム、及び、当該画像表示制御プログラムを記録した記録媒体に関する。 The present invention relates to an information processing apparatus, an image display control method, an image display control program, and a recording medium storing the image display control program.

従来から、様々な情報処理装置が、利用者に提供されている。 Conventionally, various information processing apparatus, which is provided to the user. こうした情報処理装置の中には、測距センサを搭載したものがある。 Some of these information processing apparatus, there is provided with a distance measuring sensor. 当該装置に搭載された測距センサは、当該装置に近づく物体との距離等を測定することで、当該装置の機能に資するものとなっているが、その測定結果の利用方法は様々である。 Distance measuring sensor mounted on the device, by measuring the distance or the like of an object approaching the apparatus, but becomes to contribute to the function of the device, usage of the measurement result is different.

かかる利用方法の一例として、利用者や物体が情報処理装置に近づいたことを感知して、当該装置の機能を有効に実行する「動作モード」と、当該装置の機能の一部を停止させる「節電モード」とを切替える技術が提案されている(特許文献1等参照:以下、「従来例」と呼ぶ)。 An example of such usage, by sensing that the user or an object has approached the information processing apparatus, effectively performing the function of the device and "operation mode" to stop some of the functions of the device " technique for switching between power-saving mode "has been proposed (see Jpn: hereinafter, referred to as" prior art "). この従来例の技術は、物体が測距センサから所定領域内に侵入したときに、「節電モード」となるものである。 This prior art technique, when an object has entered from the distance measuring sensor in a predetermined region, and serves as a "power saving mode".

特開平10−271199号公報 JP 10-271199 discloses

しかしながら、上述した従来例の技術では、測距センサによる測定結果に基づいて、情報処理装置の「動作モード」と「節電モード」とを切替えるだけである。 However, in the conventional example of the techniques described above, based on the measurement result by the distance measurement sensor it is only switched in the information processing apparatus the "operating mode" and a "power saving mode". そのため、従来例の技術は、当該装置の節電以外には、何ら利用者に特別の利便性を与えるものではなかった。 Therefore, conventional techniques, in addition to power saving of the device, did not provide a special convenience to any user. このため、情報処理装置に測距センサを搭載した場合に、測距センサによる測定結果を利用し、有効に活用して、利用者の利便性を大きく高める技術が待望されている。 Therefore, when mounting the distance measuring sensor to the information processing apparatus, by using the measurement result by the distance measurement sensor, by utilizing effectively, large increase technical user convenience has been desired. かかる要望に応えることが、本発明が解決すべき課題の一つとして挙げられる。 To meet such demands may be mentioned as one of the problems to be solved by the present invention is.

本発明は、上記の事情を鑑みてなされたものであり、測距センサを利用しつつ、利用者の利便性を向上することができる画像表示装置及び画像表示制御方法を提供することを目的とする。 The present invention has been made in consideration of the above circumstances, and aims to while using the distance measuring sensor, an image display apparatus and an image display control method capable of improving user convenience to.

請求項1に記載の発明は、画像を表示する表示デバイスと;前記表示デバイスの表示面上に被タッチ部分が配設されたタッチパネル手段と;前記被タッチ部分に対するタッチ操作を行う物体が、前記被タッチ部分の近傍領域に侵入したことを検出する侵入検出手段と;前記侵入検出手段により前記物体の侵入が検出されたときに、前記表示デバイスに既に表示されている第1画像に重ねて、タッチ操作案内画像である第2画像を前記表示デバイスに表示させる画像表示制御手段と;を備えることを特徴とする情報処理装置である。 Invention of claim 1, the display device and which displays an image; said touch panel unit that the touch portion is disposed on the display surface of the display device; object performs a touch operation on the object touch portion, wherein intrusion detection means and for detecting that has entered the vicinity region of the touch portion; when entry of the object is detected by the intrusion detection means, already superimposed on the first image displayed on the display device, an information processing apparatus, characterized in that it comprises a; the second image is a touch operation guidance image and the image display control means for displaying on said display device.

請求項6に記載の発明は、画像表示する表示デバイスと;前記表示デバイスの表示面上に被タッチ部分が配設されたタッチパネル手段と;を備える情報処理装置において使用される画像表示制御方法であって、前記被タッチ部分に対するタッチ操作を行う物体が、前記被タッチ部分の近傍領域に侵入したことを検出する侵入検出工程と;前記侵入検出工程において前記物体の侵入が検出されたときに、前記表示デバイスに既に表示されている第1画像に重ねて、タッチ操作案内画像である第2画像を前記表示デバイスに表示させる画像表示制御工程と;を備えることを特徴とする画像表示制御方法である。 The invention according to claim 6, the display device and which displays images; an image display control method used in an information processing apparatus including a; the touch portion and the touch panel unit disposed on the display surface of the display device when the entry of the object at the intrusion detection step is detected; there, it objects to perform the touch operation on the object touch portion, the intrusion detection process and for detecting that has entered the vicinity region of the touch portion superimposed on the first image already displayed on the display device, the second image is a touch operation guide image and an image display control step of displaying on the display device; in the image display control method characterized by comprising the is there.

請求項7に記載の発明は、請求項6に記載の画像表示制御方法を演算手段に実行させる、ことを特徴とする画像表示制御プログラムである。 The invention according to claim 7, is executed by a computing means the image display control method according to claim 6, an image display control program, characterized in that.

請求項8に記載の発明は、請求項7に記載の画像表示制御プログラムが、演算手段により読み取り可能に記録された記録媒体である。 The invention according to claim 8, the image display control program according to claim 7, can be recorded a recording medium readable by the computing means.

以下、本発明の一実施形態を、図1〜図8を参照して説明する。 Hereinafter, an embodiment of the present invention will be described with reference to FIGS. なお、以下の説明及び図面においては、同一又は同等の要素には同一の符号を付し、重複する説明は省略する。 In the following description and drawings, the same or equivalent elements are denoted by the same reference numerals, and redundant description will be omitted.

[構成] [Constitution]
図1には、一実施形態に係る情報処理装置としての機能を有する車両搭載用のナビゲーション装置100の概略的な構成がブロック図にて示されている。 1 shows a schematic configuration of the navigation device 100 installed in a vehicle having a function as an information processing apparatus according to an embodiment is shown as a block diagram. また、図2には、ナビゲーション装置100の外観構成が、正面図にて示されている。 Further, in FIG. 2, external configuration of the navigation device 100 is shown in front view.

図1に示されるように、ナビゲーション装置100は、制御ユニット110と、ハードディスク装置等の記憶装置120とを備えている。 As shown in FIG. 1, the navigation device 100 includes a control unit 110, and a storage device 120 such as a hard disk drive.

また、ナビゲーション装置100は、音出力ユニット130と、表示ユニット140と、操作入力ユニット150と、走行センサユニット160と、GPS(Global Positioning System)受信ユニット170とを備えている。 The navigation device 100 includes a sound output unit 130, a display unit 140, an operation input unit 150, a travel sensor unit 160, and a GPS (Global Positioning System) receiver unit 170. さらに、ナビゲーション装置100は、侵入検出手段としての物体検知ユニット190を備えている。 Further, the navigation device 100 includes an object detection unit 190 as an intrusion detector.

なお、上記の制御ユニット110以外の要素120〜190は、制御ユニット110に接続されている。 Incidentally, elements 120 to 190 other than the above-described control unit 110 is connected to the control unit 110.

制御ユニット110は、ナビゲーション装置100の全体を統括制御する。 The control unit 110 controls the whole of the navigation device 100. この制御ユニット110の詳細については、後述する。 The details of this control unit 110 will be described later.

記憶装置120は、不揮発性の記憶装置であるハードディスク装置等から構成される。 Storage device 120 is composed of a hard disk device or the like is a non-volatile storage device. 記憶装置120内には、ナビゲーション利用情報121、メニュー画像情報125などの様々な情報が記憶されている。 The storage device 120, the navigation usage information 121, various information such as menu image information 125 is stored. ここで、ナビゲーション利用情報121には、地図情報122等のナビゲーションのために利用される情報が含まれている。 Here, the navigation usage information 121 includes information used for navigation such as a map information 122.

メニュー画像情報125とは、アプリケーションのユーザーインターフェイスとして用いられるメニューの画像データである。 The menu image information 125 is image data of a menu used as the application's user interface. メニュー画像情報125は、階層構造になっており、上位の初期メニュー画像(メインメニュー画像)データと、下位の複数個のサブメニュー画像データから構成されている。 Menu image information 125 is a hierarchical structure, and higher initial menu image (main menu image) data, and a lower plurality of sub menu image data. メニュー画像情報125に基づく画像が、制御ユニット110による制御のもとで、表示デバイス141に表示される。 Image based on the menu image information 125, under the control of the control unit 110, is displayed on the display device 141.

音出力ユニット130は、(i)制御ユニット110から受信したデジタル音声データをアナログ信号に変換するDA変換器(Digital to Analog Converter)と、(ii)当該DA変換器から出力されたアナログ信号を増幅する増幅器と、(iii)増幅されたアナログ信号を音声に変換するスピーカとを備えて構成されている。 The sound output unit 130, amplifies DA converter for converting the digital audio data received analog signal (Digital to Analog Converter), an analog signal output from the (ii) the DA converter from (i) the control unit 110 an amplifier for, and and a speaker for converting the audio analog signal amplified (iii). この音出力ユニット130は、制御ユニット110による制御のもとで、車両の進行方向、走行状況、交通状況等の案内用音声、音楽等を出力する。 The sound output unit 130, under the control of the control unit 110, the traveling direction of the vehicle, driving situation, guiding voice such as traffic conditions, and outputs the music and the like.

表示ユニット140は、(i)液晶パネル、有機EL(Electric Luminescence)パネル、PDP(Plasma Display Panel)等の表示デバイス141(図2参照)と、(ii)制御ユニット110から送出された表示制御データに基づいて、表示ユニット140全体の制御を行うグラフィックレンダラ等の表示コントローラと、(iii)表示画像データを記憶する表示画像メモリ等を備えて構成されている。 Display unit 140, (i) a liquid crystal panel, an organic EL (Electric Luminescence) panel, PDP (Plasma Display Panel) and a display device 141 such as a (see FIG. 2), (ii) display control data sent from the control unit 110 based on a display controller, such as graphic renderer for controlling the entire display unit 140 is configured to include a display image memory for storing the (iii) the display image data. この表示ユニット140は、制御ユニット110による制御のもとで、地図情報、ルート情報、メニュー画像、操作ガイダンス情報等を表示する。 The display unit 140, under the control of the control unit 110 displays the map information, route information, menu image, the operation guidance information, and the like.

操作入力ユニット150は、ハードキーユニット151と、タッチパネル手段としてのタッチパネルユニット156とを備えている。 The operation input unit 150 includes a hard key unit 151, a touch panel unit 156 of the touch panel unit. ハードキーユニット151は、図2に示されるように、ナビゲーション装置100の本体部に設けられた複数のハードキー152 1 〜152 7等を備えて構成されている。 Hard key unit 151, as shown in FIG. 2, is configured to include a plurality of hard keys 152 1-152 7 or the like provided in the main body of the navigation device 100.

タッチパネルユニット156は、タッチパネル157と、このタッチパネル157を駆動する駆動回路等とを備えて構成されている。 The touch panel unit 156 includes a touch panel 157 is configured by a drive circuit for driving the touch panel 157. タッチパネル157は、図3に示されるように、表示デバイス141の表示面上に配設されている。 The touch panel 157, as shown in FIG. 3, is disposed on the display surface of the display device 141. 駆動回路は、タッチパネル157に対して行われたタッチ操作の位置に関するデータを取得して、タッチ位置データTPDとして、制御ユニット110へ向けて送る。 Driving circuit is to obtain data about the position of a touch operation performed on the touch panel 157, as the touch position data TPD, and sends toward the control unit 110.

この操作入力ユニット150を利用者が操作することにより、ナビゲーション装置100の動作内容の設定が行われる。 By this operation input unit 150 by the user operating the setting operation contents of the navigation device 100 is performed. 本実施形態では、ハードキーユニット151を利用者が操作することにより、ナビゲーション装置100の電源のオン・オフ、音出力ユニット130のスピーカから出力する音声の音量調整等を行うことができる。 In this embodiment, by operating the hard key unit 151 is a user, it is possible to perform power on and off of the navigation device 100, audio output from the speaker of the sound output unit 130 the volume control or the like. また、タッチパネルユニット156を利用者が操作することにより、目的地の設定、情報の検索設定、車両の走行状況表示設定等を行うことができる。 Moreover, by operating the user the touch panel unit 156 can perform setting of the destination, the search setting information, the running status display setting of the vehicle. こうした入力内容は、操作入力ユニット150から制御ユニット110へ送られる。 These entries are sent from the operation input unit 150 to the control unit 110.

図1に戻り、走行センサユニット160は、(i)車両の移動速度を検出する車速センサと、(ii)車両に作用している加速度を検出する加速度センサと、(iii)車両の角速度を検出する角速度センサとを備えている。 Returning to Figure 1, the travel sensor unit 160, (i) detecting a vehicle speed sensor for detecting a moving speed of the vehicle, an acceleration sensor for detecting an acceleration applied to (ii) a vehicle, an angular velocity of (iii) vehicle and a velocity sensor. ここで、車速センサは、車軸や車輪の回転により出力されるパルス信号を検出する。 Here, the vehicle speed sensor detects a pulse signal output by the rotation of the axle and wheels. また、加速度センサは、例えば、3次元方向の加速度を検出する。 Further, the acceleration sensor, for example, detecting acceleration in three-dimensional directions. また、加速度センサは、例えば、いわゆるジャイロセンサとして構成され、加速度を検出する。 The acceleration sensor is configured, for example, as a so-called gyro-sensor detects the acceleration.

GPS受信ユニット170は、複数のGPS衛星からの電波の受信結果に基づいて、車両の現在位置の擬似座標値を算出し、制御ユニット110へ報告する。 GPS receiving unit 170, based on the signal reception result from a plurality of GPS satellites, calculates a pseudo coordinate value of the current position of the vehicle and report to the control unit 110. また、GPS受信ユニット170は、GPS衛星から送出された時刻情報に基づいて、現在時刻を計時し、制御ユニット110へ送る。 Further, GPS receiving unit 170, based on the time information transmitted from GPS satellites, it measures the current time, and sends to the control unit 110.

物体検知ユニット190は、測距センサ191,192を備えて構成されている。 Object detection unit 190 is configured to include a distance measuring sensor 191, 192. 測距センサ191,192は、図2に示されるように、左右2方向に沿うタッチパネル157の設置近傍域に対称配置される。 Distance measuring sensor 191 and 192, as shown in FIG. 2, it is symmetrically arranged on the installation proximity of the touch panel 157 along the left and right directions. 測距センサ191,192は、タッチ操作を行う物体(例えば、利用者の指)までの距離を計測し、これらの計測結果から、当該物体がタッチパネル157の正面に対して右方向(+X方向)からタッチパネル157の近傍領域に侵入したか、タッチパネル157の正面に対して左方向(−X方向)からタッチパネル157の近傍領域に侵入したかを検出する。 Distance measuring sensor 191 and 192, an object to perform a touch operation (e.g., the user's finger) by measuring the distance to, from these measurement results, the right direction (+ X direction) the object with respect to the front of the touch panel 157 or it invaded neighboring region of the touch panel 157 from, for detecting whether entering from the left (-X direction) in the vicinity area of ​​the touch panel 157 with respect to the front of the touch panel 157. 物体検知ユニット190による検出結果は、検出データOBDとして、制御ユニット110へ向けて送られる。 Detection results by the object detecting unit 190, as detection data OBD, sent towards the control unit 110. なお、これらの測距センサ191,192としては、例えば、20cm程度以下の範囲内にある任意物体の存在を、赤外線の反射を利用して検知するものを採用することができる。 As these distance measuring sensor 191, for example, it can be adopted for the presence of any objects in the range below about 20 cm, those of detecting by utilizing the reflection of infrared radiation.

制御ユニット110は、図4に示されるように、ナビゲーション処理部111と、タッチ操作処理部112と、表示データ生成部113とを備えている。 Control unit 110, as shown in FIG. 4, the navigation processing unit 111, a touch operation processing unit 112, and a display data generation unit 113.

ナビゲーション処理部111は、記憶装置120にアクセスして、ナビゲーション利用情報121における地図情報122等を適宜参照し、かつ上述した構成要素130〜190を利用して、利用者にナビゲーション情報を提供する。 Navigation processing unit 111 accesses the storage device 120 as appropriate by referring to the map information 122 and the like in the navigation usage information 121, and by using the components 130 to 190 described above, to provide navigation information to the user. すなわち、ナビゲーション処理に対する操作入力ユニット150からの入力結果に沿って、走行センサユニット160による検出結果及びGPS受信ユニット170による測位結果に対応して、記憶装置120に記憶されたナビゲーション用のデータを適宜読み出す。 That is, along the input result from the operation input unit 150 for the navigation processing, the detection result by the running sensor unit 160 and in response to the positioning result by the GPS receiving unit 170, the data for navigation stored in the storage device 120 as appropriate read out. つまり、ナビゲーション処理部111は、(a)利用者が指定する地域の地図を表示ユニット140の表示デバイス141に表示するための地図表示、(b)自車が地図上のどこに位置するのか、また、どの方角に向かっているのかを算出し、表示ユニット140の表示デバイス141に表示して利用者に提示するマップマッチング、(c)現在自車が存在する位置から、利用者が指定する任意の位置である目的地までの最適ルート検索、(d)設定されたルートに沿って目的地まで運転するときに、表示ユニット140の表示デバイス141に案内表示をしたり、音出力ユニット130のスピーカを用いて音声案内を出力したりする、といったようなルート案内等を行う。 That is, the navigation processing unit 111, (a) whether the map display for the user to display a map area specified in the display device 141 of the display unit 140, the (b) the vehicle to a position where on the map, also calculates whether that towards which direction, map matching to be presented to the user by displaying on the display device 141 of the display unit 140, from the position that there is (c) the current vehicle, any specifying the user optimum route search to the destination is located, when the operation to a destination along a route that has been set (d), or a guidance display on the display device 141 of the display unit 140, the speaker sound output unit 130 performs route guidance and the like, such as, or outputs a voice guidance using.

また、ナビゲーション処理部111は、タッチ操作処理部112から、ナビゲーション処理に関する実行指令CMDを受けるようになっている。 The navigation processing unit 111, the touch operation processing unit 112 is adapted to receive a run command CMD relates to a navigation process.

タッチ操作処理部112は、タッチパネル157に対するタッチ操作により入力される指令を処理したり、表示デバイス141にメニュー画像を表示するため、記憶装置120から画像データを取得したりする。 Touch operation processing unit 112, or processes the commands input by a touch operation on the touch panel 157, for displaying a menu image on the display device 141, or acquires the image data from the storage device 120. このタッチ操作処理部112は、図5に示されるように、画像表示制御手段としての制御処理部211と、メニュー画像取得部212とを備えている。 The touch operation unit 112, as shown in FIG. 5, the control processing unit 211 as an image display control means, and a menu image acquisition unit 212.

なお、以下の説明において、表示デバイス141に地図画像のみが表示されている状態を「単独表示」状態といい、地図画像に重ねてメニュー画像が表示されている状態を「重畳表示」状態という。 In the following description refers to a state where the display device 141 has only the map image is displayed as "alone display" state, the state being displayed menu image superimposed on the map image of "superimposed" state.

制御処理部211は、タッチ操作処理部112におけるタッチ操作処理等を制御する。 Control processing unit 211 controls the touch operation processing such as the touch operation processing unit 112. 制御処理部211は、物体検知ユニット190から検出データOBDを受け、タッチパネルユニット156からタッチ位置データTPDを受ける。 Control processing unit 211 receives the detection data OBD from the object detection unit 190 receives the touch position data TPD from the touch panel unit 156.

そして、制御処理部211は、検出データOBD、タッチ位置データTPD、現在の表示デバイス141の画像表示状態等を総合的に解析する。 Then, the control processing unit 211, the detection data OBD, touch position data TPD, comprehensively analyzing the image display state of the current display device 141. 制御処理部211は、この解析結果に応じたメニュー画像取得指令MNCをメニュー画像取得部212へ向けて送るとともに、表示データ生成指令PICを表示データ生成部113へ向けて送る。 Control processing unit 211, and sends toward the menu image acquisition command MNC corresponding to the analysis result to the menu image acquisition unit 212, and sends toward the display data generation instruction PIC to the display data generation unit 113.

より詳細に説明すると、表示デバイス141が「単独表示」状態にあり、検出データOBDが物体の存在を感知したものであるときは、制御処理部211は、記憶装置120から初期メニュー画像データを取得すべき旨のメニュー画像取得指令MNCを、メニュー画像取得部212へ向けて発行する。 Acquiring More particularly, there is a display device 141 is "single display" state, when the detection data OBD is obtained by sensing the presence of an object, the control processing unit 211, an initial menu image data from the storage device 120 the menu image acquisition command MNC of should do effect, issues toward the menu image acquisition unit 212. 制御処理部211は、この指令発行と同時に、取得した初期メニュー画像データに対応するメニュー画像を、表示デバイス141に既に表示されている地図画像上に重ねた画像に対応する表示データIMDを作成すべき旨の表示データ生成指令PICを、表示データ生成部113へ向けて発行する。 Control processing unit 211, at the same time the command issued and, to create a display data IMD to a menu image corresponding to the acquired initial menu image data, corresponding to an image superimposed on the map image already displayed on the display device 141 display data generation instruction PIC to the effect that, issues toward the display data generation unit 113.

なお、本実施形態では、タッチ操作を行う物体がタッチパネル157の正面に対して右方向(+X方向)からタッチパネル157の近傍領域に侵入を開始したことが検出された場合には、表示デバイス141の右側の領域に初期メニュー画像を重ねて表示するようになっている(後述する図8(A)参照)。 In the present embodiment, when the object performs a touch operation has started entering from the right side (+ X direction) in the vicinity area of ​​the touch panel 157 with respect to the front of the touch panel 157 is detected, the display device 141 It is adapted to display the superimposed initial menu image in the right area (see FIG. 8 to be described later (a)). 一方、当該物体がタッチパネル157の正面に対して左方向(−X方向)からタッチパネル157の近傍領域に侵入を開始したことが検出された場合には、表示デバイス141の左側の領域に初期メニュー画像を重ねて表示するようになっている(後述する図8(B)参照)。 On the other hand, if the the object starts to penetrate from left (-X direction) in the vicinity area of ​​the touch panel 157 with respect to the front of the touch panel 157 is detected, an initial menu image in the left area of ​​the display device 141 the so as to display superimposed (see FIG. 8 to be described later (B)).

制御処理部211は、表示デバイス141が「重畳表示」状態のときに、タッチ位置データTPDを受けると、まず、タッチ位置データTPDを解析する。 Control processing unit 211, when the display device 141 is "superimposed display" state, it receives the touch position data TPD, firstly, to analyze the touch position data TPD. そして、タッチ位置データTPDに基づいて、タッチ操作による入力指令がサブメニュー画像等を表示デバイス141に表示すべき旨の指令であると判断された場合には、制御処理部211は、タッチ操作による入力指令に対応するメニューの画像データを記憶装置120から取得すべき旨のメニュー画像取得指令MNCを、メニュー画像取得部212へ向けて発行する。 Then, based on the touch position data TPD, when the input command by the touch operation is determined to be instruction to display the sub-menu image or the like on the display device 141 includes a control processor 211, by touching the menu image acquisition command MNC to the effect that acquires image data of the menu corresponding to the input command from the storage device 120, and issues toward the menu image acquisition unit 212. この指令発行と同時に、制御処理部211は、メニュー画像データMNDと地図画像データMPDとを重ねた表示データIMDを作成すべき旨の表示データ生成指令PICを、表示データ生成部113へ向けて発行する。 The command issued at the same time, the control processor 211, issued menu image data MND and the map image data MPD and display data generation instruction PIC to the effect that creates display data IMD of repeated, directed to the display data generating unit 113 to.

一方、タッチ操作による入力指令がナビゲーション処理部111に対する指令であると判断された場合には、タッチ位置データTPDに対応する実行指令CMDを、ナビゲーション処理部111へ向けて送る。 On the other hand, when the input command by the touch operation is determined to be the command for the navigation processing unit 111, the execution command CMD corresponding to the touch position data TPD, and sends toward the navigation processing unit 111.

また、制御処理部211は、表示デバイス141が「重畳表示」状態のときに、検出データOBDの結果に基づいて、物体が所定時間にわたりタッチパネル157の近傍領域に侵入していないと判断したときは、地図画像データMPDのみから表示データIMDを生成すべき旨の表示データ生成指令PICを、表示データ生成部113へ向けて発行する。 The control processing unit 211, when the display device 141 is "superimposed display" state, based on the result of detection data OBD, when the object is determined not to penetrate in the vicinity area of ​​the touch panel 157 for a predetermined time the display data generation instruction PIC to the effect that generates display data IMD only map image data MPD, and issues toward the display data generation unit 113. なお、当該所定時間は、利用者の利便性の観点から、実験、シニュレーション、経験等によって予め定められる。 Incidentally, the predetermined time period, from the viewpoint of convenience of the user, experiment, shea New configuration, predetermined by experience or the like.

メニュー画像取得部212は、制御処理部211からのメニュー画像取得指令MNCに従って、記憶装置120から、メニュー画像取得指令MNCにより指定された画像データMNIを取得する。 Menu image acquisition unit 212, according to the menu image acquisition command MNC from the control processing unit 211, from the storage device 120 acquires image data MNI designated by the menu image acquisition command MNC. そして、メニュー画像取得部212は、この画像データMNIをメニュー画像データMNDとして、表示データ生成部113へ向けて送る。 Then, the menu image acquisition unit 212, the image data MNI as menu image data MND, and sends toward the display data generation unit 113.

図4に戻り、表示データ生成部113は、ナビゲーション処理部111から地図画像データMPDを受けるとともに、タッチ操作処理部112のメニュー画像取得部212(図5参照)からメニュー画像データMNDを受ける。 Returning to FIG. 4, the display data generation unit 113, along with receiving the map image data MPD from the navigation processing unit 111 receives the menu image data MND from the menu image acquisition unit 212 of the touch operation unit 112 (see FIG. 5). そして、表示データ生成部113は、制御処理部211からの表示データ生成指令PICに従って、地図画像にメニュー画像を重ねた画像に対応する重畳表示画像データ、又は、地図画像のみに対応する単独表示画像データを、表示データIMDとして生成する。 Then, the display data generation unit 113, in accordance with the display data generation instruction PIC from the control processing unit 211, superimposition display image data corresponding to an image superimposed menu image on the map image, or alone display image corresponding to only the map image data are generated as the display data IMD. こうして生成された表示データIMDは、表示ユニット140へ向けて送られる。 Display data IMD thus generated is sent toward the display unit 140.

[動作] [Operation]
次に、上記のように構成されたナビゲーション装置100の動作について、タッチ操作処理部112によるタッチパネル157の操作処理及び表示デバイス141へのメニュー画像の表示処理に、主に着目して説明する。 Next, the operation of the navigation apparatus 100 configured as described above, the display process of a menu image by touching section 112 to the operation processing and display device 141 of the touch panel 157 will be described mainly focusing.

なお、この処理は、所定の時間間隔で周期的に実行される。 This process is periodically executed at predetermined time intervals. かかる所定の時間間隔は、利用者に対して違和感を感じさせないという観点から、実験、シミュレーション、経験等に基づいて、予め定められる。 The predetermined time interval, from the viewpoint of not feel a sense of discomfort to the user, experiments, simulations, based on experience and the like, are predetermined. 例えば、所定の時間間隔を、数10m秒〜数100mの時間間隔とすることができる。 For example, the predetermined time interval may be a time interval of several 10m seconds to several 100 m.

まず、図6に示されるように、タッチ操作処理部112の制御処理部211は、ステップS11の処理を実行する。 First, as shown in FIG. 6, the control processing unit 211 of the touch operation processing unit 112 performs the process of step S11. なお、このステップS11の段階では、表示デバイス141は「単独表示」状態でありは、図7に示されるような地図画像データMPDに基づく地図画像だけが表示デバイス141に表示されており、メニュー画像データMNDに基づくメニュー画像は表示されていないものとする。 At the stage of step S11, the display device 141 is an "independent display" state is displayed only map image display device 141 based on the map image data MPD as shown in FIG. 7, the menu image menu image based on the data MND shall not displayed.

図6のステップS11では、制御処理部211が、物体検知ユニット190から送られてくる検出データOBDを解析し、物体(利用者の指)が、タッチパネル157の右側(+X方向)からタッチパネル157の近傍領域内に侵入したか否かを判定する。 In step S11 of FIG. 6, the control unit 211 analyzes the detection data OBD sent from the object detection unit 190, an object (a user's finger) is, the touch panel 157 right (+ X direction) from the touch panel 157 It determines whether entered the neighboring region. この判定は、物体探知ユニット190からの報告結果に基づいて行われる。 This determination is performed based on the reported results from the object detection unit 190. ステップS11における判定の結果が肯定的であった場合(ステップS11:Y)には、処理はステップS13へ進む。 When the judgment result in the step S11 is affirmative: (the step S11 Y), the process proceeds to step S13.

ステップS13では、物体がタッチパネル157の右側から侵入していることから、制御処理部211は、タッチパネル157の右側からの操作入力を容易にする右側操作モードにする。 In step S13, since the object is entering from the right side of the touch panel 157, the control processor 211 to the right mode of operation to facilitate the operation input from the right side of the touch panel 157.

右側操作モードになると、処理はステップS14へ進む。 Becomes the right operation mode, the process proceeds to step S14. このステップS14では、制御処理部211が、表示デバイス141が「重畳表示」状態であるか否かを判断する。 In step S14, the control unit 211 determines whether the display device 141 is "superimposed" state. この判定の結果が否定的であった場合(ステップS14:N)には、処理はステップS15へ進む。 If the result of this determination is negative: (step S14 N), the processing proceeds to step S15.

ステップS15では、まず、制御処理部211が、記憶装置120から初期メニュー画像データを取得すべき旨のメニュー画像取得指令MNCを、メニュー画像取得部212へ向けて発行する。 In step S15, first, the control processing unit 211, a menu image acquisition command MNC indicating the storage device 120 should acquire initial menu image data, and issues toward the menu image acquisition unit 212. 次いで、メニュー画像取得部212が、記憶装置120から、メニュー画像取得指令MNCにより指定された初期メニュー画像データを画像データMNIとして取得する。 Then, the menu image acquisition unit 212, from the storage unit 120, obtains the initial menu image data specified by the menu image acquisition command MNC as image data MNI. そして、メニュー画像取得部212は、この画像データMNIをメニュー画像データMNDとして、表示データ生成部113へ向けて送る。 Then, the menu image acquisition unit 212, the image data MNI as menu image data MND, and sends toward the display data generation unit 113.

また、制御処理部211は、前述したメニュー画像取得指令MNCの発行と同時に、取得した初期メニュー画像データに対応するメニュー画像を、表示デバイス141に既に表示されている地図画像上の右側領域に重ねた画像に対応する表示データIMDを作成すべき旨の表示データ生成指令PICを、表示データ生成部113へ向けて発行する。 The control processing unit 211, simultaneously with the issuance of the menu image acquisition command MNC described above, a menu image corresponding to the acquired initial menu image data, superimposed on the right area of ​​the map image already displayed on the display device 141 and the display data generation instruction PIC to the effect that creates display data IMD corresponding to the image, and issues toward the display data generation unit 113. この指令を受けた表示データ生成部113は、地図画像の右側領域にメニュー画像を重ねた画像に対応する重畳表示画像データを生成する。 Display data generation unit 113 which has received this command generates a superimposed display image data corresponding to an image superimposed menu image in the right area of ​​the map image. こうして生成された重畳表示画像データは、表示データIMDとして、表示ユニット140へ向けて送られる。 Superimposed display image data thus generated, the display data IMD, sent toward the display unit 140. これにより、図8(A)に示されるように、表示デバイス141に既に表示されている地図画像に重ねて、表示デバイス141の右側領域にメニュー画像が表示される。 Thus, as shown in FIG. 8 (A), superimposed on a map image has already been displayed on the display device 141, a menu image is displayed in the right area of ​​the display device 141. その後、処理はステップS16へ進む。 Thereafter, the processing proceeds to step S16.

ステップS16では、制御処理部211が、カウンタ値Tの値を、所定の初期値にセットする。 In step S16, the control unit 211, the value of the counter value T, is set to a predetermined initial value. カウンタ値Tをセットした後は、制御処理部211は、今回の処理を終了させる。 After setting the counter value T, the control processor 211 ends the present processing. なお、カウンタ値Tは、物体がタッチパネル157の近傍領域に侵入していない状態の継続時間を計測するためのものである。 The counter value T is used to measure the duration of a state where the object is not penetrated in the vicinity area of ​​the touch panel 157. このカウンタ値Tの所定の初期値は、前述した処理の割込時間間隔との関係で、利用者に違和感のないように、実験、経験等に基づいて、予め定められる。 Predetermined initial value of the counter value T, in relation to the interrupt time interval of the processing described above, as no discomfort to the user, experiments, on the basis of experience, etc. is predetermined. 本実施形態では、例示としてカウンタ値Tの所定の初期値は、「100」とする。 In the present embodiment, a predetermined initial value of the counter value T as illustrated, and "100".

一方、ステップS14における判定の結果が肯定的であった場合(ステップS14:Y)、すなわち、表示デバイス141が「重畳表示」状態であった場合には、処理はステップS16へ進む。 On the other hand, if the result of the judgment in step S14 is affirmative (step S14: Y), i.e., if the display device 141 is "superimposed" state, the process proceeds to step S16. ステップS16では、前述したように、制御処理部211がカウンタ値Tを初期値である「100」にセットする。 In step S16, as described above, the control unit 211 sets the counter value T to the initial value "100". その後、制御処理部211は、今回の処理を終了させる。 Thereafter, the control unit 211 terminates the current process.

ステップS11へ戻り、この判定の結果が否定的であった場合(ステップS11:N)には、処理はステップS17へ進む。 Returns to step S11, when the result of the determination is negative: (step S11 N), the process proceeds to step S17.

ステップS17では、制御処理部211が、物体検知ユニット190から送られてくる検出データOBDを解析し、物体が、タッチパネル157の左側(−X方向)からタッチパネル157の近傍領域内に侵入したか否かを判断する。 In step S17, the control unit 211 analyzes the detection data OBD sent from the object detection unit 190, or object, entering from the left side of the touch panel 157 (-X direction) in the vicinity area of ​​the touch panel 157 not or the judges. この判定の結果が肯定的であった場合(ステップS17:Y)には、タッチパネル157の左側からのみ物体が侵入しているため、タッチパネル157の左側からの操作入力を容易にする左側操作モードとなる(ステップS18)。 If the result of this determination is affirmative (step S17: Y), the order seen object from the left side of the touch panel 157 is penetrated, a left mode of operation to facilitate the operation input from the left side of the touch panel 157 made (step S18).

左側操作モードになると、処理はステップS19へ進む。 If made on the left side operation mode, the process proceeds to step S19. このステップS19では、制御処理部211が、表示デバイス141が「重畳表示」状態であるか否かを判断する。 In step S19, the control unit 211 determines whether the display device 141 is "superimposed" state. この判定の結果が否定的であった場合(ステップS19:N)には、処理はステップS20へ進む。 If the result of this determination is negative: (step S19 N), the processing proceeds to step S20.

ステップS20では、まず、制御処理部211が、記憶装置120から初期メニュー画像データを取得すべき旨のメニュー画像取得指令MNCを、メニュー画像取得部212へ向けて発行する。 In step S20, first, the control processing unit 211, a menu image acquisition command MNC indicating the storage device 120 should acquire initial menu image data, and issues toward the menu image acquisition unit 212. 次いで、メニュー画像取得部212が、記憶装置120から、メニュー画像取得指令MNCにより指定された初期メニュー画像データを画像データMNIとして取得する。 Then, the menu image acquisition unit 212, from the storage unit 120, obtains the initial menu image data specified by the menu image acquisition command MNC as image data MNI. そして、メニュー画像取得部212は、この画像データMNIをメニュー画像MNDとして、表示データ生成部113へ向けて送る。 Then, the menu image acquisition unit 212, the image data MNI as a menu image MND, and sends toward the display data generation unit 113.

また、制御処理部211は、メニュー画像取得指令MNCの発行と同時に、取得した初期メニュー画像データに対応するメニュー画像を、表示デバイス141に既に表示されている地図画像上の左側領域に重ねた画像に対応する表示データIMDを作成すべき旨の表示データ生成指令PICを、表示データ生成部113へ向けて発行する。 The control processing unit 211, simultaneously with the issuance of the menu image acquisition command MNC, a menu image corresponding to the acquired initial menu image data, superimposed on the left area of ​​the map image already displayed on the display device 141 images display data generation instruction PIC to the effect that creates display data IMD corresponding to, and issues toward the display data generation unit 113. この指令を受けた表示データ生成部113は、地図画像の左側領域にメニュー画像を重ねた画像に対応する重畳表示画像データを生成する。 Display data generation unit 113 which has received this command generates a superimposed display image data corresponding to an image superimposed menu image in the left side area of ​​the map image. こうして生成された重畳表示画像データは、表示データIMDとして、表示ユニット140へ向けて送られる。 Superimposed display image data thus generated, the display data IMD, sent toward the display unit 140. これにより、図8(B)に示されるように、表示デバイス141に既に表示されている地図画像に重ねて、表示デバイス141の左側領域にメニュー画像が表示される。 Thus, as shown in FIG. 8 (B), superimposed on a map image has already been displayed on the display device 141, a menu image is displayed in the left region of the display device 141. 続いて、処理は前述したステップS16へと進み、制御処理部211が、カウンタ値Tを初期値である「100」にセットする。 Subsequently, the process proceeds to step S16 described above, the control unit 211 sets the counter value T to the initial value "100". その後、制御処理部211が、今回の処理を終了させる。 Thereafter, the control unit 211 terminates the current process.

一方、ステップS19における判定の結果が肯定的であった場合(ステップS19:Y)にも、処理は前述したステップS16と進み、カウンタ値Tを初期値である「100」にセットした後、今回の処理を終了させる。 On the other hand, if the result of the judgment in step S19 is affirmative (step S19: Y) also, the process proceeds step S16 described above, after setting the count value T to the initial value "100", this to terminate the process.

ステップS17へ戻り、この判定の結果が否定的であった場合(ステップS17:N)には、処理はステップS21へ進む。 Returning to step S17, when the result of the determination is negative: (step S17 N), the process proceeds to step S21. なお、この判定の結果が否定的である場合(ステップS17:N)とは、物体が、タッチパネル157の近傍領域内に侵入していない場合である。 Incidentally, if the result of this determination is negative: The (Step S17 N), the object is if you do not invade the neighboring region of the touch panel 157.

ステップS21では、制御処理部211が、カウンタ値Tを「1」だけデクリメントする。 In step S21, the control unit 211, the counter value T is decremented by "1". その後、処理はステップS22へ進む。 Thereafter, the processing proceeds to step S22. ステップS22では、制御処理部211が、カウンタ値Tが「0」より小さいか否かを判定する。 In step S22, the control unit 211 determines whether the counter value T is less than "0". この判定の結果が否定的であった場合(ステップS22:N)には、制御処理部211は、今回の処理を終了させる。 If the result of this determination is negative: (step S22 N), the control processing unit 211 terminates the current process.

一方、ステップS22における判定の結果が肯定的になると(ステップS22:Y)、処理はステップS23へ進む。 On the other hand, when the result of determination in step S22 is affirmative (step S22: Y), the process proceeds to step S23. ここで、カウンタ値Tが「0」より小さくなるとは、制御処理部211によって、所定時間にわたり、物体がタッチパネル157の近傍領域に侵入していないと判断される場合である。 Here, the counter value T is smaller than "0", the control processing unit 211, for a predetermined time, and if the object is determined not to penetrate in the vicinity area of ​​the touch panel 157. 例えば、ステップS16において設定するカウンタ値Tの初期値を「100」、処理の割込時間間隔を「0.1秒」に採用すれば、所定時間は「10秒」とすることができる。 For example, by employing the initial value of the counter value T is set in step S16 "100", the interrupt time interval of the processing in the "0.1 seconds", the predetermined time may be a "10 seconds".

ステップS23では、ステップS15やステップS20のときと異なり、制御処理部211は、メニュー画像取得部212へ向けてのメニュー画像取得指令を発行せず、表示データ生成部113へ向けてのみ表示データ生成指令PICを発行する。 In step S23, unlike the case of step S15 and step S20, the control unit 211 does not issue a menu image acquisition command toward the menu image acquisition unit 212, only the display data generation toward the display data generation unit 113 to issue a directive PIC. この場合の表示データ生成指令PICは、地図画像のみに対応する単独表示画像データを、表示データIMDとして生成すべき旨の指令である。 Display data generation instruction PIC in this case, a single display image data corresponding only to the map image, an instruction to generate the display data IMD. この指令を受けた表示データ生成部113は、地図画像だけを表示デバイス141に表示する表示データIMDを作成する。 Display data generation unit 113 which received this instruction, creates display data IMD to display only the map image on the display device 141. そして、この表示データIMDは、表示ユニット140へ向けて送られる。 Then, the display data IMD is sent toward the display unit 140. これにより、図7に示したような画像が、表示デバイス141に表示される。 Thus, an image as shown in FIG. 7, is displayed on the display device 141. その後、制御処理部211は、今回の処理を終了させる。 Thereafter, the control unit 211 terminates the current process.

以上説明したように、本実施形態では、タッチ操作処理部112の制御処理部211は、物体検知ユニット190から検出データOBDを受け、また、タッチパネルユニット156からタッチ位置データTPDを受ける。 As described above, in the present embodiment, the control processing unit 211 of the touch operation processing unit 112 receives the detection data OBD from the object detection unit 190, also receives touch position data TPD from the touch panel unit 156. そして、制御処理部211は、検出データOBD、タッチ位置データTPD、表示デバイス141の画像表示状態等を総合的に解析し、解析結果に応じたメニュー画像取得指令MNCをメニュー画像取得部212へ向けて送るとともに、表示データ生成指令PICを表示データ生成部113へ向けて送る。 Then, the control processing unit 211, the detection data OBD, touch position data TPD, comprehensively analyzing the image display state of the display device 141 directs the menu image acquisition command MNC corresponding to the analysis result to the menu image acquisition unit 212 and sends Te, and sends toward the display data generation instruction PIC to the display data generation unit 113. これにより、利用者の指がタッチパネル157の右側から近づいた場合には、利用者が操作しやすいように表示デバイス141の右側に初期メニュー画像を表示し、また、利用者の指がタッチパネル157の左側から近づいた場合には、利用者が操作しやすいように表示デバイス141の左側に初期メニュー画像を表示することができる。 Thus, when the user's finger is approaching from the right side of the touch panel 157, the right to display the initial menu image on the display device 141 as the user is likely to operate, also, the user's finger on the touch panel 157 when approaching from the left side can display the initial menu image on the left side of the display device 141 as the user is likely to operate.

また、本実施形態では、利用者がタッチパネル157に対するタッチ操作を、所定時間にわたって行わない場合には、表示デバイス141は「単独表示」状態となり、表示デバイス141にメニュー画面は表示されない。 Further, in the present embodiment, the touch operation user to the touch panel 157, if not performed for a predetermined time, the display device 141 becomes a "single display" state, the menu screen on the display device 141 is not displayed. このため、利用者がタッチパネル157に対するタッチ操作を行わない間は、メニュー画面が地図画面を見る際の障害とはならず、利用者にとって、広い範囲の地図を見ることができ、地図が見やすくなる。 Therefore, while the user does not perform a touch operation on the touch panel 157, not an obstacle when the menu screen view map screen, can for users watch a wide range maps, easily seen the map .

したがって、本実施形態によれば、ナビゲーション装置100に搭載した測距センサ191,192を活用して、ナビゲーション装置100の操作を補助することができ、利用者の利便性を向上させることができる。 Therefore, according to this embodiment, by utilizing the distance measuring sensor 191 and 192 mounted on the navigation device 100, it is possible to assist the operation of the navigation device 100, it is possible to improve the convenience of the user.

[実施形態の変形] [Modification of Embodiment]
本発明は、上記の実施形態に限定されるものではなく、様々な変形が可能である。 The present invention is not limited to the above embodiments, and various modifications are possible.

例えば、上記の実施形態では、タッチパネル157の近傍領域に侵入する物体の検知を、左右2方向から行った。 For example, in the above embodiments, the detection of objects entering the neighborhood area of ​​the touch panel 157, went from left and right directions. これに対して、例えば、タッチパネル157の近傍領域に侵入する物体の検知を、上下左右の4方向から行う等、物体の検知方法は、いかなるものであってもよい。 In contrast, for example, the detection of objects entering the neighborhood area of ​​the touch panel 157, for performing the vertical and horizontal four directions, the method of detecting objects may be any.

また、上記の実施形態では、ステップS14における判定の結果が否定的(ステップS14:N)であった場合と、ステップS19における判定の結果が否定的(ステップS19:N)であった場合に、表示デバイス141に表示する各初期メニュー画像は、表示位置が異なるだけ、表示内容は同じとした。 In the embodiment described above, the result of determination in step S14 is negative: the case was (step S14 N), the result of determination in step S19 is negative: When was (step S19 N), each initial menu image displayed on the display device 141, only the display position is different, the display content was the same. これに対して、各初期メニュー画像の表示位置は同じにして、表示内容を異なるものにしてもよいし、また、各初期メニュー画像の表示位置と表示内容のいずれも異なるものにしてもよい。 In contrast, the display position of the initial menu image in the same, may be to display contents differ, also, both may be different from the display contents and display position of each initial menu image.

また、上記の実施形態では、物体がタッチパネル157の近傍領域に侵入しない場合に、メニュー画像を非表示にするまでの所定時間として10秒を例示したが、この所定時間は10秒よりも長くてもよいし、また、10秒よりも短くてもよい。 Further, in the above embodiment, when the object does not penetrate to the vicinity area of ​​the touch panel 157 has been described by way of 10 seconds as the predetermined time to hide the menu image, the predetermined time is longer than 10 seconds it may be, also, may be shorter than 10 seconds.

また、上記の実施形態では、操作入力ユニット150は、ハードキーユニット151と、タッチパネルユニット156とを備えることとした。 Further, in the above embodiment, the operation input unit 150, it was decided to include a hard key unit 151, a touch panel unit 156. これに対して、操作入力ユニット150が、上記の要素に加え、又はハードキーユニット151に代えて、キー部を備えるリモート入力装置を採用することもできるし、音声入力する構成を採用することもできる。 In contrast, the operation input unit 150, in addition to the above elements, or in place of the hard key unit 151, it can either be employed remote input device comprising a key unit, also possible to use a construction that speech input it can.

また、上記の実施形態では、ナビゲーション装置100に本発明を適用したが、家庭内等で使用するナビゲーション装置以外の情報処理装置にも本発明を適用することができるのは、勿論である。 Further, in the above embodiments, the present invention is applied to a navigation device 100, it can be applied also to the present invention to an information processing apparatus other than the navigation apparatus for use in home or the like, of course.

なお、上記の実施形態における制御ユニット110の一部又は全部を中央処理装置(CPU:Central Processing Unit)、DSP(Digital Signal Processor)、読出専用メモリ(ROM:Read Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)等を備えた演算手段としてのコンピュータとして構成し、予め用意されたプログラムを当該コンピュータで実行することにより、上記の実施形態における処理の一部又は全部を実行するようにしてもよい。 Incidentally, the central processing unit to some or all of the control unit 110 in the above embodiment (CPU: Central Processing Unit), DSP (Digital Signal Processor), read-only memory (ROM: Read Only Memory), a random access memory (RAM : configured as a computer as a calculation means having a Random Access Memory), etc., by executing a prepared program by the computer, also possible to execute a part or all of the process in embodiment good. このプログラムはハードディスク、CD−ROM、DVD等のコンピュータで読み取り可能な記録媒体に記録され、当該コンピュータによって記録媒体から読み出されて実行される。 This program is a hard disk, CD-ROM, recorded in a computer-readable recording medium such as a DVD, is read and executed from the recording medium by the computer. また、このプログラムは、CD−ROM、DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配送の形態で取得されるようにしてもよい。 The program, CD-ROM, may be acquired by the stored form in a portable recording medium such as a DVD, so as to be acquired by the delivery of the form over a network such as the Internet it may be.

本発明の一実施形態に係るナビゲーション装置の構成を概略的に示すブロック図である。 The configuration of the navigation device according to an embodiment of the present invention is a block diagram schematically showing. 図1に示されるナビゲーション装置の外観構成を示す図である。 Is a diagram showing an external configuration of a navigation device shown in FIG. 表示デバイスとタッチパネルの配置関係を説明するための図である。 It is a diagram for explaining the arrangement relationship between the display device and the touch panel. 図1の制御ユニットの構成を示すブロック図である。 It is a block diagram showing a configuration of a control unit of FIG. 図4のタッチ操作処理部の構成を示すブロック図である。 It is a block diagram showing a configuration of a touch operation processing unit of FIG. 図5のタッチ操作処理部における表示デバイスへのメニュー画像の表示処理を説明するためのフローチャートである。 It is a flowchart illustrating a display process of the menu image on the display device in the touch operation processing unit of FIG. 表示デバイスへの画像の表示例である(その1)。 Is a display example of an image on the display device (1). 表示デバイスへの画像の表示例である(その2)。 It is a display example of an image on the display device (Part 2).

符号の説明 DESCRIPTION OF SYMBOLS

100 … ナビゲーション装置(情報処理装置) 100 ... navigation device (information processing apparatus)
141 … 表示デバイス 156 … タッチパネルユニット(タッチパネル手段) 141 ... display device 156 ... touch unit (touch panel unit)
190 … 物体検知ユニット(侵入検出手段) 190 ... object detection unit (intrusion detection means)
211 … 制御処理部(画像表示制御手段) 211 ... control unit (image display control means)

Claims (8)

  1. 画像を表示する表示デバイスと; A display device for displaying an image;
    前記表示デバイスの表示面上に被タッチ部分が配設されたタッチパネル手段と; A touch panel unit which the touch portion on the display surface of the display device is disposed;
    前記被タッチ部分に対するタッチ操作を行う物体が、前記被タッチ部分の近傍領域に侵入したことを検出する侵入検出手段と; Object to perform a touch operation with respect to the object to be touched portion, and the intrusion detection means for detecting that has entered the vicinity region of the target touch portion;
    前記侵入検出手段により前記物体の侵入が検出されたときに、前記表示デバイスに既に表示されている第1画像に重ねて、タッチ操作案内画像である第2画像を前記表示デバイスに表示させる画像表示制御手段と; When the entry of the object is detected by the intrusion detection means, superimposed on the first image already displayed on the display device, image display for displaying the second image is a touch operation guidance image on the display device and control means;
    を備えることを特徴とする情報処理装置。 The information processing apparatus comprising: a.
  2. 前記侵入検出手段は、前記物体の侵入位置情報を検出し、 It said intrusion detecting means detects the intrusion position information of the object,
    前記画像表示制御手段は、前記侵入検出手段により検出された侵入位置情報に基づいて、複数の候補の中から前記第2画像を特定する、 Said image display control means, based on the detected intrusion location information by the intrusion detection means, for identifying the second image from the plurality of candidates,
    ことを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, characterized in that.
  3. 前記複数の候補は、互いに前記表示デバイスの表示面における表示位置及び表示内容の少なくとも一方が異なる、ことを特徴とする請求項2に記載の情報処理装置。 Wherein the plurality of candidates, at least one of the display position and the display contents on the display surface of the display device are different from each other, the information processing apparatus according to claim 2, characterized in that.
  4. 前記画像表示制御手段は、前記第1画像に重ねた前記第2画像の表示後、前記物体侵入検出手段による検出結果に基づいて、所定時間にわたり前記物体が前記近傍領域に侵入していないと判断された場合には、前記第1画像のみを前記表示デバイスに表示させる、 The image display control means determines that the rear view of the first and the second image superimposed on the image, based on the detection result of the object intrusion detection means, the object for a predetermined period of time has not penetrated into the neighboring region If it is, the display only the first image on the display device,
    ことを特徴とする請求項1〜3のいずれか一項に記載の情報処理装置。 The information processing apparatus according to claim 1, characterized in that.
  5. 移動体に搭載される、ことを特徴とする請求項1〜4のいずれか一項に記載の情報処理装置。 Mounted on a mobile body, that the information processing apparatus according to any one of claims 1 to 4, characterized in.
  6. 画像表示する表示デバイスと;前記表示デバイスの表示面上に被タッチ部分が配設されたタッチパネル手段と;を備える情報処理装置において使用される画像表示制御方法であって、 An image display control method used in an information processing apparatus including a; display devices and that displays an image; the touch portion on the display surface of the display device and the touch panel unit is arranged
    前記被タッチ部分に対するタッチ操作を行う物体が、前記被タッチ部分の近傍領域に侵入したことを検出する侵入検出工程と; The object performing a touch operation with respect to the touch portion, the intrusion detection step for detecting that has entered the vicinity region of the target touch portion;
    前記侵入検出工程において前記物体の侵入が検出されたときに、前記表示デバイスに既に表示されている第1画像に重ねて、タッチ操作案内画像である第2画像を前記表示デバイスに表示させる画像表示制御工程と; When the entry of the object at the intrusion detection step is detected, superimposed on the first image already displayed on the display device, image display for displaying the second image is a touch operation guidance image on the display device a control step;
    を備えることを特徴とする画像表示制御方法。 Image display control method characterized by comprising a.
  7. 請求項6に記載の画像表示制御方法を演算手段に実行させる、ことを特徴とする画像表示制御プログラム。 Is executed by a computing means the image display control method according to claim 6, the image display control program, characterized in that.
  8. 請求項7に記載の画像表示制御プログラムが、演算手段により読み取り可能に記録された記録媒体。 Image display control program according to claim 7, capable recorded recording medium readable by the computing means.
JP2007158751A 2007-06-15 2007-06-15 Information processor and image display control method Pending JP2008310643A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007158751A JP2008310643A (en) 2007-06-15 2007-06-15 Information processor and image display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007158751A JP2008310643A (en) 2007-06-15 2007-06-15 Information processor and image display control method

Publications (1)

Publication Number Publication Date
JP2008310643A true true JP2008310643A (en) 2008-12-25

Family

ID=40238178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007158751A Pending JP2008310643A (en) 2007-06-15 2007-06-15 Information processor and image display control method

Country Status (1)

Country Link
JP (1) JP2008310643A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144217A1 (en) * 2011-04-22 2012-10-26 パナソニック株式会社 Input device for vehicle and input method for vehicle
JP2013205564A (en) * 2012-03-28 2013-10-07 Aisin Aw Co Ltd Composite device, method for opening/closing display part of composite device, and display part opening/closing program
JP2014157439A (en) * 2013-02-15 2014-08-28 Mitsubishi Electric Corp Display control device and display control method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1153111A (en) * 1997-08-06 1999-02-26 Sony Corp Information input/output device
JP2002358162A (en) * 2001-06-01 2002-12-13 Sony Corp Picture display device
JP2006047534A (en) * 2004-08-03 2006-02-16 Alpine Electronics Inc Display control system
JP2006215543A (en) * 2006-01-10 2006-08-17 Fujitsu Ten Ltd Operation controller unit
JP2006300786A (en) * 2005-04-22 2006-11-02 Alpine Electronics Inc Apparatus and system for detecting object
JP2007102077A (en) * 2005-10-07 2007-04-19 Matsushita Electric Ind Co Ltd Data processing device
JP2007099191A (en) * 2005-10-07 2007-04-19 Matsushita Electric Ind Co Ltd Data processor
JP2007108841A (en) * 2005-10-11 2007-04-26 Matsushita Electric Ind Co Ltd Data processor

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1153111A (en) * 1997-08-06 1999-02-26 Sony Corp Information input/output device
JP2002358162A (en) * 2001-06-01 2002-12-13 Sony Corp Picture display device
JP2006047534A (en) * 2004-08-03 2006-02-16 Alpine Electronics Inc Display control system
JP2006300786A (en) * 2005-04-22 2006-11-02 Alpine Electronics Inc Apparatus and system for detecting object
JP2007102077A (en) * 2005-10-07 2007-04-19 Matsushita Electric Ind Co Ltd Data processing device
JP2007099191A (en) * 2005-10-07 2007-04-19 Matsushita Electric Ind Co Ltd Data processor
JP2007108841A (en) * 2005-10-11 2007-04-26 Matsushita Electric Ind Co Ltd Data processor
JP2006215543A (en) * 2006-01-10 2006-08-17 Fujitsu Ten Ltd Operation controller unit

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144217A1 (en) * 2011-04-22 2012-10-26 パナソニック株式会社 Input device for vehicle and input method for vehicle
CN102958756A (en) * 2011-04-22 2013-03-06 松下电器产业株式会社 Input device for vehicle and input method for vehicle
JP5842157B2 (en) * 2011-04-22 2016-01-13 パナソニックIpマネジメント株式会社 Input device and input method for a vehicle for a vehicle
US9384166B2 (en) 2011-04-22 2016-07-05 Panasonic Intellectual Property Management Co., Ltd. Vehicular input device and vehicular input method
CN102958756B (en) * 2011-04-22 2016-07-06 松下知识产权经营株式会社 Vehicular input vehicular input device and method
JP2013205564A (en) * 2012-03-28 2013-10-07 Aisin Aw Co Ltd Composite device, method for opening/closing display part of composite device, and display part opening/closing program
JP2014157439A (en) * 2013-02-15 2014-08-28 Mitsubishi Electric Corp Display control device and display control method

Similar Documents

Publication Publication Date Title
US6172641B1 (en) Navigation system with audible route guidance instructions
JP5299995B2 (en) Map display device
JP2001199298A (en) Parking aiding device and computer-readable recording medium with parking aiding program recorded
JP2005239048A (en) Parking assistance system
JP2005134971A (en) Driving support apparatus
JP2004245606A (en) Operating device of on-vehicle equipment
JPH1183504A (en) Navigator
JP2004309962A (en) Display device having touch panel
JP2002022470A (en) Navigation system
JP2004062380A (en) Obstacle contact deciding device for vehicle
JPH10274544A (en) Route guide device
JP2011169621A (en) Map display device
JPH0719887A (en) Voice guidance apparatus
JP2004226302A (en) Navigation system
JP2002005675A (en) Acoustic navigation apparatus
JP2008304324A (en) Navigation device and the nearby search method
JPH11337360A (en) Route guide apparatus
JP2004170708A (en) System, device, and method for window display, and program
JP2008128928A (en) Vehicle-mounted map display apparatus and navigation apparatus
JP2004317417A (en) Map display apparatus
JP2007026201A (en) Image processor, road image drawing method and road image drawing program
JP2006317421A (en) On-vehicle controller
JP2007237919A (en) Input operation device for vehicle
JP2007028363A (en) Top view image generating apparatus and top view image display method
JP2008129689A (en) Input device equipped with touch panel and its input reception method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110818

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111207