JP2008310643A - Information processor and image display control method - Google Patents
Information processor and image display control method Download PDFInfo
- Publication number
- JP2008310643A JP2008310643A JP2007158751A JP2007158751A JP2008310643A JP 2008310643 A JP2008310643 A JP 2008310643A JP 2007158751 A JP2007158751 A JP 2007158751A JP 2007158751 A JP2007158751 A JP 2007158751A JP 2008310643 A JP2008310643 A JP 2008310643A
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- display device
- menu image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理装置、画像表示制御方法、画像表示制御プログラム、及び、当該画像表示制御プログラムを記録した記録媒体に関する。 The present invention relates to an information processing apparatus, an image display control method, an image display control program, and a recording medium on which the image display control program is recorded.
従来から、様々な情報処理装置が、利用者に提供されている。こうした情報処理装置の中には、測距センサを搭載したものがある。当該装置に搭載された測距センサは、当該装置に近づく物体との距離等を測定することで、当該装置の機能に資するものとなっているが、その測定結果の利用方法は様々である。 Conventionally, various information processing apparatuses have been provided to users. Some of these information processing apparatuses are equipped with a distance measuring sensor. The distance measuring sensor mounted on the device contributes to the function of the device by measuring the distance to an object approaching the device, but there are various methods of using the measurement results.
かかる利用方法の一例として、利用者や物体が情報処理装置に近づいたことを感知して、当該装置の機能を有効に実行する「動作モード」と、当該装置の機能の一部を停止させる「節電モード」とを切替える技術が提案されている(特許文献1等参照:以下、「従来例」と呼ぶ)。この従来例の技術は、物体が測距センサから所定領域内に侵入したときに、「節電モード」となるものである。 As an example of such a usage method, an “operation mode” that senses that a user or an object has approached the information processing apparatus and effectively executes the function of the apparatus, and a part of the function of the apparatus is stopped. A technique for switching between the “power saving mode” has been proposed (see Patent Document 1, etc .: hereinafter referred to as “conventional example”). This prior art technique is a “power saving mode” when an object enters a predetermined area from a distance measuring sensor.
しかしながら、上述した従来例の技術では、測距センサによる測定結果に基づいて、情報処理装置の「動作モード」と「節電モード」とを切替えるだけである。そのため、従来例の技術は、当該装置の節電以外には、何ら利用者に特別の利便性を与えるものではなかった。このため、情報処理装置に測距センサを搭載した場合に、測距センサによる測定結果を利用し、有効に活用して、利用者の利便性を大きく高める技術が待望されている。かかる要望に応えることが、本発明が解決すべき課題の一つとして挙げられる。 However, in the conventional technology described above, only the “operation mode” and “power saving mode” of the information processing apparatus are switched based on the measurement result of the distance measuring sensor. Therefore, the technology of the conventional example does not give any special convenience to the user other than power saving of the device. For this reason, when a distance measuring sensor is mounted on the information processing apparatus, a technique for greatly enhancing the convenience of the user by using the measurement result by the distance measuring sensor and effectively using it is desired. Meeting this demand is one of the problems to be solved by the present invention.
本発明は、上記の事情を鑑みてなされたものであり、測距センサを利用しつつ、利用者の利便性を向上することができる画像表示装置及び画像表示制御方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to provide an image display device and an image display control method capable of improving user convenience while using a distance measuring sensor. To do.
請求項1に記載の発明は、画像を表示する表示デバイスと;前記表示デバイスの表示面上に被タッチ部分が配設されたタッチパネル手段と;前記被タッチ部分に対するタッチ操作を行う物体が、前記被タッチ部分の近傍領域に侵入したことを検出する侵入検出手段と;前記侵入検出手段により前記物体の侵入が検出されたときに、前記表示デバイスに既に表示されている第1画像に重ねて、タッチ操作案内画像である第2画像を前記表示デバイスに表示させる画像表示制御手段と;を備えることを特徴とする情報処理装置である。 The invention according to claim 1 is a display device that displays an image; touch panel means in which a touched portion is disposed on a display surface of the display device; and an object that performs a touch operation on the touched portion, An intrusion detection means for detecting that an intrusion has occurred in the vicinity of the touched portion; and when the intrusion detection means detects the intrusion of the object, it is superimposed on a first image already displayed on the display device, An information display apparatus comprising: an image display control unit that causes the display device to display a second image that is a touch operation guide image.
請求項6に記載の発明は、画像表示する表示デバイスと;前記表示デバイスの表示面上に被タッチ部分が配設されたタッチパネル手段と;を備える情報処理装置において使用される画像表示制御方法であって、前記被タッチ部分に対するタッチ操作を行う物体が、前記被タッチ部分の近傍領域に侵入したことを検出する侵入検出工程と;前記侵入検出工程において前記物体の侵入が検出されたときに、前記表示デバイスに既に表示されている第1画像に重ねて、タッチ操作案内画像である第2画像を前記表示デバイスに表示させる画像表示制御工程と;を備えることを特徴とする画像表示制御方法である。 The invention according to claim 6 is an image display control method used in an information processing apparatus comprising: a display device for displaying an image; and touch panel means having a touched portion disposed on a display surface of the display device. An intrusion detection step of detecting that an object performing a touch operation on the touched portion has intruded into a region near the touched portion; and when an intrusion of the object is detected in the intrusion detection step, An image display control step of causing the display device to display a second image, which is a touch operation guidance image, overlaid on the first image already displayed on the display device. is there.
請求項7に記載の発明は、請求項6に記載の画像表示制御方法を演算手段に実行させる、ことを特徴とする画像表示制御プログラムである。 According to a seventh aspect of the present invention, there is provided an image display control program for causing a calculation means to execute the image display control method according to the sixth aspect.
請求項8に記載の発明は、請求項7に記載の画像表示制御プログラムが、演算手段により読み取り可能に記録された記録媒体である。 The invention according to claim 8 is a recording medium on which the image display control program according to claim 7 is recorded so as to be readable by the arithmetic means.
以下、本発明の一実施形態を、図1〜図8を参照して説明する。なお、以下の説明及び図面においては、同一又は同等の要素には同一の符号を付し、重複する説明は省略する。 Hereinafter, an embodiment of the present invention will be described with reference to FIGS. In the following description and drawings, the same or equivalent elements will be denoted by the same reference numerals, and redundant description will be omitted.
[構成]
図1には、一実施形態に係る情報処理装置としての機能を有する車両搭載用のナビゲーション装置100の概略的な構成がブロック図にて示されている。また、図2には、ナビゲーション装置100の外観構成が、正面図にて示されている。
[Constitution]
FIG. 1 is a block diagram illustrating a schematic configuration of a vehicle-mounted
図1に示されるように、ナビゲーション装置100は、制御ユニット110と、ハードディスク装置等の記憶装置120とを備えている。
As shown in FIG. 1, the
また、ナビゲーション装置100は、音出力ユニット130と、表示ユニット140と、操作入力ユニット150と、走行センサユニット160と、GPS(Global Positioning System)受信ユニット170とを備えている。さらに、ナビゲーション装置100は、侵入検出手段としての物体検知ユニット190を備えている。
The
なお、上記の制御ユニット110以外の要素120〜190は、制御ユニット110に接続されている。
The
制御ユニット110は、ナビゲーション装置100の全体を統括制御する。この制御ユニット110の詳細については、後述する。
The
記憶装置120は、不揮発性の記憶装置であるハードディスク装置等から構成される。記憶装置120内には、ナビゲーション利用情報121、メニュー画像情報125などの様々な情報が記憶されている。ここで、ナビゲーション利用情報121には、地図情報122等のナビゲーションのために利用される情報が含まれている。
The
メニュー画像情報125とは、アプリケーションのユーザーインターフェイスとして用いられるメニューの画像データである。メニュー画像情報125は、階層構造になっており、上位の初期メニュー画像(メインメニュー画像)データと、下位の複数個のサブメニュー画像データから構成されている。メニュー画像情報125に基づく画像が、制御ユニット110による制御のもとで、表示デバイス141に表示される。
The
音出力ユニット130は、(i)制御ユニット110から受信したデジタル音声データをアナログ信号に変換するDA変換器(Digital to Analog Converter)と、(ii)当該DA変換器から出力されたアナログ信号を増幅する増幅器と、(iii)増幅されたアナログ信号を音声に変換するスピーカとを備えて構成されている。この音出力ユニット130は、制御ユニット110による制御のもとで、車両の進行方向、走行状況、交通状況等の案内用音声、音楽等を出力する。
The sound output unit 130 (i) a digital to analog converter that converts digital audio data received from the
表示ユニット140は、(i)液晶パネル、有機EL(Electric Luminescence)パネル、PDP(Plasma Display Panel)等の表示デバイス141(図2参照)と、(ii)制御ユニット110から送出された表示制御データに基づいて、表示ユニット140全体の制御を行うグラフィックレンダラ等の表示コントローラと、(iii)表示画像データを記憶する表示画像メモリ等を備えて構成されている。この表示ユニット140は、制御ユニット110による制御のもとで、地図情報、ルート情報、メニュー画像、操作ガイダンス情報等を表示する。
The
操作入力ユニット150は、ハードキーユニット151と、タッチパネル手段としてのタッチパネルユニット156とを備えている。ハードキーユニット151は、図2に示されるように、ナビゲーション装置100の本体部に設けられた複数のハードキー1521〜1527等を備えて構成されている。
The
タッチパネルユニット156は、タッチパネル157と、このタッチパネル157を駆動する駆動回路等とを備えて構成されている。タッチパネル157は、図3に示されるように、表示デバイス141の表示面上に配設されている。駆動回路は、タッチパネル157に対して行われたタッチ操作の位置に関するデータを取得して、タッチ位置データTPDとして、制御ユニット110へ向けて送る。
The
この操作入力ユニット150を利用者が操作することにより、ナビゲーション装置100の動作内容の設定が行われる。本実施形態では、ハードキーユニット151を利用者が操作することにより、ナビゲーション装置100の電源のオン・オフ、音出力ユニット130のスピーカから出力する音声の音量調整等を行うことができる。また、タッチパネルユニット156を利用者が操作することにより、目的地の設定、情報の検索設定、車両の走行状況表示設定等を行うことができる。こうした入力内容は、操作入力ユニット150から制御ユニット110へ送られる。
When the user operates the
図1に戻り、走行センサユニット160は、(i)車両の移動速度を検出する車速センサと、(ii)車両に作用している加速度を検出する加速度センサと、(iii)車両の角速度を検出する角速度センサとを備えている。ここで、車速センサは、車軸や車輪の回転により出力されるパルス信号を検出する。また、加速度センサは、例えば、3次元方向の加速度を検出する。また、加速度センサは、例えば、いわゆるジャイロセンサとして構成され、加速度を検出する。 Returning to FIG. 1, the travel sensor unit 160 (i) a vehicle speed sensor that detects the moving speed of the vehicle, (ii) an acceleration sensor that detects acceleration acting on the vehicle, and (iii) an angular velocity of the vehicle. And an angular velocity sensor. Here, the vehicle speed sensor detects a pulse signal output by rotation of an axle or a wheel. The acceleration sensor detects, for example, acceleration in a three-dimensional direction. The acceleration sensor is configured as a so-called gyro sensor, for example, and detects acceleration.
GPS受信ユニット170は、複数のGPS衛星からの電波の受信結果に基づいて、車両の現在位置の擬似座標値を算出し、制御ユニット110へ報告する。また、GPS受信ユニット170は、GPS衛星から送出された時刻情報に基づいて、現在時刻を計時し、制御ユニット110へ送る。
The
物体検知ユニット190は、測距センサ191,192を備えて構成されている。測距センサ191,192は、図2に示されるように、左右2方向に沿うタッチパネル157の設置近傍域に対称配置される。測距センサ191,192は、タッチ操作を行う物体(例えば、利用者の指)までの距離を計測し、これらの計測結果から、当該物体がタッチパネル157の正面に対して右方向(+X方向)からタッチパネル157の近傍領域に侵入したか、タッチパネル157の正面に対して左方向(−X方向)からタッチパネル157の近傍領域に侵入したかを検出する。物体検知ユニット190による検出結果は、検出データOBDとして、制御ユニット110へ向けて送られる。なお、これらの測距センサ191,192としては、例えば、20cm程度以下の範囲内にある任意物体の存在を、赤外線の反射を利用して検知するものを採用することができる。
The
制御ユニット110は、図4に示されるように、ナビゲーション処理部111と、タッチ操作処理部112と、表示データ生成部113とを備えている。
As illustrated in FIG. 4, the
ナビゲーション処理部111は、記憶装置120にアクセスして、ナビゲーション利用情報121における地図情報122等を適宜参照し、かつ上述した構成要素130〜190を利用して、利用者にナビゲーション情報を提供する。すなわち、ナビゲーション処理に対する操作入力ユニット150からの入力結果に沿って、走行センサユニット160による検出結果及びGPS受信ユニット170による測位結果に対応して、記憶装置120に記憶されたナビゲーション用のデータを適宜読み出す。つまり、ナビゲーション処理部111は、(a)利用者が指定する地域の地図を表示ユニット140の表示デバイス141に表示するための地図表示、(b)自車が地図上のどこに位置するのか、また、どの方角に向かっているのかを算出し、表示ユニット140の表示デバイス141に表示して利用者に提示するマップマッチング、(c)現在自車が存在する位置から、利用者が指定する任意の位置である目的地までの最適ルート検索、(d)設定されたルートに沿って目的地まで運転するときに、表示ユニット140の表示デバイス141に案内表示をしたり、音出力ユニット130のスピーカを用いて音声案内を出力したりする、といったようなルート案内等を行う。
The
また、ナビゲーション処理部111は、タッチ操作処理部112から、ナビゲーション処理に関する実行指令CMDを受けるようになっている。
The
タッチ操作処理部112は、タッチパネル157に対するタッチ操作により入力される指令を処理したり、表示デバイス141にメニュー画像を表示するため、記憶装置120から画像データを取得したりする。このタッチ操作処理部112は、図5に示されるように、画像表示制御手段としての制御処理部211と、メニュー画像取得部212とを備えている。
The touch
なお、以下の説明において、表示デバイス141に地図画像のみが表示されている状態を「単独表示」状態といい、地図画像に重ねてメニュー画像が表示されている状態を「重畳表示」状態という。
In the following description, a state where only the map image is displayed on the
制御処理部211は、タッチ操作処理部112におけるタッチ操作処理等を制御する。制御処理部211は、物体検知ユニット190から検出データOBDを受け、タッチパネルユニット156からタッチ位置データTPDを受ける。
The
そして、制御処理部211は、検出データOBD、タッチ位置データTPD、現在の表示デバイス141の画像表示状態等を総合的に解析する。制御処理部211は、この解析結果に応じたメニュー画像取得指令MNCをメニュー画像取得部212へ向けて送るとともに、表示データ生成指令PICを表示データ生成部113へ向けて送る。
Then, the
より詳細に説明すると、表示デバイス141が「単独表示」状態にあり、検出データOBDが物体の存在を感知したものであるときは、制御処理部211は、記憶装置120から初期メニュー画像データを取得すべき旨のメニュー画像取得指令MNCを、メニュー画像取得部212へ向けて発行する。制御処理部211は、この指令発行と同時に、取得した初期メニュー画像データに対応するメニュー画像を、表示デバイス141に既に表示されている地図画像上に重ねた画像に対応する表示データIMDを作成すべき旨の表示データ生成指令PICを、表示データ生成部113へ向けて発行する。
More specifically, when the
なお、本実施形態では、タッチ操作を行う物体がタッチパネル157の正面に対して右方向(+X方向)からタッチパネル157の近傍領域に侵入を開始したことが検出された場合には、表示デバイス141の右側の領域に初期メニュー画像を重ねて表示するようになっている(後述する図8(A)参照)。一方、当該物体がタッチパネル157の正面に対して左方向(−X方向)からタッチパネル157の近傍領域に侵入を開始したことが検出された場合には、表示デバイス141の左側の領域に初期メニュー画像を重ねて表示するようになっている(後述する図8(B)参照)。
In the present embodiment, when it is detected that an object to be touched has started to enter the area near the
制御処理部211は、表示デバイス141が「重畳表示」状態のときに、タッチ位置データTPDを受けると、まず、タッチ位置データTPDを解析する。そして、タッチ位置データTPDに基づいて、タッチ操作による入力指令がサブメニュー画像等を表示デバイス141に表示すべき旨の指令であると判断された場合には、制御処理部211は、タッチ操作による入力指令に対応するメニューの画像データを記憶装置120から取得すべき旨のメニュー画像取得指令MNCを、メニュー画像取得部212へ向けて発行する。この指令発行と同時に、制御処理部211は、メニュー画像データMNDと地図画像データMPDとを重ねた表示データIMDを作成すべき旨の表示データ生成指令PICを、表示データ生成部113へ向けて発行する。
When receiving the touch position data TPD when the
一方、タッチ操作による入力指令がナビゲーション処理部111に対する指令であると判断された場合には、タッチ位置データTPDに対応する実行指令CMDを、ナビゲーション処理部111へ向けて送る。
On the other hand, when it is determined that the input command by the touch operation is a command for the
また、制御処理部211は、表示デバイス141が「重畳表示」状態のときに、検出データOBDの結果に基づいて、物体が所定時間にわたりタッチパネル157の近傍領域に侵入していないと判断したときは、地図画像データMPDのみから表示データIMDを生成すべき旨の表示データ生成指令PICを、表示データ生成部113へ向けて発行する。なお、当該所定時間は、利用者の利便性の観点から、実験、シニュレーション、経験等によって予め定められる。
When the
メニュー画像取得部212は、制御処理部211からのメニュー画像取得指令MNCに従って、記憶装置120から、メニュー画像取得指令MNCにより指定された画像データMNIを取得する。そして、メニュー画像取得部212は、この画像データMNIをメニュー画像データMNDとして、表示データ生成部113へ向けて送る。
The menu
図4に戻り、表示データ生成部113は、ナビゲーション処理部111から地図画像データMPDを受けるとともに、タッチ操作処理部112のメニュー画像取得部212(図5参照)からメニュー画像データMNDを受ける。そして、表示データ生成部113は、制御処理部211からの表示データ生成指令PICに従って、地図画像にメニュー画像を重ねた画像に対応する重畳表示画像データ、又は、地図画像のみに対応する単独表示画像データを、表示データIMDとして生成する。こうして生成された表示データIMDは、表示ユニット140へ向けて送られる。
Returning to FIG. 4, the display
[動作]
次に、上記のように構成されたナビゲーション装置100の動作について、タッチ操作処理部112によるタッチパネル157の操作処理及び表示デバイス141へのメニュー画像の表示処理に、主に着目して説明する。
[Operation]
Next, the operation of the
なお、この処理は、所定の時間間隔で周期的に実行される。かかる所定の時間間隔は、利用者に対して違和感を感じさせないという観点から、実験、シミュレーション、経験等に基づいて、予め定められる。例えば、所定の時間間隔を、数10m秒〜数100mの時間間隔とすることができる。 This process is periodically executed at predetermined time intervals. The predetermined time interval is determined in advance based on experiments, simulations, experiences, and the like from the viewpoint of not causing the user to feel uncomfortable. For example, the predetermined time interval can be a time interval of several tens of milliseconds to several hundreds of meters.
まず、図6に示されるように、タッチ操作処理部112の制御処理部211は、ステップS11の処理を実行する。なお、このステップS11の段階では、表示デバイス141は「単独表示」状態でありは、図7に示されるような地図画像データMPDに基づく地図画像だけが表示デバイス141に表示されており、メニュー画像データMNDに基づくメニュー画像は表示されていないものとする。
First, as illustrated in FIG. 6, the
図6のステップS11では、制御処理部211が、物体検知ユニット190から送られてくる検出データOBDを解析し、物体(利用者の指)が、タッチパネル157の右側(+X方向)からタッチパネル157の近傍領域内に侵入したか否かを判定する。この判定は、物体探知ユニット190からの報告結果に基づいて行われる。ステップS11における判定の結果が肯定的であった場合(ステップS11:Y)には、処理はステップS13へ進む。
In step S11 of FIG. 6, the
ステップS13では、物体がタッチパネル157の右側から侵入していることから、制御処理部211は、タッチパネル157の右側からの操作入力を容易にする右側操作モードにする。
In step S <b> 13, since the object has entered from the right side of the
右側操作モードになると、処理はステップS14へ進む。このステップS14では、制御処理部211が、表示デバイス141が「重畳表示」状態であるか否かを判断する。この判定の結果が否定的であった場合(ステップS14:N)には、処理はステップS15へ進む。
When the right operation mode is set, the process proceeds to step S14. In step S14, the
ステップS15では、まず、制御処理部211が、記憶装置120から初期メニュー画像データを取得すべき旨のメニュー画像取得指令MNCを、メニュー画像取得部212へ向けて発行する。次いで、メニュー画像取得部212が、記憶装置120から、メニュー画像取得指令MNCにより指定された初期メニュー画像データを画像データMNIとして取得する。そして、メニュー画像取得部212は、この画像データMNIをメニュー画像データMNDとして、表示データ生成部113へ向けて送る。
In step S <b> 15, first, the
また、制御処理部211は、前述したメニュー画像取得指令MNCの発行と同時に、取得した初期メニュー画像データに対応するメニュー画像を、表示デバイス141に既に表示されている地図画像上の右側領域に重ねた画像に対応する表示データIMDを作成すべき旨の表示データ生成指令PICを、表示データ生成部113へ向けて発行する。この指令を受けた表示データ生成部113は、地図画像の右側領域にメニュー画像を重ねた画像に対応する重畳表示画像データを生成する。こうして生成された重畳表示画像データは、表示データIMDとして、表示ユニット140へ向けて送られる。これにより、図8(A)に示されるように、表示デバイス141に既に表示されている地図画像に重ねて、表示デバイス141の右側領域にメニュー画像が表示される。その後、処理はステップS16へ進む。
In addition, the
ステップS16では、制御処理部211が、カウンタ値Tの値を、所定の初期値にセットする。カウンタ値Tをセットした後は、制御処理部211は、今回の処理を終了させる。なお、カウンタ値Tは、物体がタッチパネル157の近傍領域に侵入していない状態の継続時間を計測するためのものである。このカウンタ値Tの所定の初期値は、前述した処理の割込時間間隔との関係で、利用者に違和感のないように、実験、経験等に基づいて、予め定められる。本実施形態では、例示としてカウンタ値Tの所定の初期値は、「100」とする。
In step S16, the
一方、ステップS14における判定の結果が肯定的であった場合(ステップS14:Y)、すなわち、表示デバイス141が「重畳表示」状態であった場合には、処理はステップS16へ進む。ステップS16では、前述したように、制御処理部211がカウンタ値Tを初期値である「100」にセットする。その後、制御処理部211は、今回の処理を終了させる。
On the other hand, if the result of the determination in step S14 is affirmative (step S14: Y), that is, if the
ステップS11へ戻り、この判定の結果が否定的であった場合(ステップS11:N)には、処理はステップS17へ進む。 Returning to step S11, if the result of this determination is negative (step S11: N), the process proceeds to step S17.
ステップS17では、制御処理部211が、物体検知ユニット190から送られてくる検出データOBDを解析し、物体が、タッチパネル157の左側(−X方向)からタッチパネル157の近傍領域内に侵入したか否かを判断する。この判定の結果が肯定的であった場合(ステップS17:Y)には、タッチパネル157の左側からのみ物体が侵入しているため、タッチパネル157の左側からの操作入力を容易にする左側操作モードとなる(ステップS18)。
In step S <b> 17, the
左側操作モードになると、処理はステップS19へ進む。このステップS19では、制御処理部211が、表示デバイス141が「重畳表示」状態であるか否かを判断する。この判定の結果が否定的であった場合(ステップS19:N)には、処理はステップS20へ進む。
When the left operation mode is set, the process proceeds to step S19. In step S19, the
ステップS20では、まず、制御処理部211が、記憶装置120から初期メニュー画像データを取得すべき旨のメニュー画像取得指令MNCを、メニュー画像取得部212へ向けて発行する。次いで、メニュー画像取得部212が、記憶装置120から、メニュー画像取得指令MNCにより指定された初期メニュー画像データを画像データMNIとして取得する。そして、メニュー画像取得部212は、この画像データMNIをメニュー画像MNDとして、表示データ生成部113へ向けて送る。
In step S <b> 20, first, the
また、制御処理部211は、メニュー画像取得指令MNCの発行と同時に、取得した初期メニュー画像データに対応するメニュー画像を、表示デバイス141に既に表示されている地図画像上の左側領域に重ねた画像に対応する表示データIMDを作成すべき旨の表示データ生成指令PICを、表示データ生成部113へ向けて発行する。この指令を受けた表示データ生成部113は、地図画像の左側領域にメニュー画像を重ねた画像に対応する重畳表示画像データを生成する。こうして生成された重畳表示画像データは、表示データIMDとして、表示ユニット140へ向けて送られる。これにより、図8(B)に示されるように、表示デバイス141に既に表示されている地図画像に重ねて、表示デバイス141の左側領域にメニュー画像が表示される。続いて、処理は前述したステップS16へと進み、制御処理部211が、カウンタ値Tを初期値である「100」にセットする。その後、制御処理部211が、今回の処理を終了させる。
In addition, the
一方、ステップS19における判定の結果が肯定的であった場合(ステップS19:Y)にも、処理は前述したステップS16と進み、カウンタ値Tを初期値である「100」にセットした後、今回の処理を終了させる。 On the other hand, when the result of the determination in step S19 is affirmative (step S19: Y), the process proceeds to step S16 described above, and after setting the counter value T to the initial value “100”, this time End the process.
ステップS17へ戻り、この判定の結果が否定的であった場合(ステップS17:N)には、処理はステップS21へ進む。なお、この判定の結果が否定的である場合(ステップS17:N)とは、物体が、タッチパネル157の近傍領域内に侵入していない場合である。
Returning to step S17, if the result of this determination is negative (step S17: N), the process proceeds to step S21. In addition, the case where the result of this determination is negative (step S17: N) is a case where the object has not entered the vicinity region of the
ステップS21では、制御処理部211が、カウンタ値Tを「1」だけデクリメントする。その後、処理はステップS22へ進む。ステップS22では、制御処理部211が、カウンタ値Tが「0」より小さいか否かを判定する。この判定の結果が否定的であった場合(ステップS22:N)には、制御処理部211は、今回の処理を終了させる。
In step S21, the
一方、ステップS22における判定の結果が肯定的になると(ステップS22:Y)、処理はステップS23へ進む。ここで、カウンタ値Tが「0」より小さくなるとは、制御処理部211によって、所定時間にわたり、物体がタッチパネル157の近傍領域に侵入していないと判断される場合である。例えば、ステップS16において設定するカウンタ値Tの初期値を「100」、処理の割込時間間隔を「0.1秒」に採用すれば、所定時間は「10秒」とすることができる。
On the other hand, when the result of the determination in step S22 is affirmative (step S22: Y), the process proceeds to step S23. Here, the case where the counter value T is smaller than “0” is a case where the
ステップS23では、ステップS15やステップS20のときと異なり、制御処理部211は、メニュー画像取得部212へ向けてのメニュー画像取得指令を発行せず、表示データ生成部113へ向けてのみ表示データ生成指令PICを発行する。この場合の表示データ生成指令PICは、地図画像のみに対応する単独表示画像データを、表示データIMDとして生成すべき旨の指令である。この指令を受けた表示データ生成部113は、地図画像だけを表示デバイス141に表示する表示データIMDを作成する。そして、この表示データIMDは、表示ユニット140へ向けて送られる。これにより、図7に示したような画像が、表示デバイス141に表示される。その後、制御処理部211は、今回の処理を終了させる。
In step S23, unlike in steps S15 and S20, the
以上説明したように、本実施形態では、タッチ操作処理部112の制御処理部211は、物体検知ユニット190から検出データOBDを受け、また、タッチパネルユニット156からタッチ位置データTPDを受ける。そして、制御処理部211は、検出データOBD、タッチ位置データTPD、表示デバイス141の画像表示状態等を総合的に解析し、解析結果に応じたメニュー画像取得指令MNCをメニュー画像取得部212へ向けて送るとともに、表示データ生成指令PICを表示データ生成部113へ向けて送る。これにより、利用者の指がタッチパネル157の右側から近づいた場合には、利用者が操作しやすいように表示デバイス141の右側に初期メニュー画像を表示し、また、利用者の指がタッチパネル157の左側から近づいた場合には、利用者が操作しやすいように表示デバイス141の左側に初期メニュー画像を表示することができる。
As described above, in the present embodiment, the
また、本実施形態では、利用者がタッチパネル157に対するタッチ操作を、所定時間にわたって行わない場合には、表示デバイス141は「単独表示」状態となり、表示デバイス141にメニュー画面は表示されない。このため、利用者がタッチパネル157に対するタッチ操作を行わない間は、メニュー画面が地図画面を見る際の障害とはならず、利用者にとって、広い範囲の地図を見ることができ、地図が見やすくなる。
In the present embodiment, when the user does not perform a touch operation on the
したがって、本実施形態によれば、ナビゲーション装置100に搭載した測距センサ191,192を活用して、ナビゲーション装置100の操作を補助することができ、利用者の利便性を向上させることができる。
Therefore, according to the present embodiment, it is possible to assist the operation of the
[実施形態の変形]
本発明は、上記の実施形態に限定されるものではなく、様々な変形が可能である。
[Modification of Embodiment]
The present invention is not limited to the above-described embodiment, and various modifications are possible.
例えば、上記の実施形態では、タッチパネル157の近傍領域に侵入する物体の検知を、左右2方向から行った。これに対して、例えば、タッチパネル157の近傍領域に侵入する物体の検知を、上下左右の4方向から行う等、物体の検知方法は、いかなるものであってもよい。
For example, in the above-described embodiment, the detection of an object that enters the area near the
また、上記の実施形態では、ステップS14における判定の結果が否定的(ステップS14:N)であった場合と、ステップS19における判定の結果が否定的(ステップS19:N)であった場合に、表示デバイス141に表示する各初期メニュー画像は、表示位置が異なるだけ、表示内容は同じとした。これに対して、各初期メニュー画像の表示位置は同じにして、表示内容を異なるものにしてもよいし、また、各初期メニュー画像の表示位置と表示内容のいずれも異なるものにしてもよい。
Moreover, in said embodiment, when the result of determination in step S14 is negative (step S14: N), and when the result of determination in step S19 is negative (step S19: N), Each initial menu image displayed on the
また、上記の実施形態では、物体がタッチパネル157の近傍領域に侵入しない場合に、メニュー画像を非表示にするまでの所定時間として10秒を例示したが、この所定時間は10秒よりも長くてもよいし、また、10秒よりも短くてもよい。
In the above embodiment, when the object does not enter the area near the
また、上記の実施形態では、操作入力ユニット150は、ハードキーユニット151と、タッチパネルユニット156とを備えることとした。これに対して、操作入力ユニット150が、上記の要素に加え、又はハードキーユニット151に代えて、キー部を備えるリモート入力装置を採用することもできるし、音声入力する構成を採用することもできる。
In the above embodiment, the
また、上記の実施形態では、ナビゲーション装置100に本発明を適用したが、家庭内等で使用するナビゲーション装置以外の情報処理装置にも本発明を適用することができるのは、勿論である。
Further, in the above embodiment, the present invention is applied to the
なお、上記の実施形態における制御ユニット110の一部又は全部を中央処理装置(CPU:Central Processing Unit)、DSP(Digital Signal Processor)、読出専用メモリ(ROM:Read Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)等を備えた演算手段としてのコンピュータとして構成し、予め用意されたプログラムを当該コンピュータで実行することにより、上記の実施形態における処理の一部又は全部を実行するようにしてもよい。このプログラムはハードディスク、CD−ROM、DVD等のコンピュータで読み取り可能な記録媒体に記録され、当該コンピュータによって記録媒体から読み出されて実行される。また、このプログラムは、CD−ROM、DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配送の形態で取得されるようにしてもよい。
In addition, a part or all of the
100 … ナビゲーション装置(情報処理装置)
141 … 表示デバイス
156 … タッチパネルユニット(タッチパネル手段)
190 … 物体検知ユニット(侵入検出手段)
211 … 制御処理部(画像表示制御手段)
100 ... Navigation device (information processing device)
141 ...
190 ... Object detection unit (intrusion detection means)
211... Control processing unit (image display control means)
Claims (8)
前記表示デバイスの表示面上に被タッチ部分が配設されたタッチパネル手段と;
前記被タッチ部分に対するタッチ操作を行う物体が、前記被タッチ部分の近傍領域に侵入したことを検出する侵入検出手段と;
前記侵入検出手段により前記物体の侵入が検出されたときに、前記表示デバイスに既に表示されている第1画像に重ねて、タッチ操作案内画像である第2画像を前記表示デバイスに表示させる画像表示制御手段と;
を備えることを特徴とする情報処理装置。 A display device for displaying images;
Touch panel means having a touched portion disposed on a display surface of the display device;
Intrusion detection means for detecting that an object that performs a touch operation on the touched portion has entered a region near the touched portion;
When the intrusion detection unit detects the intrusion of the object, an image display that causes the display device to display a second image, which is a touch operation guidance image, overlaid on the first image already displayed on the display device. Control means;
An information processing apparatus comprising:
前記画像表示制御手段は、前記侵入検出手段により検出された侵入位置情報に基づいて、複数の候補の中から前記第2画像を特定する、
ことを特徴とする請求項1に記載の情報処理装置。 The intrusion detection means detects intrusion position information of the object;
The image display control means identifies the second image from a plurality of candidates based on the intrusion position information detected by the intrusion detection means;
The information processing apparatus according to claim 1.
ことを特徴とする請求項1〜3のいずれか一項に記載の情報処理装置。 The image display control means determines that the object has not entered the neighboring area for a predetermined time based on a detection result by the object intrusion detection means after displaying the second image superimposed on the first image. If so, only the first image is displayed on the display device.
The information processing apparatus according to any one of claims 1 to 3.
前記被タッチ部分に対するタッチ操作を行う物体が、前記被タッチ部分の近傍領域に侵入したことを検出する侵入検出工程と;
前記侵入検出工程において前記物体の侵入が検出されたときに、前記表示デバイスに既に表示されている第1画像に重ねて、タッチ操作案内画像である第2画像を前記表示デバイスに表示させる画像表示制御工程と;
を備えることを特徴とする画像表示制御方法。 An image display control method used in an information processing apparatus comprising: a display device for displaying an image; and a touch panel means having a touched portion disposed on a display surface of the display device,
An intrusion detection step of detecting that an object that performs a touch operation on the touched part has intruded into a region near the touched part;
When the intrusion of the object is detected in the intrusion detection step, an image display for causing the display device to display a second image, which is a touch operation guidance image, superimposed on the first image already displayed on the display device A control process;
An image display control method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007158751A JP2008310643A (en) | 2007-06-15 | 2007-06-15 | Information processor and image display control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007158751A JP2008310643A (en) | 2007-06-15 | 2007-06-15 | Information processor and image display control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008310643A true JP2008310643A (en) | 2008-12-25 |
Family
ID=40238178
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007158751A Pending JP2008310643A (en) | 2007-06-15 | 2007-06-15 | Information processor and image display control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008310643A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012144217A1 (en) * | 2011-04-22 | 2012-10-26 | パナソニック株式会社 | Input device for vehicle and input method for vehicle |
JP2013205564A (en) * | 2012-03-28 | 2013-10-07 | Aisin Aw Co Ltd | Composite device, method for opening/closing display part of composite device, and display part opening/closing program |
JP2014157439A (en) * | 2013-02-15 | 2014-08-28 | Mitsubishi Electric Corp | Display control device and display control method |
CN111061443A (en) * | 2018-10-17 | 2020-04-24 | 杭州海康威视数字技术股份有限公司 | Menu image display method and device, electronic equipment and machine-readable storage medium |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1153111A (en) * | 1997-08-06 | 1999-02-26 | Sony Corp | Information input/output device |
JP2002358162A (en) * | 2001-06-01 | 2002-12-13 | Sony Corp | Picture display device |
JP2006047534A (en) * | 2004-08-03 | 2006-02-16 | Alpine Electronics Inc | Display control system |
JP2006215543A (en) * | 2006-01-10 | 2006-08-17 | Fujitsu Ten Ltd | Operation controller unit |
JP2006300786A (en) * | 2005-04-22 | 2006-11-02 | Alpine Electronics Inc | Apparatus and system for detecting object |
JP2007099191A (en) * | 2005-10-07 | 2007-04-19 | Matsushita Electric Ind Co Ltd | Data processor |
JP2007102077A (en) * | 2005-10-07 | 2007-04-19 | Matsushita Electric Ind Co Ltd | Data processing device |
JP2007108841A (en) * | 2005-10-11 | 2007-04-26 | Matsushita Electric Ind Co Ltd | Data processor |
-
2007
- 2007-06-15 JP JP2007158751A patent/JP2008310643A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1153111A (en) * | 1997-08-06 | 1999-02-26 | Sony Corp | Information input/output device |
JP2002358162A (en) * | 2001-06-01 | 2002-12-13 | Sony Corp | Picture display device |
JP2006047534A (en) * | 2004-08-03 | 2006-02-16 | Alpine Electronics Inc | Display control system |
JP2006300786A (en) * | 2005-04-22 | 2006-11-02 | Alpine Electronics Inc | Apparatus and system for detecting object |
JP2007099191A (en) * | 2005-10-07 | 2007-04-19 | Matsushita Electric Ind Co Ltd | Data processor |
JP2007102077A (en) * | 2005-10-07 | 2007-04-19 | Matsushita Electric Ind Co Ltd | Data processing device |
JP2007108841A (en) * | 2005-10-11 | 2007-04-26 | Matsushita Electric Ind Co Ltd | Data processor |
JP2006215543A (en) * | 2006-01-10 | 2006-08-17 | Fujitsu Ten Ltd | Operation controller unit |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012144217A1 (en) * | 2011-04-22 | 2012-10-26 | パナソニック株式会社 | Input device for vehicle and input method for vehicle |
CN102958756A (en) * | 2011-04-22 | 2013-03-06 | 松下电器产业株式会社 | Input device for vehicle and input method for vehicle |
JP5842157B2 (en) * | 2011-04-22 | 2016-01-13 | パナソニックIpマネジメント株式会社 | VEHICLE INPUT DEVICE AND VEHICLE INPUT METHOD |
US9384166B2 (en) | 2011-04-22 | 2016-07-05 | Panasonic Intellectual Property Management Co., Ltd. | Vehicular input device and vehicular input method |
CN102958756B (en) * | 2011-04-22 | 2016-07-06 | 松下知识产权经营株式会社 | Vehicle input equipment and vehicle input method |
JP2013205564A (en) * | 2012-03-28 | 2013-10-07 | Aisin Aw Co Ltd | Composite device, method for opening/closing display part of composite device, and display part opening/closing program |
JP2014157439A (en) * | 2013-02-15 | 2014-08-28 | Mitsubishi Electric Corp | Display control device and display control method |
CN111061443A (en) * | 2018-10-17 | 2020-04-24 | 杭州海康威视数字技术股份有限公司 | Menu image display method and device, electronic equipment and machine-readable storage medium |
CN111061443B (en) * | 2018-10-17 | 2023-10-10 | 杭州海康威视数字技术股份有限公司 | Menu image display method, menu image display device, electronic equipment and machine-readable storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4678534B2 (en) | Navigation device and map scroll processing method | |
US7577518B2 (en) | Navigation system | |
US20140354452A1 (en) | Parking assistance system | |
JP2007331692A (en) | In-vehicle electronic equipment and touch panel device | |
JP5795386B2 (en) | Display device and control method | |
JP2011169621A (en) | Map display device | |
JP2007042029A (en) | Display device and program | |
JP4558753B2 (en) | Display device | |
JP4305538B2 (en) | Display device | |
JP2018128466A (en) | Navigation device, head-up display, control method, program, and storage medium | |
JP2008310643A (en) | Information processor and image display control method | |
JP2008230560A (en) | Parking assistance device, parking assistance control method, and parking assistance program | |
JP3955718B2 (en) | Navigation device | |
JP2015105903A (en) | Navigation device, head-up display, control method, program, and storage medium | |
JP2008191055A (en) | Navigation system | |
JP5358215B2 (en) | Map display device | |
JP5702476B2 (en) | Display device, control method, program, storage medium | |
JPWO2009028085A1 (en) | Map display device, map display method, and map display program | |
JP2008185452A (en) | Navigation device | |
JP2009204477A (en) | Navigation device | |
WO2006112210A1 (en) | Voice output device, voice output method, voice output program, and recording medium | |
JP2004252820A (en) | Image display device and onboard navigation device | |
JP2007232390A (en) | Information apparatus, guide information providing method, and program | |
JP2011118491A (en) | Information processing apparatus, input control method, input control program, and recording medium | |
JP2007292834A (en) | Map display device and navigation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100308 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110811 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110818 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111207 |