JP2015162074A - Operation system - Google Patents

Operation system Download PDF

Info

Publication number
JP2015162074A
JP2015162074A JP2014036680A JP2014036680A JP2015162074A JP 2015162074 A JP2015162074 A JP 2015162074A JP 2014036680 A JP2014036680 A JP 2014036680A JP 2014036680 A JP2014036680 A JP 2014036680A JP 2015162074 A JP2015162074 A JP 2015162074A
Authority
JP
Japan
Prior art keywords
touch
unit
display device
user
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014036680A
Other languages
Japanese (ja)
Other versions
JP2015162074A5 (en
Inventor
千尋 平野
Chihiro Hirano
千尋 平野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014036680A priority Critical patent/JP2015162074A/en
Priority to PCT/JP2015/000554 priority patent/WO2015129170A1/en
Priority to US15/120,536 priority patent/US20170010798A1/en
Publication of JP2015162074A publication Critical patent/JP2015162074A/en
Publication of JP2015162074A5 publication Critical patent/JP2015162074A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a remote operation apparatus having a touch operation section, configured to properly determine a single-finger move operation on the touch operation section.SOLUTION: An operation system 1 is configured by connecting a display device 3 and a touch pad 20 to a navigation device body 2. A control apparatus 4 of the navigation device body 2 is configured to determine flick or depression, on the basis of a moving speed from touch-on to touch-off positions, when a coordinate determination is notified from an operation signal output section 25 of the touch pad 20. Specifically, the moving speed is calculated on the basis of the amount of displacement from the touch-on to touch-off positions and the time required therefor. When the moving speed is equal to or higher than a threshold, flick is determined. When the speed is less than the threshold, depression is determined.

Description

本発明は、表示装置を有し操作対象となる機器本体と、前記表示装置に対する操作入力を行う遠隔操作装置とを備える操作システムに関する。   The present invention relates to an operation system including a device main body having a display device to be operated and a remote operation device for performing operation input to the display device.

車載機器、例えばナビゲーション装置にあっては、インストルメントパネルの中央部に、車両の現在地周辺の地図画面等を表示する液晶表示装置を備えている。この場合、液晶表示装置の画面にはタッチパネルが設けられ、ユーザ(ドライバ)は、そのタッチパネル(或いは画面近傍に設けられたメカスイッチ)を手指でタッチ操作して、目的地の設定等の経路案内に関する設定や、地図のスクロール、地図の縮尺の変更等のナビゲーション装置に対する各種の指示入力を行うようになっている。   In-vehicle devices, for example, navigation devices, include a liquid crystal display device that displays a map screen and the like around the current location of the vehicle at the center of the instrument panel. In this case, a touch panel is provided on the screen of the liquid crystal display device, and a user (driver) touches the touch panel (or a mechanical switch provided in the vicinity of the screen) with a finger to guide route such as setting a destination. Various instructions are input to the navigation device, such as setting related to, scrolling the map, and changing the scale of the map.

近年では、上記タッチパネルとは別に、車載ナビゲーション装置の表示画面をユーザが遠隔操作するためのいわゆるタッチパッドを設けることが考えられている(例えば、特許文献1参照)。この場合、特許文献1では具体的な記載は存在しないが、前記タッチパッドは、平板状のタッチ操作部を備えて構成される。ユーザは、タッチ操作部を指でなぞることにより、表示装置の画面上で、カーソル(ポインタ)を、所望のアイコン(操作ボタン)上に移動させ、その状態で、押下操作することにより、そのアイコンを選択決定するといった使い方ができる。   In recent years, in addition to the touch panel, it has been considered to provide a so-called touch pad for the user to remotely operate the display screen of the in-vehicle navigation device (see, for example, Patent Document 1). In this case, although there is no specific description in Patent Document 1, the touch pad includes a flat touch operation unit. The user moves the cursor (pointer) onto a desired icon (operation button) on the screen of the display device by tracing the touch operation unit with a finger, and presses the icon in that state, thereby pressing the icon. It can be used to select and decide.

特開2012−221387号公報JP2012-221387A

ところで、上記のように、ナビゲーション装置等の車載機器の遠隔操作装置としてタッチパッドを用いる場合、上記したようなカーソルを移動させて所望のアイコンをクリックするといった操作を実行させることは勿論、それに加えて、更に、タッチ操作部の、例えばフリック操作(操作面をタッチした1本の指を一方向にはねるようにずらせる操作)等の各種のジェスチャ操作を行って、例えば表示画面の地図のスクロール、或いは地図の縮尺の変更(縮小、拡大)といった各種の機能を実行させることも可能となる。   Incidentally, as described above, when a touchpad is used as a remote control device for an in-vehicle device such as a navigation device, an operation such as moving the cursor as described above and clicking a desired icon is executed. In addition, various gesture operations such as a flick operation (an operation that causes one finger touching the operation surface to bend in one direction) on the touch operation unit are performed, for example, scrolling the map on the display screen Alternatively, various functions such as changing the scale of the map (reducing or enlarging) can be executed.

しかしながら、上記したタッチパッドを用いて各種のジェスチャ操作を行う場合、次のような不具合の発生が予測される。即ち、タッチパッドのタッチ操作部における、1本指での移動操作は基本的にはカーソルを移動させるものであるため、ユーザが上記フリック操作を行った場合でも、カーソルの移動を伴ってしまう。そのため、例えば、タッチパッドのフリック操作を完了した時点で、指を離した位置が画面上のアイコン上に対応していると、そのアイコンの押下操作が行われてしまうというように、ユーザが意図していなかった操作が行われる虞がある。   However, when various gesture operations are performed using the touch pad described above, the following problems are expected to occur. That is, since the movement operation with one finger in the touch operation unit of the touch pad basically moves the cursor, even when the user performs the flick operation, the cursor is moved. For this reason, for example, when the touch pad flick operation is completed, if the position where the finger is released corresponds to the icon on the screen, the user presses the icon. There is a risk that operations that were not performed will be performed.

本発明は上記事情に鑑みてなされたもので、その目的は、タッチ操作部を有する遠隔操作装置を備えたものにあって、タッチ操作部においてなされたタッチ操作の判断を確実に行うことができ、ユーザが意図しない処理が実行されてしまうことを未然に防止することができる操作システムを提供するにある。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a remote operation device having a touch operation unit, and can reliably determine a touch operation performed in the touch operation unit. It is an object of the present invention to provide an operation system that can prevent a process unintended by a user from being executed.

上記目的を達成するために、本発明の操作システムは、表示装置(3)を有し操作対象となる機器本体(2)と、前記表示装置(3)に対する操作入力を行う遠隔操作装置(20)とを備える操作システム(1)であって、前記遠隔操作装置(20)は、平板状のタッチ操作部(21)を有すると共に、前記タッチ操作部(21)におけるユーザが指又はタッチペンを用いたタッチオン、タッチオフの操作及びその位置を検出して操作位置信号を出力する信号出力手段(25)を備えると共に、前記機器本体(2)は、前記遠隔操作装置(20)の信号出力手段(25)から通知された操作位置信号によってユーザの操作を判定する操作判定手段(4)を備え、前記操作判定手段(4)は、前記タッチ操作部(21)における前記タッチオンからタッチオフまでのタッチ位置の移動速度に基づいて、フリック操作が押下操作かの判別を行うところに特徴を有する(請求項1の発明)。   In order to achieve the above object, an operation system of the present invention includes a device main body (2) having a display device (3) to be operated, and a remote operation device (20) for performing operation input to the display device (3). The remote control device (20) includes a flat touch operation unit (21), and a user in the touch operation unit (21) uses a finger or a touch pen. The device main body (2) includes a signal output means (25) for detecting the touch-on and touch-off operations and the position of the touch-off and touch-off, and outputting an operation position signal. ) Is provided with an operation determination unit (4) for determining a user operation based on the operation position signal notified from the operation position signal, and the operation determination unit (4) Based on the moving speed of the touch position to Luo touch-off, having characterized in that it discriminates flick operation if pressing operation (the invention of claim 1).

ここで、ユーザが、一般に、タッチ操作部(21)において例えば1本指での操作を行う場合、指の移動を伴わずに画面上のアイコンの押下操作を行う場合には、タッチオン位置とタッチオフ位置とで、位置変化は0又はほとんどない状態となる。また、画面上でカーソル移動操作を行いたい場合には、タッチオン位置からタッチオフ位置まで指をずらせるが、この際の指(タッチ位置)の移動速度は比較的ゆっくりとなる。これに対し、フリック操作を行う場合には、タッチオンの後、指を比較的速く移動させ、短時間でタッチオフの操作が行われる。   Here, in general, when the user performs, for example, an operation with one finger on the touch operation unit (21), or when the user performs an operation of pressing an icon on the screen without moving the finger, the touch-on position and the touch-off position are displayed. Depending on the position, there is no or almost no change in position. When a cursor movement operation is desired on the screen, the finger is shifted from the touch-on position to the touch-off position, but the movement speed of the finger (touch position) at this time is relatively slow. On the other hand, when performing a flick operation, the finger is moved relatively quickly after touch-on, and the touch-off operation is performed in a short time.

本発明においては、遠隔操作装置(20)のタッチ操作部(21)においてユーザの操作があると、信号出力手段(25)により、タッチオン、タッチオフの操作及びその位置が検出されて操作位置信号が機器本体(2)側に出力される。そして、機器本体(2)では、操作判定手段(4)により、ユーザの操作を判定するのであるが、操作判定手段(4)は、タッチ操作部(21)におけるタッチオンからタッチオフまでのタッチ位置の移動速度に基づいて、フリック操作が押下操作かの判別を行う。従って、本発明によれば、タッチ操作部(21)を有する遠隔操作装置(20)を備えたものにあって、タッチ操作部(21)においてなされたタッチ操作の判断を確実に行うことができ、ユーザが意図しない処理が実行されてしまうことを未然に防止することができる。   In the present invention, when there is a user operation on the touch operation unit (21) of the remote operation device (20), the signal output means (25) detects the touch-on and touch-off operations and their positions, and the operation position signal is output. Output to the device body (2) side. In the device main body (2), the operation determination unit (4) determines the user's operation. The operation determination unit (4) determines the touch position from the touch-on to the touch-off in the touch operation unit (21). It is determined whether the flick operation is a pressing operation based on the moving speed. Therefore, according to the present invention, there is provided the remote operation device (20) having the touch operation unit (21), and the touch operation performed in the touch operation unit (21) can be reliably determined. Thus, it is possible to prevent a process unintended by the user from being executed.

本発明の一実施例を示すもので、操作システムの外観構成を概略的に示す図The figure which shows one Example of this invention and shows the external appearance structure of an operation system roughly 操作システムの電気的構成を概略的に示すブロック図Block diagram schematically showing the electrical configuration of the operating system 制御装置における操作判別の処理手順を示すフローチャートThe flowchart which shows the process sequence of the operation determination in a control apparatus. 表示装置の地図表示画面の例を示す図The figure which shows the example of the map display screen of a display apparatus

以下、本発明を、操作対象として、例えば車両(自動車)に搭載されるナビゲーション装置に適用した一実施例について、図面を参照しながら説明する。図1は、本実施例に係る操作システム1の外観構成を概略的に示しており、図2は、操作システム1の電気的構成を概略的に示している。図1に示すように、本実施例に係る操作システム1は、機器本体としてのナビゲーション装置本体2、及び、ナビゲーション装置本体2に夫々接続された表示装置3並びに遠隔操作装置としてのタッチパッド20を備えて構成される。   Hereinafter, an embodiment in which the present invention is applied as an operation target to a navigation device mounted on, for example, a vehicle (automobile) will be described with reference to the drawings. FIG. 1 schematically shows an external configuration of an operation system 1 according to the present embodiment, and FIG. 2 schematically shows an electrical configuration of the operation system 1. As shown in FIG. 1, an operation system 1 according to the present embodiment includes a navigation device body 2 as a device body, a display device 3 connected to the navigation device body 2, and a touch pad 20 as a remote operation device. It is prepared for.

詳しく図示はしないが、前記ナビゲーション装置本体2は、自動車のインストルメントパネルの中央部に組込まれ、前記表示装置3はインストルメントパネルの中央上部に設けられる。また、前記タッチパッド21は、例えば持運び可能に設けられており、ドライバ或いは他の乗員が操作しやすい位置(ユーザの手元位置)で操作できるようになっている。尚、本実施例のナビゲーション装置(ナビゲーション装置本体2)は、例えば、カーオーディオ(映像や音楽)の機能を含んだ装置として構成されているが、ここでは、ナビゲーションの機能に関する部分ついてのみを述べる(図示する)こととする。   Although not shown in detail, the navigation device body 2 is incorporated in the central portion of the instrument panel of the automobile, and the display device 3 is provided in the upper center portion of the instrument panel. The touch pad 21 is provided so as to be portable, for example, and can be operated at a position where the driver or other occupant can easily operate (a user's hand position). The navigation device (navigation device main body 2) of the present embodiment is configured as a device including a car audio (video and music) function, for example. Here, only the portion related to the navigation function will be described. (Illustrated).

図2に示すように、前記ナビゲーション装置本体2は、制御装置(ナビECU)4を備えると共に、その制御装置4に接続された、位置検出部5、地図データベース6、操作スイッチ7、音声出力装置8、外部メモリ9、通信装置10等を備えている。また、前記表示装置3の画面の表面部には、周知のタッチパネル11が設けられている。前記制御装置4は、CPU、ROM及びRAMなどを有するコンピュータを主体として構成されており、ROMに記憶されているプログラム等に従って、ナビゲーション装置本体2更には操作システム1の全体を制御する。   As shown in FIG. 2, the navigation device body 2 includes a control device (navigator ECU) 4 and is connected to the control device 4, a position detection unit 5, a map database 6, an operation switch 7, and a voice output device. 8, an external memory 9, a communication device 10 and the like. A known touch panel 11 is provided on the surface of the screen of the display device 3. The control device 4 is mainly configured by a computer having a CPU, a ROM, a RAM, and the like, and controls the navigation device main body 2 and the entire operation system 1 in accordance with a program stored in the ROM.

前記位置検出部5は、自立航法による車両位置推定のための、車両の方位を検出する方位センサ12、車両の旋回角度を検出するジャイロセンサ13、車両の走行距離を検出する距離センサ14を備える。これと共に、位置検出部5は、電波航法による車両位置測定のための、GPS(Global Positioning System )用の人工衛星からの送信電波を受信するGPS受信機15を備えている。前記制御装置4は、前記位置検出部5を構成する各センサ12〜15からの入力に基づいて、自車両の現在位置(絶対位置)、進行方向、速度や走行距離、現在時刻等を検出するようになっている。   The position detection unit 5 includes an azimuth sensor 12 for detecting the azimuth of the vehicle, a gyro sensor 13 for detecting the turning angle of the vehicle, and a distance sensor 14 for detecting the travel distance of the vehicle for vehicle position estimation by self-contained navigation. . At the same time, the position detection unit 5 includes a GPS receiver 15 that receives transmission radio waves from an artificial satellite for GPS (Global Positioning System) for vehicle position measurement by radio wave navigation. The control device 4 detects the current position (absolute position), traveling direction, speed, travel distance, current time and the like of the host vehicle based on inputs from the sensors 12 to 15 constituting the position detection unit 5. It is like that.

前記地図データベース6は、例えば日本全土の道路地図データや、それに付随する、各種施設や店舗等の目的地データ、マップマッチング用のデータ等を記憶するものであり、地図データ取得手段として機能する。前記道路地図データは、地図上の道路を線で表現した道路ネットワークからなり、交差点、分岐点等をノードとして複数の部分に分割し、各ノード間の部分をリンクとして規定したリンクデータとして与えられる。このリンクデータは、リンク固有のリンクID(識別子)、リンク長、リンクの始点,終点(ノード)の位置データ(経度,緯度)、角度(方向)データ、道路幅、道路種別、道路属性などのデータを含んで構成される。尚、道路地図を表示装置3の画面上に再生(描画)するためのデータも含まれている。   The map database 6 stores, for example, road map data all over Japan, destination data such as various facilities and stores, data for map matching, and the like, and functions as map data acquisition means. The road map data consists of a road network in which roads on the map are represented by lines, and is given as link data in which intersections, branch points, etc. are divided into a plurality of parts as nodes and the parts between the nodes are defined as links. . This link data includes link-specific link ID (identifier), link length, link start point, end point (node) position data (longitude, latitude), angle (direction) data, road width, road type, road attribute, etc. Consists of data. Data for reproducing (drawing) the road map on the screen of the display device 3 is also included.

前記表示装置3は、例えばカラー表示可能な液晶表示器等により構成され、その画面には、例えばメニュー画面やナビゲーション機能使用時の地図画面(図4参照)などが表示される。このとき、前記制御装置4は、前記位置検出部器5により検出された自車位置及び地図データベース6の地図データに基づいて、表示装置3の地図表示を制御する。従って、表示装置3、制御装置4、地図データベース6等から地図表示機能が実現され、ナビゲーション装置本体2は地図表示機能を有している。また、ユーザは表示装置3の画面上のタッチパネル11をタッチ操作して各種の入力・指示を行うことができる。前記音声出力装置8は、スピーカ等を含んで構成され、楽曲やガイド音声などの出力を行う。前記通信装置10は、外部の情報センタと間で道路情報等のデータの送受信を行う。   The display device 3 is composed of, for example, a liquid crystal display capable of color display, and the screen displays, for example, a menu screen or a map screen (see FIG. 4) when the navigation function is used. At this time, the control device 4 controls the map display of the display device 3 based on the vehicle position detected by the position detector 5 and the map data of the map database 6. Therefore, a map display function is realized from the display device 3, the control device 4, the map database 6, and the like, and the navigation device body 2 has a map display function. Further, the user can perform various inputs and instructions by touching the touch panel 11 on the screen of the display device 3. The audio output device 8 includes a speaker or the like, and outputs music, guide audio, and the like. The communication device 10 transmits / receives data such as road information to / from an external information center.

これにて、ナビゲーション装置本体2(制御装置4)は、周知のように、検出された自車両の位置を道路地図と共に表示装置3の画面に表示するロケーション機能や、ユーザが指定した目的地までの適切なルートを探索し、案内するルートガイダンス機能などのナビゲーション処理を実行する。このとき、前記ルート探索は、例えば周知のダイクストラ法を用いて行われる。ルート案内は、周知のように、表示装置3の画面表示と共に、音声出力装置8により必要な案内音声を出力することにより行われる。   Thus, as is well known, the navigation device body 2 (the control device 4) can display a location function for displaying the detected position of the host vehicle together with the road map on the screen of the display device 3, or a destination designated by the user. The navigation processing such as a route guidance function for searching for and guiding an appropriate route is executed. At this time, the route search is performed using, for example, a well-known Dijkstra method. As is well known, the route guidance is performed by outputting necessary guidance voice by the voice output device 8 together with the screen display of the display device 3.

図4は、表示装置3のナビゲーション画面(地図表示画面)の表示例を示しており、ここでは、道路地図画面に重ね合せて自車両の現在位置及び進行方向が表示される。ルートガイダンス機能の実行中には、走行すべき推奨経路が表示、案内される。また、表示装置3の画面にはカーソルC(ポインタ)が表示されると共に、各種機能を指示入力するための複数のアイコンI(操作ボタン)が表示される。   FIG. 4 shows a display example of a navigation screen (map display screen) of the display device 3, where the current position and traveling direction of the host vehicle are displayed superimposed on the road map screen. During the execution of the route guidance function, recommended routes to be traveled are displayed and guided. Further, a cursor C (pointer) is displayed on the screen of the display device 3, and a plurality of icons I (operation buttons) for inputting various functions are displayed.

さて、本実施例では、遠隔操作装置としてのタッチパッド20は、図1に示すように、全体として四角形の平板状(パネル状)をなし、その表面(上面)には、タッチ操作部21が設けられている。また本実施例では、タッチパッド20には、例えば3個の操作キー22、23、24が、横に並んで設けられている。3個の操作キー22、23、24は、例えば、左から順に、「地図表示」の操作キー22、「戻る」の操作キー23、「決定」の操作キー24とされている。   In this embodiment, as shown in FIG. 1, the touch pad 20 as a remote control device has a rectangular flat plate shape (panel shape) as a whole, and a touch operation unit 21 is provided on the surface (upper surface). Is provided. In the present embodiment, the touch pad 20 is provided with, for example, three operation keys 22, 23, and 24 side by side. The three operation keys 22, 23, and 24 are, for example, sequentially from the left, a “map display” operation key 22, a “return” operation key 23, and a “decision” operation key 24.

前記タッチ操作部21は、周知のように、平板状のシートにX軸方向及びY軸方向にマトリクス状に電極を配して構成され、ユーザの手の指(或いはタッチペン等)による、その操作面に対する、タッチオン、タッチオフを含むタッチ操作及びその位置(二次元座標)を検出できるように構成されている。その検出方式としては、抵抗膜方式あるいは静電容量方式のいずれであっても良い。   As is well known, the touch operation unit 21 is configured by arranging electrodes in a matrix in a X-axis direction and a Y-axis direction on a flat sheet, and is operated by a finger of a user's hand (or a touch pen or the like). A touch operation including touch-on and touch-off on the surface and its position (two-dimensional coordinates) can be detected. As the detection method, either a resistance film method or a capacitance method may be used.

そして、図2に示すように、タッチパッド20には、前記タッチ操作部21においてタッチ操作された操作位置信号及び前記操作キー22、23、24の操作信号を、前記制御装置4に出力する信号出力手段としての操作信号出力部25が設けられている。尚、本実施例では、上記タッチパッド20とナビゲーション装置本体2との接続は、ケーブルを介して有線にて行われるようになっているが、ブルートゥース(登録商標)等の無線通信によりそれらの接続を行っても良い。   As shown in FIG. 2, the touch pad 20 is a signal that outputs to the control device 4 an operation position signal that is touched by the touch operation unit 21 and an operation signal of the operation keys 22, 23, and 24. An operation signal output unit 25 as output means is provided. In the present embodiment, the touch pad 20 and the navigation apparatus body 2 are connected to each other via a cable, but they are connected by wireless communication such as Bluetooth (registered trademark). May be performed.

ユーザは、上記タッチパッド20のタッチ操作部21に対するタッチオン、タッチオフを含む各種ジェスチャ操作により、前記タッチパネル11の操作と同様に、ナビゲーション装置本体2(表示装置3)に対する各種の入力指示を行うことができる。この場合、ユーザが、タッチ操作部21上で実行するジェスチャ操作としては、例えば、操作面の押下操作、ドラッグ操作(操作面をタッチした指(1本指)をずらせる操作)、フリック操作(操作面をタッチした指をはねるように一方向に動かす操作)、ピンチアウト操作(操作面をタッチした2本の指を遠ざけるように動かす操作)、ピンチイン操作(操作面をタッチした2本の指を近付けるように動かす操作)等がある。   The user can give various input instructions to the navigation device body 2 (display device 3) by various gesture operations including touch-on and touch-off operations on the touch operation unit 21 of the touch pad 20 in the same manner as the operation of the touch panel 11. it can. In this case, examples of the gesture operation performed by the user on the touch operation unit 21 include, for example, an operation surface pressing operation, a drag operation (an operation for shifting a finger (one finger) touching the operation surface), and a flick operation ( Operation that moves the finger touching the operation surface in one direction), pinch-out operation (operation that moves the two fingers that touch the operation surface away), pinch-in operation (two fingers that touch the operation surface) To move them closer to each other).

このようにユーザによりタッチパッド20が操作されると、上記のように、制御装置4に対し、前記操作信号出力部25から、ユーザによるタッチ操作部21のタッチオン、タッチオフを含むジェスチャ操作の種類、その操作位置(座標)、移動方向や移動量等の操作位置信号が出力(通知)される。制御装置4は、タッチパッド20の操作信号出力部25から通知された操作位置信号からユーザの操作を判定する操作判定手段として機能し、その判定に応じて、各種の入力設定処理を行う。このとき、タッチ操作部21の二次元座標と前記表示装置3の画面の二次元座標との間に対応関係が設定されていることは勿論である。また、制御装置4は、上記ジェスチャ操作における時間(次の操作までの時間等)をカウントするタイマ機能を有している。   Thus, when the touchpad 20 is operated by the user, as described above, the type of gesture operation including touch-on and touch-off of the touch operation unit 21 by the user from the operation signal output unit 25 to the control device 4, Operation position signals such as the operation position (coordinates), movement direction, and movement amount are output (notified). The control device 4 functions as an operation determination unit that determines the user's operation from the operation position signal notified from the operation signal output unit 25 of the touch pad 20, and performs various input setting processes according to the determination. At this time, as a matter of course, a correspondence relationship is set between the two-dimensional coordinates of the touch operation unit 21 and the two-dimensional coordinates of the screen of the display device 3. Further, the control device 4 has a timer function that counts the time in the gesture operation (the time until the next operation, etc.).

例えば表示装置3に、図4に例示するようなナビゲーション画面(地図表示画面)が表示されていた場合、タッチパッド20の操作に基づいて、制御装置4は次のような制御(操作)を行う。即ち、タッチ操作部21の押下操作(タッチオンからタッチ位置の移動がほとんどない状態で一定時間後にタッチオフがなさる操作)がなされたときには、その操作位置に関する座標決定通知がなされる。従って、その時点でのカーソルCが、いずれかのアイコンI上に位置している場合には、当該アイコンIの操作(決定)が行われる。   For example, when a navigation screen (map display screen) as illustrated in FIG. 4 is displayed on the display device 3, the control device 4 performs the following control (operation) based on the operation of the touch pad 20. . That is, when a pressing operation of the touch operation unit 21 (an operation in which touch-off is performed after a predetermined time while there is almost no movement of the touch position from touch-on) is made, a coordinate determination notification regarding the operation position is made. Therefore, when the cursor C at that time is positioned on any icon I, the operation (determination) of the icon I is performed.

また、タッチ操作部21のドラッグ操作がなされた場合には、その移動方向(及び移動量)へのカーソルCの移動が行われる。タッチ操作部21のフリック操作がなされた場合には、地図画面のそのフリック操作の方向への画面スクロールが行われる。このとき、フリック操作におけるタッチオフが検出されると、その位置に関する座標決定通知がなされる。更には、タッチ操作部21のピンチアウト及びピンチインの操作がなされた場合には、地図の縮尺変更、即ち拡大(詳細)及び縮小(広域)が夫々行われる。   Further, when the touch operation unit 21 is dragged, the cursor C is moved in the moving direction (and moving amount). When the flick operation of the touch operation unit 21 is performed, the screen is scrolled in the direction of the flick operation on the map screen. At this time, when a touch-off in the flick operation is detected, a coordinate determination notification regarding the position is made. Furthermore, when the pinch-out and pinch-in operations of the touch operation unit 21 are performed, the scale of the map is changed, that is, enlargement (details) and reduction (wide area) are performed.

このとき、詳しくは次の作用説明(フローチャート説明)で述べるように、本実施例では、前記制御装置4は、タッチパッド20の操作信号出力部25から座標決定通知がなされた場合に、タッチオンからタッチオフまでのタッチ位置の移動速度に基づいて、フリック操作が押下操作かの判別を行うように構成されている。より具体的には、タッチオンからタッチオフまでのタッチ位置の移動量とそれに要した時間とから移動速度を算出し、その移動速度がしきい値以上であるときに、フリック操作と判別し、しきい値未満の場合委は、押下操作と判別する。   At this time, as will be described in detail in the following description of operation (flowchart description), in this embodiment, the control device 4 starts from touch-on when a coordinate determination notification is made from the operation signal output unit 25 of the touchpad 20. Based on the moving speed of the touch position until touch-off, it is configured to determine whether the flick operation is a pressing operation. More specifically, the movement speed is calculated from the amount of movement of the touch position from touch-on to touch-off and the time required, and when the movement speed is equal to or greater than the threshold value, it is determined that the operation is a flick operation, and the threshold is reached. If it is less than the value, the committee determines that the operation is a pressing operation.

次に、上記構成の作用について、図3も参照して述べる。上記のように、ユーザ(ドライバやその他の乗員)は、タッチパッド20のタッチ操作部21を手元で操作することにより、表示装置3の画面を遠隔操作することができる。この場合、タッチパッド20のタッチ操作部21の各種操作により、アイコンIを選択(決定)したり、地図画面をスクロールさせたり、地図画面を拡大、縮小させたりすることができる。   Next, the operation of the above configuration will be described with reference to FIG. As described above, the user (driver or other occupant) can remotely operate the screen of the display device 3 by operating the touch operation unit 21 of the touchpad 20 at hand. In this case, the icon I can be selected (determined), the map screen can be scrolled, or the map screen can be enlarged or reduced by various operations of the touch operation unit 21 of the touch pad 20.

ところで、上記したタッチパッド20を用いて各種のジェスチャ操作を行う場合、タッチ操作部21における1本指での移動操作は基本的にはカーソルCを移動させるものであるため、ユーザが上記フリック操作を行った場合でも、カーソルCの移動を伴ってしまう。そのため、タッチ操作部21のフリック操作を完了した時点で、ユーザが指を離した(タッチオフ)位置が例えば画面上の右上部のアイコンI上に対応していると、座標決定通知がなされることによってそのアイコンIの押下操作が行われてしまう虞がある。つまり、ユーザのタッチ操作部21に対する操作が誤って判定され、ユーザが意図していなかった操作が行われる虞がある。   By the way, when various gesture operations are performed using the touch pad 20, the movement operation with one finger in the touch operation unit 21 basically moves the cursor C. Therefore, the user performs the flick operation. Even when the operation is performed, the cursor C is moved. Therefore, when the flick operation of the touch operation unit 21 is completed, if the position where the user releases the finger (touch off) corresponds to, for example, the icon I in the upper right part on the screen, a coordinate determination notification is made. Therefore, there is a possibility that the pressing operation of the icon I is performed. That is, the user's operation on the touch operation unit 21 may be erroneously determined, and an operation that the user did not intend may be performed.

そこで、本実施例では、制御装置4は、タッチパッド20の操作信号出力部25から座標決定通知があった場合に、図3のフローチャートに示される操作判別の処理を実行する。即ち、まず、ステップS1にて、タッチパッド20の操作信号出力部25より座標決定通知が有ると、ステップS2にて、タッチオン時点でのカーソルCの位置から座標決定通知における位置(タッチオフの位置)までの移動量と、タッチオンからタッチオフまでに要した時間とから移動速度が計算される。   Therefore, in this embodiment, the control device 4 executes the operation determination process shown in the flowchart of FIG. 3 when there is a coordinate determination notification from the operation signal output unit 25 of the touch pad 20. That is, first, in step S1, when there is a coordinate determination notification from the operation signal output unit 25 of the touch pad 20, in step S2, the position in the coordinate determination notification from the position of the cursor C at the time of touch-on (touch-off position). The moving speed is calculated from the amount of movement up to and the time required from touch-on to touch-off.

次のステップS3では、計算された移動速度がしきい値以上であるかどうかが判断される。そして、移動速度がしきい値以上である場合には(ステップS3にてYes)、ステップS4にて、座標決定通知がフリック操作であると判定される。これに対し、移動速度がしきい値未満であった場合には(ステップS3にてNo)、ステップS5にて、座標決定通知が地図押下操作と判定される。   In the next step S3, it is determined whether or not the calculated moving speed is greater than or equal to a threshold value. If the moving speed is equal to or higher than the threshold (Yes in step S3), it is determined in step S4 that the coordinate determination notification is a flick operation. On the other hand, if the moving speed is less than the threshold value (No in step S3), the coordinate determination notification is determined to be a map pressing operation in step S5.

ここで、一般に、ユーザがタッチ操作部21において例えば1本指での操作を行う場合、押下操作を行う場合には、タッチオン位置とタッチオフ位置とで指の移動を伴わず、位置変化は0又はほとんどない状態となる。また、画面上でカーソルCの移動操作を行いたい場合には、タッチオン位置からタッチオフ位置まで指をずらせるが、この際の指(タッチ位置)の移動速度は比較的ゆっくりとなる。これに対し、フリック操作を行う場合には、タッチオンの後、指を比較的速く移動させ、短時間でタッチオフの操作が行われる。   Here, in general, when the user performs an operation with, for example, one finger on the touch operation unit 21 or performs a pressing operation, the position change is 0 or 0 with no finger movement between the touch-on position and the touch-off position. There is almost no state. Further, when it is desired to move the cursor C on the screen, the finger is displaced from the touch-on position to the touch-off position, but the movement speed of the finger (touch position) at this time is relatively slow. On the other hand, when performing a flick operation, the finger is moved relatively quickly after touch-on, and the touch-off operation is performed in a short time.

従って、上記のように、タッチ操作部21におけるタッチオンからタッチオフまでのタッチ位置の移動速度に基づいて、フリック操作が押下操作かの判別を行うことにより、ユーザの意図した操作を十分な確かさで判別することができる。この結果、本実施例の操作システム1によれば、タッチ操作部21を有する遠隔操作装置20を備えたものにあって、タッチ操作部21においてなされたタッチ操作の判断を確実に行うことができ、ユーザが意図しない処理が実行されてしまうことを未然に防止することができるという優れた効果を得ることができるものである。   Therefore, as described above, based on the moving speed of the touch position from the touch-on to the touch-off in the touch operation unit 21, it is determined whether the flick operation is a pressing operation, and thus the operation intended by the user can be performed with sufficient certainty. Can be determined. As a result, according to the operation system 1 of the present embodiment, the remote operation device 20 including the touch operation unit 21 is provided, and the touch operation performed in the touch operation unit 21 can be reliably determined. It is possible to obtain an excellent effect that it is possible to prevent a process unintended by the user from being executed.

尚、上記実施例では、本発明を車載用のナビゲーション装置における表示装置の制御に適用するようにしたが、それに限定されるものではなく、各種の機器(操作対象)の制御に適用することができる。また、上記実施例では、タッチパッドのタッチ操作部に対する指による操作について述べたが、タッチペンによる操作についても適用することができる。その他、遠隔操作装置(タッチパッド)は、操作スイッチを備えていないものであっても良い等、本発明は要旨を逸脱しない範囲内で適宜変更して実施し得るものである。   In the above embodiment, the present invention is applied to the control of the display device in the vehicle-mounted navigation device. However, the present invention is not limited to this, and can be applied to the control of various devices (operation objects). it can. Moreover, although the said Example demonstrated operation with the finger with respect to the touch operation part of a touchpad, it is applicable also to operation with a touch pen. In addition, the remote control device (touch pad) may not be provided with an operation switch, and the present invention can be appropriately modified and implemented without departing from the gist.

図中、1は操作システム、2はナビゲーション装置本体(機器本体)、3は表示装置、4は制御装置(操作判定手段)、20はタッチパッド(遠隔操作装置)、21はタッチ操作部、25は操作信号出力部(信号出力手段)、Cはカーソル、Iはアイコンを示す。   In the figure, 1 is an operation system, 2 is a navigation device body (device body), 3 is a display device, 4 is a control device (operation determination means), 20 is a touch pad (remote operation device), 21 is a touch operation unit, 25 Indicates an operation signal output unit (signal output means), C indicates a cursor, and I indicates an icon.

Claims (3)

表示装置(3)を有し操作対象となる機器本体(2)と、前記表示装置(3)に対する操作入力を行う遠隔操作装置(20)とを備える操作システム(1)であって、
前記遠隔操作装置(20)は、平板状のタッチ操作部(21)を有すると共に、前記タッチ操作部(21)におけるユーザが指又はタッチペンを用いたタッチオン、タッチオフの操作及びその位置を検出して操作位置信号を出力する信号出力手段(25)を備えると共に、
前記機器本体(2)は、前記遠隔操作装置(20)の信号出力手段(25)から通知された操作位置信号によってユーザの操作を判定する操作判定手段(4)を備え、
前記操作判定手段(4)は、前記タッチ操作部(21)における前記タッチオンからタッチオフまでのタッチ位置の移動速度に基づいて、フリック操作が押下操作かの判別を行うことを特徴とする操作システム。
An operation system (1) comprising a device main body (2) having a display device (3) to be operated, and a remote operation device (20) for performing operation input to the display device (3),
The remote operation device (20) includes a flat touch operation unit (21), and a user in the touch operation unit (21) detects a touch-on / touch-off operation using a finger or a touch pen and a position thereof. A signal output means (25) for outputting an operation position signal;
The device body (2) includes an operation determination unit (4) that determines a user operation based on an operation position signal notified from the signal output unit (25) of the remote operation device (20).
The operation determination unit (4) determines whether the flick operation is a pressing operation based on a moving speed of a touch position from the touch-on to the touch-off in the touch operation unit (21).
前記操作判定手段(4)は、前記信号出力手段(25)からタッチオフの操作位置信号が通知されたときに、前記タッチオンからタッチオフまでのタッチ位置の移動量とそれに要した時間とから移動速度を算出し、その移動速度がしきい値以上であるときに、フリック操作と判別することを特徴とする請求項1記載の操作システム。   The operation determining means (4), when notified of the touch-off operation position signal from the signal output means (25), determines the movement speed from the amount of movement of the touch position from the touch-on to the touch-off and the time required for it. 2. The operation system according to claim 1, wherein the operation system is calculated and determined as a flick operation when the moving speed is equal to or higher than a threshold value. 前記機器本体(2)は、前記表示装置(3)に地図画面を表示する地図表示機能を有することを特徴とする請求項1又は2記載の操作システム。   The operation system according to claim 1 or 2, wherein the device body (2) has a map display function for displaying a map screen on the display device (3).
JP2014036680A 2014-02-27 2014-02-27 Operation system Pending JP2015162074A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014036680A JP2015162074A (en) 2014-02-27 2014-02-27 Operation system
PCT/JP2015/000554 WO2015129170A1 (en) 2014-02-27 2015-02-06 Operation system
US15/120,536 US20170010798A1 (en) 2014-02-27 2015-02-06 Manipulation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014036680A JP2015162074A (en) 2014-02-27 2014-02-27 Operation system

Publications (2)

Publication Number Publication Date
JP2015162074A true JP2015162074A (en) 2015-09-07
JP2015162074A5 JP2015162074A5 (en) 2016-07-07

Family

ID=54008508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014036680A Pending JP2015162074A (en) 2014-02-27 2014-02-27 Operation system

Country Status (3)

Country Link
US (1) US20170010798A1 (en)
JP (1) JP2015162074A (en)
WO (1) WO2015129170A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011070554A (en) * 2009-09-28 2011-04-07 Aisin Aw Co Ltd Input and output display device
JP2012127791A (en) * 2010-12-15 2012-07-05 Aisin Aw Co Ltd Navigation device and control method therefor and program
JP2012168890A (en) * 2011-02-16 2012-09-06 Ntt Docomo Inc Display device, communication device, and program
JP2013159273A (en) * 2012-02-07 2013-08-19 Denso Corp In-vehicle operation device
JP2013257775A (en) * 2012-06-13 2013-12-26 Tokai Rika Co Ltd Touch sensor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011070554A (en) * 2009-09-28 2011-04-07 Aisin Aw Co Ltd Input and output display device
JP2012127791A (en) * 2010-12-15 2012-07-05 Aisin Aw Co Ltd Navigation device and control method therefor and program
JP2012168890A (en) * 2011-02-16 2012-09-06 Ntt Docomo Inc Display device, communication device, and program
JP2013159273A (en) * 2012-02-07 2013-08-19 Denso Corp In-vehicle operation device
JP2013257775A (en) * 2012-06-13 2013-12-26 Tokai Rika Co Ltd Touch sensor

Also Published As

Publication number Publication date
WO2015129170A1 (en) 2015-09-03
US20170010798A1 (en) 2017-01-12

Similar Documents

Publication Publication Date Title
US11334211B2 (en) Information control device and method for changing display region sizes and positional relationships
US20110285649A1 (en) Information display device, method, and program
JP5304763B2 (en) Image display device, image display method, and program
CN108431757B (en) Vehicle-mounted device, display area segmentation method and computer-readable storage medium
US9720593B2 (en) Touch panel operation device and operation event determination method in touch panel operation device
JP2007003328A (en) Car navigation system
US20160231977A1 (en) Display device for vehicle
US20210157480A1 (en) Information control device and display change method
JP2017194364A (en) Map display system, navigation system and computer program
CN107408356B (en) Map display control device and automatic map scrolling method
JP2013161230A (en) Input device
JP2012113070A (en) Control device, control method and computer program for control device
CN107408355B (en) Map display control device and method for controlling operation touch feeling of map scrolling
US20220050592A1 (en) Display control device and display control method
JP5743158B2 (en) Operation input system
JP2011080851A (en) Navigation system and map image display method
JP2018128968A (en) Input device for vehicle and control method for input device for vehicle
WO2015129170A1 (en) Operation system
JP5353777B2 (en) Map display device, map display method and program
JP5704411B2 (en) Operation input system
JP2013250942A (en) Input system
JP5870689B2 (en) Operation input system
US11880555B2 (en) Display control device and display control method for controlling the display of specific display object on the boundary line
JP5569419B2 (en) Map display device, map display method, and computer program
WO2021125180A1 (en) Display control device and display control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160523

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171003

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180123