WO2013051054A1 - タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、情報表示方法及び情報表示プログラム - Google Patents

タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、情報表示方法及び情報表示プログラム Download PDF

Info

Publication number
WO2013051054A1
WO2013051054A1 PCT/JP2011/005584 JP2011005584W WO2013051054A1 WO 2013051054 A1 WO2013051054 A1 WO 2013051054A1 JP 2011005584 W JP2011005584 W JP 2011005584W WO 2013051054 A1 WO2013051054 A1 WO 2013051054A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
detection
detected
display
touch panel
Prior art date
Application number
PCT/JP2011/005584
Other languages
English (en)
French (fr)
Inventor
直宏 見市
Original Assignee
古野電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 古野電気株式会社 filed Critical 古野電気株式会社
Priority to PCT/JP2011/005584 priority Critical patent/WO2013051054A1/ja
Priority to US14/349,323 priority patent/US9459716B2/en
Publication of WO2013051054A1 publication Critical patent/WO2013051054A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04801Cursor retrieval aid, i.e. visual aspect modification, blinking, colour changes, enlargement or other visual cues, for helping user do find the cursor in graphical user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present invention mainly relates to an apparatus having a touch panel that can detect two or more touches.
  • Patent Document 1 discloses a method of performing predetermined processing according to the content of touch operation (touch gesture) and a specific example of this type of touch panel device, touch pad, and the like.
  • the touch panel device may be operated to keep touching for a predetermined time or more, and if the sound is continuously sounded while being touched, there is a risk that the user or the surroundings may be uncomfortable.
  • the present invention has been made in view of the above circumstances.
  • the purpose of the present invention is to instantly determine whether or not two touches are detected on the device side when two touches are made. It is in providing the touch panel apparatus which can be performed.
  • an apparatus having a touch panel having the following configuration. That is, the device having the touch panel includes a detection unit, a display unit, and a control unit.
  • the detection unit detects a touch on the display screen.
  • the display unit displays on the display screen a touch detection mark that indicates that a touch has been detected and is displayed at least around the touch position.
  • the control unit varies the display form of the touch detection mark depending on whether the detection unit detects a touch of only one point or the detection unit detects a touch of two points.
  • the user when the user touches two places on the display screen, the user can instantaneously determine whether or not the two touches are detected on the apparatus side.
  • the control unit displays the touch detection mark displayed when the first touch is detected in a different display form. It is preferable to change.
  • control unit displays the touch detection mark displayed when the first touch is detected even when the detection unit detects the second touch.
  • a configuration without changing the form may be used.
  • the user can grasp which is the second touch. Accordingly, a touch operation for distinguishing between the first point and the second point (for example, a touch operation for rotating the second point around the first point) can be appropriately performed.
  • the control unit detects the touch detection mark when the detection unit detects a touch of only one point, and the touch detection when the detection unit detects a touch of two points.
  • the touch detection when the detection unit detects three touches are displayed in different forms.
  • the user can immediately determine how many touches have been detected.
  • the device having the touch panel preferably has the following configuration. That is, the detection unit can detect that a predetermined touch operation has been performed. The control unit varies the display form of the touch detection mark according to the content of the touch operation.
  • the user can know whether or not the content of the touch operation (touch gesture) is detected on the device side. Therefore, if the desired effect is not obtained despite the touch operation, know whether the touch gesture was not detected on the device side or the processing performed according to the touch gesture was not successful. Can do.
  • control unit preferably displays at least one of the name of the detected touch operation content and the processing to be performed according to the content in addition to the touch detection mark.
  • the user can easily grasp which touch gesture has been performed or which process has been performed in accordance with the touch gesture.
  • At least a part of the touch detection mark is preferably translucent.
  • the user can confirm the information displayed at the position overlapping the touch detection mark while grasping whether or not the touch is detected.
  • the control unit displays a locus of the touch position.
  • the user when a predetermined process is performed when the user draws a predetermined symbol using a finger, the user can draw the symbol while checking the locus of the finger recognized on the device side in real time. it can.
  • the apparatus having the touch panel it is preferable to display information acquired from marine equipment on the display unit.
  • the user's hand when mounted on a ship, the user's hand may be wet or dirty, and the touch may not be detected even if the display screen is touched. Therefore, it is possible to effectively utilize the effect of the present invention that allows the user to immediately determine whether a touch is detected on the device side.
  • a radar device a plotter device, and a marine network system each including the device having the touch panel.
  • the effect of the present invention can be exhibited in the radar device, the plotter device, and the marine network system.
  • this information display method includes a detection process, a display process, and a control process.
  • a touch on the display screen is detected.
  • a touch detection mark indicating that a touch is detected and displayed at least around the touch position is displayed on the display screen.
  • the display form of the touch detection mark is different depending on whether the touch of only one point is detected in the detection step or the touch of two points is detected in the detection step.
  • the user can determine whether both touches are detected on the device side.
  • this information display program is a program that causes a computer to execute a detection procedure, a display procedure, and a control procedure.
  • a detection procedure a touch on the display screen is detected.
  • a touch detection mark indicating that a touch is detected and displayed at least around the touch position is displayed on the display screen.
  • the control procedure the touch detection mark when only one touch is detected in the detection procedure and at least one of the touch detection marks when two touches are detected in the detection procedure are displayed.
  • the user can determine whether both touches are detected on the device side.
  • the block diagram which shows the whole structure of the marine equipment network system.
  • pieces is detected.
  • pieces is detected.
  • FIG. 1 is a block diagram showing the overall configuration of the marine equipment network system 1.
  • FIG. 2 is a front view of the touch panel device 11.
  • the marine equipment network system 1 includes a plurality of marine equipment connected to the marine network 10.
  • the marine equipment can exchange detected information and the like via the marine network 10.
  • LAN Local Area Network
  • CAN Controller Area Network
  • a marine equipment network system 1 of the present embodiment includes a device (hereinafter simply referred to as a touch panel device) 11 having a touch panel, a GPS antenna (GNSS sensor) 12, a radar antenna 13, and a fish school.
  • GNSS sensor GPS antenna
  • radar antenna 13 a radar antenna
  • fish school a fish school.
  • a machine (acoustic sensor) 14, a heading sensor 15, and an automatic steering device 16 are provided.
  • the touch panel device 11 creates and displays an image (sensor image) based on information detected by other marine equipment (sensors), detects a touch operation on the display screen, and performs processing according to the detection result. It is a configuration. Specifically, the touch panel device 11 includes a display unit 21, an operation unit 22, a storage unit 23, a detection unit 24, and a control unit 25.
  • the display unit 21 is configured by a liquid crystal display or the like, and can display a sensor image, various setting screens, and the like on the display screen as described above.
  • the operation unit 22 includes, for example, hardware keys such as a rotation key that can be rotated clockwise or counterclockwise, and a menu key for calling a menu screen. Since the touch panel device 11 can input and instruct by a touch operation on the screen, the number of keys of the operation unit 22 can be reduced.
  • the storage unit 23 stores the contents of the program executed by the control unit 25, nautical chart information, a voyage route set by the user, and the like.
  • the detection unit 24 detects a touch operation on the screen by the user.
  • a projected capacitive method is used as a method for detecting a touch operation.
  • a plurality of highly transmissive electrodes are arranged on the display panel, and the touch position is detected based on the change in capacitance of each electrode that occurs when the fingertip approaches the panel. It is. In this configuration, not only the touched position but also the finger movement (touch position change) in the touched state can be detected.
  • the detection unit 24 can also detect the touch position and the change in the touch position when two or more points are touched at the same time.
  • the touch position detected by the detection unit 24 and the change in the touch position are output to the control unit 25.
  • the method of detecting the touch operation is not limited to the projection-type capacitance method, and an appropriate method can be used.
  • a touch operation with a finger for example, a configuration in which a touch operation with a tapered rod-shaped member is detected may be used.
  • the control unit 25 creates the sensor image (a radar image or a chart around the ship) based on the storage content of the storage unit 23 and information received from other marine equipment, and displays it on the display unit 21.
  • the control unit 25 receives information from a plurality of marine equipments and creates a plurality of sensor images.
  • the control unit 25 displays a mode (full screen mode) in which only one of the plurality of sensor images is displayed on the display screen, and a mode (divided screen mode, FIG. 2) that displays the plurality of sensor images by dividing the display screen. Can be switched between.
  • control unit 25 identifies which touch gesture the user has performed by matching the preset touch operation content (touch gesture) with the change in the touch position detected by the detection unit 24. To do. And the control part 25 performs the process matched with the identified touch gesture.
  • the drag operation is a touch gesture that moves a touched finger (usually one) in a predetermined direction without releasing it from the screen. This drag operation is normally associated with image scrolling.
  • the drag operation includes an operation (flick operation) for quickly moving a finger while touching the screen.
  • Another example of the touch gesture is “pinch operation”.
  • the pinch operation is an operation in which two touched fingers are brought closer (pinch-in) or separated (pinch-out) without releasing them from the screen.
  • the pinch operation is usually associated with processing for changing the scale of the image.
  • the control part 25 can specify various touch gestures other than the example shown above.
  • the GPS antenna 12 receives a positioning signal from a GPS satellite (GNSS satellite) and outputs it to the touch panel device 11 or the like via the marine network 10.
  • the control unit 25 of the touch panel device 11 obtains the position of the ship (specifically, the position of the GPS antenna and the absolute position of the earth reference) based on the positioning signal. Note that the GPS antenna 12 may perform calculation for obtaining the position from the positioning signal and output the position of the ship to the touch panel device 11.
  • the touch panel device 11 can exhibit a function as a navigation device based on the obtained position of the ship and the chart information stored in the storage unit 23.
  • the control unit 25 superimposes and displays the position of the own ship on the chart based on the acquired position of the own ship and the chart information stored in the storage unit 23. Can do.
  • the control unit 25 can obtain the speed of the ground ship or obtain the track of the ship by using the position of the ship that changes according to the time and can display it on the display unit 21.
  • the control unit 25 can create a navigation route and display it on the display unit 21 by selecting a destination and waypoints (route points) by a user's touch operation (first display shown in FIG. 2). (See sensor image 31).
  • the radar antenna 13 transmits microwaves and receives reflected waves from the target.
  • the reflected wave is output to the touch panel device 11 after appropriate signal processing is performed.
  • the touch panel device 11 creates a radar image based on the reflected wave.
  • the control unit 25 of the touch panel device 11 obtains the distance of the target from the time from when the microwave is transmitted until the reflected wave is received.
  • the control part 25 calculates
  • the fish finder 14 includes a transducer and an analysis unit.
  • the vibrator is installed on the bottom of the ship and emits an ultrasonic wave in a direction directly below the sea and receives a reflected wave from the sea floor or a school of fish.
  • the analysis unit creates fish finder data (data obtained by a fish finder, fish school and seabed data) based on the reflected wave.
  • the fish finder 14 of the present embodiment has a function of determining the state of the seabed (bottom quality) based on the acquired fish finder data. Specifically, the analysis unit can determine whether the seabed is likely to be a rock, gravel (stone), sand, or mud by analyzing the received reflected wave.
  • the fish finder data and the determined bottom sediment are output to the touch panel device 11.
  • the control part 25 of the touch panel apparatus 11 produces the 3rd sensor image
  • FIG. In the third sensor image 33 the vertical axis indicates the fish finder data, and the horizontal axis indicates the time when the fish finder data is acquired (which becomes older as it goes to the left end of the screen).
  • the bow direction sensor 15 is configured to detect the bow direction of the own ship (the direction in which the bow is facing) with an absolute orientation based on the earth. Generally, a ship advances toward the bow direction. Therefore, it can be said that the heading sensor 15 detects the heading in the forward direction of the hull.
  • the bow direction sensor 15 can utilize a magnetic direction sensor, a GPS compass, etc., for example.
  • the automatic steering device 16 is a device that automatically operates the rudder so that the ship moves along the set sailing route. Specifically, the automatic steering device 16 determines how much the bow of the own ship should be changed based on the heading obtained from the heading sensor 15 and the navigation route obtained from the touch panel device 11. Ask. Then, the automatic steering device 16 changes the steering angle in accordance with the obtained value, thereby matching the course of the ship with the voyage route.
  • the marine equipment network system 1 of the present embodiment is configured as described above.
  • the marine equipment which comprises the marine equipment network system 1 is arbitrary, The structure by which marine equipment other than having been demonstrated above may be connected, and it is the structure by which the same kind of marine equipment is connected. Also good.
  • the structure performed by the said marine equipment may be sufficient as the process of the data which the marine equipment acquired, and the structure performed by the control part 25 of the touch panel apparatus 11 may be sufficient.
  • the detection unit 24 may not be able to detect that the user has touched the display screen. Also, the touch may not be detected even when the hand is dry. If a desired process is not performed even if the user touches the display screen, the user cannot determine whether the touch itself has not been detected or whether the process for the touch has been performed appropriately.
  • the touch panel device 11 of the present embodiment is configured to display a touch detection mark at the touch position when it is detected that the user has touched the display screen. By checking the touch detection mark, the user can determine whether the reason why the desired process is not performed is that the touch cannot be detected or the process is not appropriately performed.
  • the touch detection mark when the touch detection mark is not displayed even when the user touches the display screen, the user knows that there is a problem in touch detection. In this case, there is a possibility that this problem can be solved by wiping the user's hand or the display screen.
  • the touch detection mark when the touch detection mark is displayed when the display screen is touched but the desired process is not executed, the user can grasp that the process is not properly performed. In this case, the user may be able to solve this problem by confirming the correspondence between the touch gesture and the process, or by reviewing whether the setting for accepting the process is made.
  • FIGS. 3 to 5 are diagrams illustrating display examples of touch detection marks.
  • the control unit 25 can acquire the number of points touched on the display screen and the touch position based on the detection result of the detection unit 24. Then, the control unit 25 displays a circular touch detection mark in a predetermined color at and around the touch position (that is, around the finger) (see FIG. 3). Further, the control unit 25 displays the first touch in yellow, the second touch in blue, and the third touch in red, thereby changing the color of the touch detection mark. ing. Even when the second touch is detected during the first touch, the color of the touch detection mark displayed when the first touch is detected is not changed.
  • colors other than those described above may be used for the touch detection mark, or a combination of colors may be changed according to the color of the display screen. Moreover, it is good also as a structure which prevents the deterioration of visibility, such as a nautical chart, as a touch detection mark which becomes translucent partially or entirely.
  • the configuration for changing the display form of the touch detection mark is not limited to the color, and for example, the shape may be different for each touch detection mark.
  • Examples of the shape used for the touch detection mark include a circle, an ellipse, a triangle, and a quadrangle.
  • the user can It is possible to instantly determine how many points have been detected. For example, when a user makes a three-point touch, the user can visually recognize a red touch detection mark. You can see that it is recognized. In the present embodiment, the display color is changed between the first touch and the second touch, so that “only one touch is detected and two total touches are detected”. , The display form of the touch detection mark is different.
  • control unit 25 can specify a predetermined touch operation (gesture) as described above.
  • Touch gestures that can be specified by the control unit 25 include the above-described drag operation and pinch operation, a tap that touches the display screen for a moment, a double tap that quickly taps twice, and a second point that rotates around the first point. There are a rotation operation, a long press operation that keeps touching the display screen for a predetermined time or more.
  • the control unit 25 specifies the touch gesture according to the detection result of the detection unit 24, the control unit 25 displays the touch detection mark in a display form associated with the touch gesture.
  • the control unit 25 makes the shape of the touch detection mark circular. Then, when the double tap is detected, the control unit 25 displays the shape of the touch detection mark as a square (see FIG. 4A). When the touch gesture is specified, the control unit 25 changes the shape of the touch detection mark and displays the name of the specified touch gesture in a predetermined area (for example, the lower part of the screen) (see FIG. 4A). ).
  • control unit 25 changes the shape of the touch detection mark from a circular shape to a triangular shape by being touched for a predetermined time or longer (see FIG. 4B).
  • control unit 25 may display a process associated with the touch gesture in a predetermined area instead of the name of the touch gesture (see FIG. 4B). . Note that both the name of the touch gesture and the associated process may be displayed.
  • the control unit 25 displays the locus of the touch position in real time.
  • the configuration for displaying the trajectory in this way is a configuration for identifying a symbol inside a circle drawn by the user's finger, or a configuration in which a predetermined process is performed when a predetermined symbol is drawn by the user's finger. Can also be used effectively.
  • the touch panel device 11 includes the detection unit 24, the display unit 21, and the control unit 25.
  • the detection unit 24 detects a touch on the display screen.
  • the display unit 21 indicates that a touch has been detected and displays a touch detection mark displayed at least around the touch position on the display screen.
  • the control unit 25 differs in the display form (color in this embodiment) of the touch detection mark. Make it.
  • the touch detection mark yellow when one touch is detected is one of the touch detection marks (blue) when two touches are detected, and the display form Is different.
  • the user when the user touches two places on the display screen, the user can instantaneously determine whether or not both touches are detected on the touch panel device 11 side.
  • the first touch and the second touch have different colors, the user can recognize which touch is the second touch.
  • the color of the touch detection mark displayed when the first touch is detected is not changed.
  • the color of the touch detection mark displayed when the first touch is detected (specifically, the color is changed)
  • the display color of the second touch detection mark can be adjusted).
  • the color of the first and second touch detection marks is matched with the display color of the third touch detection mark.
  • the touch panel device 11 of this embodiment is a general-purpose display device that receives and displays information from a large number of sensors, but the present invention is also applied to a display device that mainly displays one type of information (for example, chart information). can do. Further, for example, the present invention can be applied to a plotter device that can display nautical chart information, a radar device that can display nautical chart information and radar images, and the like.
  • the touch panel device may be a display device (navigation device or the like), a tablet PC, a smartphone, a portable information terminal, or the like that is mounted on a moving body such as an automobile or an aircraft, in addition to the display device that is mounted on a ship.
  • the display apparatus etc. which acquire and display sensor information, such as temperature distribution and luminous intensity distribution, may be sufficient.

Abstract

タッチパネル装置は、検出部と、表示部と、制御部と、を備える。検出部は、表示画面へのタッチを検出する。表示部は、タッチが検出されたことを示しタッチ位置の少なくとも周囲に表示されるタッチ検出マークを表示画面に表示する。制御部は、検出部が1点のみのタッチを検出した場合のタッチ検出マークと、検出部が2点のタッチを検出した場合の2点目のタッチ検出マークと、で色を異ならせる。

Description

タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、情報表示方法及び情報表示プログラム
 本発明は、主要には、2点以上のタッチを検出可能なタッチパネルを有する装置に関する。
 従来から、2点以上のタッチを認識可能なタッチパネルを有する装置(以下、単にタッチパネル装置と称することがある)が知られている。特許文献1には、この種のタッチパネル装置及びタッチパッド等について、タッチ操作の内容(タッチジェスチャ)に応じて所定の処理を行う方法及びその具体例が開示されている。
 この種のタッチパネル装置において、タッチされたことを検出して、音を発生させたり(聴覚的フィードバック)、表示を変えたり(視覚的フィードバック)する構成が知られている。
米国特許出願公開第2008/0036743号明細書
 しかし、2点以上のタッチを検出可能なタッチパネル装置の場合、タッチされたことを検出して音を発生させても、ユーザとしては、2点のタッチのうち片方のみが検出されたのか、両方とも検出されたのかを判断することができない。また、タッチパネル装置では所定時間以上タッチし続ける操作が行われることもあり、タッチしている間ずっと音を鳴らせ続ける場合、ユーザや周囲に不快感を与えるおそれがある。
 また、タッチされたことを検出して表示を変える構成としては、例えばタッチ位置の周囲の色を変える構成が知られている。しかし、この構成では、複数のタッチの全てが検出されているかどうかをユーザが素早く判断することができない。
 本発明は以上の事情に鑑みてされたものであり、その目的は、2点のタッチを行った場合、当該タッチが2点とも装置側で検出されているか否かをユーザが瞬時に判断することができるタッチパネル装置を提供することにある。
課題を解決するための手段及び効果
 本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段とその効果を説明する。
 本発明の第1の観点によれば、以下の構成のタッチパネルを有する装置が提供される。即ち、このタッチパネルを有する装置は、検出部と、表示部と、制御部と、を備える。前記検出部は、表示画面へのタッチを検出する。前記表示部は、タッチが検出されたことを示しタッチ位置の少なくとも周囲に表示されるタッチ検出マークを前記表示画面に表示する。前記制御部は、前記検出部が1点のみのタッチを検出した場合と、前記検出部が2点のタッチを検出した場合と、で前記タッチ検出マークの表示形態を異ならせる。
 これにより、ユーザは、表示画面の2箇所をタッチした場合に、当該タッチが2点とも装置側で検出されているか否かを瞬時に判断することができる。
 前記のタッチパネルを有する装置においては、前記制御部は、前記検出部が2点目のタッチを検出した場合に、1点目のタッチを検出した際に表示した前記タッチ検出マークを異なる表示形態に変更することが好ましい。
 これにより、例えば2点のタッチが検出されているときは全て同じ表示形態のタッチ検出マークを表示することで、ユーザは、2点のうち一方のタッチ検出マークを見るだけで、現在何点のタッチが検出されているかを把握することができる。ユーザはどちらが2点目のタッチかを認識することができるので、1点目と2点目とを区別するタッチ操作(例えば、1点目の周りに2点目を回転させるタッチ操作等)を適切に行うことができる。
 前記のタッチパネルを有する装置においては、前記制御部は、前記検出部が2点目のタッチを検出した場合であっても、1点目のタッチを検出した際に表示した前記タッチ検出マークの表示形態を変更しない構成であっても良い。
 これにより、例えば1点目と2点目のタッチ検出マークの表示形態を異ならせることで、ユーザは、どちらが2点目のタッチかを把握することができる。従って、1点目と2点目とを区別するタッチ操作(例えば、1点目の周りに2点目を回転させるタッチ操作等)を適切に行うことができる。
 前記のタッチパネルを有する装置においては、前記制御部は、前記検出部が1点のみのタッチを検出した場合の前記タッチ検出マークと、前記検出部が2点のタッチを検出した場合の前記タッチ検出マークのうち少なくとも一方と、前記検出部が3点のタッチを検出した場合の前記タッチ検出マークの少なくとも1つと、で表示形態をそれぞれ異ならせることが好ましい。
 これにより、ユーザは、表示画面の3箇所をタッチした場合でも、当該タッチが何点検出されているかを即座に判断することができる。
 前記のタッチパネルを有する装置においては、以下の構成とすることが好ましい。即ち、前記検出部は、所定のタッチ操作が行われたことを検出可能である。前記制御部は、タッチ操作の内容に応じて、前記タッチ検出マークの表示形態を異ならせる。
 これにより、ユーザは、タッチ操作の内容(タッチジェスチャ)が装置側で検出されたか否かを知ることができる。従って、タッチ操作を行ったにもかかわらず所望の効果が得られなかった場合、タッチジェスチャが装置側で検出されなかったのか、タッチジェスチャに応じて行われる処理が上手くいかなかったのかを知ることができる。
 前記のタッチパネルを有する装置においては、前記制御部は、前記タッチ検出マークに加え、検出したタッチ操作の内容の名称及び当該内容に応じて行う処理のうち少なくとも一方を表示することが好ましい。
 これにより、ユーザは、どのタッチジェスチャが行われたか又は当該タッチジェスチャに応じてどの処理が行われたかを簡単に把握することができる。
 前記のタッチパネルを有する装置においては、前記タッチ検出マークは、少なくとも一部が半透明であることが好ましい。
 これにより、ユーザは、タッチが検出されたか否かを把握しつつ、タッチ検出マークと重なっている箇所に表示された情報も確認することができる。
 前記のタッチパネルを有する装置においては、前記表示画面にタッチしたままタッチ位置を移動させる操作を検出した場合、前記制御部は、タッチ位置の軌跡を表示することが好ましい。
 これにより、例えばユーザが指を用いて所定の記号を描いたときに所定の処理が行われる場合、ユーザは、装置側で認識されている指の軌跡をリアルタイムで確認しながら記号を描くことができる。
 前記のタッチパネルを有する装置においては、船舶に搭載され、舶用機器から取得した情報を前記表示部に表示することが好ましい。
 即ち、船舶に搭載される場合、ユーザの手が濡れていたり汚れていたりするため、表示画面をタッチしても当該タッチが検出されないことがある。従って、タッチが装置側で検出されているか否かをユーザが即座に判断可能な本発明の効果を有効に活用することができる。
 本発明の別の観点によれば、前記のタッチパネルを有する装置を備えるレーダ装置、プロッタ装置、舶用ネットワークシステムがそれぞれ提供される。
 これにより、本発明の効果をレーダ装置、プロッタ装置、舶用ネットワークシステムにおいて発揮させることができる。
 本発明の第2の観点によれば、以下の情報表示方法が提供される。即ち、この情報表示方法は、検出工程と、表示工程と、制御工程と、を含む。前記検出工程では、表示画面へのタッチを検出する。前記表示工程では、タッチが検出されたことを示しタッチ位置の少なくとも周囲に表示されるタッチ検出マークを前記表示画面に表示する。前記制御工程では、前記検出工程で1点のみのタッチを検出した場合と、前記検出工程で2点のタッチを検出した場合と、で前記タッチ検出マークの表示形態を異ならせる。
 これにより、ユーザは、2点のタッチを行った場合、当該タッチが2点とも装置側で検出されているか否かを判断することができる。
 本発明の第3の観点によれば、以下の構成の情報表示プログラムが提供される。即ち、この情報表示プログラムは、コンピュータに、検出手順と、表示手順と、制御手順と、を実行させるプログラムである。前記検出手順では、表示画面へのタッチを検出する。前記表示手順では、タッチが検出されたことを示しタッチ位置の少なくとも周囲に表示されるタッチ検出マークを前記表示画面に表示する。前記制御手順では、前記検出手順で1点のみのタッチを検出した場合の前記タッチ検出マークと、前記検出手順で2点のタッチを検出した場合の前記タッチ検出マークのうち少なくとも一方と、で表示形態を異ならせる。
 これにより、ユーザは、2点のタッチを行った場合、当該タッチが2点とも装置側で検出されているか否かを判断することができる。
舶用機器ネットワークシステムの全体的な構成を示すブロック図。 タッチパネル装置の正面図。 1点から3点のタッチを検出したときのタッチ検出マークを比較する図。 タッチジェスチャを検出したときの表示画面を示す図。 ドラッグ操作が行われたときの表示画面を示す図。 1点から3点のタッチを検出したときのタッチ検出マークの別の例を示す図。
 次に、図面を参照して本発明の実施の形態を説明する。図1は、舶用機器ネットワークシステム1の全体的な構成を示すブロック図である。図2は、タッチパネル装置11の正面図である。
 本実施形態の舶用機器ネットワークシステム1は、舶用ネットワーク10に接続された複数の舶用機器等から構成される。舶用機器同士は、検出した情報等を、舶用ネットワーク10を介してやり取りすることができる。舶用ネットワーク10の規格としては、例えばLAN(Local Area Network)やCAN(Controller Area Network)を採用することができる。
 図1に示すように、本実施形態の舶用機器ネットワークシステム1は、タッチパネルを有する装置(以下、単にタッチパネル装置と称する)11と、GPSアンテナ(GNSSセンサ)12と、レーダアンテナ13と、魚群探知機(音響センサ)14と、船首方位センサ15と、自動操舵装置16と、を備えている。
 タッチパネル装置11は、他の舶用機器(センサ)が検出した情報に基づいて映像(センサ映像)を作成して表示するとともに、表示画面へのタッチ操作を検出して検出結果に応じた処理を行う構成である。具体的には、タッチパネル装置11は、表示部21と、操作部22と、記憶部23と、検出部24と、制御部25と、を備えている。
 表示部21は、液晶ディスプレイ等で構成されており、前述のように、センサ映像や、各種設定画面等を表示画面に表示することができる。
 操作部22は、例えば、時計回り又は反時計回りに回転させる操作が可能な回転キー、及び、メニュー画面を呼び出すためのメニューキー等のハードウェアキーで構成されている。なお、タッチパネル装置11は、画面へのタッチ操作により入力及び指示を行うことができるので、操作部22のキーの数を低減することができる。
 記憶部23は、制御部25が実行するプログラムの内容、海図情報、及びユーザに設定された航海ルート等を記憶している。
 検出部24は、ユーザによる画面へのタッチ操作を検出する。本実施形態では、タッチ操作を検出する方式として、投影型の静電容量方式を用いている。この方式は、ディスプレイパネル上に、透過性の高い複数の電極を配置しておき、指先がパネルに接近した際に発生する各電極の静電容量の変化に基づいて、タッチ位置を検出する構成である。この構成では、タッチされた位置だけでなく、タッチした状態での指の動き(タッチ位置の変化)も検出することができる。また、検出部24は、同時に2点以上タッチされている場合のそれぞれのタッチ位置及びタッチ位置の変化についても検出することができる。検出部24が検出したタッチ位置及びタッチ位置の変化は、制御部25へ出力される。なお、タッチ操作を検出する方式は投影型の静電容量方式に限られず、適宜の方式を用いることができる。また、指によるタッチ操作以外にも、例えば先細状の棒状の部材によるタッチ操作を検出する構成であっても良い。
 制御部25は、記憶部23の記憶内容及び他の舶用機器から受信した情報に基づいて前記センサ映像(レーダ映像や自船周囲の海図等)を作成し、表示部21に表示する。制御部25は、複数の舶用機器から情報を受信しており、複数のセンサ映像を作成する。制御部25は、この複数のセンサ映像のうち1つのみを表示画面に表示するモード(全画面モード)と、表示画面を分割して複数のセンサ映像を表示するモード(分割画面モード、図2を参照)と、を切替可能である。
 また、制御部25は、予め設定されたタッチ操作の内容(タッチジェスチャ)と、検出部24が検出したタッチ位置の変化と、のマッチングを行うことにより、ユーザがどのタッチジェスチャを行ったかを特定する。そして、制御部25は、特定したタッチジェスチャに対応付けられた処理を行う。
 タッチジェスチャの具体例としては、「ドラッグ操作」を挙げることができる。ドラッグ操作とは、タッチした指(通常は1本)を画面から離さずに所定の方向へ移動させるタッチジェスチャである。このドラッグ操作には、通常は、画像のスクロールが対応付けられている。なお、このドラッグ操作には、画面にタッチしたまま指を素早く動かす操作(フリック操作)等も含まれるものとする。また、タッチジェスチャの他の例としては、「ピンチ操作」を挙げることができる。ピンチ操作とは、タッチした2本の指を画面から離さずに、指同士を近づける(ピンチイン)又は離す(ピンチアウト)操作である。このピンチ操作には、通常は、画像の縮尺を変更する処理が対応付けられている。なお、制御部25は、上記で示した例以外にも様々なタッチジェスチャを特定することができる。
 GPSアンテナ12は、GPS衛星(GNSS衛星)からの測位信号を受信して、舶用ネットワーク10を介して、タッチパネル装置11等へ出力している。タッチパネル装置11の制御部25は、この測位信号に基づいて自船の位置(詳細には、GPSアンテナの位置、地球基準の絶対位置)を求めている。なお、測位信号から位置を求める演算をGPSアンテナ12側で行い、自船の位置をタッチパネル装置11へ出力する構成であっても良い。
 タッチパネル装置11は、求めた自船の位置と、記憶部23に記憶された海図情報と、に基づいて、航法装置としての機能を発揮することができる。具体的には、制御部25は、取得した自船の位置と、記憶部23に記憶した海図情報と、に基づいて、海図上に自船の位置を重畳して表示部21に表示することができる。また、制御部25は、時刻に応じて変化する自船の位置を利用して、対地船速を求めたり、自船の航跡を求めたりして表示部21に表示することができる。更に、制御部25は、ユーザのタッチ操作によって目的地及びウェイポイント(経由地)が選択されることにより、航海ルートを作成して表示部21に表示することができる(図2に示す第1センサ映像31を参照)。
 レーダアンテナ13は、マイクロ波の送信を行うとともに、物標からの反射波を受信する。この反射波は、適宜の信号処理が行われた後に、タッチパネル装置11へ出力される。タッチパネル装置11は、この反射波に基づいてレーダ映像を作成する。具体的には、タッチパネル装置11の制御部25は、マイクロ波を送信してから反射波を受信するまでの時間から、物標の距離を求める。また、制御部25は、マイクロ波を送信した方向に基づいて、物標が存在する方向を求める。制御部25は、このようにしてレーダ映像を作成して、表示部21に表示する(図2に示す第2センサ映像32を参照)。
 魚群探知機14は、振動子と、分析部と、から構成される。振動子は、船底等に設置され、海中の真下方向に向けて超音波を発射するとともに、海底又は魚群からの反射波を受信する。分析部は、反射波に基づいて、魚探データ(魚群探知機によって取得されるデータ、魚群や海底のデータ)を作成する。また、本実施形態の魚群探知機14は、取得した魚探データに基づいて、海底の状態(底質)を判定する機能を有している。具体的には、分析部は、受信した反射波を分析することで、海底が岩、礫(石)、砂、及び泥の何れの可能性が高いかを判定することができる。この魚探データ及び判別した底質は、タッチパネル装置11へ出力される。そして、タッチパネル装置11の制御部25は、受信したデータに基づいて第3センサ映像33を作成し(図2を参照)、表示部21に表示する。第3センサ映像33は、縦軸が魚探データを示し、横軸が魚探データを取得した時間(画面の左端に行くほど古くなる)を示している。
 船首方位センサ15は、自船の船首方向(船首が向いている方向)を、地球基準の絶対的な方位で検出するように構成されている。一般的に船舶は、船首方向へ向かって前進する。従って、船首方位センサ15は、船体の前進方向の方位を検出していると言うこともできる。船首方位センサ15は、例えば磁気方位センサや、GPSコンパス等を利用することができる。
 自動操舵装置16は、設定された航海ルートに沿って自船が移動するように舵の操作を自動的に行う装置である。具体的には、自動操舵装置16は、船首方位センサ15から取得した船首方位と、タッチパネル装置11から取得した航海ルートと、に基づいて、自船の船首をどれだけ変化させれば良いかを求める。そして、自動操舵装置16は、求めた値に応じて舵角を変化させることにより、自船の針路を航海ルートに一致させる。
 本実施形態の舶用機器ネットワークシステム1は、以上のように構成される。なお、舶用機器ネットワークシステム1を構成する舶用機器は任意であり、上記で説明した以外の舶用機器が接続される構成であっても良いし、同種の舶用機器が複数接続される構成であっても良い。また、舶用機器が取得したデータの処理は、当該舶用機器で行う構成であっても良いし、タッチパネル装置11の制御部25で行う構成であっても良い。
 次に、タッチ操作が行われたときに表示されるタッチ検出マークについて説明する。
 タッチパネル装置11は船舶に搭載されるため、ユーザの手は濡れていたり汚れていたりすることがある。そのため、ユーザが表示画面にタッチしたことを検出部24が検出できないことがある。また、手が乾燥している場合等にも、タッチが検出されないことがある。ユーザは、表示画面にタッチしても所望の処理が行われない場合、タッチ自体が検出されていないのか、タッチに対する処理が適切に行われなかったのかを判断できない。
 この点、本実施形態のタッチパネル装置11は、ユーザが表示画面にタッチしたことを検出したときに、当該タッチ位置にタッチ検出マークを表示する構成である。ユーザは、タッチ検出マークを確認することにより、所望の処理が行われない原因が、タッチを検出できないことによるのか、適切に処理が行われないことによるのか、を判断することができる。
 つまり、ユーザは、表示画面にタッチしてもタッチ検出マークが表示されないときは、タッチの検出に問題があることが分かる。この場合、ユーザの手や表示画面を拭くことで、この問題を解消できる可能性がある。一方、表示画面にタッチしたときに、タッチ検出マークが表示されるが所望の処理が実行されないときは、処理が適切に行われていないことをユーザ側で把握できる。この場合、ユーザは、タッチジェスチャと処理との対応関係を確認したり、当該処理を受け付ける設定がされているか等を見直したりすることにより、この問題を解消できる可能性がある。
 以下、表示画面にタッチしたときに表示されるタッチ検出マークの表示形態について図3から図5までを参照して説明する。図3から図5は、タッチ検出マークの表示例を示す図である。
 制御部25は、検出部24の検出結果に基づいて、表示画面に何点タッチされているか及びそのタッチ位置等を取得することができる。そして、制御部25は、タッチ位置及びその周り(即ち、指の周り)に所定の色で円形のタッチ検出マークを表示する(図3を参照)。また、制御部25は、1点目のタッチを黄色で表示し、2点目のタッチを青色で表示し、3点目のタッチを赤色で表示することでタッチ検出マークの色をそれぞれ異ならせている。そして、1点目のタッチ中に2点目のタッチが検出された場合であっても、1点目のタッチを検出した際に表示したタッチ検出マークの色を変化させない構成である。
 なお、タッチ検出マークに用いる色は上記以外の色を用いても良いし、表示画面の色等に応じて色の組み合わせを変更する構成であっても良い。また、一部又は全部が半透明になるようなタッチ検出マークとして、海図等の視認性の悪化を防ぐ構成としても良い。
 また、タッチ検出マークの表示形態を異ならせる構成は色に限られず、例えばタッチ検出マーク毎に形状を異ならせても良い。タッチ検出マークに用いる形状としては、例えば、円形、楕円形、三角形、四角形等を挙げることができる。更には、1点目のタッチを検出した場合は所定の図形を1つ表示し、2点目のタッチを検出した場合は1点目と同一の図形を2つ表示する構成(タッチを検出した数に応じて表示する図形の数を変化させる構成)によってタッチ検出マークの表示形態を異ならせても良い。
 このように、1点目のタッチと、2点目のタッチと、3点目のタッチと、でタッチ検出マークの表示形態(本実施形態では色)を異ならせることにより、ユーザは、タッチが何点検出されているかを瞬時に判断することができる。例えば、ユーザは、3点のタッチを行った場合、赤色のタッチ検出マークを視認することで、他のタッチ検出マークが手等に隠れて見えにくい場合であっても、3点のタッチが全て認識されていることを把握できる。なお、本実施形態では、1点目のタッチと2点目のタッチとで表示色を変化させることで、「1点のみのタッチを検出した場合と、合計2点のタッチを検出した場合と、でタッチ検出マークの表示形態を異ならせている」。
 また、制御部25は、上述のように所定のタッチ操作(ジェスチャ)についても特定することができる。制御部25が特定できるタッチジェスチャとしては、上述のドラッグ操作及びピンチ操作の他、一瞬だけ表示画面に触れるタップ、素早く2度タップを行うダブルタップ、1点目の周りに2点目を回転させる回転操作、所定時間以上表示画面にタッチし続ける長押し操作等がある。制御部25は、検出部24の検出結果に応じて上記タッチジェスチャを特定した場合、当該タッチジェスチャに対応付けられた表示形態でタッチ検出マークを表示する。
 例えば、制御部25は、タップや所定時間未満のタッチが行われた場合、タッチ検出マークの形状を円形とする。そして、制御部25は、ダブルタップが検出された場合、タッチ検出マークの形状を四角形で表示する(図4(a)を参照)。なお、制御部25は、タッチジェスチャを特定した場合、タッチ検出マークの形状を変化させるとともに、所定の領域(例えば画面下部)に特定したタッチジェスチャの名称を表示する(図4(a)を参照)。
 また、制御部25は、所定時間以上タッチされることにより、タッチ検出マークの形状を円形から三角形に変更して表示する(図4(b)を参照)。なお、制御部25は、タッチジェスチャを特定した場合、タッチジェスチャの名称に代えて、当該タッチジェスチャに対応付けられた処理を所定の領域に表示しても良い(図4(b)を参照)。なお、タッチジェスチャの名称及び対応付けられた処理は、両方表示しても良い。
 なお、タッチジェスチャに応じてタッチ検出マークの形状を異ならせる構成に代えて、色を異ならせる構成にしても良い。
 また、制御部25は、図5に示すように、前記ドラッグ操作が行われた場合、タッチ位置の軌跡をリアルタイムで表示する。これにより、例えばドラッグした軌跡に基づいて航海ルートが作成される場合、作成中の航海ルートを視認しながら残りの航海ルートを作成することができる。また、このように軌跡を表示する構成は、ユーザの指によって描かれた円の内部のシンボルを特定する構成や、ユーザの指によって所定の記号が描かれたときに所定の処理が行われる構成等においても有効に活用することができる。
 以上に示したように、タッチパネル装置11は、検出部24と、表示部21と、制御部25と、を備える。検出部24は、表示画面へのタッチを検出する。表示部21は、タッチが検出されたことを示しタッチ位置の少なくとも周囲に表示されるタッチ検出マークを表示画面に表示する。制御部25は、検出部24が1点のみのタッチを検出した場合と、検出部24が2点のタッチを検出した場合と、でタッチ検出マークの表示形態(本実施形態では色)を異ならせる。具体的には、本実施形態では、1点のタッチを検出した場合のタッチ検出マーク(黄色)が、2点のタッチを検出した場合のタッチ検出マークのうちの一方(青色)と、表示形態が異なっている。
 これにより、ユーザは、表示画面の2箇所をタッチした場合に、当該タッチが2点ともタッチパネル装置11側で検出されているか否かを瞬時に判断することができる。また、1点目のタッチと2点目のタッチとで色が異なるため、ユーザはどちらが2点目のタッチかを認識することができる。
 以上に本発明の好適な実施の形態を説明したが、上記の構成は例えば以下のように変更することができる。
 上記実施形態では、1点目のタッチ中に2点目のタッチが検出された場合であっても、1点目のタッチを検出した際に表示したタッチ検出マークの色を変化させない構成である。これに代えて、図6に示すように、2点目のタッチが検出された場合に、1点目のタッチを検出した際に表示したタッチ検出マークの色を変化させる構成(具体的には2点目のタッチ検出マークの表示色に合わせる構成)とすることができる。また、3点目が検出された場合でも同様に、1点目と2点目のタッチ検出マークの色を3点目のタッチ検出マークの表示色と合わせる構成である。
 本実施形態のタッチパネル装置11は、多数のセンサから情報を受信して表示する汎用型の表示装置であるが、主として1種類の情報(例えば海図情報)を表示する表示装置にも本発明を適用することができる。また、例えば、海図情報を表示可能なプロッタ装置や、海図情報及びレーダ映像を表示可能なレーダ装置等にも本発明を適用することができる。
 タッチパネル装置は、船舶に搭載される表示装置以外にも、自動車及び航空機等の移動体に搭載される表示装置(ナビゲーション装置等)、タブレットPC、スマートフォン、及び携帯情報端末等であっても良い。また、温度分布や光度分布等のセンサ情報を取得して表示する表示装置等であっても良い。
 1 舶用機器ネットワークシステム
 10 舶用ネットワーク
 11 タッチパネル装置(タッチパネルを有する装置)
 12 GPSアンテナ
 13 レーダアンテナ
 14 魚群探知機
 15 船首方位センサ
 16 自動操舵装置
 21 表示部
 22 操作部
 23 記憶部
 24 検出部
 25 制御部

Claims (14)

  1.  表示画面へのタッチを検出する検出部と、
     タッチが検出されたことを示しタッチ位置の少なくとも周囲に表示されるタッチ検出マークを前記表示画面に表示する表示部と、
     前記検出部が1点のみのタッチを検出した場合と、前記検出部が2点のタッチを検出した場合と、で前記タッチ検出マークの表示形態を異ならせる制御部と、
    を備えることを特徴とするタッチパネルを有する装置。
  2.  請求項1に記載のタッチパネルを有する装置であって、
     前記制御部は、前記検出部が2点目のタッチを検出した場合に、1点目のタッチを検出した際に表示した前記タッチ検出マークを異なる表示形態に変更することを特徴とするタッチパネルを有する装置。
  3.  請求項1に記載のタッチパネルを有する装置であって、
     前記制御部は、前記検出部が2点目のタッチを検出した場合であっても、1点目のタッチを検出した際に表示した前記タッチ検出マークの表示形態を変更しないことを特徴とするタッチパネルを有する装置。
  4.  請求項1に記載のタッチパネルを有する装置であって、
     前記制御部は、前記検出部が1点のみのタッチを検出した場合の前記タッチ検出マークと、前記検出部が2点のタッチを検出した場合の前記タッチ検出マークのうち少なくとも一方と、前記検出部が3点のタッチを検出した場合の前記タッチ検出マークの少なくとも1つと、で表示形態をそれぞれ異ならせることを特徴とするタッチパネルを有する装置。
  5.  請求項1に記載のタッチパネルを有する装置であって、
     前記検出部は、所定のタッチ操作が行われたことを検出可能であり、
     前記制御部は、タッチ操作の内容に応じて、前記タッチ検出マークの表示形態を異ならせることを特徴とするタッチパネルを有する装置。
  6.  請求項5に記載のタッチパネルを有する装置であって、
     前記制御部は、前記タッチ検出マークに加え、検出したタッチ操作の内容の名称及び当該内容に応じて行う処理のうち少なくとも一方を表示することを特徴とするタッチパネルを有する装置。
  7.  請求項1に記載のタッチパネルを有する装置であって、
     前記タッチ検出マークは、少なくとも一部が半透明であることを特徴とするタッチパネルを有する装置。
  8.  請求項1に記載のタッチパネルを有する装置であって、
     前記表示画面にタッチしたままタッチ位置を移動させる操作を検出した場合、
     前記制御部は、タッチ位置の軌跡を表示することを特徴とするタッチパネルを有する装置。
  9.  請求項8に記載のタッチパネルを有する装置であって、
     船舶に搭載され、
     舶用機器から取得した情報を前記表示部に表示することを特徴とするタッチパネルを有する装置。
  10.  請求項9に記載のタッチパネルを有する装置を備えることを特徴とするレーダ装置。
  11.  請求項9に記載のタッチパネルを有する装置を備えることを特徴とするプロッタ装置。
  12.  請求項9に記載のタッチパネルを有する装置を備えることを特徴とする舶用ネットワークシステム。
  13.  表示画面へのタッチを検出する検出工程と、
     タッチが検出されたことを示しタッチ位置の少なくとも周囲に表示されるタッチ検出マークを前記表示画面に表示する表示工程と、
     前記検出工程で1点のみのタッチを検出した場合と、前記検出工程で2点のタッチを検出した場合と、で前記タッチ検出マークの表示形態を異ならせる制御工程と、
    を含むことを特徴とする情報表示方法。
  14.  コンピュータに、
     表示画面へのタッチを検出する検出手順と、
     タッチが検出されたことを示しタッチ位置の少なくとも周囲に表示されるタッチ検出マークを前記表示画面に表示する表示手順と、
     前記検出手順で1点のみのタッチを検出した場合と、前記検出手順で2点のタッチを検出した場合と、で前記タッチ検出マークの表示形態を異ならせる制御手順と、
    を実行させる情報表示プログラム。
PCT/JP2011/005584 2011-10-03 2011-10-03 タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、情報表示方法及び情報表示プログラム WO2013051054A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2011/005584 WO2013051054A1 (ja) 2011-10-03 2011-10-03 タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、情報表示方法及び情報表示プログラム
US14/349,323 US9459716B2 (en) 2011-10-03 2011-10-03 Device having touch panel, radar apparatus, plotter apparatus, ship network system, information displaying method and information displaying program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/005584 WO2013051054A1 (ja) 2011-10-03 2011-10-03 タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、情報表示方法及び情報表示プログラム

Publications (1)

Publication Number Publication Date
WO2013051054A1 true WO2013051054A1 (ja) 2013-04-11

Family

ID=48043252

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/005584 WO2013051054A1 (ja) 2011-10-03 2011-10-03 タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、情報表示方法及び情報表示プログラム

Country Status (2)

Country Link
US (1) US9459716B2 (ja)
WO (1) WO2013051054A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015049685A (ja) * 2013-08-30 2015-03-16 日本電気株式会社 電子機器、電子機器の制御方法及びプログラム
JP2018151811A (ja) * 2017-03-13 2018-09-27 日本無線株式会社 タッチパネル用ディバイダおよびタッチパネルユニット

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6375672B2 (ja) * 2014-01-21 2018-08-22 セイコーエプソン株式会社 位置検出装置、及び位置検出方法
USD783645S1 (en) * 2014-12-08 2017-04-11 Kpmg Llp Electronic device impact screen with graphical user interface

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198385A (ja) * 2009-02-25 2010-09-09 Kyocera Corp オブジェクト表示装置
JP2010218286A (ja) * 2009-03-17 2010-09-30 Toshiba Corp 情報処理装置およびプログラムおよび表示方法
JP2011192179A (ja) * 2010-03-16 2011-09-29 Kyocera Corp 文字入力装置、文字入力方法及び文字入力プログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
GB2357840B (en) * 1999-09-17 2002-04-17 Furuno Electric Co Underwater detecting apparatus depth measuring apparatus and display apparatus
US7532206B2 (en) * 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7886236B2 (en) * 2003-03-28 2011-02-08 Microsoft Corporation Dynamic feedback for gestures
JP2007207328A (ja) * 2006-01-31 2007-08-16 Toshiba Corp 情報記憶媒体、プログラム、情報再生方法、情報再生装置、データ転送方法、及びデータ処理方法
US7770126B2 (en) * 2006-02-10 2010-08-03 Microsoft Corporation Assisting user interface element use
US10437459B2 (en) * 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
US8674948B2 (en) * 2007-01-31 2014-03-18 Perceptive Pixel, Inc. Methods of interfacing with multi-point input devices and multi-point input systems employing interfacing techniques
JP5101373B2 (ja) * 2007-04-10 2012-12-19 古野電気株式会社 情報表示装置
KR20100072198A (ko) * 2007-08-19 2010-06-30 링보우 리미티드 반지형 장치와 그 사용방법
JP4906640B2 (ja) * 2007-08-30 2012-03-28 古野電気株式会社 舶用機器ネットワークシステム
US20090284532A1 (en) * 2008-05-16 2009-11-19 Apple Inc. Cursor motion blurring
US8604364B2 (en) * 2008-08-15 2013-12-10 Lester F. Ludwig Sensors, algorithms and applications for a high dimensional touchpad
US20100123666A1 (en) * 2008-11-19 2010-05-20 Sony Ericsson Mobile Communications Ab User-modifiable casing for portable communication devices
US20100177039A1 (en) * 2009-01-10 2010-07-15 Isaac Grant Finger Indicia Input Device for Computer
WO2010084498A1 (en) * 2009-01-26 2010-07-29 Zrro Technologies (2009) Ltd. Device and method for monitoring an object's behavior
KR101646922B1 (ko) * 2009-05-19 2016-08-23 삼성전자 주식회사 휴대 단말기의 통신 관련 기능 운용 방법 및 이를 지원하는 휴대 단말기
TW201104529A (en) * 2009-07-22 2011-02-01 Elan Microelectronics Corp Touch device, control method and control unit for multi-touch environment
JP5419622B2 (ja) * 2009-10-01 2014-02-19 古野電気株式会社 船舶表示装置
US20110199386A1 (en) * 2010-02-12 2011-08-18 Honeywell International Inc. Overlay feature to provide user assistance in a multi-touch interactive display environment
US20110230238A1 (en) * 2010-03-17 2011-09-22 Sony Ericsson Mobile Communications Ab Pointer device to navigate a projected user interface
US9678662B2 (en) * 2010-04-23 2017-06-13 Handscape Inc. Method for detecting user gestures from alternative touchpads of a handheld computerized device
US9626099B2 (en) * 2010-08-20 2017-04-18 Avaya Inc. Multi-finger sliding detection using fingerprints to generate different events
US20120280927A1 (en) * 2011-05-04 2012-11-08 Ludwig Lester F Simple touch interface and hdtp grammars for rapid operation of physical computer aided design (cad) systems

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198385A (ja) * 2009-02-25 2010-09-09 Kyocera Corp オブジェクト表示装置
JP2010218286A (ja) * 2009-03-17 2010-09-30 Toshiba Corp 情報処理装置およびプログラムおよび表示方法
JP2011192179A (ja) * 2010-03-16 2011-09-29 Kyocera Corp 文字入力装置、文字入力方法及び文字入力プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015049685A (ja) * 2013-08-30 2015-03-16 日本電気株式会社 電子機器、電子機器の制御方法及びプログラム
JP2018151811A (ja) * 2017-03-13 2018-09-27 日本無線株式会社 タッチパネル用ディバイダおよびタッチパネルユニット

Also Published As

Publication number Publication date
US20140267125A1 (en) 2014-09-18
US9459716B2 (en) 2016-10-04

Similar Documents

Publication Publication Date Title
WO2013051048A1 (ja) タッチパネルを有する装置、表示制御プログラム、及び表示制御方法
WO2013121459A1 (ja) 情報表示装置、表示モード切替方法及び表示モード切替プログラム
WO2013051047A1 (ja) 表示装置、表示プログラム、及び表示方法
WO2013051051A1 (ja) タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、情報表示方法、及び情報表示プログラム
JP6000524B2 (ja) 魚探映像表示装置、魚群探知装置、目的地指定プログラム、及び目的地指定方法
JP5689018B2 (ja) 船舶用情報表示装置、船舶用情報表示方法、及び船舶用情報表示プログラム
US9500485B2 (en) Device and method for displaying information
WO2013051049A1 (ja) タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、視点変更方法及び視点変更プログラム
WO2013051046A1 (ja) タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、情報表示方法及び情報表示プログラム
WO2013051052A1 (ja) 情報表示装置、情報表示方法及び情報表示プログラム
WO2013051054A1 (ja) タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、情報表示方法及び情報表示プログラム
WO2013051050A1 (ja) タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、シンボル特定方法及びシンボル特定プログラム
EP3431927B1 (en) Navigational information display device, method of displaying navigational information, and navigational information display program
JP6235098B2 (ja) 船舶用情報表示装置、船舶用情報表示方法及び船舶用情報表示プログラム
JP6413002B2 (ja) 船舶用情報表示装置、船舶用情報表示方法及び船舶用情報表示プログラム
JP6038255B2 (ja) 船舶用情報表示装置、船舶用情報表示方法及び船舶用情報表示プログラム
JP5815145B2 (ja) 船舶用情報表示装置、船舶用情報表示方法及び船舶用情報表示プログラム
JP5704779B1 (ja) 船舶用情報表示装置、船舶用情報表示方法、及び船舶用情報表示プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11873746

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14349323

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11873746

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP