WO2013051050A1 - タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、シンボル特定方法及びシンボル特定プログラム - Google Patents

タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、シンボル特定方法及びシンボル特定プログラム Download PDF

Info

Publication number
WO2013051050A1
WO2013051050A1 PCT/JP2011/005580 JP2011005580W WO2013051050A1 WO 2013051050 A1 WO2013051050 A1 WO 2013051050A1 JP 2011005580 W JP2011005580 W JP 2011005580W WO 2013051050 A1 WO2013051050 A1 WO 2013051050A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
symbol
touch panel
control unit
display screen
Prior art date
Application number
PCT/JP2011/005580
Other languages
English (en)
French (fr)
Inventor
広樹 大久保
啓太 西田
Original Assignee
古野電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 古野電気株式会社 filed Critical 古野電気株式会社
Priority to US14/349,320 priority Critical patent/US9891728B2/en
Priority to PCT/JP2011/005580 priority patent/WO2013051050A1/ja
Priority to CN201180073968.1A priority patent/CN103858078B/zh
Publication of WO2013051050A1 publication Critical patent/WO2013051050A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/203Specially adapted for sailing ships

Definitions

  • the present invention mainly relates to an apparatus having a touch panel capable of displaying images and symbols arranged on the images.
  • Patent Document 1 discloses a method of performing predetermined processing according to the content of touch operation (touch gesture) and a specific example of this type of touch panel device, touch pad, and the like.
  • Patent Document 1 exemplifies a touch gesture in which three touches (thumb, index finger, and middle finger) are moved closer to each other, and describes that a cut process is performed in accordance with the touch gesture.
  • touch gestures that move three touch points away from each other are also illustrated, and it is described that paste processing is performed in accordance with the touch gestures (see paragraph 0174 and FIG. 29E).
  • the 0145 paragraph, the 0146 paragraph, and the 0150 paragraph describe a specific flow of performing a copy process and a paste process by a touch operation.
  • the user first selects an object to be copied using a touch operation or a mouse. Thereafter, the user performs a touch gesture for performing a copy process. Next, the user designates a paste position using a touch operation or a mouse. Thereafter, the user performs a touch gesture for performing paste processing. By performing the above operations, copy processing and paste processing can be performed.
  • a method is generally used in which the icon is moved by touching the icon or the like for a predetermined time or more and then moving it without releasing the hand.
  • the present invention has been made in view of the above circumstances, and an object of the present invention is to provide a touch panel device capable of selecting one or a plurality of symbols by an operation that is simple and less likely to cause mistakes.
  • an apparatus having a touch panel having the following configuration. That is, the device having the touch panel includes a display unit, a detection unit, and a control unit.
  • the display unit displays an image and symbols arranged on the image on a display screen.
  • the detection unit detects two or more touches on the display screen and their touch positions.
  • the control unit creates a region based on two or more touch positions detected by the detection unit, and identifies a symbol located in the created region.
  • control unit identifies one symbol closest to the center of the region among the symbols in the created region, distinguishing it from other symbols.
  • control unit preferably uses the latest touch position of each of the two or more touches as a touch position used for creating a region.
  • the user can adjust the symbol to be selected by moving the touch position even after touching the display screen.
  • control unit may maintain identification of symbols located in an area created based on the latest touch position even after the detection unit no longer detects a touch. preferable.
  • control unit preferably performs a cut process for cutting and temporarily storing the symbol or a copy process for copying the symbol with respect to the specified symbol.
  • control unit may perform the cut process or the copy process of the symbol when a touch operation is performed so that two or more touch positions are close to the symbol. preferable.
  • the control unit performs the touch operation when two or more touch positions are separated from a predetermined position after performing the cut processing or the copy processing of the symbol. It is preferable to perform a paste process in which a symbol is pasted at a predetermined position.
  • the control unit enlarges only the periphery of the symbol and displays it on the display unit It is preferable to carry out.
  • the device having the touch panel preferably has the following configuration. That is, the apparatus having the touch panel includes a storage unit that stores nautical chart information. The control unit displays the position and symbol of the ship on the chart based on the position information received from the GNSS sensor.
  • a radar device a plotter device, and a marine network system each including the device having the touch panel.
  • the effect of the present invention can be exhibited in the radar device, the plotter device, and the marine network system.
  • the symbol specifying method includes a display process, a detection process, and a control process.
  • the display step an image and symbols arranged on the image are displayed on a display screen.
  • the detection step two or more touches on the display screen and touch positions thereof are detected.
  • the control step a region is created based on two or more touch positions detected in the detection step, and a symbol located in the created region is specified.
  • the symbol specifying program is a program for causing a computer to execute a display procedure, a detection procedure, and a control procedure.
  • the display procedure an image and symbols arranged on the image are displayed on a display screen.
  • the detection procedure two or more touches on the display screen and touch positions thereof are detected.
  • the control procedure an area is created based on two or more touch positions detected in the detection procedure, and symbols located in the created area are specified.
  • an apparatus having a touch panel having the following configuration. That is, the device having the touch panel includes a display unit, a detection unit, and a control unit.
  • the display unit displays an image and symbols arranged on the image on a display screen.
  • the detection unit detects a touch on the display screen and a touch position thereof.
  • the control unit creates a region based on the touch position detected by the detection unit, and identifies a symbol located in the created region.
  • the front view of a touch-panel apparatus. The figure explaining grabbing operation and releasing operation.
  • the figure explaining operation performed in order to transfer to each state.
  • FIG. 1 is a block diagram showing the overall configuration of the marine equipment network system 1.
  • FIG. 2 is a front view of the touch panel device 11.
  • the marine equipment network system 1 includes a plurality of marine equipment connected to the marine network 10.
  • the marine equipment can exchange detected information and the like via the marine network 10.
  • LAN Local Area Network
  • CAN Controller Area Network
  • a marine equipment network system 1 of the present embodiment includes a device (hereinafter simply referred to as a touch panel device) 11 having a touch panel, a GPS antenna (GNSS sensor) 12, a radar antenna 13, and a fish school.
  • GNSS sensor GPS antenna
  • radar antenna 13 a radar antenna
  • fish school a fish school.
  • a machine (acoustic sensor) 14, a heading sensor 15, and an automatic steering device 16 are provided.
  • the touch panel device 11 creates and displays an image (sensor image) based on information detected by other marine equipment (sensors), detects a touch operation on the display screen, and performs processing according to the detection result. It is a configuration. Specifically, the touch panel device 11 includes a display unit 21, an operation unit 22, a storage unit 23, a detection unit 24, and a control unit 25.
  • the display unit 21 is configured by a liquid crystal display or the like, and can display a sensor image, various setting screens, and the like on the display screen as described above.
  • the operation unit 22 includes, for example, hardware keys such as a rotation key that can be rotated clockwise or counterclockwise, and a menu key for calling a menu screen. Since the touch panel device 11 can input and instruct by a touch operation on the screen, the number of keys of the operation unit 22 can be reduced.
  • the storage unit 23 stores the contents of the program executed by the control unit 25, nautical chart information, a voyage route set by the user, and the like.
  • the detection unit 24 detects a touch operation on the screen by the user.
  • a projected capacitive method is used as a method for detecting a touch operation.
  • a plurality of highly transmissive electrodes are arranged on the display panel, and the touch position is detected based on the change in capacitance of each electrode that occurs when the fingertip approaches the panel. It is. In this configuration, not only the touched position but also the finger movement (touch position change) in the touched state can be detected.
  • the detection unit 24 can also detect the touch position and the change in the touch position when two or more points are touched at the same time.
  • the touch position detected by the detection unit 24 and the change in the touch position are output to the control unit 25.
  • the method of detecting the touch operation is not limited to the projection-type capacitance method, and an appropriate method can be used.
  • a touch operation with a finger for example, a configuration in which a touch operation with a tapered rod-shaped member is detected may be used.
  • the control unit 25 creates the sensor image (a radar image or a chart around the ship) based on the storage content of the storage unit 23 and information received from other marine equipment, and displays it on the display unit 21.
  • the control unit 25 receives information from a plurality of marine equipments and creates a plurality of sensor images.
  • the control unit 25 displays a mode (full screen mode) in which only one of the plurality of sensor images is displayed on the display screen, and a mode (divided screen mode, FIG. 2) that displays the plurality of sensor images by dividing the display screen. Can be switched between.
  • control unit 25 identifies which touch gesture the user has performed by matching the preset touch operation content (touch gesture) with the change in the touch position detected by the detection unit 24. To do. And the control part 25 performs the process matched with the identified touch gesture.
  • the drag operation is a touch gesture that moves a touched finger (usually one) in a predetermined direction without releasing it from the screen. This drag operation is normally associated with image scrolling.
  • the drag operation includes an operation (flick operation) for quickly moving a finger while touching the screen.
  • Another example of the touch gesture is “pinch operation”.
  • the pinch operation is an operation in which two touched fingers are brought closer (pinch-in) or separated (pinch-out) without releasing them from the screen.
  • the pinch operation is usually associated with processing for changing the scale of the image.
  • the control part 25 can specify various touch gestures other than the example shown above.
  • the GPS antenna 12 receives a positioning signal from a GPS satellite (GNSS satellite) and outputs it to the touch panel device 11 or the like via the marine network 10.
  • the control unit 25 of the touch panel device 11 obtains the position of the ship (specifically, the position of the GPS antenna and the absolute position of the earth reference) based on the positioning signal. Note that the GPS antenna 12 may perform calculation for obtaining the position from the positioning signal and output the position of the ship to the touch panel device 11.
  • the touch panel device 11 can exhibit a function as a navigation device based on the obtained position of the ship and the chart information stored in the storage unit 23.
  • the control unit 25 superimposes and displays the position of the own ship on the chart based on the acquired position of the own ship and the chart information stored in the storage unit 23. Can do.
  • the control unit 25 can obtain the speed of the ground ship or obtain the track of the ship by using the position of the ship that changes according to the time and can display it on the display unit 21.
  • the control unit 25 can create a navigation route and display it on the display unit 21 by selecting a destination and waypoints (route points) by a user's touch operation (first display shown in FIG. 2). (See sensor image 31).
  • the radar antenna 13 transmits microwaves and receives reflected waves from the target.
  • the reflected wave is output to the touch panel device 11 after appropriate signal processing is performed.
  • the touch panel device 11 creates a radar image based on the reflected wave.
  • the control unit 25 of the touch panel device 11 obtains the distance of the target from the time from when the microwave is transmitted until the reflected wave is received.
  • the control part 25 calculates
  • the fish finder 14 includes a transducer and an analysis unit.
  • the vibrator is installed on the bottom of the ship and emits an ultrasonic wave in a direction directly below the sea and receives a reflected wave from the sea floor or a school of fish.
  • the analysis unit creates fish finder data (data obtained by a fish finder, fish school and seabed data) based on the reflected wave.
  • the fish finder 14 of the present embodiment has a function of determining the state of the seabed (bottom quality) based on the acquired fish finder data. Specifically, the analysis unit can determine whether the seabed is likely to be a rock, gravel (stone), sand, or mud by analyzing the received reflected wave.
  • the fish finder data and the determined bottom sediment are output to the touch panel device 11.
  • the control part 25 of the touch panel apparatus 11 produces the 3rd sensor image
  • FIG. In the third sensor image 33 the vertical axis indicates the fish finder data, and the horizontal axis indicates the time when the fish finder data is acquired (which becomes older as it goes to the left end of the screen).
  • the bow direction sensor 15 is configured to detect the bow direction of the own ship (the direction in which the bow is facing) with an absolute orientation based on the earth. Generally, a ship advances toward the bow direction. Therefore, it can be said that the heading sensor 15 detects the heading in the forward direction of the hull.
  • the bow direction sensor 15 can utilize a magnetic direction sensor, a GPS compass, etc., for example.
  • the automatic steering device 16 is a device that automatically operates the rudder so that the ship moves along the set sailing route. Specifically, the automatic steering device 16 determines how much the bow of the own ship should be changed based on the heading obtained from the heading sensor 15 and the navigation route obtained from the touch panel device 11. Ask. Then, the automatic steering device 16 changes the steering angle in accordance with the obtained value, thereby matching the course of the ship with the voyage route.
  • the marine equipment network system 1 of the present embodiment is configured as described above.
  • the marine equipment which comprises the marine equipment network system 1 is arbitrary, The structure by which marine equipment other than having been demonstrated above may be connected, and it is the structure by which the same kind of marine equipment is connected. Also good.
  • the structure performed by the said marine equipment may be sufficient as the process of the data which the marine equipment acquired, and the structure performed by the control part 25 of the touch panel apparatus 11 may be sufficient.
  • FIG. 3 is a diagram for explaining a gripping operation and a releasing operation.
  • a first touch T1, a second touch T2, a third touch T3, and a symbol S indicating a waypoint are displayed.
  • FIG. 3A is a diagram for explaining a gripping operation.
  • the grabbing operation is such that three touches (for example, the thumb, index finger, and middle finger) are brought close to the symbol S, and the distance between the touches is reduced. It is an operation to move.
  • FIG.3 (b) is a figure explaining release operation. As shown in FIG.
  • the release operation is an operation of moving the three touch points away from the symbol S and increasing the distance between the touches.
  • the control unit 25 specifies the grabbing operation or the release operation based on the detection result of the detection unit 24, the control unit 25 also specifies the symbols that are the targets of these operations at the same time.
  • 4 and 5 are diagrams showing symbols specified by the gripping operation and the releasing operation.
  • the control unit 25 specifies the grabbing operation or the release operation, which symbol is specified as the operation target.
  • 4 and 5 are diagrams showing symbols specified by the gripping operation and the releasing operation.
  • the detection unit 24 can detect the touch.
  • An area is created based on (the touch position immediately before disappearing), and a symbol positioned in the created area is specified as an operation target.
  • the touch position when the first touch T1 is separated from the display screen is the region of the first touch T1.
  • the touch position when the second touch T2 leaves the display screen is used for creating the region.
  • the release operation is performed, an area is created based on the touch position immediately after touching the display screen, and a symbol positioned in the created area is specified. In the present embodiment, the symbol is specified even after the detection unit 24 no longer detects a touch (after the finger is removed from the display screen).
  • the region creation method for example, as shown in FIG. 4A, it is conceivable to specify the symbol S1, which is the symbol closest to the center C1 of the virtual circle passing through the three touch positions. . As another example, as shown in FIG. 4B, it is conceivable to specify the symbol S7 that is the symbol closest to the center C2 of the virtual triangle connecting the three touch positions.
  • the above-described virtual figure and its center are not displayed on the display unit 21 in the present embodiment, but may be displayed.
  • symbol identification method described above is merely an example, and various other methods can be cited.
  • all symbols located inside a virtual circle passing through three touch positions may be specified. good.
  • two symbols S1 and S2 are specified as the operation target.
  • a virtual triangle composed of three touch positions is represented by, for example, the longest side (a line connecting the first touch T1 and the second touch T2 among the three sides of the triangle).
  • a quadrangle virtual region may be created by reversing with respect to (), and all the symbols positioned inside the virtual region may be operated.
  • symbols S5, S6 and S7 are specified.
  • a parallelogram virtual region is created by rotating 180 ° with respect to the bisector of the longest side of the three sides of the triangle, and all the internal symbols are manipulated. It is also good.
  • FIGS. 5A and 5B of course, after obtaining the center of the above-described region, only one symbol close to the center may be specified.
  • FIG. 6 is a diagram illustrating an operation performed to shift to each state.
  • the control unit 25 performs different processes depending on the state at that time.
  • a normal state a gripping state, and a pinpoint zoom state are set.
  • the gripping operation is performed from the normal state to shift to the gripping state.
  • a release operation is performed from this gripping state or when a predetermined time has elapsed
  • the normal state is restored.
  • the pinpoint zoom state is entered.
  • the gripping operation is performed from this pinpoint zoom state or when a predetermined time has elapsed, the normal state is restored.
  • FIGS. 7 to 9 are diagrams showing display screens when the position of the waypoint is changed.
  • the first sensor image 31 is displayed.
  • the own ship mark 40 indicating the position of the own ship and symbols S11, S12, S13 indicating the waypoints are displayed on the chart. Further, it is assumed that the user is in a normal state before performing an operation. When changing the waypoint, the user performs a gripping operation on the waypoint (symbol S12 in the present embodiment) desired to be changed (see FIG. 7).
  • the display mode of the symbol S12 changes, and the navigation routes before and after the symbol S12 are displayed with dotted lines.
  • it may replace with said display aspect and the structure which does not display the navigation route before and behind symbol S12 and symbol S12 completely may be sufficient.
  • the user determines the position to change the symbol S12, and performs a release operation so that the finger is spread around the position (see FIG. 9).
  • the release operation is performed in the gripping state, the state shifts to the normal state, and the target subjected to the cutting process is pasted.
  • the waypoint can be moved to the position where the release operation has been performed (see FIG. 10).
  • the symbol selection and cut processing can be performed with one action, and the paste destination position designation and the paste processing can be performed with one action. Therefore, compared with the method of Patent Document 1, a simple operation is realized.
  • FIG. 11 and FIG. 11 and 12 are diagrams showing display screens when performing pinpoint zoom.
  • the user when the user wants to obtain detailed information in the vicinity of a certain symbol, the user performs the pinch-out operation or the like to enlarge the entire chart. If necessary, it may be necessary to scroll to the vicinity of the corresponding symbol. Detailed information can be obtained by enlarging the entire nautical chart, but it is difficult to obtain overhead information. In addition, the user needs to return the nautical chart to an appropriate scale by performing a pinch-in operation or the like after obtaining necessary information.
  • the state is the normal state
  • the user performs a separation operation on the symbol for which detailed information is desired (see FIG. 11).
  • pinpoint zoom is performed on the symbol (see FIG. 12).
  • the state can be returned to the normal state by performing a gripping operation on the symbol S11. Since the scale of the chart is not changed before and after the pinpoint zoom state, it is not necessary to readjust the scale.
  • the touch panel device 11 may be configured to shift from the pinpoint zoom state to the normal state when a gripping operation is performed at an arbitrary position on the display screen.
  • the release operation performed with three fingers to perform pinpoint zoom is common to the pinch-out operation performed with two fingers in that two or more fingers are brought close to each other while touching the display screen.
  • the operation and the pinch-in operation are similarly similar). Therefore, by assigning the zoom function for enlarging the entire chart to the pinch-out operation and assigning the pinpoint zoom function to the release operation, an operation system that is intuitive and easy to understand for the user is realized.
  • the touch panel device 11 includes the display unit 21, the detection unit 24, and the control unit 25.
  • the display unit 21 displays the chart and the symbols indicating the waypoints arranged on the chart on the display screen.
  • the detection unit 24 detects three or more touches on the display screen and their touch positions.
  • the control unit 25 creates a region based on three or more touch positions detected by the detection unit 24, specifies a symbol located in the created region, and performs a cut process.
  • the area is created based on the touch positions of 3 points or more, but the area may be created based on the touch positions of 2 points or less or 4 points or more. Specific examples will be described below.
  • a circle centered on the touch position (radius is set in advance) can be set as the region.
  • a circle whose diameter is a line connecting two touch positions can be set as the region.
  • a graphic created by connecting all touch positions can be used as the region.
  • the cut processing or the pinpoint zoom processing is performed on the specified symbol, but the processing performed on the specified symbol is arbitrary, for example, a configuration in which copy processing or deletion is performed. Also good. Further, a configuration in which processing to be performed is set in advance or a configuration in which the user selects a symbol after specifying the symbol may be employed.
  • the gripping operation and the release operation are performed using touches of three or more points, but the gripping operation and the release operation may be performed based on touch positions of two points or less or four points or more. good.
  • the grabbing operation and the releasing operation are not essential, and it may be configured to create an area from the touch position and only specify the symbol.
  • a symbol can be specified based on a tapped position by performing a tap operation with three fingers (an operation that touches a finger for a moment), and an operation on the specified symbol can be performed using a physical key or the like. .
  • the touch panel device 11 of this embodiment is a general-purpose display device that receives and displays information from a large number of sensors, but the present invention is also applied to a display device that mainly displays one type of information (for example, chart information). can do. Further, for example, the present invention can be applied to a plotter device that can display a symbol on a chart and a radar device that can display a symbol on a radar image.
  • a display device that mainly displays one type of information (for example, chart information). can do.
  • the present invention can be applied to a plotter device that can display a symbol on a chart and a radar device that can display a symbol on a radar image.
  • the touch panel device may be a display device (navigation device or the like), a tablet PC, a smartphone, a portable information terminal, or the like that is mounted on a moving body such as an automobile or an aircraft, in addition to the display device that is mounted on a ship.
  • the present invention can be used to move a destination, a waypoint, and a predetermined point, as in the above embodiment.
  • the present invention can be used for selecting, moving, and cutting an icon for starting an application.
  • Marine Equipment Network System 10 Marine Network 11 Touch Panel Device (Device with Touch Panel) 12 GPS antenna (GNSS sensor) DESCRIPTION OF SYMBOLS 13 Radar antenna 14 Fish detector 15 Bow direction sensor 16 Automatic steering device 21 Display part 22 Operation part 23 Storage part 24 Detection part 25 Control part

Abstract

タッチパネル装置は、海図及び海図上に配置されたウェイポイントを示すシンボルを表示画面に表示する。タッチパネル装置は、表示画面への2点以上のタッチ及びそれらのタッチ位置を検出する。タッチパネル装置は、検出した2点以上のタッチ位置に基づいて領域を作成し、作成した領域内に位置するシンボルを特定し、当該シンボルに対してカット処理等を行う。

Description

タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、シンボル特定方法及びシンボル特定プログラム
 本発明は、主要には、画像及び画像上に配置されたシンボルを表示可能なタッチパネルを有する装置に関する。
 従来から、2点以上のタッチを認識可能なタッチパネルを有する装置(以下、単にタッチパネル装置と称することがある)が知られている。特許文献1には、この種のタッチパネル装置及びタッチパッド等について、タッチ操作の内容(タッチジェスチャ)に応じて所定の処理を行う方法及びその具体例が開示されている。
 特許文献1では、3点のタッチ(親指と人差し指と中指)を互いに近づけるように移動させるタッチジェスチャが例示されており、このタッチジェスチャに応じてカット処理を行う旨が記載されている。また、3点のタッチを互いに離すように移動させるタッチジェスチャも例示されており、このタッチジェスチャに応じてペースト処理を行う旨が記載されている(0174段落及び図29Eを参照)。
 また、0145段落、0146段落、及び0150段落には、タッチ操作によりコピー処理及びペースト処理を行う具体的な流れが記載されている。これらの説明によれば、ユーザは、初めに、タッチ操作又はマウスを用いて、コピーの対象を選択する。その後、ユーザは、コピー処理を行うためのタッチジェスチャを行う。次に、ユーザは、タッチ操作又はマウスを用いて、ペーストする位置を指定する。その後、ユーザは、ペースト処理を行うためのタッチジェスチャを行う。以上の操作を行うことにより、コピー処理及びペースト処理を行うことができる。
 また、タッチ操作により画面上のアイコン等を移動させる場合、アイコン等を所定時間以上タッチした後に、画面から手を離さずに移動させることでアイコンを移動させる方法が一般的に用いられている。
米国特許出願公開第2008/0036743号明細書
 しかし、特許文献1のコピー処理及びペースト処理は複数回の操作が必要となるため、処理を行う対象によっては、ユーザの手間となることがある。
 一方、所定時間以上のタッチを利用する操作では、ユーザは、所定時間が経過するまで待つ必要があるため、素早く操作を行うことができない。また、通常は所定時間未満のタッチは別の処理と対応付けられるため、アイコンを移動させるときに誤って他の処理が行われることがある。
 なお、上記の課題は、コピー処理やアイコンを移動させるときだけでなく、タッチ操作においてシンボル(アイコンやマーク等を含む概念)を選択して行う操作全般に共通するものである。
 本発明は以上の事情に鑑みてされたものであり、その目的は、簡単かつミスが起こりにくい操作で1又は複数のシンボルを選択可能なタッチパネル装置を提供することにある。
課題を解決するための手段及び効果
 本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段とその効果を説明する。
 本発明の第1の観点によれば、以下の構成のタッチパネルを有する装置が提供される。即ち、このタッチパネルを有する装置は、表示部と、検出部と、制御部と、を備える。前記表示部は、画像及び当該画像上に配置されたシンボルを表示画面に表示する。前記検出部は、前記表示画面への2点以上のタッチ及びそれらのタッチ位置を検出する。前記制御部は、前記検出部が検出した2点以上のタッチ位置に基づいて領域を作成し、作成した領域内に位置するシンボルを特定する。
 これにより、簡単かつミスが起こりにくい操作で1又は複数のシンボルを選択することができる。
 前記のタッチパネルを有する装置においては、前記制御部は、作成した領域内のシンボルのうち、当該領域の中心に最も近い1つのシンボルを、他のシンボルと区別して特定することが好ましい。
 これにより、簡単かつミスが起こりにくい操作で1つのシンボルを選択することができる。
 前記のタッチパネルを有する装置においては、前記制御部は、前記2点以上のタッチのそれぞれの最新のタッチ位置を領域の作成に用いるタッチ位置とすることが好ましい。
 これにより、ユーザは、表示画面へのタッチ後においてもタッチ位置を移動させて、選択するシンボルを調整することができる。
 前記のタッチパネルを有する装置においては、前記制御部は、前記検出部がタッチを検出しなくなった後も、前記最新のタッチ位置に基づいて作成した領域内に位置するシンボルの特定を維持することが好ましい。
 これにより、ユーザは表示画面をタッチし続けなくてもシンボルの特定が維持されるので、操作性を向上させることができる。
 前記のタッチパネルを有する装置においては、前記制御部は、特定したシンボルに対して、当該シンボルを切り取って一時的に保存するカット処理、又は、当該シンボルを複写するコピー処理を行うことが好ましい。
 これにより、ユーザは、簡単かつミスが起こりにくい操作で、カット処理又はコピー処理の対象のシンボルを指定することができる。
 前記のタッチパネルを有する装置においては、前記制御部は、2点以上のタッチ位置がシンボルに対して近づくようにタッチ操作がされたときに、当該シンボルの前記カット処理又は前記コピー処理を行うことが好ましい。
 これにより、ユーザは、他のタッチ操作と被りにくく、かつ直感的な操作でカット処理又はコピー処理の対象のシンボルを指定することができる。
 前記のタッチパネルを有する装置においては、前記制御部は、シンボルの前記カット処理又は前記コピー処理を行った後に、2点以上のタッチ位置が所定位置から離れるようにタッチ操作がされたときに、当該所定位置へシンボルを貼り付けるペースト処理を行うことが好ましい。
 これにより、ユーザは、他のタッチ操作と被りにくく、かつ直感的な操作でペースト先の位置を指定することができる。
 前記のタッチパネルを有する装置においては、前記制御部は、2点以上のタッチ位置がシンボルから離れるようにタッチ操作がされたときに、当該シンボルの周辺のみを拡大して前記表示部に表示する処理を行うことが好ましい。
 これにより、通常拡大処理が行われるピンチアウト操作(2点タッチしてそれぞれのタッチ位置が離れるようにする操作)と類似するタッチ操作でシンボル周辺のみを拡大して表示することができるので、ユーザは直感的な操作が可能となる。
 前記のタッチパネルを有する装置においては、以下の構成とすることが好ましい。即ち、このタッチパネルを有する装置は、海図情報を記憶する記憶部を備える。前記制御部は、GNSSセンサから受信した位置情報に基づいて自船の位置及びシンボルを海図上に表示する。
 これにより、簡単かつミスが起こりにくい操作でシンボルを特定できるという効果を舶用機器において発揮させることができる。
 本発明の別の観点によれば、前記のタッチパネルを有する装置を備えるレーダ装置、プロッタ装置、舶用ネットワークシステムがそれぞれ提供される。
 これにより、本発明の効果をレーダ装置、プロッタ装置、舶用ネットワークシステムにおいて発揮させることができる。
 本発明の第2の観点によれば、以下のシンボル特定方法が提供される。即ち、このシンボル特定方法は、表示工程と、検出工程と、制御工程と、を含む。前記表示工程では、画像及び当該画像上に配置されたシンボルを表示画面に表示する。前記検出工程では、前記表示画面への2点以上のタッチ及びそれらのタッチ位置を検出する。前記制御工程では、前記検出工程で検出した2点以上のタッチ位置に基づいて領域を作成し、作成した領域内に位置するシンボルを特定する。
 これにより、簡単かつミスが起こりにくい操作で1又は複数のシンボルを選択することができる。
 本発明の第3の観点によれば、以下の構成のシンボル特定プログラムが提供される。即ち、このシンボル特定プログラムは、コンピュータに、表示手順と、検出手順と、制御手順と、を実行させるためのプログラムである。前記表示手順では、画像及び当該画像上に配置されたシンボルを表示画面に表示する。前記検出手順では、前記表示画面への2点以上のタッチ及びそれらのタッチ位置を検出する。前記制御手順では、前記検出手順で検出した2点以上のタッチ位置に基づいて領域を作成し、作成した領域内に位置するシンボルを特定する。
 これにより、簡単かつミスが起こりにくい操作で1又は複数のシンボルを選択することができる。
 本発明の第4の観点によれば、以下の構成のタッチパネルを有する装置が提供される。即ち、このタッチパネルを有する装置は、表示部と、検出部と、制御部と、を備える。前記表示部は、画像及び当該画像上に配置されたシンボルを表示画面に表示する。前記検出部は、前記表示画面へのタッチ及びそれらのタッチ位置を検出する。前記制御部は、前記検出部が検出したタッチ位置に基づいて領域を作成し、作成した領域内に位置するシンボルを特定する。
 これにより、簡単かつミスが起こりにくい操作(1点のタッチによる操作も含む)で1又は複数のシンボルを選択することができる。
舶用機器ネットワークシステムの全体的な構成を示すブロック図。 タッチパネル装置の正面図。 掴み取り操作及び離し操作を説明する図。 掴み取り操作及び離し操作によって特定されるシンボルを示す図。 掴み取り操作及び離し操作によって特定されるシンボルの別の例を示す図。 各状態へ移行するために行う操作を説明する図。 通常状態においてシンボルに対して掴み取り操作を行ったときの表示画面を示す図。 掴み取り状態に移行したときの表示画面を示す図。 掴み取り状態において所定の位置へ離し操作を行った表示画面を示す図。 離し操作によって通常状態に戻ったときの表示画面を示す図。 通常状態においてシンボルに対して離し操作を行ったときの表示画面を示す図。 ピンポイントズーム状態の表示画面を示す図。
 次に、図面を参照して本発明の実施の形態を説明する。図1は、舶用機器ネットワークシステム1の全体的な構成を示すブロック図である。図2は、タッチパネル装置11の正面図である。
 本実施形態の舶用機器ネットワークシステム1は、舶用ネットワーク10に接続された複数の舶用機器等から構成される。舶用機器同士は、検出した情報等を、舶用ネットワーク10を介してやり取りすることができる。舶用ネットワーク10の規格としては、例えばLAN(Local Area Network)やCAN(Controller Area Network)を採用することができる。
 図1に示すように、本実施形態の舶用機器ネットワークシステム1は、タッチパネルを有する装置(以下、単にタッチパネル装置と称する)11と、GPSアンテナ(GNSSセンサ)12と、レーダアンテナ13と、魚群探知機(音響センサ)14と、船首方位センサ15と、自動操舵装置16と、を備えている。
 タッチパネル装置11は、他の舶用機器(センサ)が検出した情報に基づいて映像(センサ映像)を作成して表示するとともに、表示画面へのタッチ操作を検出して検出結果に応じた処理を行う構成である。具体的には、タッチパネル装置11は、表示部21と、操作部22と、記憶部23と、検出部24と、制御部25と、を備えている。
 表示部21は、液晶ディスプレイ等で構成されており、前述のように、センサ映像や、各種設定画面等を表示画面に表示することができる。
 操作部22は、例えば、時計回り又は反時計回りに回転させる操作が可能な回転キー、及び、メニュー画面を呼び出すためのメニューキー等のハードウェアキーで構成されている。なお、タッチパネル装置11は、画面へのタッチ操作により入力及び指示を行うことができるので、操作部22のキーの数を低減することができる。
 記憶部23は、制御部25が実行するプログラムの内容、海図情報、及びユーザに設定された航海ルート等を記憶している。
 検出部24は、ユーザによる画面へのタッチ操作を検出する。本実施形態では、タッチ操作を検出する方式として、投影型の静電容量方式を用いている。この方式は、ディスプレイパネル上に、透過性の高い複数の電極を配置しておき、指先がパネルに接近した際に発生する各電極の静電容量の変化に基づいて、タッチ位置を検出する構成である。この構成では、タッチされた位置だけでなく、タッチした状態での指の動き(タッチ位置の変化)も検出することができる。また、検出部24は、同時に2点以上タッチされている場合のそれぞれのタッチ位置及びタッチ位置の変化についても検出することができる。検出部24が検出したタッチ位置及びタッチ位置の変化は、制御部25へ出力される。なお、タッチ操作を検出する方式は投影型の静電容量方式に限られず、適宜の方式を用いることができる。また、指によるタッチ操作以外にも、例えば先細状の棒状の部材によるタッチ操作を検出する構成であっても良い。
 制御部25は、記憶部23の記憶内容及び他の舶用機器から受信した情報に基づいて前記センサ映像(レーダ映像や自船周囲の海図等)を作成し、表示部21に表示する。制御部25は、複数の舶用機器から情報を受信しており、複数のセンサ映像を作成する。制御部25は、この複数のセンサ映像のうち1つのみを表示画面に表示するモード(全画面モード)と、表示画面を分割して複数のセンサ映像を表示するモード(分割画面モード、図2を参照)と、を切替可能である。
 また、制御部25は、予め設定されたタッチ操作の内容(タッチジェスチャ)と、検出部24が検出したタッチ位置の変化と、のマッチングを行うことにより、ユーザがどのタッチジェスチャを行ったかを特定する。そして、制御部25は、特定したタッチジェスチャに対応付けられた処理を行う。
 タッチジェスチャの具体例としては、「ドラッグ操作」を挙げることができる。ドラッグ操作とは、タッチした指(通常は1本)を画面から離さずに所定の方向へ移動させるタッチジェスチャである。このドラッグ操作には、通常は、画像のスクロールが対応付けられている。なお、このドラッグ操作には、画面にタッチしたまま指を素早く動かす操作(フリック操作)等も含まれるものとする。また、タッチジェスチャの他の例としては、「ピンチ操作」を挙げることができる。ピンチ操作とは、タッチした2本の指を画面から離さずに、指同士を近づける(ピンチイン)又は離す(ピンチアウト)操作である。このピンチ操作には、通常は、画像の縮尺を変更する処理が対応付けられている。なお、制御部25は、上記で示した例以外にも様々なタッチジェスチャを特定することができる。
 GPSアンテナ12は、GPS衛星(GNSS衛星)からの測位信号を受信して、舶用ネットワーク10を介して、タッチパネル装置11等へ出力している。タッチパネル装置11の制御部25は、この測位信号に基づいて自船の位置(詳細には、GPSアンテナの位置、地球基準の絶対位置)を求めている。なお、測位信号から位置を求める演算をGPSアンテナ12側で行い、自船の位置をタッチパネル装置11へ出力する構成であっても良い。
 タッチパネル装置11は、求めた自船の位置と、記憶部23に記憶された海図情報と、に基づいて、航法装置としての機能を発揮することができる。具体的には、制御部25は、取得した自船の位置と、記憶部23に記憶した海図情報と、に基づいて、海図上に自船の位置を重畳して表示部21に表示することができる。また、制御部25は、時刻に応じて変化する自船の位置を利用して、対地船速を求めたり、自船の航跡を求めたりして表示部21に表示することができる。更に、制御部25は、ユーザのタッチ操作によって目的地及びウェイポイント(経由地)が選択されることにより、航海ルートを作成して表示部21に表示することができる(図2に示す第1センサ映像31を参照)。
 レーダアンテナ13は、マイクロ波の送信を行うとともに、物標からの反射波を受信する。この反射波は、適宜の信号処理が行われた後に、タッチパネル装置11へ出力される。タッチパネル装置11は、この反射波に基づいてレーダ映像を作成する。具体的には、タッチパネル装置11の制御部25は、マイクロ波を送信してから反射波を受信するまでの時間から、物標の距離を求める。また、制御部25は、マイクロ波を送信した方向に基づいて、物標が存在する方向を求める。制御部25は、このようにしてレーダ映像を作成して、表示部21に表示する(図2に示す第2センサ映像32を参照)。
 魚群探知機14は、振動子と、分析部と、から構成される。振動子は、船底等に設置され、海中の真下方向に向けて超音波を発射するとともに、海底又は魚群からの反射波を受信する。分析部は、反射波に基づいて、魚探データ(魚群探知機によって取得されるデータ、魚群や海底のデータ)を作成する。また、本実施形態の魚群探知機14は、取得した魚探データに基づいて、海底の状態(底質)を判定する機能を有している。具体的には、分析部は、受信した反射波を分析することで、海底が岩、礫(石)、砂、及び泥の何れの可能性が高いかを判定することができる。この魚探データ及び判別した底質は、タッチパネル装置11へ出力される。そして、タッチパネル装置11の制御部25は、受信したデータに基づいて第3センサ映像33を作成し(図2を参照)、表示部21に表示する。第3センサ映像33は、縦軸が魚探データを示し、横軸が魚探データを取得した時間(画面の左端に行くほど古くなる)を示している。
 船首方位センサ15は、自船の船首方向(船首が向いている方向)を、地球基準の絶対的な方位で検出するように構成されている。一般的に船舶は、船首方向へ向かって前進する。従って、船首方位センサ15は、船体の前進方向の方位を検出していると言うこともできる。船首方位センサ15は、例えば磁気方位センサや、GPSコンパス等を利用することができる。
 自動操舵装置16は、設定された航海ルートに沿って自船が移動するように舵の操作を自動的に行う装置である。具体的には、自動操舵装置16は、船首方位センサ15から取得した船首方位と、タッチパネル装置11から取得した航海ルートと、に基づいて、自船の船首をどれだけ変化させれば良いかを求める。そして、自動操舵装置16は、求めた値に応じて舵角を変化させることにより、自船の針路を航海ルートに一致させる。
 本実施形態の舶用機器ネットワークシステム1は、以上のように構成される。なお、舶用機器ネットワークシステム1を構成する舶用機器は任意であり、上記で説明した以外の舶用機器が接続される構成であっても良いし、同種の舶用機器が複数接続される構成であっても良い。また、舶用機器が取得したデータの処理は、当該舶用機器で行う構成であっても良いし、タッチパネル装置11の制御部25で行う構成であっても良い。
 次に、タッチ操作によりウェイポイントの位置を変更する方法について説明する。
 初めに、ウェイポイントの位置を変更するため等に用いられるタッチジェスチャである「掴み取り操作」と「離し操作」について図3を参照して説明する。図3は、掴み取り操作及び離し操作を説明する図である。図3には、第1タッチT1、第2タッチT2、第3タッチT3、及び、ウェイポイントを示すシンボルSが表示されている。図3(a)は、掴み取り操作を説明する図である。この図3(a)に示すように、掴み取り操作とは、3点のタッチ(例えば親指と人差し指と中指)をそれぞれシンボルSに近づけるように、かつ、それぞれのタッチ間の距離が小さくなるように移動させる操作である。一方、図3(b)は、離し操作を説明する図である。この図3(b)に示すように、離し操作とは、3点のタッチをそれぞれシンボルSから遠ざけるように、かつ、それぞれのタッチ間の距離が大きくなるように移動させる操作である。制御部25は、検出部24の検出結果に基づいて掴み取り操作又は離し操作を特定した場合、同時にこれらの操作の対象とするシンボルについても特定する。
 次に、図4及び図5を参照して、制御部25が掴み取り操作又は離し操作を特定した場合に、どのシンボルを操作対象として特定するかについて説明する。図4及び図5は、掴み取り操作及び離し操作によって特定されるシンボルを示す図である。本実施形態では、掴み取り操作を行った場合、3点のタッチのそれぞれについて、表示画面から指が離れる直前のタッチ位置(検出部24が検出した最新のタッチ位置、検出部24がタッチを検出できなくなる直前のタッチ位置)に基づいて領域が作成され、作成した領域内に位置するシンボルが操作対象として特定される。従って、例えば先に第1タッチT1が表示画面から離れ、次に第2タッチT2が離れた場合、第1タッチT1については当該第1タッチT1が表示画面から離れたときのタッチ位置が領域の作成に用いられ、第2タッチT2については当該第2タッチT2が表示画面から離れたときのタッチ位置が領域の作成に用いられる。一方、離し操作を行った場合、表示画面にタッチした直後のタッチ位置に基づいて領域が作成され、作成した領域内に位置するシンボルが特定される。なお、本実施形態では、検出部24がタッチを検出しなくなった後(表示画面から指が離れた後)でも、シンボルの特定を維持する構成である。
 また、領域の作成方法の具体例としては、例えば図4(a)に示すように、3点のタッチ位置を通る仮想円の中心C1に最も近いシンボルであるシンボルS1を特定することが考えられる。また、他の例として、図4(b)に示すように、3点のタッチ位置を結んだ仮想三角形の重心C2に最も近いシンボルであるシンボルS7を特定することが考えられる。上記した仮想的な図形及びその中心(重心を含む)等は、本実施形態では表示部21に表示していないが、表示するようにしても良い。
 なお、上記で示したシンボルの特定方法は一例であり、他の方法を種々挙げることができる。例えば、操作対象のシンボルを1つだけ特定するのではなく、図5(a)に示すように、3点のタッチ位置を通る仮想円の内部に位置するシンボルを全て特定する構成であっても良い。この場合、2つのシンボルS1,S2が操作対象として特定される。また、図5(b)に示すように、3点のタッチ位置から構成される仮想三角形を、例えば三角形の3辺のうち最も長い辺(第1タッチT1と第2タッチT2とを結んだ線)に関して反転させることで四角形の仮想領域を作成し、この内部に位置するシンボルを全て操作対象とする構成であっても良い。この場合、シンボルS5,S6,S7が特定される。更には、三角形を反転させることに代えて、三角形の3辺のうち最も長い辺の2等分点に関して180°回転させることで平行四辺形の仮想領域を作成し、内部のシンボルを全て操作対象としても良い。また、図5(a)及び図5(b)の場合においても勿論、上記した領域の中心を求めた上で、当該中心に近い1つのシンボルだけを特定するようにしても良い。
 次に、図6を参照して、本実施形態で設定される「状態」について説明する。図6は、各状態へ移行するために行う操作を説明する図である。制御部25は、掴み取り操作及び離し操作が行われた場合、そのときの状態に応じて異なる処理を行う。この状態には、通常状態と、掴み取り状態と、ピンポイントズーム状態と、が設定されている。図6に示すように、通常状態から掴み取り操作を行うことにより掴み取り状態に移行する。そして、この掴み取り状態から離し操作を行った場合又は所定時間が経過した場合に通常状態へ戻る。また、通常状態から離し操作を行うことによりピンポイントズーム状態に移行する。そして、このピンポイントズーム状態から掴み取り操作を行った場合又は所定時間が経過した場合に通常状態へ戻る。
 次に、掴み取り操作及び離し操作を使ってウェイポイントの位置を変更するためにユーザが行う操作、及び、ユーザの操作に応じて制御部が行う処理について図7から図9までを参照して説明する。図7から図9までは、ウェイポイントの位置を変更するときの表示画面を示す図である。
 図7には、前記第1センサ映像31が表示されている。この図7には、自船の位置を示す自船マーク40、前記ウェイポイントを示すシンボルS11,S12,S13が海図上に表示されている。また、ユーザが操作を行う前は、通常状態であるとする。ユーザは、ウェイポイントの変更を行う場合、変更を希望するウェイポイント(本実施形態ではシンボルS12)に対して掴み取り操作を行う(図7を参照)。
 通常状態で掴み取り操作を行った場合、状態が掴み取り状態へ移行するとともに、掴み取り操作の対象のシンボルについてカット処理が行われる。そのため、図8に示すように、シンボルS12の表示態様が変化するとともに、シンボルS12の前後の航海ルートが点線で表示される。なお、上記の表示態様に代えて、シンボルS12及びシンボルS12の前後の航海ルートを完全に非表示とする構成であっても良い。
 そして、ユーザは、シンボルS12の変更先の位置を決め、当該位置を中心として指を広げるように離し操作を行う(図9を参照)。掴み取り状態で離し操作を行った場合、状態が通常状態へ移行するとともに、カット処理を行った対象がペーストされる。これにより、離し操作を行った位置へウェイポイントを移動させることができる(図10を参照)。
 このように、本実施形態では、シンボルの選択及びカット処理をワンアクションで行えるとともに、ペースト先の位置の指定及びペースト処理についてもワンアクションで行うことができる。そのため、特許文献1の方法と比較して、簡単な操作を実現している。
 次に、図11及び図12を参照して、ピンポイントズームについて説明する。図11及び図12は、ピンポイントズームを行うときの表示画面を示す図である。
 一般的に、ユーザは、あるシンボルの近傍の詳細な情報を得たい場合、前記ピンチアウト操作等を行って、海図全体を拡大する。なお、必要に応じて該当するシンボルの近傍までスクロールする必要が生じることもある。海図全体を拡大することにより、詳細な情報を得ることができるが、俯瞰的な情報が得にくくなる。また、ユーザは、必要な情報の取得後にピンチイン操作等を行って海図を適切な縮尺に戻す必要がある。
 本実施形態では、この課題を解決するためにピンポイントズームが可能な構成となっている。ユーザは、状態が通常状態のときに、詳細な情報を得たいシンボルに対して離し操作を行う(図11を参照)。これにより、当該シンボルに対してピンポイントズームが行われる(図12を参照)。図12に示すように、ピンポイントズーム状態では、シンボルS11の近傍のみが拡大されているので、必要な情報を取得しつつ、俯瞰的な情報を得ることができる。また、このピンポイントズーム状態において、シンボルS11に対して掴み取り操作を行うことにより、状態を通常状態に戻すことができる。ピンポイントズーム状態の前後において海図の縮尺は変更されないため、縮尺の再調整も不要である。なお、タッチパネル装置11は、表示画面上の任意の位置に掴み取り操作を行った場合に、ピンポイントズーム状態から通常状態へ移行する構成であっても良い。
 なお、ピンポイントズームを行うために3本指で行う離し操作は、複数の指を表示画面に触れた状態で互いに近づけるという点で、2本指で行うピンチアウト操作と共通する(なお、掴み取り操作とピンチイン操作についても同様に類似している)。従って、海図全体を拡大するズーム機能をピンチアウト操作に割り当て、上記のピンポイントズーム機能を離し操作に割り当てることで、ユーザにとって直感的で理解が容易な操作体系が実現される。
 以上に示したように、タッチパネル装置11は、表示部21と、検出部24と、制御部25と、を備える。表示部21は、海図及び海図上に配置されたウェイポイントを示すシンボルを表示画面に表示する。検出部24は、表示画面への3点以上のタッチ及びそれらのタッチ位置を検出する。制御部25は、検出部24が検出した3点以上のタッチ位置に基づいて領域を作成し、作成した領域内に位置するシンボルを特定し、カット処理を行う。
 これにより、簡単かつミスが起こりにくい操作でシンボルのカット処理を行うことができる。
 以上に本発明の好適な実施の形態を説明したが、上記の構成は例えば以下のように変更することができる。
 上記実施形態では、3点以上のタッチ位置に基づいて領域を作成する構成であるが、2点以下又は4点以上のタッチ位置に基づいて領域を作成する構成であっても良い。以下、具体例を説明する。例えば1点の場合、タッチ位置を中心とする円(半径は予め設定されている)を領域とすることができる。また、2点の場合、2つのタッチ位置を結んだ線を直径とする円を領域とすることができる。また、4点以上の場合、全てのタッチ位置を結んで作成される図形を領域とすることができる。
 上記実施形態では、特定したシンボルに対してカット処理又はピンポイントズーム処理を行う構成であるが、特定したシンボルに対して行う処理は任意であり、例えばコピー処理や削除が行われる構成であっても良い。また、行う処理を予め設定しておく構成や、シンボルの特定後にユーザに選択させる構成であっても良い。
 上記実施形態では、3点以上のタッチを用いて掴み取り操作及び離し操作を行う構成であるが、2点以下又は4点以上のタッチ位置に基づいて掴み取り操作及び離し操作を行う構成であっても良い。
 掴み取り操作及び離し操作は必須ではなく、タッチ位置から領域を作成してシンボルの特定のみを行う構成であっても良い。例えば、指3本でタップ操作(一瞬だけ指を接触させる操作)を行うことでタップした位置に基づいてシンボルが特定され、特定されたシンボルに対する操作を物理キー等によって行う構成とすることができる。
 上記実施形態では、GNSSの一例としてGPSを用いた実施例を説明したが、他のGNSSを用いる構成であっても良いことは勿論である。
 本実施形態のタッチパネル装置11は、多数のセンサから情報を受信して表示する汎用型の表示装置であるが、主として1種類の情報(例えば海図情報)を表示する表示装置にも本発明を適用することができる。また、例えば、海図上にシンボルを表示可能なプロッタ装置や、レーダ映像上にシンボルを表示可能なレーダ装置等にも本発明を適用することができる。
 タッチパネル装置は、船舶に搭載される表示装置以外にも、自動車及び航空機等の移動体に搭載される表示装置(ナビゲーション装置等)、タブレットPC、スマートフォン、及び携帯情報端末等であっても良い。例えばナビゲーション装置では、上記実施形態と同様に、目的地、経由地、及び所定のポイントを移動させるため等に本発明を用いることができる。また、タブレットPC等では、アプリケーションを起動するためのアイコンの選択、移動、カット処理等に本発明を用いることができる。
 1 舶用機器ネットワークシステム
 10 舶用ネットワーク
 11 タッチパネル装置(タッチパネルを有する装置)
 12 GPSアンテナ(GNSSセンサ)
 13 レーダアンテナ
 14 魚群探知機
 15 船首方位センサ
 16 自動操舵装置
 21 表示部
 22 操作部
 23 記憶部
 24 検出部
 25 制御部

Claims (15)

  1.  画像及び当該画像上に配置されたシンボルを表示画面に表示する表示部と、
     前記表示画面への2点以上のタッチ及びそれらのタッチ位置を検出する検出部と、
     前記検出部が検出した2点以上のタッチ位置に基づいて領域を作成し、作成した領域内に位置するシンボルを特定する制御部と、
    を備えることを特徴とするタッチパネルを有する装置。
  2.  請求項1に記載のタッチパネルを有する装置であって、
     前記制御部は、作成した領域内のシンボルのうち、当該領域の中心に最も近い1つのシンボルを、他のシンボルと区別して特定することを特徴とするタッチパネルを有する装置。
  3.  請求項1に記載のタッチパネルを有する装置であって、
     前記制御部は、前記2点以上のタッチのそれぞれの最新のタッチ位置を領域の作成に用いるタッチ位置とすることを特徴とするタッチパネルを有する装置。
  4.  請求項3に記載のタッチパネルを有する装置であって、
     前記制御部は、前記検出部がタッチを検出しなくなった後も、前記最新のタッチ位置に基づいて作成した領域内に位置するシンボルの特定を維持することを特徴とするタッチパネルを有する装置。
  5.  請求項1に記載のタッチパネルを有する装置であって、
     前記制御部は、特定したシンボルに対して、当該シンボルを切り取って一時的に保存するカット処理、又は、当該シンボルを複写するコピー処理を行うことを特徴とするタッチパネルを有する装置。
  6.  請求項5に記載のタッチパネルを有する装置であって、
     前記制御部は、2点以上のタッチ位置がシンボルに対して近づくようにタッチ操作がされたときに、当該シンボルの前記カット処理又は前記コピー処理を行うことを特徴とするタッチパネルを有する装置。
  7.  請求項6に記載のタッチパネルを有する装置であって、
     前記制御部は、シンボルの前記カット処理又は前記コピー処理を行った後に、2点以上のタッチ位置が所定位置から離れるようにタッチ操作がされたときに、当該所定位置へシンボルを貼り付けるペースト処理を行うことを特徴とするタッチパネルを有する装置。
  8.  請求項1に記載のタッチパネルを有する装置であって、
     前記制御部は、2点以上のタッチ位置がシンボルから離れるようにタッチ操作がされたときに、当該シンボルの周辺のみを拡大して前記表示部に表示する処理を行うことを特徴とするタッチパネルを有する装置。
  9.  請求項1に記載のタッチパネルを有する装置であって、
     海図情報を記憶する記憶部を備え、
     前記制御部は、GNSSセンサから受信した位置情報に基づいて自船の位置及びシンボルを海図上に表示することを特徴とするタッチパネルを有する装置。
  10.  請求項9に記載のタッチパネルを有する装置を備えることを特徴とするレーダ装置。
  11.  請求項9に記載のタッチパネルを有する装置を備えることを特徴とするプロッタ装置。
  12.  請求項9に記載のタッチパネルを有する装置を備えることを特徴とする舶用ネットワークシステム。
  13.  画像及び当該画像上に配置されたシンボルを表示画面に表示する表示工程と、
     前記表示画面への2点以上のタッチ及びそれらのタッチ位置を検出する検出工程と、
     前記検出工程で検出した2点以上のタッチ位置に基づいて領域を作成し、作成した領域内に位置するシンボルを特定する制御工程と、
    を含むことを特徴とするシンボル特定方法。
  14.  コンピュータに、
     画像及び当該画像上に配置されたシンボルを表示画面に表示する表示手順と、
     前記表示画面への2点以上のタッチ及びそれらのタッチ位置を検出する検出手順と、
     前記検出手順で検出した2点以上のタッチ位置に基づいて領域を作成し、作成した領域内に位置するシンボルを特定する制御手順と、
    を実行させるためのシンボル特定プログラム。
  15.  画像及び当該画像上に配置されたシンボルを表示画面に表示する表示部と、
     前記表示画面へのタッチ及びそれらのタッチ位置を検出する検出部と、
     前記検出部が検出したタッチ位置に基づいて領域を作成し、作成した領域内に位置するシンボルを特定する制御部と、
    を備えることを特徴とするタッチパネルを有する装置。
PCT/JP2011/005580 2011-10-03 2011-10-03 タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、シンボル特定方法及びシンボル特定プログラム WO2013051050A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/349,320 US9891728B2 (en) 2011-10-03 2011-10-03 Device having touch panel, radar apparatus, plotter apparatus, ship network system, symbol specifying method and symbol specifying program
PCT/JP2011/005580 WO2013051050A1 (ja) 2011-10-03 2011-10-03 タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、シンボル特定方法及びシンボル特定プログラム
CN201180073968.1A CN103858078B (zh) 2011-10-03 2011-10-03 具有触摸板的装置、雷达装置、标绘装置、船用网络系统、标记确定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/005580 WO2013051050A1 (ja) 2011-10-03 2011-10-03 タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、シンボル特定方法及びシンボル特定プログラム

Publications (1)

Publication Number Publication Date
WO2013051050A1 true WO2013051050A1 (ja) 2013-04-11

Family

ID=48043248

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/005580 WO2013051050A1 (ja) 2011-10-03 2011-10-03 タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、シンボル特定方法及びシンボル特定プログラム

Country Status (3)

Country Link
US (1) US9891728B2 (ja)
CN (1) CN103858078B (ja)
WO (1) WO2013051050A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020194449A (ja) * 2019-05-29 2020-12-03 富士ゼロックス株式会社 画像表示装置、及び画像表示プログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106033300B (zh) * 2015-03-10 2019-07-26 联想(北京)有限公司 一种控制方法及电子设备
CN110531892A (zh) * 2019-08-20 2019-12-03 苏州三星电子电脑有限公司 位置检测模块、显示屏和电脑

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002324241A (ja) * 2001-04-26 2002-11-08 Todaka Seisakusho:Kk 電子海図表示装置
JP3867226B2 (ja) * 2000-02-15 2007-01-10 株式会社 ニューコム 複数の指示部位で操作可能なタッチパネルシステム
JP2011175310A (ja) * 2010-02-23 2011-09-08 Panasonic Corp 情報処理装置および情報処理システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070177804A1 (en) 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
JP5101373B2 (ja) 2007-04-10 2012-12-19 古野電気株式会社 情報表示装置
JP5072576B2 (ja) * 2007-12-20 2012-11-14 アルパイン株式会社 画像表示方法および画像表示装置
DE112008004156B4 (de) 2008-12-15 2021-06-24 Hewlett-Packard Development Company, L.P. System und verfahren für einen gestenbasierten editiermodus und computerlesbares medium hierfür
KR101525760B1 (ko) * 2009-02-26 2015-06-04 삼성전자주식회사 통화 기능 지원을 위한 사용자 인터페이스 및 이를 지원하는 휴대 단말기
JP5326802B2 (ja) 2009-05-19 2013-10-30 ソニー株式会社 情報処理装置、画像拡大縮小方法及びそのプログラム
CN101937302A (zh) * 2009-06-29 2011-01-05 台均科技(深圳)有限公司 输入位置信息与显示信息匹配的方法及装置
CN102023786A (zh) * 2009-09-23 2011-04-20 韩鼎楠 一套人机交互方法及结构
US20110242136A1 (en) * 2010-03-31 2011-10-06 Denso Corporation Map display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3867226B2 (ja) * 2000-02-15 2007-01-10 株式会社 ニューコム 複数の指示部位で操作可能なタッチパネルシステム
JP2002324241A (ja) * 2001-04-26 2002-11-08 Todaka Seisakusho:Kk 電子海図表示装置
JP2011175310A (ja) * 2010-02-23 2011-09-08 Panasonic Corp 情報処理装置および情報処理システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020194449A (ja) * 2019-05-29 2020-12-03 富士ゼロックス株式会社 画像表示装置、及び画像表示プログラム
JP7314622B2 (ja) 2019-05-29 2023-07-26 富士フイルムビジネスイノベーション株式会社 画像表示装置、及び画像表示プログラム

Also Published As

Publication number Publication date
CN103858078B (zh) 2017-07-14
US20140237409A1 (en) 2014-08-21
CN103858078A (zh) 2014-06-11
US9891728B2 (en) 2018-02-13

Similar Documents

Publication Publication Date Title
US9678578B2 (en) Device having touch panel, display control program and display control method
WO2013121459A1 (ja) 情報表示装置、表示モード切替方法及び表示モード切替プログラム
WO2013051047A1 (ja) 表示装置、表示プログラム、及び表示方法
US9500485B2 (en) Device and method for displaying information
WO2013051051A1 (ja) タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、情報表示方法、及び情報表示プログラム
WO2013051049A1 (ja) タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、視点変更方法及び視点変更プログラム
WO2013051046A1 (ja) タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、情報表示方法及び情報表示プログラム
JP6000524B2 (ja) 魚探映像表示装置、魚群探知装置、目的地指定プログラム、及び目的地指定方法
JP2012230588A (ja) 情報表示装置、情報表示方法、及び情報表示プログラム
WO2013051052A1 (ja) 情報表示装置、情報表示方法及び情報表示プログラム
WO2013051050A1 (ja) タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、シンボル特定方法及びシンボル特定プログラム
JP6842565B2 (ja) 海図表示装置、海図表示方法、及び海図表示プログラム
WO2013051054A1 (ja) タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、情報表示方法及び情報表示プログラム
US11592296B2 (en) Nautical chart display device, nautical chart display method, and nautical chart display program
WO2021161691A1 (ja) 海図表示装置、海図表示方法、プログラム、及び観察補助具
JP6235098B2 (ja) 船舶用情報表示装置、船舶用情報表示方法及び船舶用情報表示プログラム
JP6038255B2 (ja) 船舶用情報表示装置、船舶用情報表示方法及び船舶用情報表示プログラム
JP5815145B2 (ja) 船舶用情報表示装置、船舶用情報表示方法及び船舶用情報表示プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11873683

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14349320

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11873683

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP