WO2013183765A1 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
WO2013183765A1
WO2013183765A1 PCT/JP2013/065849 JP2013065849W WO2013183765A1 WO 2013183765 A1 WO2013183765 A1 WO 2013183765A1 JP 2013065849 W JP2013065849 W JP 2013065849W WO 2013183765 A1 WO2013183765 A1 WO 2013183765A1
Authority
WO
WIPO (PCT)
Prior art keywords
movement amount
touch
cursor
information
display device
Prior art date
Application number
PCT/JP2013/065849
Other languages
English (en)
French (fr)
Inventor
憲和 奈良
克哉 松雪
阿部 憲幸
Original Assignee
クラリオン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クラリオン株式会社 filed Critical クラリオン株式会社
Priority to EP19171352.8A priority Critical patent/EP3553639A1/en
Priority to CN201380030082.8A priority patent/CN104335148B/zh
Priority to US14/406,055 priority patent/US9613593B2/en
Priority to EP13799850.6A priority patent/EP2860615B1/en
Publication of WO2013183765A1 publication Critical patent/WO2013183765A1/ja
Priority to US15/439,030 priority patent/US10528311B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/85Arrangements for transferring vehicle- or driver-related data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1415Digital output to display device ; Cooperation and interconnection of the display device with other functional units with means for detecting differences between the image stored in the host and the images displayed on the displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • B60K2360/1442Emulation of input devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/184Displaying the same information on different displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/55Remote control arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/55Remote control arrangements
    • B60K2360/56Remote control arrangements using mobile devices
    • B60K2360/563Vehicle displaying mobile device information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/55Remote control arrangements
    • B60K2360/56Remote control arrangements using mobile devices
    • B60K2360/566Mobile devices displaying vehicle information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/55Remote control arrangements
    • B60K2360/56Remote control arrangements using mobile devices
    • B60K2360/569Vehicle controlling mobile device functions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/55Remote control arrangements
    • B60K2360/56Remote control arrangements using mobile devices
    • B60K2360/573Mobile devices controlling vehicle functions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/589Wireless data transfers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0383Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • the present invention relates to a display device.
  • the display device is connected to an information terminal, and receives an image receiving unit that receives image information of a screen including a cursor from the information terminal, and image information received by the image receiving unit.
  • a touch panel that displays a screen based on the touch screen and detects a touch position designated by a touch operation, and a transmission unit that transmits movement amount information corresponding to the movement amount from the cursor display position to the touch position to the information terminal.
  • the transmitting unit further transmits button operation information indicating that a predetermined button operation has been performed to the information terminal.
  • the transmission unit transmits the cursor from the display position of the cursor to the touch position. It is preferable to transmit the button operation information together with the movement amount information indicating that the movement amount is 0 after transmitting the movement amount information corresponding to the movement amount.
  • the transmission unit starts from the display position of the cursor.
  • the button operation information a plurality of times together with the movement amount information indicating that the movement amount is 0 after transmitting the movement amount information corresponding to the movement amount to the touch position.
  • the transmission unit moves from the cursor display position to the touch position. After the movement amount information corresponding to the movement amount is transmitted, when the touch operation is continued, the button operation information is transmitted together with the movement amount information indicating the movement amount according to the change in the touch position. It is preferable to transmit movement amount information indicating that the movement amount is zero.
  • the transmission unit when the touch operation is continued for a predetermined time or more without changing the touch position, the transmission unit displays the cursor.
  • the transmission unit transmits the movement amount information using a communication format for a mouse in Bluetooth or USB. Is preferred.
  • a display device is connected to an information terminal having a display monitor, and receives an image reception unit that receives image information of a screen including a cursor from the information terminal, and is received by the image reception unit.
  • a touch panel that displays a screen based on the image information and detects a touch position specified by a touch operation, a resolution information receiving unit that receives resolution information of a display monitor from an information terminal, and a resolution information receiving unit.
  • a conversion coefficient calculation unit that calculates a conversion coefficient according to the resolution ratio of the display monitor with respect to the touch panel based on the resolution information obtained in advance and the touch panel resolution stored in advance, and a movement amount from the cursor display position to the touch position.
  • the movement calculated by the movement amount calculation unit Comprising a conversion unit for converting the movement amount on the display monitor, and a transmission section for transmitting the movement amount information indicating the amount of movement which is converted into the information terminal by the conversion unit.
  • the conversion coefficient calculation unit calculates the conversion coefficient with respect to the horizontal direction and the vertical direction of the touch panel, respectively, and the movement amount calculation unit includes the touch panel The amount of movement from the cursor display position to the touch position is calculated for each of the horizontal direction and the vertical direction, and the conversion unit uses the horizontal conversion coefficient to calculate the movement amount in the horizontal direction of the touch panel on the display monitor.
  • the display device is connected to an information terminal, and receives an image information of a screen including a cursor displayed at a predetermined reference position from the information terminal, and an image A touch panel that displays a screen based on image information received by the receiving unit and detects a touch position designated by a touch operation, and information on the amount of movement according to the amount of movement from the cursor display position to the touch position And a transmission unit for transmitting to.
  • This display device returns the display position of the cursor to the reference position after the end of the touch operation.
  • the transmission unit respectively sets a predetermined maximum movement amount or minimum movement amount with respect to the horizontal direction and the vertical direction of the touch panel. It is preferable to return the display position of the cursor to the reference position by transmitting the movement amount information shown to the information terminal.
  • the indication point of the cursor is located at the end of the cursor, and the reference position is from the center of the cursor to the indication point on the touch panel. It is preferably located at the end in the opposite direction to the direction toward.
  • a display device is connected to an information terminal, displays an image receiving unit that receives an image from the information terminal, displays an image received by the image receiving unit, and performs a touch operation.
  • a touch panel for detecting a designated touch position. In response to the touch operation, the display device moves the cursor displayed on the outer peripheral portion of the touch panel to the touch position, and returns the cursor to the original position after the touch operation is completed.
  • the display device has movement amount information indicating a predetermined maximum movement amount or a minimum movement amount with respect to the horizontal direction and the vertical direction of the touch panel after the touch operation, respectively. Is preferably returned to the reference position by transmitting to the information terminal.
  • the indication point of the cursor is located at the upper left corner of the cursor, and the cursor is touched before and after the start of the touch operation. Is preferably displayed at the lower right corner.
  • the information terminal when the display screen of the information terminal to which the touch panel operation is applied is displayed on the display device, the information terminal can be operated from the display device.
  • FIG. 1 It is a figure which shows the structure of the vehicle-mounted information system by one embodiment of this invention. It is a block diagram which shows the structure of a vehicle-mounted apparatus and a portable terminal. It is a figure which shows schematic structure of the software in a portable terminal. It is a figure explaining operation
  • FIG. 1 is a diagram showing a configuration of an in-vehicle information system according to an embodiment of the present invention.
  • the in-vehicle information system shown in FIG. 1 is used by being mounted on a vehicle, and the in-vehicle device 1 and the mobile terminal 2 are connected to each other by short-range wireless communication and wired communication via the video / audio cable 3. It is realized by.
  • the in-vehicle device 1 is fixed in the vehicle, and is installed, for example, in an instrument panel of the vehicle.
  • the mobile terminal 2 is a portable information terminal that can be carried by a user, and is, for example, a mobile phone or a smartphone.
  • Bluetooth can be used for short-range wireless communication performed between the in-vehicle device 1 and the mobile terminal 2.
  • HDMI High Definition Multimedia Interface
  • the display unit 11 is provided in the in-vehicle device 1.
  • the display unit 11 is a touch panel capable of displaying various images and videos, and is configured by combining, for example, a resistive film type touch panel switch and a liquid crystal display.
  • the user can cause the mobile terminal 2 to execute a desired function by touching an arbitrary position on the display unit 11 with a finger or the like and specifying an icon, an operation button, or the like displayed at the position.
  • an in-vehicle device 1 may further include an operation switch corresponding to a predetermined operation.
  • the mobile terminal 2 is provided with a display unit 21.
  • the display unit 21 is a touch panel that can display various images and videos, and is configured by combining, for example, a capacitive touch panel switch and a liquid crystal display.
  • the user can cause the portable terminal 2 to execute a desired function by touching an arbitrary position on the display unit 21 with a finger or the like according to the content of the image or video displayed on the display unit 21.
  • the display part 21 as the touch panel was demonstrated here, it is good also as a normal display monitor which is not a touch panel. In that case, it is preferable to provide the portable terminal 2 with various operation switches according to the contents of the process executed by the portable terminal 2.
  • the display unit 21 may be a touch panel display monitor, and an operation switch corresponding to a predetermined operation may be provided in the mobile terminal 2.
  • FIG. 2 is a block diagram showing the configuration of the in-vehicle device 1 and the portable terminal 2.
  • the in-vehicle device 1 includes a control unit 10, a display unit 11, an operation unit 12, an audio output unit 13, a memory unit 14, a short-range wireless communication interface unit 15, and a video / audio signal input unit 16.
  • the portable terminal 2 includes a control unit 20, a display unit 21, an operation unit 22, an audio output unit 23, a memory unit 24, a short-range wireless communication interface unit 25, a video / audio signal output unit 26, a wireless communication unit 27, and a GPS. (Global Positioning System)
  • the receiving unit 28 is included.
  • control unit 10 includes a microprocessor, various peripheral circuits, a RAM, a ROM, and the like, and executes various processes based on a control program recorded in the memory unit 14. By the processing performed by the control unit 10, various image display processing, audio output processing, and the like are executed.
  • control unit 10 acquires a vehicle speed signal and a parking signal output from the vehicle. Based on the vehicle speed signal and the parking signal, the control unit 10 determines whether the traveling state of the vehicle is traveling or stopped.
  • the output of the vehicle speed signal and the parking signal from the vehicle to the control unit 10 is, for example, a vehicle speed mounted on the vehicle via a CAN (Controller Area Network) (not shown) that is a communication network provided in the vehicle. This is done by outputting a vehicle speed pulse from the sensor.
  • CAN Controller Area Network
  • the display unit 11 is a display monitor configured by a liquid crystal display or the like as described above with reference to FIG.
  • the operation unit 12 is a part for detecting a user's touch operation on the display unit 11 and corresponds to the touch panel switch described above.
  • the display unit 11 and the operation unit 12 are shown separately, but actually they are integrated to form one touch panel.
  • the operation switch is also included in the operation unit 12.
  • the content of the user input operation performed on the operation unit 12 is output to the control unit 10 and reflected in the processing performed by the control unit 10.
  • the sound output unit 13 includes an amplifier, a speaker, and the like, and can output various sounds under the control of the control unit 10. For example, music that reproduces music data read from the portable terminal 2 or a recording medium (not shown), guidance voice for guiding the vehicle to the destination, and the like are output from the voice output unit 13.
  • the memory unit 14 is a non-volatile data storage device, and is realized by, for example, an HDD (hard disk drive) or a flash memory.
  • the memory unit 14 stores various data such as the above-described control program used in the control unit 10, for example. Reading and writing of data in the memory unit 14 is performed as necessary under the control of the control unit 10.
  • the short-range wireless communication interface unit 15 performs a wireless interface process required when performing short-range wireless communication with the mobile terminal 2 under the control of the control unit 10. For example, the information output from the control unit 10 is converted into a predetermined radio signal format and transmitted to the mobile terminal 2, or the information output from the mobile terminal 2 in the predetermined radio signal format is received and sent to the control unit 10. Or output. Interface processing by the short-range wireless communication interface unit 15 is performed according to a predetermined communication standard such as Bluetooth.
  • the video / audio signal input unit 16 receives a video signal and an audio signal input from the portable terminal 2 via the video / audio cable 3, and uses these signals for image (video) data for screen display and audio output. Each is converted into audio data and output to the control unit 10.
  • the control unit 10 controls the display unit 11 to display an image based on the image data on the display unit 11.
  • the audio output unit 13 is controlled to cause the audio output unit 13 to output audio based on the audio data.
  • control unit 20 is configured by a microprocessor, various peripheral circuits, RAM, ROM, and the like, similar to the control unit 10 of the in-vehicle device 1, and is stored in a control program recorded in the memory unit 24. Various processes are executed based on the above.
  • the display unit 21 is a touch panel display monitor as described above.
  • the operation unit 22 is a part for detecting a user input operation.
  • the display unit 21 and the operation unit 22 are shown as separate configurations, but actually, like the display unit 11 described above, the display unit 21 and the operation unit 22 are integrated to form a single touch panel. It is composed.
  • the operation switch is also included in the operation unit 22.
  • the content of the user input operation performed on the operation unit 22 is output to the control unit 20 and reflected in the processing performed by the control unit 20.
  • the audio output unit 23 includes an amplifier, a speaker, and the like, and can output various types of audio under the control of the control unit 20. For example, when a call is made using the mobile terminal 2, the voice of the other party is output from the voice output unit 23.
  • the memory unit 24 is a non-volatile data storage device similar to the memory unit 14 of the in-vehicle device 1, and stores various data to be used in the processing of the control unit 20.
  • the memory unit 24 stores various application programs (hereinafter simply referred to as applications) acquired by the user in advance. The user can implement various functions in the mobile terminal 2 by selecting any one of the various applications stored in the memory unit 24 and causing the control unit 20 to execute the selected application.
  • the short-range wireless communication interface unit 25 performs a wireless interface process based on a predetermined communication standard, similarly to the short-range wireless communication interface unit 15 of the in-vehicle device 1. That is, information communication between the in-vehicle device 1 and the mobile terminal 2 is realized by the short-range wireless communication interface unit 15 and the short-range wireless communication interface unit 25 exchanging information with each other through wireless communication.
  • the video / audio signal output unit 26 converts the image (video) and audio generated by the control unit 20 into a video signal and an audio signal according to a predetermined communication standard such as HDMI, respectively, and the video / audio cable 3 To the in-vehicle device 1 via
  • a predetermined communication standard such as HDMI, respectively
  • the video signal and the audio signal are input to the video / audio signal input unit 16 in the in-vehicle device 1
  • the same image (screen) displayed on the display unit 21 in the mobile terminal 2 is displayed on the display unit of the in-vehicle device 1.
  • 11 is also displayed.
  • the same sound that is output from the sound output unit 23 in the portable terminal 2 is also output from the sound output unit 13 of the in-vehicle device 1.
  • Such a function is called video mirroring.
  • the wireless communication unit 27 performs wireless communication for connecting the mobile terminal 2 to another mobile terminal or a server via a wireless communication network (not shown).
  • the portable terminal 2 can make a call with another portable terminal or download an arbitrary application from the server by wireless communication performed by the wireless communication unit 27.
  • a wireless communication performed by the wireless communication unit 27 for example, a cellular phone network or an Internet network via a wireless LAN can be used as the wireless communication network.
  • the GPS receiver 28 receives a GPS signal transmitted from a GPS satellite and outputs it to the controller 20.
  • the GPS signal includes information on the position and transmission time of the GPS satellite that transmitted the GPS signal as information for obtaining the current position and the current time of the mobile terminal 2. Accordingly, by receiving GPS signals from a predetermined number or more of GPS satellites, the control unit 20 can calculate the current position and the current time based on these pieces of information.
  • This in-vehicle information system has a cooperation function between the in-vehicle device 1 and the mobile terminal 2.
  • the in-vehicle device 1 performs image display and audio output according to the application. be able to.
  • the user's operation performed on the in-vehicle device 1 can be reflected in the operation of the application executed on the mobile terminal 2.
  • navigation processing for guiding the vehicle to the destination can be performed.
  • a map screen on which a map in the vicinity of the current position is drawn is created on the mobile terminal 2, and image information representing the map screen is sent from the video / audio signal output unit 26 to the video / audio cable from the video signal described above. 3 to the video / audio signal input unit 16.
  • a map screen is transmitted from the portable terminal 2 to the in-vehicle device 1 so that the map screen near the current position can be displayed on the display unit 11 of the in-vehicle device 1.
  • the recommended route from the current position of the vehicle to the set destination is set as the departure point.
  • Search in the portable terminal 2. When the vehicle approaches a guidance point on the recommended route, a guidance voice corresponding to the traveling direction of the vehicle at the guidance point is transmitted from the mobile terminal 2 to the in-vehicle device 1. Thereby, the guidance voice can be output from the voice output unit 13 of the in-vehicle device 1. At this time, a predetermined signal may be output from the mobile terminal 2 to the in-vehicle device 1 according to the start and end timings of the guidance voice output.
  • the in-vehicle device 1 can drive the vehicle to the destination without the user getting lost. To notify the user.
  • various data such as map data necessary for the mobile terminal 2 to execute the navigation application may be stored in advance in the memory unit 24 of the mobile terminal 2.
  • the wireless communication unit 27 is used to connect to a predetermined server and the necessary data is stored. You may make it acquire each time.
  • the mobile terminal 2 executes an application selected by the user among a plurality of applications including the navigation application as described above.
  • the user can select an application to be executed by the mobile terminal 2 by operating the operation unit 22 and selecting a desired application on the menu screen displayed on the display unit 21 of the mobile terminal 2.
  • On this menu screen for example, icons of applications that can use the cooperation function are displayed side by side.
  • an application corresponding to the icon is executed on the mobile terminal 2.
  • the mobile terminal 2 transmits a menu screen to the in-vehicle device 1 by the video signal from the video / audio signal output unit 26.
  • the in-vehicle device 1 displays a menu screen on the display unit 11 based on the video signal transmitted from the mobile terminal 2.
  • operation information corresponding to the touch operation is transmitted from the in-vehicle device 1 to the portable terminal by the short-range wireless communication interface unit 15. 2 is transmitted.
  • the operation information transmitted from the in-vehicle device 1 is received by the short-range wireless communication interface unit 25 in the mobile terminal 2 and output to the control unit 20. Based on the operation information received in this way, the control unit 20 recognizes which application is selected by the user in the in-vehicle device 1 and executes the application. Thereby, the user can select a desired application in the in-vehicle device 1 and cause the mobile terminal 2 to execute the same as in the case where the menu screen displayed on the display unit 21 of the mobile terminal 2 is used.
  • control unit 20 can execute each application in the foreground or the background.
  • the application When executed in the foreground, the application is a target of image display or operation input in the in-vehicle device 1 and the portable terminal 2.
  • the process according to the application is executed by the control unit 20, but the application is not subjected to image display or operation input in the in-vehicle device 1 and the portable terminal 2.
  • audio may be output from an application executing in the background.
  • an application called an application manager is installed in the mobile terminal 2 in advance and stored in the memory unit 24. That is, the memory unit 24 stores a plurality of applications including an application manager.
  • the application manager is read from the memory unit 24 and executed by the control unit 20.
  • FIG. 3 is a diagram showing a schematic configuration of software in the mobile terminal 2.
  • the application manager 201 includes a sub application Ma and a sub application Ms.
  • the sub application Ma has a launcher function for starting an application other than the application manager 201 and a restriction information acquisition function for acquiring restriction information of each application.
  • the control unit 20 can use these functions by executing the sub application Ma in the foreground. For example, it is possible to call another application using the launcher function, and cause the control unit 20 to execute the application in the foreground instead of the sub application Ma.
  • restriction information acquisition function restriction information indicating the contents of operation restriction during traveling of the vehicle for each application stored in the memory unit 24 can be obtained from the memory unit 24, an external server, or the like.
  • the sub application Ms has a communication function for connecting the mobile terminal 2 to the in-vehicle device 1 and an operation restriction function for restricting the operation while the vehicle is running.
  • the control unit 20 can use these functions by executing the sub application Ms in the background. For example, it is possible to execute a communication process for transmitting and receiving information necessary for cooperation between the mobile terminal 2 and the in-vehicle device 1 using the communication function.
  • the restriction information acquired by the sub-application Ma using the restriction information acquisition function is referred to, and the contents of the operation restriction while the vehicle is running for the application being executed in the foreground are determined. can do.
  • the restriction information indicating the determination result is transmitted from the portable terminal 2 to the in-vehicle device 1 by the communication function, and is used when the in-vehicle device 1 performs operation restriction during traveling of the vehicle.
  • the application manager 201 is configured by being divided into the sub application Ma executed in the foreground in the control unit 20 and the sub application Ms executed in the background in the control unit 20. By doing so, the function sharing of the application manager 201 can be optimized, and the function sharing suitable for execution in the foreground and the background can be achieved. Note that an application that is always executed in the background, such as the sub application Ms, may be called a daemon or a service.
  • Application manager 201 calls one of the applications included in application 202 by the launcher function of sub application Ma. Then, the control unit 20 executes this application in the foreground instead of the sub application Ma. In the following description of FIG. 3, it is assumed that the application A is being executed.
  • the OS (Operating System) 203 is software for managing the overall operation of the mobile terminal 2.
  • the OS 203 is between the sub application Ms executed in the background in the control unit 20, the SPP (Serial Port Profile) 204 and the HID (Human Interface Interface) profile 205. Mediates input / output information.
  • the SPP 204 and the HID profile 205 are drivers used in short-range wireless communication performed between the in-vehicle device 1 and the portable terminal 2, and are standardized as a part of the standard used in Bluetooth.
  • the SPP 204 receives a process for transmitting the above-described restriction information indicating the determination result of the operation restriction content by the operation restriction function of the sub-application Ms, and traveling information transmitted from the in-vehicle device 1 according to the traveling state of the vehicle. Process to do.
  • the HID profile 205 performs a process for receiving operation information output according to the user's operation content in the in-vehicle device 1.
  • the contents of each information received by the SPP 204 and the HID profile 205 are output to the sub application Ms via the OS 203 and transferred to the application being executed by the communication function of the sub application Ms. Note that these pieces of information are transmitted and received between the short-range wireless communication interface unit 15 of the in-vehicle device 1 and the short-range wireless communication interface unit 25 of the mobile terminal 2 by wireless communication.
  • the sub application Ma When the sub application Ma is being executed in the foreground in the control unit 20, the sub application Ma generates an image of a menu screen for allowing the user to select an application to be executed by the above-described launcher function. Further, when the application A is being executed in the foreground in the control unit 20, the application A uses the traveling information and operation information passed from the sub application Ms as necessary to generate a predetermined image or sound. . These images and sound are temporarily stored in the sound / image memory 206 and then output to the HDMI driver 207.
  • the HDMI driver 207 performs a process of converting an image or sound generated by the sub application Ma or application A into a video signal or an audio signal according to a method defined by HDMI.
  • the video signal and audio signal are output to the in-vehicle apparatus 1 via the video / audio cable 3 by the video / audio signal output unit 26.
  • the mobile terminal 2 has a software configuration as described above.
  • a software configuration can be realized by using Android, for example.
  • the sub-application Ma is executed by a thread called “Activity” and the sub-application Ma is executed by a thread called “Service”, so that the sub-application Ma is executed in the foreground in the control unit 20.
  • the application Ms can be executed in the background.
  • the operation when the user performs a touch operation on the in-vehicle device 1 will be described in detail.
  • the operation information corresponding to the touch position specified by the touch operation is transmitted from the in-vehicle device 1 to the mobile terminal 2.
  • Sent. At this time, the in-vehicle device 1 transmits operation information to the mobile terminal 2 using a mouse communication format called an HID packet.
  • an HID packet that is a communication format for a mouse in Bluetooth is generally used when a mouse is used as an input device of the mobile terminal 2.
  • the HID packet carries movement amount information corresponding to the movement of the mouse and button operation information corresponding to various button operations such as a click operation from the mouse at a predetermined time in a predetermined data format. It can be transmitted to the terminal 2.
  • the mobile terminal 2 Upon receiving these pieces of information transmitted from the mouse by the HID packet, the mobile terminal 2 performs the reception process using the HID profile 205 shown in FIG. Move the cursor on the screen according to the movement.
  • the operation content performed on the screen by the user is decoded from the screen content corresponding to the cursor position at that time and the content of the button operation.
  • the control unit 20 activates an application corresponding to the icon designated on the menu screen in accordance with the mouse operation content decoded by the OS 203 in this way, or performs an operation designated on the application screen being executed. Depending on the process.
  • the operation information corresponding to the touch operation on the in-vehicle device 1 is transmitted from the in-vehicle device 1 to the portable terminal 2 using the HID packet as described above.
  • the touch operation content can be recognized by the OS 203 as in the case of using the mouse.
  • FIG. 4A and FIG. 4B are diagrams for explaining operations of the in-vehicle device 1 and the portable terminal 2 when a touch operation is performed in the in-vehicle device 1.
  • FIG. 4A shows a state before the touch operation.
  • an arrow-shaped cursor 40 displayed at the lower right end of the outer peripheral portions of the display unit 11 and the display unit 21 has the upper left end of the cursor 40 corresponding to the tip of the arrow as an instruction point. . That is, before the touch operation, the cursor 40 on the screen indicates the reference position 41 corresponding to the lower right end of the display unit 11 in the in-vehicle device 1, and indicates the reference position 42 corresponding to the lower right end of the display unit 21 in the mobile terminal 2. ing. At this time, most of the cursor 40 is located outside the range of each screen display of the display units 11 and 21 and is not actually displayed. Therefore, in FIG. 4A, the display position of the cursor 40 is indicated by a broken line.
  • the mobile terminal 2 displays a screen including the cursor 40 displayed at the reference position 42 on the display unit 21, and the image information on this screen is transmitted to the video / audio cable using the video signal described above. 3 to the in-vehicle device 1.
  • the in-vehicle device 1 displays the same screen as that displayed on the display unit 21 of the mobile terminal 2 on the display unit 11 based on the image information.
  • a screen including the cursor 40 displayed at the reference position 41 is displayed on the display unit 11.
  • the resolution of the display unit 11 in the X direction is expressed as Xv
  • the resolution in the Y direction is expressed as Yv
  • the resolution of the display unit 21 in the X direction is represented as Xs
  • the resolution in the Y direction is represented as Ys.
  • FIG. 4B shows a state when a touch operation is performed.
  • the in-vehicle device 1 detects the movement amount Px in the X direction and the movement in the Y direction as the movement amount from the reference position 41 at the lower right end pointed by the cursor 40 before the touch operation to the touch position 43.
  • the amount Py is calculated.
  • the movement amounts Px and Py are calculated, for example, by obtaining the number of pixels between the reference position 41 and the touch position 43 in the X direction and the Y direction, respectively.
  • the right direction is defined as the positive direction of X
  • the downward direction is defined as the positive direction of Y
  • the amount of movement from the reference position 41 to the touch position 43 Px and Py are both determined as negative values.
  • the in-vehicle device 1 After calculating the movement amount Px in the X direction and the movement amount Py in the Y direction as described above, the in-vehicle device 1 subsequently uses the movement amounts Px and Py as the movement amounts Qx and Qy on the display unit 21 of the mobile terminal 2. Convert to The conversion of the movement amount is performed using the following formula (1) based on the above-described resolutions Xv, Yv and Xs, Ys.
  • Qx Px ⁇ (Xs / Xv)
  • Qy Py ⁇ (Ys / Yv) ... (1)
  • Xs / Xv and Ys / Yv are conversion coefficients for converting the movement amounts Px and Py into the movement amounts Qx and Qy, respectively.
  • the in-vehicle device 1 can obtain these conversion coefficients by acquiring the resolutions Xs and Ys of the display unit 21 from the mobile terminal 2 in advance.
  • the in-vehicle device 1 transmits movement amount information indicating these movement amounts Qx and Qy to the portable terminal 2 using an HID packet.
  • the mobile terminal 2 When receiving the movement amount information indicating the movement amounts Qx and Qy from the in-vehicle device 1, the mobile terminal 2 decodes the movement amounts Qx and Qy by the OS 203. Then, as shown in FIG. 4B, the cursor 40 is moved from the reference position 42 at the lower right corner by the movement amounts Qx and Qy and displayed on the display unit 21, and the screen image including the cursor 40 after the movement is displayed. Information is output to the in-vehicle device 1 via the video / audio cable 3 using the video signal described above.
  • the in-vehicle device 1 When receiving the image information of the screen including the moved cursor 40 from the portable terminal 2, the in-vehicle device 1 displays the same screen as that displayed on the display unit 21 of the portable terminal 2 based on the image information. 11 is displayed. As a result, as shown in FIG. 4B, a screen in which the cursor 40 indicates the touch position 43 is displayed on the display unit 11.
  • the in-vehicle device 1 After transmitting the movement amount information indicating the movement amounts Qx and Qy, the in-vehicle device 1 transmits movement amount information indicating that the movement amount is 0 to the portable terminal 2 by using the HID packet. At this time, button operation information indicating that a predetermined button operation, for example, a left click operation has been performed, is also transmitted.
  • the mobile terminal 2 Upon receiving the above movement amount information and button operation information from the in-vehicle device 1, the mobile terminal 2 uses the OS 203 to decode the contents of the button operation indicated by the button operation information. Then, for example, the application corresponding to the icon at the touch position 43 is started according to the display position of the cursor 40 after the movement, that is, the screen content displayed at the touch position 43 and the button operation content. As described above, the process corresponding to the touch operation performed by the user on the in-car device 1 can be executed in the mobile terminal 2.
  • the operation at the time of the touch operation described above is an example in the case of a single tap operation in which the user designates to strike a specific touch position on the touch panel once.
  • the in-vehicle device 1 transmits the same operation information as when the click operation is performed with the mouse to the mobile terminal 2.
  • a double tap operation that specifies that the same touch position should be tapped twice
  • a flick operation that moves the touch position in a predetermined direction while performing the touch operation
  • a long touch that continues to touch the same touch position for a predetermined time or longer.
  • Push operation etc. can be performed with respect to the vehicle-mounted apparatus 1.
  • FIG. The in-vehicle device 1 identifies the types of these touch operations, and changes the operation information transmitted to the mobile terminal 2 for each type of touch operation.
  • the in-vehicle apparatus 1 transmits the movement amount information indicating the converted movement amounts Qx and Qy according to the movement amounts Px and Py, and then the movement amount is 0.
  • the button operation information indicating a predetermined button operation is transmitted twice together with the movement amount information indicating the presence. That is, the same operation information as when the double click operation is performed with the mouse is transmitted to the mobile terminal 2.
  • the in-vehicle device 1 transmits movement amount information indicating the converted movement amounts Qx and Qy according to the movement amounts Px and Py, and then the movement amount of the touch position during the flick operation. Is calculated every predetermined time. Then, the amount of movement of the touch position during the flick operation is converted into the amount of movement on the display unit 21 of the portable terminal 2 by the above-described equation (1), and the amount of movement information indicating the amount of movement after the conversion is determined as a predetermined amount. It is transmitted together with the button operation information indicating the button operation. When the flick operation ends, movement amount information indicating that the movement amount is zero is transmitted last. That is, the same operation information as when the drag and drop operation is performed with the mouse is transmitted to the mobile terminal 2.
  • the in-vehicle device 1 transmits movement amount information indicating the converted movement amounts Qx and Qy according to the movement amounts Px and Py, and then the movement amount during the long press operation.
  • the button operation information indicating a predetermined button operation is continuously transmitted together with the movement amount information indicating that the value is 0. That is, the same operation information as when a long press click operation is performed without moving the mouse is transmitted to the mobile terminal 2.
  • the mobile terminal 2 receives the operation information corresponding to the type of touch operation as described above from the in-vehicle device 1, thereby identifying the type of touch operation performed by the user on the in-vehicle device 1, and the touch operation It is possible to execute processing according to the above.
  • FIG. 5 is a flowchart of processing executed in the in-vehicle device 1 when a touch operation is performed. The processing shown in this flowchart is executed by the control unit 10 when communication is established between the in-vehicle device 1 and the portable terminal 2.
  • step S ⁇ b> 10 the control unit 10 receives the resolution information of the display unit 21 transmitted from the mobile terminal 2 using the short-range wireless communication interface unit 15.
  • the resolution Xs of the display unit 21 in the X direction and the resolution Ys in the Y direction are received from the portable terminal 2.
  • step S ⁇ b> 20 the control unit 10 displays on the display unit 11 based on the resolution information of the display unit 21 received from the mobile terminal 2 in step S ⁇ b> 10 and the resolution of the display unit 11 stored in advance in the memory unit 14.
  • a conversion coefficient corresponding to the resolution ratio of the unit 21 is calculated.
  • the resolutions Xs and Ys of the display unit 21 represented by the resolution information received in step S10 are the resolution Xv for the X direction of the display unit 11 and the resolution Yv for the Y direction, respectively.
  • the conversion coefficient Xs / Xv for the X direction and the conversion coefficient Ys / Yv for the Y direction are calculated.
  • step S30 the control unit 10 determines whether or not a touch operation has been performed by the user on the operation unit 12 which is a touch panel switch configured integrally with the display unit 11. If a touch operation has been performed, the touch operation is detected and the process proceeds to step S40.
  • step S40 the control unit 10 calculates a movement amount from the cursor display position when the touch operation is detected in step S30 to the touch position specified by the touch operation.
  • the movement amount Px in the X direction and the movement amount Py in the Y direction are calculated as the movement amount from the reference position 41 at the lower right end to the touch position 43.
  • step S50 the control unit 10 converts the movement amount calculated in step S40 into a movement amount on the display unit 21 of the mobile terminal 2.
  • the control unit 10 uses the X-direction conversion coefficient Xs / Xv and the Y-direction conversion coefficient Ys / Yv calculated in step S20, the movement in the X direction calculated for the display unit 11 by the above-described equation (1).
  • the amount Px and the amount of movement Py in the Y direction are converted into the amount of movement Qx in the X direction and the amount of movement Qy in the Y direction on the display unit 21, respectively.
  • step S60 the control unit 10 transmits the movement amount information indicating the movement amount converted in step S50 to the mobile terminal 2 using the short-range wireless communication interface unit 15.
  • movement amount information corresponding to the movement amount from the cursor display position during the touch operation to the detected touch position is transmitted from the in-vehicle device 1 to the portable terminal 2.
  • the movement amount information is transmitted using an HID packet that is a communication format for a mouse.
  • the movement amount information thus transmitted from the in-vehicle device 1 is received by the short-range wireless communication interface unit 25 in the portable terminal 2 and is decoded by the OS 203.
  • the cursor position on the screen is moved in the portable terminal 2, and image information including the moved cursor is transmitted from the portable terminal 2 to the in-vehicle device 1 and displayed on the display unit 11.
  • step S70 the control unit 10 determines whether or not the touch operation detected in step S30 is continuing. If the touch operation is completed within a predetermined time, it is determined that the touch operation is not continuing, and the process proceeds to step S80. If the touch operation is continuing, the process proceeds to step S130.
  • step S80 the control unit 10 sets the movement amount in the movement amount information to zero.
  • the movement amount is set to 0 in both the X direction and the Y direction.
  • step S90 the control unit 10 uses the short-range wireless communication interface unit 15 to perform movement amount information indicating that the movement amount set in step S80 is 0 and a predetermined button operation such as a left click operation.
  • the button operation information indicating that the operation has been performed is transmitted to the mobile terminal 2.
  • step S100 the control unit 10 determines whether or not a touch operation is further performed on the operation unit 12 that is a touch panel switch integrally configured with the display unit 11 following the touch operation detected in step S30. judge.
  • the touch operation is not continuously performed, that is, when the single tap operation is performed, the process proceeds to step S110. Accordingly, when a single tap operation is performed, after the movement amount information is transmitted in step S60, step S90 is executed only once, and the button operation information is displayed on the vehicle together with the movement amount information indicating that the movement amount is 0. Transmit from the device 1 to the portable terminal 2.
  • step S100 determines whether the touch operation has been continuously performed. If it is determined in step S100 that the touch operation has been continuously performed, the process returns to step S90, and step S90 is repeatedly executed for the number of times of the touch operation.
  • step S90 is executed twice, and button operation information is displayed together with movement amount information indicating that the movement amount is 0. 1 to the mobile terminal 2 is transmitted twice.
  • the touch operation after the third time may be invalidated to be processed as a double tap operation.
  • the movement amount information and the button operation information may be transmitted continuously three times or more by repeatedly executing step S90 as many times as the number of touch operations.
  • step S110 the control unit 10 sets the movement amount in the movement amount information to a predetermined maximum value.
  • a preset maximum movement amount is set for both the X direction and the Y direction.
  • step S ⁇ b> 120 the control unit 10 uses the short-range wireless communication interface unit 15 to transmit movement amount information indicating the maximum movement amount set in step S ⁇ b> 110 to the mobile terminal 2. If step S120 is performed, it will return to step S30 and will repeat the above processes.
  • the movement amount information indicating the maximum movement amount transmitted in step S120 is received by the short-range wireless communication interface unit 25 in the portable terminal 2 and is decoded by the OS 203. Then, the display position of the cursor on the screen of the display unit 21 is the maximum position in the X direction and the Y direction regardless of the touch position specified by the previous touch operation on the in-vehicle device 1, that is, FIGS. It is moved to the reference position 42 at the lower right end shown in FIG.
  • the image information corresponding to the screen after the cursor movement is transmitted from the portable terminal 2 to the in-vehicle device 1 and displayed on the display unit 11, whereby the in-vehicle device 1 displays the cursor display position on the screen of the display unit 11. Is returned to the original reference position 41.
  • step S130 the control unit 10 determines whether or not the touch position by the touch operation detected in step S30 has changed. If the touch position has changed, the process proceeds to step S140. If the touch position has not changed, the process proceeds to step S200.
  • step S140 the control unit 10 calculates the movement amount from the previous touch position to the current touch position.
  • step S150 the control unit 10 converts the movement amount calculated in step S140 into the movement amount on the display unit 21 of the portable terminal 2 using the equation (1) as in the above-described step S50.
  • step S160 the control unit 10 uses the short-range wireless communication interface unit 15 to indicate movement amount information indicating the movement amount converted in step S150 and that a predetermined button operation such as a left click operation has been performed.
  • the button operation information is transmitted to the mobile terminal 2.
  • the movement amount information indicating the movement amount according to the change of the touch position and the button operation information are transmitted from the in-vehicle device 1 to the portable terminal 2.
  • the movement amount information transmitted here is received by the short-range wireless communication interface unit 25 in the portable terminal 2 and decoded by the OS 203.
  • the cursor position on the screen is moved in the mobile terminal 2 in accordance with the change of the touch position in the in-vehicle device 1, and image information including the moved cursor is transmitted from the mobile terminal 2 to the in-vehicle device 1 for display. Displayed on the unit 11.
  • step S170 the control unit 10 determines whether or not the touch operation is finished. If the touch operation is continuing, the process returns to step S140, and the processes of steps S140 to S160 are repeated. Thereby, when a flick operation in which the touch position is changed while the touch operation is continued is performed and the touch operation is continued after the movement amount information is transmitted in step S60, the movement amount corresponding to the change in the touch position is determined. The button operation information continues to be transmitted together with the movement amount information indicating. When the touch operation is completed, the process proceeds to step S180.
  • step S180 the control unit 10 sets the movement amount in the movement amount information to 0, as in step S80 described above.
  • step S190 the control unit 10 uses the short-range wireless communication interface unit 15 to transmit movement amount information indicating that the movement amount set in step S180 is 0 to the mobile terminal 2. Thereby, when the flick operation is performed, the movement amount information indicating that the movement amount is 0 is transmitted from the in-vehicle device 1 to the portable terminal 2 after the touch operation is finished.
  • step S190 the control unit 10 returns the cursor display position on the screen of the display unit 11 to the original reference position 41 by executing the processes of steps S110 and S120 described above. Thereafter, the process returns to step S30, and the above-described processing is repeated.
  • step S200 the control unit 10 sets the movement amount in the movement amount information to 0, similarly to steps S80 and S180 described above.
  • the control unit 10 uses the short-range wireless communication interface unit 15 to perform movement amount information indicating that the movement amount set in step S200 is 0 and a predetermined button operation such as a left click operation.
  • the button operation information indicating that the operation has been performed is transmitted to the mobile terminal 2.
  • step S220 the control unit 10 determines whether or not the touch operation has been completed. If the touch operation is continuing, the process returns to step S210, and the process of step S210 is repeated.
  • the movement amount is set when the touch operation is continued after the movement amount information is transmitted in step S60.
  • the button operation information is continuously transmitted together with the movement amount information indicating 0.
  • the control unit 10 returns the cursor display position on the screen of the display unit 11 to the original reference position 41 by executing the processes of steps S110 and S120 described above. Thereafter, the process returns to step S30, and the above-described processing is repeated.
  • the in-vehicle device 1 receives image information of a screen including the cursor 40 from the mobile terminal 2 by the video / audio signal input unit 16, and displays the screen on the display unit 11 which is a touch panel based on the image information. To do. And the touch position designated by the touch operation from a user is detected by the operation part 12 which comprises the touch panel with the display part 11. FIG. At this time, by the process of the control unit 10, the short distance wireless communication interface unit 15 is used to transmit movement amount information corresponding to the movement amount from the display position of the cursor 40 to the touch position to the portable terminal 2 (step S60). . Since it did in this way, when the display screen of the portable terminal 2 to which touch panel operation was applied was displayed with the vehicle-mounted apparatus 1, the portable terminal 2 can be operated from the vehicle-mounted apparatus 1. FIG.
  • control unit 10 further transmits button operation information indicating that a predetermined button operation has been performed to the mobile terminal 2 (steps S90, S160, and S210). Since it did in this way, in the portable terminal 2, touch operation content can be recognized by the process similar to the time of mouse
  • the control unit 10 transmits movement amount information corresponding to the movement amount from the display position of the cursor 40 to the touch position in step S60. Later, the button operation information is transmitted together with the movement amount information indicating that the movement amount is 0 (step S90). In this way, when a single tap operation is performed, the same operation information as when the click operation is performed with the mouse is transmitted from the in-vehicle device 1 to the portable terminal 2. Accordingly, the mobile terminal 2 can recognize a single tap operation as a click operation.
  • the control unit 10 moves the movement amount according to the movement amount from the display position of the cursor 40 to the touch position in step S60.
  • the button operation information is transmitted a plurality of times together with the movement amount information indicating that the movement amount is 0 by executing step S90 a plurality of times.
  • the control unit 10 transmits the movement amount information corresponding to the movement amount from the display position of the cursor 40 to the touch position in step S60, and then the touch operation is performed.
  • the button operation information is transmitted together with the movement amount information indicating the movement amount according to the change of the touch position (step S160).
  • movement amount information indicating that the movement amount is 0 is transmitted (step S190). In this way, when a flick operation is performed, the same operation information as when a drag-and-drop operation is performed with the mouse is transmitted from the in-vehicle device 1 to the portable terminal 2. Therefore, the mobile terminal 2 can recognize the flick operation as a drag and drop operation.
  • the control unit 10 transmits movement amount information corresponding to the movement amount from the display position of the cursor 40 to the touch position in step S60. Later, when the touch operation is continuing, the button operation information is transmitted together with the movement amount information indicating that the movement amount is 0 (step S210). In this way, when a long press operation is performed, the same operation information as when a long press click operation is performed without moving the mouse is transmitted from the in-vehicle device 1 to the portable terminal 2. Therefore, in the portable terminal 2, a long press operation can be recognized as a long press click operation.
  • the control unit 10 uses the short-range wireless communication interface unit 15 to transmit the movement amount information using an HID packet that is a communication format for a mouse in Bluetooth. I sent it. Since it did in this way, transmission of movement amount information can be implement
  • the in-vehicle device 1 receives the image information of the screen including the cursor 40 from the mobile terminal 2 by the video / audio signal input unit 16 and displays the screen on the display unit 11 which is a touch panel based on the image information. To do. And the touch position designated by the touch operation from a user is detected by the operation part 12 which comprises the touch panel with the display part 11. FIG.
  • the processing of the control unit 10 the resolution information of the display unit 21 is received from the portable terminal 2 using the short-range wireless communication interface unit 15 (step S ⁇ b> 10), and this resolution information and the memory unit 14 are stored in advance.
  • step S20 Based on the resolution of the display unit 11, conversion coefficients Xs / Xv and Ys / Yv corresponding to the resolution ratio of the display unit 21 to the display unit 11 are calculated (step S20). Then, movement amounts Px and Py from the display position of the cursor 40 to the touch position are calculated (step S40), and the calculated movement amounts Px and Py are calculated based on the conversion coefficients Xs / Xv and Ys / Yv calculated in step S20. Is converted into movement amounts Qx and Qy on the display unit 21 (step S50). Movement amount information indicating the movement amounts Qx and Qy thus converted is transmitted to the portable terminal 2 (step S60).
  • the display screen of the portable terminal 2 to which the touch panel operation is applied is displayed on the in-vehicle device 1, the resolution is different between the display unit 11 of the in-vehicle device 1 and the display unit 21 of the portable terminal 2. Even so, the mobile terminal 2 can be appropriately operated from the in-vehicle device 1.
  • step S20 the control unit 10 calculates conversion coefficients Xs / Xv and Ys / Yv for the horizontal direction (X direction) and the vertical direction (Y direction) of the display unit 11, respectively.
  • step S40 movement amounts Px and Py from the display position of the cursor 40 to the touch position are calculated in the horizontal direction (X direction) and vertical direction (Y direction) of the display unit 11, respectively.
  • step S50 the horizontal direction conversion coefficient Xs / Xv is used to convert the horizontal movement amount Px of the display unit 11 into the horizontal movement amount Qx on the display unit 21 and the vertical conversion coefficient Ys / Xv.
  • the movement amount Py in the vertical direction of the display unit 11 is converted into a movement amount Qy in the vertical direction on the display unit 21. Since it did in this way, according to the resolution of the horizontal direction and the vertical direction of the display part 11 and the display part 21, the movement amount Qx and Qy after conversion can be calculated
  • the in-vehicle device 1 receives the image information of the screen including the cursor 40 displayed at the predetermined reference position 42 from the portable terminal 2 by the video / audio signal input unit 16, and based on the image information, A screen that is the same screen as the screen and in which the cursor 40 is displayed at a predetermined reference position 41 is displayed on the display unit 11 that is a touch panel. And the touch position designated by the touch operation from a user is detected by the operation part 12 which comprises the touch panel with the display part 11. FIG. At this time, by the process of the control unit 10, the short distance wireless communication interface unit 15 is used to transmit movement amount information corresponding to the movement amount from the display position of the cursor 40 to the touch position to the portable terminal 2 (step S60). .
  • the image information of the screen on which the cursor 40 is moved to the touch position is received from the portable terminal 2 and displayed on the display unit 11.
  • the movement amount information indicating the maximum movement amount is transmitted to the mobile terminal 2 (step S120), thereby returning the display position of the cursor 40 to the original reference position 41. Since it did in this way, when the display screen of the portable terminal 2 to which touch panel operation was applied was displayed with the vehicle-mounted apparatus 1, the resolution differs between the display part 11 of the vehicle-mounted apparatus 1 and the display part 21 of the portable terminal 2. Even if an error occurs in the cursor position after the movement, the mobile terminal 2 can be appropriately operated from the in-vehicle device 1 without accumulating the error.
  • step S120 the control unit 10 displays movement amount information indicating predetermined maximum movement amounts in the horizontal direction (X direction) and the vertical direction (Y direction) of the display unit 11 after the touch operation is finished.
  • the display position of the cursor 40 is returned to the original reference position 41. Thereby, the display position of the cursor 40 can be reliably returned to the reference position 41 regardless of the touch position designated by the immediately previous touch operation.
  • the in-vehicle device 1 receives an image from the portable terminal 2 through the video / audio signal input unit 16 and displays the image on the display unit 11 which is a touch panel. And the touch position designated by the touch operation from a user is detected by the operation part 12 which comprises the touch panel with the display part 11.
  • the short distance wireless communication interface unit 15 is used to transmit movement amount information corresponding to the movement amount from the display position of the cursor 40 to the touch position to the portable terminal 2 (step S60).
  • image information transmitted from the portable terminal 2 is received and displayed on the display unit 11. Accordingly, the cursor 40 displayed at the reference position 41 on the outer peripheral portion of the display unit 11 as shown in FIG.
  • the movement amount information indicating the maximum movement amount is transmitted to the portable terminal 2 (step S120), thereby returning the cursor 40 to the original reference position 41. Since it did in this way, when the display screen of the portable terminal 2 to which the touch panel operation is applied is displayed on the in-vehicle device 1, when the touch operation is not performed, the cursor 40 is not disturbed by the user, and the in-vehicle device 1.
  • the portable terminal 2 can be operated from.
  • the cursor 40 may be displayed at a position other than this. As long as the cursor 40 is displayed at any position when the touch operation is not performed in the outer peripheral portion of the display units 11 and 12, the cursor 40 is not obstructed by the user as in the above embodiment. can do. At this time, in order to make the cursor 40 as inconspicuous as possible, a position at the end opposite to the direction from the center point of the cursor 40 to the indication point on the display unit 11 is set as a reference position, and the cursor 40 is set at the reference position.
  • the reference position 41 is set at the lower right end opposite to the upper left direction from the center point of the cursor 40 toward the indication point. It is set.
  • step S120 in FIG. 5 after the touch operation is finished, predetermined maximum movement amounts are respectively set in the horizontal direction (X direction) and the vertical direction (Y direction) of the display unit 11.
  • standard position 41 by transmitting the movement amount information shown to the portable terminal 2 was demonstrated.
  • This is effective for returning the cursor 40 to the reference position 41 at the lower right end when the upper left end of the display unit 11 is the starting point, the right direction is defined as the positive direction of X, and the downward direction is defined as the positive direction of Y. .
  • this is not the case when the position of the starting point and the definition of the positive direction of X and Y are changed.
  • the display unit 11 when the left lower end of the display unit 11 is set as a starting point, the left direction is defined as the positive direction of X, and the upper direction is defined as the positive direction of Y, the display unit 11 is used to return the cursor 40 to the reference position 41 at the lower right end. It is necessary to transmit movement amount information indicating a predetermined minimum movement amount in the X direction and the Y direction. That is, in step S120, after the end of the touch operation, predetermined in accordance with the position of the starting point and the definition of the positive X and Y directions in the horizontal direction (X direction) and vertical direction (Y direction) of the display unit 11. By transmitting movement amount information indicating the maximum movement amount or the minimum movement amount to the portable terminal 2, the display position of the cursor 40 can be returned to the reference position 41. The same applies to the case where the reference position is other than the lower right corner.
  • the example in which the video signal and the audio signal are transmitted from the portable terminal 2 to the in-vehicle device 1 by connecting the in-vehicle device 1 and the portable terminal 2 to each other via the video / audio cable 3 has been described. . Moreover, the example which communicates between the vehicle-mounted apparatus 1 and the portable terminal 2 by near field communication performed according to predetermined
  • the mobile device 1 is moved from the in-vehicle device 1 to the portable terminal 2 using a USB communication format or the like.
  • Quantity information and button operation information can be transmitted. Any communication method may be adopted as long as necessary signals and information can be transmitted and received between the in-vehicle device 1 and the portable terminal 2.
  • various vehicle information output from the vehicle may be acquired by the in-vehicle device 1 in addition to the vehicle speed signal and the parking signal.
  • the vehicle information acquired at this time may be used in processing executed by the in-vehicle device 1 or may be output from the in-vehicle device 1 to the portable terminal 2 and used in processing executed by the portable terminal 2. .
  • activation conditions corresponding to vehicle information are set in advance for each application, and when vehicle information that satisfies the activation conditions is output from the vehicle, the application is automatically activated on the mobile terminal 2. can do.
  • information indicating the activation condition of each application may be transmitted from the mobile terminal 2 to the in-vehicle device 1 to determine whether the in-vehicle device 1 satisfies the activation condition based on the vehicle information.
  • the vehicle information may be transmitted from the in-vehicle device 1 to the portable terminal 2 and the portable terminal 2 may determine whether or not the activation condition is satisfied based on the vehicle information.
  • vehicle information indicating that the remaining fuel amount has decreased to a value less than a predetermined value is output from the vehicle, an application for searching for a gas station around the current position is automatically activated on the mobile terminal 2. be able to.
  • the display unit 11 of the in-vehicle device 1 is a touch panel and an image received from the mobile terminal 2 is displayed on the display unit 11 has been described.
  • the scope of application of the present invention is not limited to this.
  • the present invention can be applied to any display device as long as it is connected to an information terminal and displays an image received from the information terminal on a touch panel.
  • 1 vehicle-mounted device
  • 2 portable terminal
  • 3 video / audio cable
  • 10 control unit
  • 11 display unit
  • 12 operation unit
  • 13 audio output unit
  • 14 memory unit
  • 15 short-range wireless communication interface Unit
  • 16 video / audio signal input unit
  • 20 control unit
  • 21 display unit
  • 22 operation unit
  • 23 audio output unit
  • 24 memory unit
  • 25 short-range wireless communication interface unit
  • 26 video / audio unit Audio signal output unit
  • 27 wireless communication unit
  • 28 GPS receiving unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Position Input By Displaying (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 情報端末と接続される表示装置は、情報端末からカーソルを含む画面の画像情報を受信する画像受信部と、画像受信部により受信された画像情報に基づいて画面を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルと、カーソルの表示位置からタッチ位置までの移動量に応じた移動量情報を情報端末へ送信する送信部とを備える。

Description

表示装置
 本発明は、表示装置に関する。
 従来、携帯電話の表示画面と共に、携帯電話の各操作キーに対応する複数のタッチスイッチを車載装置のディスプレイに表示し、いずれかのタッチスイッチが操作されると、そのタッチスイッチに対応する操作キーの操作コマンドを車載装置から携帯電話に供給することで携帯電話を操作可能とした技術が知られている(特許文献1参照)。
日本国特開2003-244343号公報
 近年、操作キーを用いて操作を行う従来の携帯電話の他に、タッチパネルを用いることで直感的な操作を可能としたスマートフォンも広く利用されている。こうしたスマートフォンの場合、特許文献1の従来技術を利用して車載装置からの操作を実現することはできない。このように従来では、スマートフォンのようなタッチパネル操作を適用した情報端末の表示画面を表示装置で表示したときに、表示装置から情報端末を操作するための技術は提案されていなかった。
 本発明の第1の態様による表示装置は、情報端末と接続されるものであって、情報端末からカーソルを含む画面の画像情報を受信する画像受信部と、画像受信部により受信された画像情報に基づいて画面を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルと、カーソルの表示位置からタッチ位置までの移動量に応じた移動量情報を情報端末へ送信する送信部とを備える。
 本発明の第2の態様によると、第1の態様の表示装置において、送信部は、所定のボタン操作が行われたことを示すボタン操作情報を情報端末へさらに送信するのが好ましい。
 本発明の第3の態様によると、第2の態様の表示装置において、タッチ位置が変化せずにタッチ操作が所定時間以内に終了した場合、送信部は、カーソルの表示位置からタッチ位置までの移動量に応じた移動量情報を送信した後に、移動量が0であることを示す移動量情報と共にボタン操作情報を送信するのが好ましい。
 本発明の第4の態様によると、第2または3の態様の表示装置において、タッチ位置が変化せずにタッチ操作が複数回連続して行われた場合、送信部は、カーソルの表示位置からタッチ位置までの移動量に応じた移動量情報を送信した後に、移動量が0であることを示す移動量情報と共にボタン操作情報を複数回送信するのが好ましい。
 本発明の第5の態様によると、第2乃至4のいずれか一の態様の表示装置において、タッチ操作の継続中にタッチ位置が変化した場合、送信部は、カーソルの表示位置からタッチ位置までの移動量に応じた移動量情報を送信した後に、タッチ操作が継続中のときには、タッチ位置の変化に応じた移動量を示す移動量情報と共にボタン操作情報を送信し、タッチ操作の終了後には、移動量が0であることを示す移動量情報を送信するのが好ましい。
 本発明の第6の態様によると、第2乃至5のいずれか一の態様の表示装置において、タッチ位置が変化せずにタッチ操作が所定時間以上継続された場合、送信部は、カーソルの表示位置からタッチ位置までの移動量に応じた移動量情報を送信した後に、タッチ操作が継続中のときには、移動量が0であることを示す移動量情報と共にボタン操作情報を送信するのが好ましい。
 本発明の第7の態様によると、第1乃至6のいずれか一の態様の表示装置において、送信部は、ブルートゥースまたはUSBにおけるマウス用の通信フォーマットを利用して、移動量情報を送信するのが好ましい。
 本発明の第8の態様による表示装置は、表示モニタを有する情報端末と接続されるものであって、情報端末からカーソルを含む画面の画像情報を受信する画像受信部と、画像受信部により受信された画像情報に基づいて画面を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルと、情報端末から表示モニタの解像度情報を受信する解像度情報受信部と、解像度情報受信部により受信された解像度情報と、予め記憶されたタッチパネルの解像度とに基づいて、タッチパネルに対する表示モニタの解像度比に応じた変換係数を算出する変換係数算出部と、カーソルの表示位置からタッチ位置までの移動量を算出する移動量算出部と、変換係数算出部により算出された変換係数に基づいて、移動量算出部により算出された移動量を表示モニタ上の移動量に変換する変換部と、変換部により変換された移動量を示す移動量情報を情報端末へ送信する送信部とを備える。
 本発明の第9の態様によると、第8の態様の表示装置において、変換係数算出部は、タッチパネルの横方向と縦方向に対して、変換係数をそれぞれ算出し、移動量算出部は、タッチパネルの横方向と縦方向に対して、カーソルの表示位置からタッチ位置までの移動量をそれぞれ算出し、変換部は、横方向の変換係数を用いて、タッチパネルの横方向に対する移動量を表示モニタ上の横方向の移動量に変換すると共に、縦方向の変換係数を用いて、タッチパネルの縦方向に対する移動量を表示モニタ上の縦方向の移動量に変換するのが好ましい。
 本発明の第10の態様による表示装置は、情報端末と接続されるものであって、情報端末から所定の基準位置に表示されたカーソルを含む画面の画像情報を受信する画像受信部と、画像受信部により受信された画像情報に基づいて画面を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルと、カーソルの表示位置からタッチ位置までの移動量に応じた移動量情報を情報端末へ送信する送信部とを備える。この表示装置は、タッチ操作の終了後に、カーソルの表示位置を基準位置に戻す。
 本発明の第11の態様によると、第10の態様の表示装置において、送信部は、タッチ操作の終了後に、タッチパネルの横方向と縦方向に対して所定の最大移動量または最小移動量をそれぞれ示す移動量情報を情報端末へ送信することにより、カーソルの表示位置を基準位置に戻すのが好ましい。
 本発明の第12の態様によると、第10または11の態様の表示装置において、カーソルの指示点は、カーソルの端に位置しており、基準位置は、タッチパネルにおいて、カーソルの中心から指示点へ向かう方向とは反対方向の端に位置するのが好ましい。
 本発明の第13の態様によると、第12の態様の表示装置において、カーソルの指示点は、カーソルの左上端に位置しており、基準位置は、タッチパネルの右下端に位置するのが好ましい。
 本発明の第14の態様による表示装置は、情報端末と接続されるものであって、情報端末から画像を受信する画像受信部と、画像受信部により受信された画像を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルとを備える。この表示装置は、タッチ操作に応じて、タッチパネルの外周部分に表示されているカーソルをタッチ位置に移動させ、タッチ操作の終了後に、カーソルを元の位置に戻す。
 本発明の第15の態様によると、第14の態様の表示装置は、タッチ操作の終了後に、タッチパネルの横方向と縦方向に対して所定の最大移動量または最小移動量をそれぞれ示す移動量情報を情報端末へ送信することにより、カーソルの表示位置を基準位置に戻すのが好ましい。
 本発明の第16の態様によると、第14または15の態様の表示装置において、カーソルの指示点は、カーソルの左上端に位置しており、カーソルは、タッチ操作の開始前および終了後に、タッチパネルの右下端に表示されるのが好ましい。
 本発明によれば、タッチパネル操作を適用した情報端末の表示画面を表示装置で表示したときに、表示装置から情報端末を操作することができる。
本発明の一実施の形態による車載情報システムの構成を示す図である。 車載装置および携帯端末の構成を示すブロック図である。 携帯端末におけるソフトウェアの概略構成を示す図である。 車載装置においてタッチ操作が行われたときの車載装置と携帯端末の動作を説明する図である。 タッチ操作が行われたときに車載装置において実行される処理のフローチャートである。
 図1は、本発明の一実施の形態による車載情報システムの構成を示す図である。図1に示す車載情報システムは、車両に搭載されて使用されるものであり、車載装置1と携帯端末2が近距離無線通信および映像・音声ケーブル3を介した有線通信で互いに接続されることによって実現される。車載装置1は、車両内に固定されており、たとえば車両のインストルメントパネル内などに設置されている。携帯端末2は、ユーザが持ち運び可能な携帯型の情報端末であり、たとえば携帯電話やスマートフォンなどである。なお、車載装置1と携帯端末2の間で行われる近距離無線通信には、たとえばBluetoothなどを用いることができる。また、映像・音声ケーブル3を介した有線通信には、たとえばHDMI(High Definition Multimedia Interface)などを用いることができる。
 車載装置1には、表示部11が設けられている。表示部11は、各種の画像や映像を表示可能なタッチパネルであり、たとえば抵抗膜方式のタッチパネルスイッチと液晶ディスプレイとを組み合わせて構成される。ユーザは、表示部11において任意の位置を指等でタッチ操作してその位置に表示されたアイコンや操作ボタン等を指定することで、所望の機能を携帯端末2に実行させることができる。なお、表示部11に加えて、さらに所定の操作に対応する操作スイッチを車載装置1に設けてもよい。
 携帯端末2には、表示部21が設けられている。表示部21は、各種の画像や映像を表示可能なタッチパネルであり、たとえば静電容量方式のタッチパネルスイッチと液晶ディスプレイとを組み合わせて構成される。ユーザは、表示部21に表示される画像や映像の内容に応じて、表示部21上で任意の位置を指等でタッチすることで、所望の機能を携帯端末2に実行させることができる。なお、ここでは表示部21をタッチパネルとした例を説明したが、タッチパネルではない通常の表示モニタとしてもよい。その場合、携帯端末2が実行する処理の内容に応じた各種の操作スイッチを携帯端末2に設けることが好ましい。あるいは、表示部21をタッチパネル式の表示モニタとし、さらに所定の操作に対応する操作スイッチを携帯端末2に設けてもよい。
 図2は、車載装置1および携帯端末2の構成を示すブロック図である。図2に示すように車載装置1は、制御部10、表示部11、操作部12、音声出力部13、メモリ部14、近距離無線通信インタフェース部15および映像・音声信号入力部16を有する。一方、携帯端末2は、制御部20、表示部21、操作部22、音声出力部23、メモリ部24、近距離無線通信インタフェース部25、映像・音声信号出力部26、無線通信部27およびGPS(Global Positioning System)受信部28を有する。
 車載装置1において、制御部10は、マイクロプロセッサや各種周辺回路、RAM、ROM等によって構成されており、メモリ部14に記録されている制御プログラムに基づいて各種の処理を実行する。この制御部10が行う処理により、各種の画像表示処理や音声出力処理などが実行される。
 さらに制御部10は、車両から出力される車速信号およびパーキング信号を取得する。この車速信号およびパーキング信号に基づいて、制御部10は、車両の走行状態が走行中または停車中のいずれであるかを判断する。なお、車両から制御部10への車速信号およびパーキング信号の出力は、たとえば、車両内に設けられた通信ネットワークである不図示のCAN(Controller Area Network)を経由して、車両に搭載された車速センサから
車速パルスが出力されることにより行われる。
 表示部11は、図1を用いて前述したように、液晶ディスプレイ等によって構成される表示モニタである。操作部12は、表示部11に対するユーザのタッチ操作を検出するための部分であり、前述のタッチパネルスイッチに相当する。なお、図2では表示部11と操作部12を別々に示しているが、実際にはこれらが一体化されて一つのタッチパネルを構成している。また、前述のようにタッチパネル以外の操作スイッチを車載装置1に設けた場合は、その操作スイッチも操作部12に含まれる。操作部12に対して行われたユーザの入力操作内容は制御部10へ出力され、制御部10が行う処理に反映される。
 音声出力部13は、アンプ、スピーカ等を有しており、制御部10の制御によって各種の音声を出力することができる。たとえば、携帯端末2または不図示の記録媒体から読み出された音楽データを再生した音楽や、車両を目的地まで誘導するための誘導音声などが音声出力部13から出力される。
 メモリ部14は、不揮発性のデータ格納装置であり、たとえばHDD(ハードディスクドライブ)やフラッシュメモリ等によって実現される。メモリ部14には、たとえば制御部10において用いられる前述の制御プログラムなど、各種のデータが記憶されている。メモリ部14におけるデータの読み出しおよび書き込みは、制御部10の制御により必要に応じて行われる。
 近距離無線通信インタフェース部15は、制御部10の制御により、携帯端末2との間で近距離無線通信を行う際に必要な無線インタフェース処理を行う。たとえば、制御部10から出力された情報を所定の無線信号形式に変換して携帯端末2へ送信したり、携帯端末2から所定の無線信号形式で出力された情報を受信して制御部10へ出力したりする。近距離無線通信インタフェース部15によるインタフェース処理は、Bluetooth等の所定の通信規格に従って行われる。
 映像・音声信号入力部16は、映像・音声ケーブル3を介して携帯端末2から入力される映像信号と音声信号を受け、これらの信号を画面表示用の画像(映像)データと音声出力用の音声データにそれぞれ変換して制御部10へ出力する。映像・音声信号入力部16から制御部10へ画像データと音声データが出力されると、制御部10は、表示部11を制御してその画像データに基づく画像を表示部11に画面表示させると共に、音声出力部13を制御してその音声データに基づく音声を音声出力部13に出力させる。
 一方、携帯端末2において、制御部20は、車載装置1の制御部10と同様にマイクロプロセッサや各種周辺回路、RAM、ROM等によって構成されており、メモリ部24に記録されている制御プログラムに基づいて各種の処理を実行する。
 表示部21は、前述したようなタッチパネル式の表示モニタである。操作部22は、ユーザの入力操作を検出するための部分である。なお、図2では表示部21と操作部22を別々の構成として示しているが、実際には前述の表示部11と同様に、表示部21と操作部22が一体化されて一つのタッチパネルを構成している。また、前述のようにタッチパネル以外の操作スイッチを携帯端末2に設けた場合は、その操作スイッチも操作部22に含まれる。操作部22に対して行われたユーザの入力操作内容は制御部20へ出力され、制御部20が行う処理に反映される。
 音声出力部23は、アンプ、スピーカ等を有しており、制御部20の制御によって各種の音声を出力することができる。たとえば、携帯端末2を用いて通話を行ったときには、通話相手の音声が音声出力部23から出力される。
 メモリ部24は、車載装置1のメモリ部14と同様の不揮発性のデータ格納装置であり、制御部20の処理において利用するための各種のデータが記憶されている。このメモリ部24には、ユーザが予め入手した様々なアプリケーションプログラム(以下、単にアプリケーションと称する)が記憶されている。ユーザは、メモリ部24に記憶された各種アプリケーションの中からいずれかを選択して制御部20に実行させることにより、様々な機能を携帯端末2において実現することができる。
 近距離無線通信インタフェース部25は、車載装置1の近距離無線通信インタフェース部15と同様に、所定の通信規格に基づいた無線インタフェース処理を行う。すなわち、車載装置1と携帯端末2との間の情報通信は、近距離無線通信インタフェース部15と近距離無線通信インタフェース部25とが互いに無線通信で情報を授受することにより実現される。
 映像・音声信号出力部26は、制御部20により生成された画像(映像)と音声を、たとえばHDMI等の所定の通信規格に応じた映像信号と音声信号にそれぞれ変換し、映像・音声ケーブル3を介して車載装置1へ出力する。この映像信号と音声信号が車載装置1において映像・音声信号入力部16に入力されると、携帯端末2において表示部21に表示されるのと同一の画像(画面)が車載装置1の表示部11にも表示される。また、携帯端末2において音声出力部23から出力されるのと同一の音声が車載装置1の音声出力部13からも出力される。こうした機能はビデオミラーリングと呼ばれている。
 無線通信部27は、不図示の無線通信回線網を介して携帯端末2を他の携帯端末やサーバに接続するための無線通信を行う。携帯端末2は、無線通信部27が行う無線通信により、他の携帯端末との間で通話を行ったり、サーバから任意のアプリケーションをダウンロードしたりすることができる。なお、無線通信部27が行う無線通信では、たとえば携帯電話回線網や、無線LANを介したインターネット回線網などを無線通信回線網として利用することができる。
 GPS受信部28は、GPS衛星から送信されるGPS信号を受信して制御部20へ出力する。GPS信号には、携帯端末2の現在位置と現在時刻を求めるための情報として、そのGPS信号を送信したGPS衛星の位置と送信時刻に関する情報が含まれている。したがって、所定数以上のGPS衛星からGPS信号を受信することにより、これらの情報に基づいて現在位置と現在時刻を制御部20において算出することができる。
 次に、本車載情報システムにおける車載装置1と携帯端末2との連携機能について説明する。本車載情報システムは、車載装置1と携帯端末2との連携機能を有している。この連携機能を用いることで、車載装置1と携帯端末2とが互いに接続された状態で携帯端末2において様々なアプリケーションを実行すると、車載装置1において当該アプリケーションに応じた画像表示や音声出力を行うことができる。また、車載装置1に対して行われたユーザの操作内容を、携帯端末2において実行されているアプリケーションの動作に反映させることができる。
 たとえば、携帯端末2においてナビゲーション用のアプリケーションを実行することにより、車両を目的地まで誘導するためのナビゲーション処理を行うことができる。このナビゲーション処理では、携帯端末2において現在位置付近の地図を描画した地図画面を作成し、その地図画面を表す画像情報を、前述の映像信号により、映像・音声信号出力部26から映像・音声ケーブル3を介して映像・音声信号入力部16へ出力する。これにより、携帯端末2から車載装置1へ地図画面を送信し、車載装置1の表示部11において現在位置付近の地図画面を表示できるようにする。また、車載装置1の操作部12または携帯端末2の操作部22を操作してユーザが目的地を設定すると、車両の現在位置を出発地として、そこから設定された目的地までの推奨経路を携帯端末2において探索する。そして、推奨経路上の誘導地点に車両が近づくと、その誘導地点における車両の進行方向に応じた誘導音声を携帯端末2から車載装置1へ送信する。これにより、車載装置1の音声出力部13から誘導音声を出力できるようにする。なお、このとき携帯端末2から車載装置1に対して、誘導音声出力の開始と終了のタイミングに応じてそれぞれ所定の信号を出力してもよい。このようにすれば、車載装置1においてラジオ放送や再生中のCD等による音声が出力されている場合であっても、その音声のボリュームを誘導音声の出力中には低下させ、ユーザが誘導音声を聞き取りやすくすることができる。以上説明したように、表示部11に地図画像を表示したり、音声出力部13から誘導音声を出力したりすることで、車載装置1は、ユーザが迷わずに車両を目的地まで運転できるようにするための報知をユーザに対して行う。
 なお、携帯端末2がナビゲーション用のアプリケーションを実行するために必要な地図データ等の各種データは、携帯端末2のメモリ部24において予め記憶されたものを使用してもよい。あるいは、メモリ部24には必要最小限のデータのみを記憶しておき、携帯端末2がナビゲーション用のアプリケーションを実行したときには、無線通信部27を用いて所定のサーバに接続し、必要なデータをその都度取得するようにしてもよい。
 携帯端末2では、上記のようなナビゲーション用のアプリケーションを含む複数のアプリケーションのうち、ユーザに選択されたアプリケーションを実行する。ユーザは、携帯端末2の表示部21に表示されるメニュー画面において、操作部22を操作して所望のアプリケーションを選択することにより、携帯端末2に実行させるアプリケーションの選択を行うことができる。このメニュー画面には、たとえば、連携機能を利用可能な各アプリケーションのアイコンが並べて表示されている。ユーザがメニュー画面上でいずれかのアイコンをタッチパネル操作等により選択すると、そのアイコンに対応するアプリケーションが携帯端末2において実行される。
 さらに携帯端末2は、映像・音声信号出力部26からの映像信号によりメニュー画面を車載装置1へ送信する。車載装置1は、携帯端末2から送信された映像信号に基づいて、表示部11にメニュー画面を表示する。このメニュー画面において、ユーザがタッチパネルの一部である操作部12のタッチ操作により所望のアプリケーションを選択すると、そのタッチ操作に応じた操作情報が近距離無線通信インタフェース部15により車載装置1から携帯端末2へ送信される。
 車載装置1から送信された操作情報は、携帯端末2において近距離無線通信インタフェース部25により受信され、制御部20へ出力される。こうして受信された操作情報に基づいて、制御部20は、車載装置1においてどのアプリケーションがユーザに選択されたかを認識し、当該アプリケーションを実行する。これによりユーザは、携帯端末2の表示部21に表示されるメニュー画面を用いた場合と同様に、所望のアプリケーションを車載装置1において選択し、携帯端末2に実行させることができる。
 なお、制御部20は、各アプリケーションをフォアグランドまたはバックグランドで実行することができる。フォアグランドで実行した場合、そのアプリケーションは車載装置1および携帯端末2において画像表示や操作入力の対象とされる。一方、バックグランドで実行した場合、そのアプリケーションに応じた処理が制御部20により実行されるが、そのアプリケーションは車載装置1および携帯端末2において画像表示や操作入力の対象とはされない。ただし、音声についてはバックグランド実行中のアプリケーションから出力してもよい。
 車載装置1と携帯端末2とを互いに接続して前述のような連携機能を実現するために、携帯端末2には、アプリケーションマネージャと呼ばれるアプリケーションが予めインストールされてメモリ部24に記憶されている。すなわち、メモリ部24には、アプリケーションマネージャを含む複数のアプリケーションが記憶されている。車載装置1に携帯端末2が接続されると、このアプリケーションマネージャがメモリ部24から読み出され、制御部20において実行される。
 図3は、携帯端末2におけるソフトウェアの概略構成を示す図である。図3において、アプリケーションマネージャ201は、サブアプリケーションMaと、サブアプリケーションMsとを有している。
 サブアプリケーションMaは、アプリケーションマネージャ201以外のアプリケーションを起動するためのランチャ機能と、各アプリケーションの規制情報を取得するための規制情報取得機能とを有している。制御部20は、サブアプリケーションMaをフォアグランドで実行することにより、これらの機能を利用することができる。たとえば、ランチャ機能を用いて、他のアプリケーションを呼び出し、サブアプリケーションMaに代えてそのアプリケーションを制御部20にフォアグランドで実行させることができる。また、規制情報取得機能を用いて、メモリ部24に記憶されている各アプリケーションに対する車両走行中の動作規制の内容を示す規制情報を、メモリ部24や外部のサーバ等から取得することができる。
 サブアプリケーションMsは、携帯端末2を車載装置1に接続するための通信機能と、車両走行中の動作規制を行うための動作規制機能とを有している。制御部20は、サブアプリケーションMsをバックグランドで実行することにより、これらの機能を利用することができる。たとえば、通信機能を用いて、携帯端末2と車載装置1との間で連携時に必要な情報を送受信するための通信処理を実行することができる。また、動作規制機能を用いて、上記のサブアプリケーションMaにより規制情報取得機能を用いて取得された規制情報を参照して、フォアグランドで実行中のアプリケーションに対する車両走行中の動作規制の内容を判断することができる。この判断結果を示した制限情報は、上記の通信機能により携帯端末2から車載装置1へ送信され、車載装置1において車両走行中の動作制限を行う際に利用される。
 以上説明したように、アプリケーションマネージャ201は、制御部20においてフォアグランドで実行されるサブアプリケーションMaと、制御部20においてバックグランドで実行されるサブアプリケーションMsとに分けて構成されている。このようにすることで、アプリケーションマネージャ201の機能分担を最適化し、フォアグランドとバックグランドでそれぞれ実行するのに適した機能分担とすることができる。なお、サブアプリケーションMsのように常時バックグランドで実行されるアプリケーションは、デーモンやサービスと呼ばれることもある。
 アプリケーションマネージャ201は、サブアプリケーションMaのランチャ機能により、アプリケーション202に含まれる各アプリケーションのいずれかを呼び出す。すると、制御部20により、このアプリケーションがサブアプリケーションMaに代えてフォアグランドで実行される。なお、図3に対する以下の説明では、アプリケーションAが実行されているものとして説明する。
 OS(オペレーティングシステム)203は、携帯端末2の全体的な動作を管理するためのソフトウェアである。携帯端末2を車載装置1に接続した場合、OS203は、制御部20においてバックグランドで実行されるサブアプリケーションMsと、SPP(Serial Port Profile)204およびHID(Human Interface Device)プロファイル205との間で入出力される情報の仲介を行う。SPP204およびHIDプロファイル205は、車載装置1と携帯端末2の間で行われる近距離無線通信において利用されるドライバであり、Bluetoothで用いられる規格の一部として標準化されている。
 SPP204は、サブアプリケーションMsの動作規制機能による動作規制内容の判断結果を示した前述の制限情報を送信するための処理や、車両の走行状態に応じて車載装置1から送信される走行情報を受信するための処理を行う。一方、HIDプロファイル205は、車載装置1におけるユーザの操作内容に応じて出力される操作情報を受信するための処理を行う。SPP204およびHIDプロファイル205により受信された各情報の内容は、OS203を介してサブアプリケーションMsに出力され、サブアプリケーションMsの通信機能により実行中のアプリケーションへと受け渡される。なお、これらの各情報の送受信は、車載装置1の近距離無線通信インタフェース部15と携帯端末2の近距離無線通信インタフェース部25との間で無線通信により行われる。
 制御部20においてサブアプリケーションMaをフォアグランドで実行中の場合、サブアプリケーションMaは、前述のランチャ機能により、ユーザに実行するアプリケーションを選択させるためのメニュー画面の画像を生成する。また、制御部20においてアプリケーションAをフォアグランドで実行中の場合、アプリケーションAは、サブアプリケーションMsから受け渡された走行情報や操作情報を必要に応じて利用し、所定の画像や音声を生成する。これらの画像や音声は、音声・画像メモリ206に一時的に記憶された後、HDMIドライバ207へ出力される。
 HDMIドライバ207は、HDMIで定められた方式に従って、サブアプリケーションMaやアプリケーションAにより生成された画像や音声を映像信号や音声信号に変換する処理を行う。この映像信号や音声信号は、映像・音声信号出力部26により、映像・音声ケーブル3を介して車載装置1へ出力される。
 携帯端末2は、以上説明したようなソフトウェア構成を有している。なお、こうしたソフトウェア構成は、たとえばAndroidを用いて実現することができる。この場合、たとえばサブアプリケーションMaを「Activity」と呼ばれるスレッドで実行し、サブアプリケーションMaを「Service」と呼ばれるスレッドで実行することにより、制御部20においてサブアプリケーションMaをフォアグランドで実行しつつ、サブアプリケーションMsをバックグランドで実行することができる。
 次に、ユーザが車載装置1においてタッチ操作を行った場合の動作について詳しく説明する。前述のように、車載装置1の表示部11に表示された画面上でユーザがタッチ操作を行うと、そのタッチ操作で指定されたタッチ位置に応じた操作情報が車載装置1から携帯端末2へ送信される。このとき車載装置1は、HIDパケットと呼ばれるマウス用の通信フォーマットを利用して、携帯端末2へ操作情報を送信する。
 なお、Bluetoothにおけるマウス用の通信フォーマットであるHIDパケットは、一般的には、携帯端末2の入力デバイスとしてマウスを使用したときに利用される。マウスを使用した場合、HIDパケットでは、所定のデータフォーマットにより、マウスの動きに応じた移動量情報と、クリック操作等の各種ボタン操作に応じたボタン操作情報とを、所定時間ごとにマウスから携帯端末2へ送信することができる。HIDパケットによりマウスから送信されたこれらの情報を受信すると、携帯端末2は、図3に示したHIDプロファイル205により受信処理を行った後、OS203により解読することでマウスの動きを検出し、その動きに応じて画面上のカーソルを移動させる。さらに、クリック操作等のボタン操作が行われると、そのときのカーソル位置に対応する画面内容とボタン操作の内容から、ユーザが画面上で行った操作内容を解読する。制御部20では、このようにしてOS203により解読されたマウスの操作内容に応じて、メニュー画面上で指定されたアイコンに対応するアプリケーションを起動したり、実行中のアプリケーション画面で指定された操作に応じた処理を実行したりする。
 本実施形態による車載情報システムでは、上記のようなHIDパケットを利用して、車載装置1でのタッチ操作に応じた操作情報を車載装置1から携帯端末2へ送信する。これにより、携帯端末2において、マウス使用時と同様にOS203によりタッチ操作内容を認識できるようにしている。
 図4(a)、図4(b)は、車載装置1においてタッチ操作が行われたときの車載装置1と携帯端末2の動作を説明する図である。図4(a)は、タッチ操作前の様子を示している。図4(a)において、表示部11と表示部21の外周部分のうち右下端にそれぞれ表示されている矢印形状のカーソル40は、その矢印の先端部分に当たるカーソル40の左上端を指示点としている。すなわち、タッチ操作前において画面上のカーソル40は、車載装置1では表示部11の右下端に当たる基準位置41を指示しており、携帯端末2では表示部21の右下端に当たる基準位置42を指示している。なお、このときカーソル40の大部分は、表示部11、21の各画面表示の範囲外に位置しており、実際には表示されない。そのため、図4(a)ではカーソル40の表示位置を破線で示している。
 タッチ操作前において、携帯端末2は、基準位置42に表示されたカーソル40を含む画面を表示部21に表示すると共に、この画面の画像情報を、前述の映像信号を用いて、映像・音声ケーブル3を介して車載装置1へ出力する。携帯端末2から画像情報を受信すると、車載装置1は、その画像情報に基づいて、携帯端末2の表示部21に表示されているのと同じ画面を表示部11に表示する。これにより、図4(a)に示すように、基準位置41に表示されたカーソル40を含む画面が表示部11において表示される。
 ここで図4(a)に示すように、表示部11のX方向(横方向)に対する解像度をXv、Y方向(縦方向)に対する解像度をYvとそれぞれ表す。また、表示部21のX方向(横方向)に対する解像度をXs、Y方向(縦方向)に対する解像度をYsとそれぞれ表す。これらの解像度の情報は、車載装置1と携帯端末2において、メモリ部14、24にそれぞれ予め記憶されている。
 図4(b)は、タッチ操作が行われたときの様子を示している。図4(b)に示すように、ユーザが車載装置1に対してタッチ操作を行い、タッチ位置43を指定したとする。このタッチ操作を検出すると、車載装置1は、タッチ操作前にカーソル40が指示していた右下端の基準位置41からタッチ位置43までの移動量として、X方向の移動量PxおよびY方向の移動量Pyを算出する。この移動量Px、Pyは、たとえば、基準位置41からタッチ位置43までの間にある画素数をX方向とY方向についてそれぞれ求めることにより算出される。ここで、図中に示すように表示部11の左上端を起点とし、右方向をXの正方向、下方向をYの正方向と定めた場合、基準位置41からタッチ位置43までの移動量Px、Pyはいずれも負の値として求められる。
 上記のようにしてX方向の移動量PxおよびY方向の移動量Pyを算出したら、続いて車載装置1は、この移動量Px、Pyを携帯端末2の表示部21上の移動量Qx、Qyに変換する。この移動量の変換は、前述の解像度Xv、YvおよびXs、Ysを基に、下記の式(1)を用いて行われる。
 Qx=Px×(Xs/Xv)、Qy=Py×(Ys/Yv)
 ・・・(1)
 上記の式(1)において、Xs/XvおよびYs/Yvは、移動量Px、Pyを移動量Qx、Qyにそれぞれ変換する際の変換係数である。車載装置1は、表示部21の解像度Xs、Ysを携帯端末2から事前に取得することで、これらの変換係数を求めることができる。
 変換後の移動量Qx、Qyを算出したら、車載装置1は、これらの移動量Qx、Qyを示す移動量情報をHIDパケットにより携帯端末2へ送信する。
 車載装置1から移動量Qx、Qyを示す移動量情報を受信すると、携帯端末2は、これらの移動量Qx、QyをOS203により解読する。そして、図4(b)に示すように、カーソル40を右下端の基準位置42から移動量Qx、Qyだけ移動させて表示部21に表示すると共に、この移動後のカーソル40を含む画面の画像情報を、前述の映像信号を用いて、映像・音声ケーブル3を介して車載装置1へ出力する。
 携帯端末2から移動後のカーソル40を含む画面の画像情報を受信すると、車載装置1は、その画像情報に基づいて、携帯端末2の表示部21に表示されているのと同じ画面を表示部11に表示する。これにより、図4(b)に示すように、カーソル40がタッチ位置43を指示している画面が表示部11において表示される。
 移動量Qx、Qyを示す移動量情報を送信した後、車載装置1は、移動量が0であることを示す移動量情報をHIDパケットにより携帯端末2へ送信する。このときさらに、所定のボタン操作、たとえば左クリック操作が行われたことを示すボタン操作情報を合わせて送信する。
 車載装置1から上記の移動量情報およびボタン操作情報を受信すると、携帯端末2は、そのボタン操作情報が示すボタン操作の内容をOS203により解読する。そして、移動後のカーソル40の表示位置、すなわちタッチ位置43に表示されている画面内容と、ボタン操作内容とに応じて、たとえば、タッチ位置43のアイコンに対応するアプリケーションの起動などを行う。以上説明したようにして、車載装置1に対してユーザが行ったタッチ操作に応じた処理を携帯端末2において実行することができる。
 なお、以上説明したタッチ操作時の動作は、ユーザがタッチパネル上の特定のタッチ位置を一回叩くように指定するシングルタップ操作の場合の例である。この場合、車載装置1は、マウスでクリック操作が行われた場合と同様の操作情報を携帯端末2へ送信する。ユーザはこれ以外にも、たとえば、同じタッチ位置を二回叩くように指定するダブルタップ操作、タッチ操作しながらタッチ位置を所定方向に移動させるフリック操作、同じタッチ位置を所定時間以上タッチし続ける長押し操作などを、車載装置1に対して行うことができる。車載装置1は、これらのタッチ操作の種類をそれぞれ識別し、携帯端末2へ送信する操作情報をタッチ操作の種類ごとに変化させる。
 具体的には、ダブルタップ操作が行われた場合、車載装置1は、移動量Px、Pyに応じて変換後の移動量Qx、Qyを示す移動量情報を送信した後に、移動量が0であることを示す移動量情報と合わせて、所定のボタン操作を示すボタン操作情報を二回送信する。すなわち、マウスでダブルクリック操作が行われた場合と同様の操作情報を携帯端末2へ送信する。
 一方、フリック操作が行われた場合、車載装置1は、移動量Px、Pyに応じて変換後の移動量Qx、Qyを示す移動量情報を送信した後に、フリック操作中のタッチ位置の移動量を所定時間ごとに算出する。そして、前述の式(1)により、フリック操作中のタッチ位置の移動量を携帯端末2の表示部21上の移動量に変換し、その変換後の移動量を示す移動量情報を、所定のボタン操作を示すボタン操作情報と合わせて送信する。フリック操作が終了したら、最後に移動量が0であることを示す移動量情報を送信する。すなわち、マウスでドラッグアンドドロップ操作が行われた場合と同様の操作情報を携帯端末2へ送信する。
 また、長押し操作が行われた場合、車載装置1は、移動量Px、Pyに応じて変換後の移動量Qx、Qyを示す移動量情報を送信した後に、長押し操作の間、移動量が0であることを示す移動量情報と合わせて、所定のボタン操作を示すボタン操作情報を続けて送信する。すなわち、マウスを動かさずに長押しクリック操作が行われた場合と同様の操作情報を携帯端末2へ送信する。
 携帯端末2は、以上説明したようなタッチ操作の種類に応じた操作情報を車載装置1から受信することで、ユーザが車載装置1に対して行ったタッチ操作の種類を識別し、そのタッチ操作に応じた処理を実行することができる。
 図5は、タッチ操作が行われたときに車載装置1において実行される処理のフローチャートである。このフローチャートに示す処理は、車載装置1と携帯端末2の間で通信が確立されると、制御部10により実行されるものである。
 ステップS10において、制御部10は、近距離無線通信インタフェース部15を用いて、携帯端末2から送信される表示部21の解像度情報を受信する。ここでは前述のように、表示部21のX方向に対する解像度Xsと、Y方向に対する解像度Ysとを、携帯端末2から受信する。
 ステップS20において、制御部10は、ステップS10で携帯端末2から受信した表示部21の解像度情報と、メモリ部14に予め記憶されている表示部11の解像度とに基づいて、表示部11に対する表示部21の解像度比に応じた変換係数を算出する。ここでは前述の式(1)に示したように、ステップS10で受信した解像度情報が表す表示部21の解像度Xs、Ysを、表示部11のX方向に対する解像度XvとY方向に対する解像度Yvでそれぞれ割ることで、X方向に対する変換係数Xs/Xvと、Y方向に対する変換係数Ys/Yvとを算出する。
 ステップS30において、制御部10は、表示部11と一体的に構成されたタッチパネルスイッチである操作部12に対してユーザからタッチ操作が行われたか否かを判定する。タッチ操作が行われた場合は、そのタッチ操作を検出してステップS40へ進む。
 ステップS40において、制御部10は、ステップS30でタッチ操作を検出したときのカーソルの表示位置から、そのタッチ操作で指定されたタッチ位置までの移動量を算出する。ここでは前述のように、右下端の基準位置41からタッチ位置43までの移動量として、X方向の移動量PxおよびY方向の移動量Pyを算出する。
 ステップS50において、制御部10は、ステップS40で算出した移動量を携帯端末2の表示部21上の移動量に変換する。ここでは、ステップS20で算出したX方向の変換係数Xs/XvおよびY方向の変換係数Ys/Yvを用いて、前述の式(1)により、表示部11に対して算出されたX方向の移動量PxおよびY方向の移動量Pyを、表示部21上のX方向の移動量QxおよびY方向の移動量Qyにそれぞれ変換する。
 ステップS60において、制御部10は、近距離無線通信インタフェース部15を用いて、ステップS50で変換した移動量を示す移動量情報を携帯端末2へ送信する。これにより、タッチ操作時のカーソルの表示位置から検出されたタッチ位置までの移動量に応じた移動量情報が、車載装置1から携帯端末2へ送信される。この移動量情報の送信は、前述のように、マウス用の通信フォーマットであるHIDパケットを利用して行われる。こうして車載装置1から送信された移動量情報は、携帯端末2において近距離無線通信インタフェース部25により受信され、OS203により解読される。その結果、携帯端末2において画面上のカーソル位置が移動され、移動後のカーソルを含む画像情報が携帯端末2から車載装置1へと送信されて表示部11に表示される。
 ステップS70において、制御部10は、ステップS30で検出したタッチ操作が継続中であるか否かを判定する。タッチ操作が所定時間以内に終了した場合は、タッチ操作が継続中ではないと判定してステップS80へ進み、継続中である場合はステップS130へ進む。
 ステップS70からS80へ進んだ場合、ステップS80において制御部10は、移動量情報における移動量を0に設定する。ここでは、X方向、Y方向のいずれについても移動量を0とする。続くステップS90において、制御部10は、近距離無線通信インタフェース部15を用いて、ステップS80で設定した移動量が0であることを示す移動量情報と、左クリック操作等の所定のボタン操作が行われたことを示すボタン操作情報とを、携帯端末2へ送信する。
 ステップS100において、制御部10は、表示部11と一体的に構成されたタッチパネルスイッチである操作部12に対して、ステップS30で検出したタッチ操作に続けてさらにタッチ操作が行われたか否かを判定する。連続してタッチ操作が行われていない場合、すなわちシングルタップ操作の場合は、ステップS110へ進む。これにより、シングルタップ操作が行われた場合は、ステップS60で移動量情報を送信した後にステップS90を一回だけ実行し、移動量が0であることを示す移動量情報と共にボタン操作情報を車載装置1から携帯端末2へ送信する。
 一方、ステップS100で連続してタッチ操作が行われたと判定した場合は、ステップS90へ戻り、そのタッチ操作の回数分だけステップS90を繰り返し実行する。これにより、ダブルタップ操作が行われた場合は、ステップS60で移動量情報を送信した後にステップS90を二回実行し、移動量が0であることを示す移動量情報と共にボタン操作情報を車載装置1から携帯端末2へ二回送信する。なお、三回以上のタッチ操作が続けて行われた場合は、三回目以降のタッチ操作を無効とすることでダブルタップ操作として処理してもよい。あるいは、タッチ操作の回数分だけステップS90を繰り返し実行することで、移動量情報とボタン操作情報を三回以上続けて送信するようにしてもよい。
 ステップS110において、制御部10は、移動量情報における移動量を所定の最大値に設定する。ここでは、X方向、Y方向のいずれについても、予め設定された最大移動量を設定する。続くステップS120において、制御部10は、近距離無線通信インタフェース部15を用いて、ステップS110で設定した最大移動量を示す移動量情報を携帯端末2へ送信する。ステップS120を実行したらステップS30へ戻り、前述のような処理を繰り返す。
 ステップS120で送信された最大移動量を示す移動量情報は、携帯端末2において近距離無線通信インタフェース部25により受信され、OS203により解読される。すると、表示部21の画面上におけるカーソルの表示位置は、車載装置1に対する直前のタッチ操作で指定されたタッチ位置に関わらず、X方向およびY方向の最大位置、すなわち図4(a)、4(b)に示した右下端の基準位置42まで移動される。このカーソル移動後の画面に応じた画像情報が携帯端末2から車載装置1へと送信されて表示部11に表示されることにより、車載装置1では、表示部11の画面上におけるカーソルの表示位置が元の基準位置41に戻される。
 一方、ステップS70からS130へ進んだ場合、ステップS130において制御部10は、ステップS30で検出したタッチ操作によるタッチ位置が変化したか否かを判定する。タッチ位置が変化した場合はステップS140へ進み、変化していない場合はステップS200へ進む。
 ステップS130からS140へ進んだ場合、ステップS140において制御部10は、直前のタッチ位置から現在のタッチ位置までの移動量を算出する。続くステップS150において、制御部10は、前述のステップS50と同様に式(1)を用いて、ステップS140で算出した移動量を携帯端末2の表示部21上の移動量に変換する。
 ステップS160において、制御部10は、近距離無線通信インタフェース部15を用いて、ステップS150で変換した移動量を示す移動量情報と、左クリック操作等の所定のボタン操作が行われたことを示すボタン操作情報とを、携帯端末2へ送信する。これにより、タッチ位置が変化しながらタッチ操作が継続中のときには、そのタッチ位置の変化に応じた移動量を示す移動量情報と、ボタン操作情報とが、車載装置1から携帯端末2へ送信される。ここで送信された移動量情報は、携帯端末2において近距離無線通信インタフェース部25により受信され、OS203により解読される。その結果、車載装置1におけるタッチ位置の変化に応じて、携帯端末2において画面上のカーソル位置が移動され、移動後のカーソルを含む画像情報が携帯端末2から車載装置1へと送信されて表示部11に表示される。
 ステップS170において、制御部10は、タッチ操作が終了したか否かを判定する。タッチ操作が継続中であればステップS140へ戻り、ステップS140~S160の処理を繰り返す。これにより、タッチ操作の継続中にタッチ位置が変化するフリック操作が行われた場合において、ステップS60で移動量情報を送信した後にタッチ操作が継続中のときには、タッチ位置の変化に応じた移動量を示す移動量情報と共にボタン操作情報を送信し続ける。タッチ操作が終了したら、ステップS180へ進む。
 ステップS180において制御部10は、前述のステップS80と同様に、移動量情報における移動量を0に設定する。続くステップS190において、制御部10は、近距離無線通信インタフェース部15を用いて、ステップS180で設定した移動量が0であることを示す移動量情報を携帯端末2へ送信する。これにより、フリック操作が行われた場合において、タッチ操作の終了後には、移動量が0であることを示す移動量情報を車載装置1から携帯端末2へ送信する。
 ステップS190を実行したら、制御部10は、前述のステップS110、S120の各処理を実行することにより、表示部11の画面上におけるカーソルの表示位置を元の基準位置41に戻す。その後はステップS30へ戻り、前述のような処理を繰り返す。
 一方、ステップS130からS200へ進んだ場合、ステップS200において制御部10は、前述のステップS80、S180と同様に、移動量情報における移動量を0に設定する。続くステップS210において、制御部10は、近距離無線通信インタフェース部15を用いて、ステップS200で設定した移動量が0であることを示す移動量情報と、左クリック操作等の所定のボタン操作が行われたことを示すボタン操作情報とを、携帯端末2へ送信する。
 ステップS220において、制御部10は、タッチ操作が終了したか否かを判定する。タッチ操作が継続中であればステップS210へ戻り、ステップS210の処理を繰り返す。これにより、タッチ位置が変化せずにタッチ操作が所定時間以上継続される長押し操作が行われた場合において、ステップS60で移動量情報を送信した後にタッチ操作が継続中のときには、移動量が0であることを示す移動量情報と共にボタン操作情報を送信し続ける。タッチ操作が終了したら、制御部10は、前述のステップS110、S120の各処理を実行することにより、表示部11の画面上におけるカーソルの表示位置を元の基準位置41に戻す。その後はステップS30へ戻り、前述のような処理を繰り返す。
 以上説明した本発明の一実施の形態によれば、次の(1)~(13)のような作用効果を奏する。
(1)車載装置1は、映像・音声信号入力部16により、携帯端末2からカーソル40を含む画面の画像情報を受信し、その画像情報に基づいて当該画面をタッチパネルである表示部11に表示する。そして、表示部11と共にタッチパネルを構成している操作部12により、ユーザからのタッチ操作により指定されたタッチ位置を検出する。このとき、制御部10の処理により、近距離無線通信インタフェース部15を用いて、カーソル40の表示位置からタッチ位置までの移動量に応じた移動量情報を携帯端末2へ送信する(ステップS60)。このようにしたので、タッチパネル操作を適用した携帯端末2の表示画面を車載装置1で表示したときに、車載装置1から携帯端末2を操作することができる。
(2)制御部10は、近距離無線通信インタフェース部15を用いて、所定のボタン操作が行われたことを示すボタン操作情報を携帯端末2へさらに送信する(ステップS90、S160、S210)。このようにしたので、携帯端末2において、マウス使用時と同様の処理でタッチ操作内容を認識することができる。
(3)タッチ位置が変化せずにタッチ操作が所定時間以内に終了した場合、制御部10は、ステップS60でカーソル40の表示位置からタッチ位置までの移動量に応じた移動量情報を送信した後に、移動量が0であることを示す移動量情報と共にボタン操作情報を送信する(ステップS90)。このようにして、シングルタップ操作が行われた場合には、マウスでクリック操作が行われた場合と同様の操作情報を車載装置1から携帯端末2へ送信するようにした。したがって、携帯端末2において、クリック操作としてシングルタップ操作を認識することができる。
(4)また、タッチ位置が変化せずにタッチ操作が複数回連続して行われた場合、制御部10は、ステップS60でカーソル40の表示位置からタッチ位置までの移動量に応じた移動量情報を送信した後に、ステップS90を複数回実行することで、移動量が0であることを示す移動量情報と共にボタン操作情報を複数回送信する。このようにして、ダブルタップ操作が行われた場合には、マウスでダブルクリック操作が行われた場合と同様の操作情報を車載装置1から携帯端末2へ送信するようにした。したがって、携帯端末2において、ダブルクリック操作としてダブルタップ操作を認識することができる。
(5)タッチ操作の継続中にタッチ位置が変化した場合、制御部10は、ステップS60でカーソル40の表示位置からタッチ位置までの移動量に応じた移動量情報を送信した後に、タッチ操作が継続中のときには、タッチ位置の変化に応じた移動量を示す移動量情報と共にボタン操作情報を送信する(ステップS160)。また、タッチ操作の終了後には、移動量が0であることを示す移動量情報を送信する(ステップS190)。このようにして、フリック操作が行われた場合には、マウスでドラッグアンドドロップ操作が行われた場合と同様の操作情報を車載装置1から携帯端末2へ送信するようにした。したがって、携帯端末2において、ドラッグアンドドロップ操作としてフリック操作を認識することができる。
(6)タッチ位置が変化せずにタッチ操作が所定時間以上継続された場合、制御部10は、ステップS60でカーソル40の表示位置からタッチ位置までの移動量に応じた移動量情報を送信した後に、タッチ操作が継続中のときには、移動量が0であることを示す移動量情報と共にボタン操作情報を送信する(ステップS210)。このようにして、長押し操作が行われた場合には、マウスを動かさずに長押しクリック操作が行われた場合と同様の操作情報を車載装置1から携帯端末2へ送信するようにした。したがって、携帯端末2において、長押しクリック操作として長押し操作を認識することができる。
(7)制御部10は、ステップS60、S90、S120、S160、S190およびS210において、近距離無線通信インタフェース部15により、ブルートゥースにおけるマウス用の通信フォーマットであるHIDパケットを利用して移動量情報を送信するようにした。このようにしたので、既存の通信フォーマットを利用して、移動量情報の送信を容易かつ確実に実現することができる。
(8)車載装置1は、映像・音声信号入力部16により、携帯端末2からカーソル40を含む画面の画像情報を受信し、その画像情報に基づいて当該画面をタッチパネルである表示部11に表示する。そして、表示部11と共にタッチパネルを構成している操作部12により、ユーザからのタッチ操作により指定されたタッチ位置を検出する。また、制御部10の処理により、近距離無線通信インタフェース部15を用いて携帯端末2から表示部21の解像度情報を受信し(ステップS10)、この解像度情報と、メモリ部14に予め記憶された表示部11の解像度とに基づいて、表示部11に対する表示部21の解像度比に応じた変換係数Xs/Xv、Ys/Yvを算出する(ステップS20)。そして、カーソル40の表示位置からタッチ位置までの移動量Px、Pyを算出し(ステップS40)、ステップS20で算出した変換係数Xs/Xv、Ys/Yvに基づいて、算出した移動量Px、Pyを表示部21上の移動量Qx、Qyに変換する(ステップS50)。こうして変換された移動量Qx、Qyを示す移動量情報を携帯端末2へ送信する(ステップS60)。このようにしたので、タッチパネル操作を適用した携帯端末2の表示画面を車載装置1で表示したときに、車載装置1の表示部11と携帯端末2の表示部21との間で解像度が異なる場合であっても、車載装置1から携帯端末2を適切に操作することができる。
(9)制御部10は、ステップS20において、表示部11の横方向(X方向)と縦方向(Y方向)に対して、変換係数Xs/Xv、Ys/Yvをそれぞれ算出する。また、ステップS40において、表示部11の横方向(X方向)と縦方向(Y方向)に対して、カーソル40の表示位置からタッチ位置までの移動量Px、Pyをそれぞれ算出する。ステップS50では、横方向の変換係数Xs/Xvを用いて、表示部11の横方向に対する移動量Pxを表示部21上の横方向の移動量Qxに変換すると共に、縦方向の変換係数Ys/Yvを用いて、表示部11の縦方向に対する移動量Pyを表示部21上の縦方向の移動量Qyに変換する。このようにしたので、表示部11および表示部21の横方向と縦方向それぞれの解像度に応じて、変換後の移動量Qx、Qyを正確に求めることができる。
(10)車載装置1は、映像・音声信号入力部16により、携帯端末2から所定の基準位置42に表示されたカーソル40を含む画面の画像情報を受信し、その画像情報に基づいて、当該画面と同じ画面であり、所定の基準位置41にカーソル40が表示されている画面をタッチパネルである表示部11に表示する。そして、表示部11と共にタッチパネルを構成している操作部12により、ユーザからのタッチ操作により指定されたタッチ位置を検出する。このとき、制御部10の処理により、近距離無線通信インタフェース部15を用いて、カーソル40の表示位置からタッチ位置までの移動量に応じた移動量情報を携帯端末2へ送信する(ステップS60)。これにより、カーソル40がタッチ位置に移動された画面の画像情報を携帯端末2から受信し、表示部11において表示されるようにする。また、タッチ操作の終了後に、最大移動量を示す移動量情報を携帯端末2へ送信することで(ステップS120)、カーソル40の表示位置を元の基準位置41に戻す。このようにしたので、タッチパネル操作を適用した携帯端末2の表示画面を車載装置1で表示したときに、車載装置1の表示部11と携帯端末2の表示部21との間で解像度が異なることで移動後のカーソル位置に誤差が生じるような場合であっても、その誤差を累積させずに、車載装置1から携帯端末2を適切に操作することができる。
(11)制御部10は、ステップS120において、タッチ操作の終了後に、表示部11の横方向(X方向)と縦方向(Y方向)に対して所定の最大移動量をそれぞれ示す移動量情報を携帯端末2へ送信することにより、カーソル40の表示位置を元の基準位置41に戻すようにした。これにより、直前のタッチ操作で指定されたタッチ位置に関わらず、カーソル40の表示位置を確実に基準位置41に戻すことができる。
(12)カーソル40の指示点はカーソル40の左上端に位置しており、基準位置41は表示部11の右下端に位置するようにしたので、タッチ操作を行っていないときにはカーソル40の大部分を表示部11の画面表示の範囲外として、ユーザの目障りとならないようにすることができる。
(13)車載装置1は、映像・音声信号入力部16により、携帯端末2から画像を受信し、その画像をタッチパネルである表示部11に表示する。そして、表示部11と共にタッチパネルを構成している操作部12により、ユーザからのタッチ操作により指定されたタッチ位置を検出する。このとき、制御部10の処理により、近距離無線通信インタフェース部15を用いて、カーソル40の表示位置からタッチ位置までの移動量に応じた移動量情報を携帯端末2へ送信し(ステップS60)、これに応じて携帯端末2から送信される画像情報を受信して表示部11に表示する。これにより、タッチ操作に応じて、図4(a)のように表示部11の外周部分にある基準位置41に表示されているカーソル40を、図4(b)のようにタッチ位置43に移動させる。また、タッチ操作の終了後に、最大移動量を示す移動量情報を携帯端末2へ送信することで(ステップS120)、カーソル40を元の基準位置41に戻す。このようにしたので、タッチパネル操作を適用した携帯端末2の表示画面を車載装置1で表示したときに、タッチ操作が行われていないときにはカーソル40がユーザの目障りとならないようにして、車載装置1から携帯端末2を操作することができる。
 なお、以上説明した実施の形態では、タッチ操作が行われていないときに、表示部11、12の右下端にそれぞれ位置する基準位置41、42にカーソル40を表示する例を説明した。しかし、これ以外の位置にカーソル40を表示してもよい。表示部11、12の外周部分であれば、タッチ操作が行われていないときにどの位置にカーソル40を表示しても、上記実施の形態と同様に、カーソル40がユーザの目障りとならないようにすることができる。このとき、カーソル40をなるべく目立たないようにするため、表示部11においてカーソル40の中心点から指示点へ向かう方向とは反対方向の端にある位置を基準位置として、この基準位置にカーソル40を表示することが好ましい。図4(a)、(b)の例では、カーソル40の指示点が左上端にあるため、このカーソル40の中心点から指示点へ向かう左上方向とは反対方向の右下端に基準位置41を設定している。
 また、以上説明した実施の形態では、図5のステップS120において、タッチ操作の終了後に、表示部11の横方向(X方向)と縦方向(Y方向)に対して所定の最大移動量をそれぞれ示す移動量情報を携帯端末2へ送信することで、カーソル40の表示位置を元の基準位置41に戻す例を説明した。これは、表示部11の左上端を起点とし、右方向をXの正方向、下方向をYの正方向と定義した場合に、カーソル40を右下端の基準位置41に戻すために有効である。しかし、起点の位置やX、Yの正方向の定義を変更した場合はこの限りではない。たとえば、表示部11の右下端を起点とし、左方向をXの正方向、上方向をYの正方向と定義した場合、カーソル40を右下端の基準位置41に戻すためには、表示部11のX方向とY方向に対して、所定の最小移動量をそれぞれ示す移動量情報を送信する必要がある。すなわち、ステップS120では、タッチ操作の終了後に、表示部11の横方向(X方向)と縦方向(Y方向)に対して、起点の位置やX、Yの正方向の定義に応じて、所定の最大移動量または最小移動量をそれぞれ示す移動量情報を携帯端末2へ送信することにより、カーソル40の表示位置を基準位置41に戻すことができる。なお、基準位置を右下端以外とした場合についても同様である。
 以上説明した実施の形態では、映像・音声ケーブル3を介して車載装置1と携帯端末2を互いに接続することで、携帯端末2から車載装置1へ映像信号と音声信号を送信する例を説明した。また、Bluetooth等の所定の通信規格に従って行われる近距離無線通信により、車載装置1と携帯端末2との間で通信を行う例を説明した。しかし、他の通信方式や信号伝送方式を用いても本発明は実現可能である。たとえば、携帯端末2から車載装置1への映像信号や音声信号を無線通信で送信してもよい。また、車載装置1と携帯端末2との間の通信をUSB等の有線通信を用いて行うこともできる。この場合、図5のステップS60、S90、S120、S160、S190およびS210では、前述のHIDパケットの代わりに、USBにおけるマウス用の通信フォーマット等を利用して、車載装置1から携帯端末2へ移動量情報やボタン操作情報を送信することができる。車載装置1と携帯端末2との間で必要な信号や情報を送受信可能なものである限り、どのような通信方式を採用してもよい。
 以上説明した実施の形態において、車速信号やパーキング信号以外にも、車両から出力される様々な車両情報を車載装置1において取得するようにしてもよい。このとき取得された車両情報は、車載装置1が実行する処理において利用してもよいし、あるいは、車載装置1から携帯端末2へ出力し、携帯端末2が実行する処理において利用してもよい。一例として、車両情報に応じた起動条件をアプリケーションごとに予め設定しておき、その起動条件を満たす車両情報が車両から出力されたときに、当該アプリケーションを携帯端末2において自動的に起動するようにすることができる。この場合、各アプリケーションの起動条件を示す情報を携帯端末2から車載装置1へ送信し、車載装置1において起動条件を満たすか否かを車両情報に基づいて判定してもよい。あるいは、車載装置1から携帯端末2へ車両情報を送信し、その車両情報に基づいて起動条件を満たすか否かを携帯端末2において判定してもよい。これにより、たとえば、燃料残量が所定値未満まで減ってきたという車両情報が車両から出力されたときに、現在位置周辺のガソリンスタンドを検索するためのアプリケーションを携帯端末2において自動的に起動することができる。
 以上説明した実施の形態では、車載装置1の表示部11をタッチパネルとし、この表示部11に携帯端末2から受信した画像を表示する場合の例を説明した。しかし、本発明の適用範囲はこれに限定されるものではない。情報端末と接続され、その情報端末から受信した画像をタッチパネルに表示するものである限り、どのような表示装置においても本発明を適用することができる。
 以上説明した実施の形態や各種の変形例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されるものではない。また、上記実施の形態と変形例とを任意に組み合わせて用いてもよい。
 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
 日本国特許出願2012年第130929号(2012年6月8日出願)
1:車載装置、2:携帯端末、3:映像・音声ケーブル、10:制御部、11:表示部、12:操作部、13:音声出力部、14:メモリ部、15:近距離無線通信インタフェース部、16:映像・音声信号入力部、20:制御部、21:表示部、22:操作部、23:音声出力部、24:メモリ部、25:近距離無線通信インタフェース部、26:映像・音声信号出力部、27:無線通信部、28:GPS受信部
 

Claims (16)

  1.  情報端末と接続される表示装置であって、
     前記情報端末からカーソルを含む画面の画像情報を受信する画像受信部と、
     前記画像受信部により受信された画像情報に基づいて前記画面を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルと、
     前記カーソルの表示位置から前記タッチ位置までの移動量に応じた移動量情報を前記情報端末へ送信する送信部とを備える表示装置。
  2.  請求項1に記載の表示装置において、
     前記送信部は、所定のボタン操作が行われたことを示すボタン操作情報を前記情報端末へさらに送信する表示装置。
  3.  請求項2に記載の表示装置において、
     前記タッチ位置が変化せずに前記タッチ操作が所定時間以内に終了した場合、前記送信部は、前記カーソルの表示位置から前記タッチ位置までの移動量に応じた移動量情報を送信した後に、移動量が0であることを示す移動量情報と共に前記ボタン操作情報を送信する表示装置。
  4.  請求項2または3に記載の表示装置において、
     前記タッチ位置が変化せずに前記タッチ操作が複数回連続して行われた場合、前記送信部は、前記カーソルの表示位置から前記タッチ位置までの移動量に応じた移動量情報を送信した後に、移動量が0であることを示す移動量情報と共に前記ボタン操作情報を複数回送信する表示装置。
  5.  請求項2乃至4のいずれか一項に記載の表示装置において、
     前記タッチ操作の継続中に前記タッチ位置が変化した場合、前記送信部は、前記カーソルの表示位置から前記タッチ位置までの移動量に応じた移動量情報を送信した後に、
     前記タッチ操作が継続中のときには、前記タッチ位置の変化に応じた移動量を示す移動量情報と共に前記ボタン操作情報を送信し、
     前記タッチ操作の終了後には、移動量が0であることを示す移動量情報を送信する表示装置。
  6.  請求項2乃至5のいずれか一項に記載の表示装置において、
     前記タッチ位置が変化せずに前記タッチ操作が所定時間以上継続された場合、前記送信部は、前記カーソルの表示位置から前記タッチ位置までの移動量に応じた移動量情報を送信した後に、前記タッチ操作が継続中のときには、移動量が0であることを示す移動量情報と共に前記ボタン操作情報を送信する表示装置。
  7.  請求項1乃至6のいずれか一項に記載の表示装置において、
     前記送信部は、ブルートゥースまたはUSBにおけるマウス用の通信フォーマットを利用して、前記移動量情報を送信する表示装置。
  8.  表示モニタを有する情報端末と接続される表示装置であって、
     前記情報端末からカーソルを含む画面の画像情報を受信する画像受信部と、
     前記画像受信部により受信された画像情報に基づいて前記画面を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルと、
     前記情報端末から前記表示モニタの解像度情報を受信する解像度情報受信部と、
     前記解像度情報受信部により受信された解像度情報と、予め記憶された前記タッチパネルの解像度とに基づいて、前記タッチパネルに対する前記表示モニタの解像度比に応じた変換係数を算出する変換係数算出部と、
     前記カーソルの表示位置から前記タッチ位置までの移動量を算出する移動量算出部と、
     前記変換係数算出部により算出された変換係数に基づいて、前記移動量算出部により算出された移動量を前記表示モニタ上の移動量に変換する変換部と、
     前記変換部により変換された移動量を示す移動量情報を前記情報端末へ送信する送信部とを備える表示装置。
  9.  請求項8に記載の表示装置において、
     前記変換係数算出部は、前記タッチパネルの横方向と縦方向に対して、前記変換係数をそれぞれ算出し、
     前記移動量算出部は、前記タッチパネルの横方向と縦方向に対して、前記カーソルの表示位置から前記タッチ位置までの移動量をそれぞれ算出し、
     前記変換部は、前記横方向の変換係数を用いて、前記タッチパネルの横方向に対する移動量を前記表示モニタ上の横方向の移動量に変換すると共に、前記縦方向の変換係数を用いて、前記タッチパネルの縦方向に対する移動量を前記表示モニタ上の縦方向の移動量に変換する表示装置。
  10.  情報端末と接続される表示装置であって、
     前記情報端末から所定の基準位置に表示されたカーソルを含む画面の画像情報を受信する画像受信部と、
     前記画像受信部により受信された画像情報に基づいて前記画面を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルと、
     前記カーソルの表示位置から前記タッチ位置までの移動量に応じた移動量情報を前記情報端末へ送信する送信部とを備え、
     前記タッチ操作の終了後に、前記カーソルの表示位置を前記基準位置に戻す表示装置。
  11.  請求項10に記載の表示装置において、
     前記送信部は、前記タッチ操作の終了後に、前記タッチパネルの横方向と縦方向に対して所定の最大移動量または最小移動量をそれぞれ示す移動量情報を前記情報端末へ送信することにより、前記カーソルの表示位置を前記基準位置に戻す表示装置。
  12.  請求項10または11に記載の表示装置において、
     前記カーソルの指示点は、前記カーソルの端に位置しており、
     前記基準位置は、前記タッチパネルにおいて、前記カーソルの中心から指示点へ向かう方向とは反対方向の端に位置する表示装置。
  13.  請求項12に記載の表示装置において、
     前記カーソルの指示点は、前記カーソルの左上端に位置しており、
     前記基準位置は、前記タッチパネルの右下端に位置する表示装置。
  14.  情報端末と接続される表示装置であって、
     前記情報端末から画像を受信する画像受信部と、
     前記画像受信部により受信された画像を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルとを備え、
     前記タッチ操作に応じて、前記タッチパネルの外周部分に表示されているカーソルを前記タッチ位置に移動させ、前記タッチ操作の終了後に、前記カーソルを元の位置に戻す表示装置。
  15.  請求項14に記載の表示装置において、
     前記タッチ操作の終了後に、前記タッチパネルの横方向と縦方向に対して所定の最大移動量または最小移動量をそれぞれ示す移動量情報を前記情報端末へ送信することにより、前記カーソルの表示位置を前記基準位置に戻す表示装置。
  16.  請求項14または15に記載の表示装置において、
     前記カーソルの指示点は、前記カーソルの左上端に位置しており、
     前記カーソルは、前記タッチ操作の開始前および終了後に、前記タッチパネルの右下端に表示される表示装置。
PCT/JP2013/065849 2012-06-08 2013-06-07 表示装置 WO2013183765A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP19171352.8A EP3553639A1 (en) 2012-06-08 2013-06-07 Display device
CN201380030082.8A CN104335148B (zh) 2012-06-08 2013-06-07 显示装置
US14/406,055 US9613593B2 (en) 2012-06-08 2013-06-07 Display device
EP13799850.6A EP2860615B1 (en) 2012-06-08 2013-06-07 Display device
US15/439,030 US10528311B2 (en) 2012-06-08 2017-02-22 Display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012130929A JP6124169B2 (ja) 2012-06-08 2012-06-08 表示装置
JP2012-130929 2012-06-08

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/406,055 A-371-Of-International US9613593B2 (en) 2012-06-08 2013-06-07 Display device
US15/439,030 Division US10528311B2 (en) 2012-06-08 2017-02-22 Display device

Publications (1)

Publication Number Publication Date
WO2013183765A1 true WO2013183765A1 (ja) 2013-12-12

Family

ID=49712151

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/065849 WO2013183765A1 (ja) 2012-06-08 2013-06-07 表示装置

Country Status (5)

Country Link
US (2) US9613593B2 (ja)
EP (2) EP2860615B1 (ja)
JP (1) JP6124169B2 (ja)
CN (2) CN107621923B (ja)
WO (1) WO2013183765A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014141954A1 (ja) * 2013-03-13 2014-09-18 クラリオン株式会社 表示装置
WO2016142713A1 (en) * 2015-03-10 2016-09-15 Displaylink (Uk) Limited System for connecting external displays to a mobile device

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014098164A1 (ja) * 2012-12-21 2014-06-26 日本電気株式会社 画像表示装置、携帯端末装置、情報処理システム、画像表示装置制御方法及びプログラム
JP6047822B2 (ja) * 2013-03-14 2016-12-21 シャープ株式会社 情報処理装置、情報処理方法及びプログラム
US9937416B2 (en) * 2013-06-11 2018-04-10 Microsoft Technology Licensing, Llc Adaptive touch input controls
US9886134B2 (en) 2013-12-27 2018-02-06 Pioneer Corporation Terminal device, calibration method and calibration program
JP2015128918A (ja) * 2014-01-06 2015-07-16 株式会社東海理化電機製作所 操作装置
KR101624180B1 (ko) * 2014-12-09 2016-05-25 현대자동차주식회사 단말기, 그를 가지는 차량 및 그의 제어 방법
CN104679469B (zh) * 2014-12-29 2019-02-26 合肥杰发科技有限公司 车载终端及其获取手持终端的屏幕分辨率的方法
CN104657211A (zh) * 2015-02-03 2015-05-27 百度在线网络技术(北京)有限公司 一种用于操作对应设备上目标应用的方法与设备
CN105045692B (zh) * 2015-07-22 2018-11-30 京东方科技集团股份有限公司 触摸屏测试装置及系统、触摸屏测试控制装置
CN105260112A (zh) * 2015-09-14 2016-01-20 百度在线网络技术(北京)有限公司 终端间屏幕控制的方法和装置
CN107025894A (zh) * 2016-02-02 2017-08-08 上海嘉车信息科技有限公司 车载屏幕亮度及内容显示自适应的控制系统及控制方法
JP6686689B2 (ja) * 2016-05-13 2020-04-22 三菱自動車工業株式会社 車両制御システム
JP6986518B2 (ja) 2016-12-19 2021-12-22 フォルシアクラリオン・エレクトロニクス株式会社 端末、及び端末の制御方法
JP6397530B2 (ja) * 2017-03-24 2018-09-26 クラリオン株式会社 表示装置
JP2018194584A (ja) * 2017-05-12 2018-12-06 シャープ株式会社 表示装置、表示装置における情報端末機の設定方法および表示システム
JP2018081711A (ja) * 2017-12-25 2018-05-24 パイオニア株式会社 端末装置、キャリブレーション方法及びキャリブレーションプログラム
JP7059715B2 (ja) * 2018-03-15 2022-04-26 京セラドキュメントソリューションズ株式会社 画像形成装置、画像形成システム
CN109561202B (zh) * 2018-09-29 2021-10-08 百度在线网络技术(北京)有限公司 控件处理方法、装置、终端设备、车机及系统
JP2019179563A (ja) * 2019-06-04 2019-10-17 パイオニア株式会社 端末装置
CN113282340B (zh) * 2021-05-12 2023-04-07 聚融医疗科技(杭州)有限公司 用于带触摸屏的多屏超声诊疗系统的鼠标管理方法及装置
TWI801867B (zh) * 2021-05-12 2023-05-11 虹堡科技股份有限公司 密碼輸入裝置
US20230063335A1 (en) * 2021-08-27 2023-03-02 Ricoh Company, Ltd. Display apparatus, display system, display control method, and non-transitory recording medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244343A (ja) 2002-02-21 2003-08-29 Toyota Motor Corp 表示装置、携帯端末及び情報表示システム
WO2010120878A2 (en) * 2009-04-14 2010-10-21 Qualcomm Incorporated System and method for controlling mobile devices
JP2011259259A (ja) * 2010-06-10 2011-12-22 Alpine Electronics Inc 電子機器および操作キーの割当方法
JP2012018587A (ja) * 2010-07-09 2012-01-26 Toyota Motor Corp 画像表示システム

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4216352A (en) * 1978-11-02 1980-08-05 The Charles Stark Draper Laboratory, Inc. Two coordinate position sensing systems
US5274794A (en) * 1991-01-22 1993-12-28 Graphon Corporation Method and apparatus for transferring coordinate data between a host computer and display device
JPH09244809A (ja) 1996-03-06 1997-09-19 Nec Eng Ltd マウス透過式タッチパネル装置
US6952799B2 (en) * 1996-06-17 2005-10-04 British Telecommunications User interface for network browser including pre-processor for links embedded in hypermedia documents
US6750803B2 (en) * 2001-02-23 2004-06-15 Interlink Electronics, Inc. Transformer remote control
KR100474724B1 (ko) * 2001-08-04 2005-03-08 삼성전자주식회사 터치스크린을 가지는 장치 및 그 장치에 외부디스플레이기기를 연결하여 사용하는 방법
US20030231168A1 (en) * 2002-06-18 2003-12-18 Jory Bell Component for use as a portable computing device and pointing device in a modular computing system
JP2005056088A (ja) 2003-08-01 2005-03-03 Ricoh Co Ltd タッチパネル付きディスプレイ装置、タッチパネル付きディスプレイ装置の制御方法およびその方法をコンピュータに実行させるためのプログラム
DE102005023544A1 (de) * 2005-05-21 2006-12-07 Bayerische Motoren Werke Ag Anschluss von persönlichen Endgeräten an das Kommunikationssystem eines Kraftfahrzeuges
TWI284274B (en) * 2005-06-29 2007-07-21 Elan Microelectronics Corp Method for controlling intelligent movement of touch pad
US7970436B1 (en) * 2006-09-22 2011-06-28 Sprint Communications Company L.P. Wireless interface extension for mobile devices
US20080158152A1 (en) * 2006-12-27 2008-07-03 Lenovo (Singapore) Pte. Ltd. Cursor jump control with a touchpad
US7777732B2 (en) * 2007-01-03 2010-08-17 Apple Inc. Multi-event input system
US20090195513A1 (en) * 2008-02-05 2009-08-06 Delphi Technologies, Inc. Interactive multimedia control module
US8085281B2 (en) * 2008-05-08 2011-12-27 Microsoft Corporation Method of displaying input from a portable computing device
US20110205178A1 (en) * 2008-10-28 2011-08-25 Toshihiko Yoshida Electronic device having two display devices, method of controlling the same, and recording medium
US20100220066A1 (en) * 2009-02-27 2010-09-02 Murphy Kenneth M T Handheld electronic device having a touchscreen and a method of using a touchscreen of a handheld electronic device
TW201104529A (en) * 2009-07-22 2011-02-01 Elan Microelectronics Corp Touch device, control method and control unit for multi-touch environment
CN101667079A (zh) * 2009-09-16 2010-03-10 中兴通讯股份有限公司南京分公司 通过移动终端触摸屏控制计算机的方法、系统及移动终端
CN101674671B (zh) * 2009-10-13 2012-02-01 武汉市城市规划设计研究院 基于移动互联网络的规划信息处理和发布方法及其系统
KR101154770B1 (ko) 2009-11-27 2012-07-09 현대자동차주식회사 휴대기기와 연동하는 사용자 인터페이스를 구비한 차량용 오디오 비디오 단말 시스템 및 그 연동 방법
US8694177B2 (en) * 2010-03-12 2014-04-08 GM Global Technology Operations LLC Flexible vehicle display
TWM389063U (en) 2010-03-16 2010-09-21 Wonde Proud Technology Co Ltd Vehicle mobile device control system
TWI529574B (zh) * 2010-05-28 2016-04-11 仁寶電腦工業股份有限公司 電子裝置與其操作方法
JP2011254238A (ja) * 2010-06-01 2011-12-15 Sony Corp 情報処理装置、情報処理方法および情報処理システム
JP2012058857A (ja) * 2010-09-06 2012-03-22 Sony Corp 情報処理装置、操作方法及び情報処理プログラム
CN101937312B (zh) * 2010-09-15 2014-03-19 中兴通讯股份有限公司 一种电子书的标记方法及移动终端
CN105333884B (zh) * 2010-09-17 2018-09-28 歌乐株式会社 车载信息系统、车载装置、信息终端
US20120075204A1 (en) * 2010-09-27 2012-03-29 Google Inc. Using a Touch-Sensitive Display of a Mobile Device with a Host Computer
JP2012130929A (ja) 2010-12-20 2012-07-12 Mitsubishi Heavy Ind Ltd バックシール施行用装置
JP2012236327A (ja) * 2011-05-11 2012-12-06 Canon Inc 印刷装置、印刷装置の制御方法、及びプログラム
JP5259772B2 (ja) 2011-05-27 2013-08-07 株式会社東芝 電子機器、操作支援方法及びプログラム
CN102314502B (zh) * 2011-09-01 2017-03-01 百度在线网络技术(北京)有限公司 一种用于在移动终端上显示网页主体内容的方法和设备
KR20130053185A (ko) * 2011-11-15 2013-05-23 삼성전자주식회사 전자기기들 간의 상호 제어 방법 및 시스템
WO2013121455A1 (ja) * 2012-02-13 2013-08-22 日立コンシューマエレクトロニクス株式会社 プロジェクタ、図形入力・表示装置、携帯端末およびプログラム。

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244343A (ja) 2002-02-21 2003-08-29 Toyota Motor Corp 表示装置、携帯端末及び情報表示システム
WO2010120878A2 (en) * 2009-04-14 2010-10-21 Qualcomm Incorporated System and method for controlling mobile devices
JP2011259259A (ja) * 2010-06-10 2011-12-22 Alpine Electronics Inc 電子機器および操作キーの割当方法
JP2012018587A (ja) * 2010-07-09 2012-01-26 Toyota Motor Corp 画像表示システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2860615A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014141954A1 (ja) * 2013-03-13 2014-09-18 クラリオン株式会社 表示装置
US9846506B2 (en) 2013-03-13 2017-12-19 Clarion Co., Ltd. Display device
WO2016142713A1 (en) * 2015-03-10 2016-09-15 Displaylink (Uk) Limited System for connecting external displays to a mobile device
GB2536253B (en) * 2015-03-10 2018-12-19 Displaylink Uk Ltd System for connecting external displays to a mobile device

Also Published As

Publication number Publication date
US20150154728A1 (en) 2015-06-04
JP2013254435A (ja) 2013-12-19
CN104335148B (zh) 2017-10-31
EP2860615A1 (en) 2015-04-15
JP6124169B2 (ja) 2017-05-10
EP2860615A4 (en) 2016-07-06
EP2860615B1 (en) 2019-06-05
CN107621923B (zh) 2021-05-04
US9613593B2 (en) 2017-04-04
US20170161005A1 (en) 2017-06-08
US10528311B2 (en) 2020-01-07
EP3553639A1 (en) 2019-10-16
CN107621923A (zh) 2018-01-23
CN104335148A (zh) 2015-02-04

Similar Documents

Publication Publication Date Title
JP6124169B2 (ja) 表示装置
JP6559825B2 (ja) 表示装置、情報端末操作方法
JP6058654B2 (ja) 車載情報システム、情報端末、アプリケーション実行方法
JP5859163B2 (ja) 車載情報システム、アプリケーションマネージャプログラム
JP6103620B2 (ja) 車載情報システム、情報端末、アプリケーション実行方法、プログラム
US9244696B2 (en) In-car information system, information terminal, and application execution method
KR101495190B1 (ko) 영상표시장치 및 그 영상표시장치의 동작 방법
WO2013180279A1 (ja) 車載情報システム、情報端末、アプリケーション実行方法、プログラム
JP6397530B2 (ja) 表示装置
JP2012063249A (ja) 車載情報システム、車載装置、情報端末
JP2013250132A (ja) 車載装置、車載情報システム
KR20140098383A (ko) 외부기기와 차량 avn 간의 연동시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13799850

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14406055

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2013799850

Country of ref document: EP