WO2014141954A1 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
WO2014141954A1
WO2014141954A1 PCT/JP2014/055485 JP2014055485W WO2014141954A1 WO 2014141954 A1 WO2014141954 A1 WO 2014141954A1 JP 2014055485 W JP2014055485 W JP 2014055485W WO 2014141954 A1 WO2014141954 A1 WO 2014141954A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
touch
operation information
display device
unit
Prior art date
Application number
PCT/JP2014/055485
Other languages
English (en)
French (fr)
Inventor
憲和 奈良
克己 佐野
祐介 松本
克哉 松雪
Original Assignee
クラリオン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クラリオン株式会社 filed Critical クラリオン株式会社
Priority to US14/774,210 priority Critical patent/US9846506B2/en
Priority to CN201480014777.1A priority patent/CN105190522B/zh
Priority to EP14765255.6A priority patent/EP2975829B1/en
Priority to JP2015505413A priority patent/JP6317326B2/ja
Publication of WO2014141954A1 publication Critical patent/WO2014141954A1/ja
Priority to US15/813,624 priority patent/US20180136779A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0231Cordless keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0383Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices

Definitions

  • the present invention relates to a display device.
  • the display device connected to the information terminal is based on the image receiving unit that receives the image information of the screen including the cursor from the information terminal, and the image information received by the image receiving unit.
  • a touch panel that displays a screen and detects a touch position designated by a touch operation, and a transmission unit that transmits operation information corresponding to the touch operation to the information terminal are provided.
  • the transmission unit transmits the operation information with a delay.
  • the transmission unit in the display device according to the first aspect, when the touch position is designated by the touch operation, the transmission unit is configured to move the cursor from the predetermined reference position to the touch position.
  • the operation information includes movement amount information indicating a movement amount of the cursor, and the transmission unit responds to a distance from the reference position to the touch position. It is preferable that the movement amount information is transmitted as the first operation information, and the predetermined movement amount information corresponding to the reference position is transmitted as the second operation information.
  • the transmission unit when the touch position is designated by the touch operation, transmits the first operation information and then transmits the predetermined button. If the designation of the touch position is canceled after the third operation information indicating the operation is transmitted and the third operation information is transmitted, the second operation information indicating the release of the button operation is transmitted, and then the second operation information is transmitted. It is preferable to transmit the operation information.
  • the transmission unit sets the amount of movement of the cursor to zero in the third operation information and the fourth operation information.
  • the transmitting unit when the touch position is moved during the touch operation, transmits the first operation information, Operation information including button operation information indicating button operation and movement amount information corresponding to the movement amount of the touch position may be transmitted.
  • the transmission unit when the touch position is moved during the touch operation, displays the first operation information and the third operation information. After the transmission, operation information including button operation information indicating the button operation and movement amount information corresponding to the movement amount of the touch position may be transmitted.
  • the display device may further include an interval time information acquisition unit that acquires interval time information related to the interval time from the information terminal.
  • the transmission unit preferably determines whether or not to transmit the operation information with a delay based on the interval time information acquired by the interval time information acquisition unit.
  • the interval time information is preferably transmitted from the information terminal based on a policy file distributed from the predetermined server device to the information terminal.
  • the transmission unit may transmit the operation information using a communication format for a mouse in Bluetooth or USB.
  • the display device connected to the information terminal is based on the image receiving unit that receives the image information of the screen including the cursor from the information terminal, and the image information received by the image receiving unit.
  • a touch panel that displays a screen and detects a touch position designated by a touch operation, and a transmission unit that transmits operation information corresponding to the touch operation to the information terminal are provided.
  • the transmission unit transmits operation information including button operation information indicating a predetermined button operation and movement amount information corresponding to the movement amount of the touch position.
  • the information terminal when the display screen of the information terminal to which the touch panel operation is applied is displayed on the display device, the information terminal can be operated from the display device.
  • FIG. 1 It is a figure which shows the structure of the vehicle-mounted information system by one embodiment of this invention. It is a block diagram which shows the structure of a vehicle-mounted apparatus and a portable terminal. It is a figure which shows schematic structure of the software in a portable terminal. It is a figure explaining operation
  • FIG. 1 is a diagram showing a configuration of an in-vehicle information system according to an embodiment of the present invention.
  • the in-vehicle information system shown in FIG. 1 is used by being mounted on a vehicle, and the in-vehicle device 1 and the mobile terminal 2 are connected to each other by short-range wireless communication and wired communication via the video / audio cable 3. It is realized by.
  • the in-vehicle device 1 is fixed in the vehicle, and is installed, for example, in an instrument panel of the vehicle.
  • the mobile terminal 2 is a portable information terminal that can be carried by a user, and is, for example, a mobile phone or a smartphone.
  • Bluetooth registered trademark
  • HDMI registered trademark
  • the display unit 11 is provided in the in-vehicle device 1.
  • the display unit 11 is a touch panel capable of displaying various images and videos, and is configured by combining, for example, a resistive film type touch panel switch and a liquid crystal display.
  • the user can cause the mobile terminal 2 to execute a desired function by touching an arbitrary position on the display unit 11 with a finger or the like and specifying an icon, an operation button, or the like displayed at the position.
  • an in-vehicle device 1 may further include an operation switch corresponding to a predetermined operation.
  • the mobile terminal 2 is provided with a display unit 21.
  • the display unit 21 is a touch panel that can display various images and videos, and is configured by combining, for example, a capacitive touch panel switch and a liquid crystal display.
  • the user can cause the portable terminal 2 to execute a desired function by touching an arbitrary position on the display unit 21 with a finger or the like according to the content of the image or video displayed on the display unit 21.
  • the display part 21 as the touch panel was demonstrated here, it is good also as a normal display monitor which is not a touch panel. In that case, it is preferable to provide the portable terminal 2 with various operation switches according to the contents of the process executed by the portable terminal 2.
  • the display unit 21 may be a touch panel display monitor, and an operation switch corresponding to a predetermined operation may be provided in the mobile terminal 2.
  • FIG. 2 is a block diagram showing the configuration of the in-vehicle device 1 and the portable terminal 2.
  • the in-vehicle device 1 includes a control unit 10, a display unit 11, an operation unit 12, an audio output unit 13, a memory unit 14, a short-range wireless communication interface unit 15, and a video / audio signal input unit 16.
  • the portable terminal 2 includes a control unit 20, a display unit 21, an operation unit 22, an audio output unit 23, a memory unit 24, a short-range wireless communication interface unit 25, a video / audio signal output unit 26, a wireless communication unit 27, and a GPS. (Global Positioning System)
  • the receiving unit 28 is included.
  • control unit 10 includes a microprocessor, various peripheral circuits, a RAM, a ROM, and the like, and executes various processes based on a control program recorded in the memory unit 14. By the processing performed by the control unit 10, various image display processing, audio output processing, and the like are executed.
  • control unit 10 acquires a vehicle speed signal and a parking signal output from the vehicle. Based on the vehicle speed signal and the parking signal, the control unit 10 determines whether the traveling state of the vehicle is traveling or stopped.
  • the output of the vehicle speed signal and the parking signal from the vehicle to the control unit 10 is, for example, the vehicle speed mounted on the vehicle via a CAN (Controller Area Network) not shown which is a communication network provided in the vehicle. This is done by outputting a vehicle speed pulse from the sensor.
  • CAN Controller Area Network
  • the display unit 11 is a display monitor configured by a liquid crystal display or the like as described above with reference to FIG.
  • the operation unit 12 is a part for detecting a user's touch operation on the display unit 11 and corresponds to the touch panel switch described above.
  • the display unit 11 and the operation unit 12 are shown separately, but actually they are integrated to form one touch panel.
  • the operation switch is also included in the operation unit 12.
  • the content of the user input operation performed on the operation unit 12 is output to the control unit 10 and reflected in the processing performed by the control unit 10.
  • the sound output unit 13 includes an amplifier, a speaker, and the like, and can output various sounds under the control of the control unit 10. For example, music that reproduces music data read from the portable terminal 2 or a recording medium (not shown), guidance voice for guiding the vehicle to the destination, and the like are output from the voice output unit 13.
  • the memory unit 14 is a non-volatile data storage device, and is realized by, for example, an HDD (hard disk drive) or a flash memory.
  • the memory unit 14 stores various data such as the above-described control program used in the control unit 10, for example. Reading and writing of data in the memory unit 14 is performed as necessary under the control of the control unit 10.
  • the short-range wireless communication interface unit 15 performs a wireless interface process required when performing short-range wireless communication with the mobile terminal 2 under the control of the control unit 10. For example, the information output from the control unit 10 is converted into a predetermined radio signal format and transmitted to the mobile terminal 2, or the information output from the mobile terminal 2 in the predetermined radio signal format is received and sent to the control unit 10. Or output. Interface processing by the short-range wireless communication interface unit 15 is performed according to a predetermined communication standard such as Bluetooth.
  • the video / audio signal input unit 16 receives a video signal and an audio signal input from the portable terminal 2 via the video / audio cable 3, and uses these signals for image (video) data for screen display and audio output. Each is converted into audio data and output to the control unit 10.
  • the control unit 10 controls the display unit 11 to display an image based on the image data on the display unit 11.
  • the audio output unit 13 is controlled to cause the audio output unit 13 to output audio based on the audio data.
  • control unit 20 is configured by a microprocessor, various peripheral circuits, RAM, ROM, and the like, similar to the control unit 10 of the in-vehicle device 1, and is stored in a control program recorded in the memory unit 24. Various processes are executed based on the above.
  • the display unit 21 is a touch panel display monitor as described above.
  • the operation unit 22 is a part for detecting a user input operation.
  • the display unit 21 and the operation unit 22 are shown as separate configurations, but actually, like the display unit 11 described above, the display unit 21 and the operation unit 22 are integrated to form a single touch panel. It is composed.
  • the operation switch is also included in the operation unit 22.
  • the content of the user input operation performed on the operation unit 22 is output to the control unit 20 and reflected in the processing performed by the control unit 20.
  • the audio output unit 23 includes an amplifier, a speaker, and the like, and can output various types of audio under the control of the control unit 20. For example, when a call is made using the mobile terminal 2, the voice of the other party is output from the voice output unit 23.
  • the memory unit 24 is a non-volatile data storage device similar to the memory unit 14 of the in-vehicle device 1, and stores various data to be used in the processing of the control unit 20.
  • the memory unit 24 stores various application programs (hereinafter simply referred to as applications) acquired by the user in advance. The user can implement various functions in the mobile terminal 2 by selecting any one of the various applications stored in the memory unit 24 and causing the control unit 20 to execute the selected application.
  • the short-range wireless communication interface unit 25 performs a wireless interface process based on a predetermined communication standard, similarly to the short-range wireless communication interface unit 15 of the in-vehicle device 1. That is, information communication between the in-vehicle device 1 and the mobile terminal 2 is realized by the short-range wireless communication interface unit 15 and the short-range wireless communication interface unit 25 exchanging information with each other through wireless communication.
  • the video / audio signal output unit 26 converts the image (video) and audio generated by the control unit 20 into a video signal and an audio signal according to a predetermined communication standard such as HDMI, respectively, and the video / audio cable 3 To the in-vehicle device 1 via
  • a predetermined communication standard such as HDMI, respectively
  • the video signal and the audio signal are input to the video / audio signal input unit 16 in the in-vehicle device 1
  • the same image (screen) displayed on the display unit 21 in the mobile terminal 2 is displayed on the display unit of the in-vehicle device 1.
  • 11 is also displayed.
  • the same sound that is output from the sound output unit 23 in the portable terminal 2 is also output from the sound output unit 13 of the in-vehicle device 1.
  • Such a function is called video mirroring.
  • the wireless communication unit 27 performs wireless communication for connecting the mobile terminal 2 to another mobile terminal or a server via a wireless communication network (not shown).
  • the portable terminal 2 can make a call with another portable terminal or download an arbitrary application from the server by wireless communication performed by the wireless communication unit 27.
  • a wireless communication performed by the wireless communication unit 27 for example, a cellular phone network or an Internet network via a wireless LAN can be used as the wireless communication network.
  • the GPS receiver 28 receives a GPS signal transmitted from a GPS satellite and outputs it to the controller 20.
  • the GPS signal includes information on the position and transmission time of the GPS satellite that transmitted the GPS signal as information for obtaining the current position and the current time of the mobile terminal 2. Accordingly, by receiving GPS signals from a predetermined number or more of GPS satellites, the control unit 20 can calculate the current position and the current time based on these pieces of information.
  • This in-vehicle information system has a cooperation function between the in-vehicle device 1 and the mobile terminal 2.
  • the in-vehicle device 1 performs image display and audio output according to the application. be able to.
  • the user's operation performed on the in-vehicle device 1 can be reflected in the operation of the application executed on the mobile terminal 2.
  • navigation processing for guiding the vehicle to the destination can be performed.
  • a map screen on which a map in the vicinity of the current position is drawn is created on the mobile terminal 2, and image information representing the map screen is sent from the video / audio signal output unit 26 to the video / audio cable from the video signal described above. 3 to the video / audio signal input unit 16.
  • a map screen is transmitted from the portable terminal 2 to the in-vehicle device 1 so that the map screen near the current position can be displayed on the display unit 11 of the in-vehicle device 1.
  • the recommended route from the current position of the vehicle to the set destination is set as the departure point.
  • Search in the portable terminal 2. When the vehicle approaches a guidance point on the recommended route, a guidance voice corresponding to the traveling direction of the vehicle at the guidance point is transmitted from the mobile terminal 2 to the in-vehicle device 1. Thereby, the guidance voice can be output from the voice output unit 13 of the in-vehicle device 1. At this time, a predetermined signal may be output from the mobile terminal 2 to the in-vehicle device 1 according to the start and end timings of the guidance voice output.
  • the in-vehicle device 1 can drive the vehicle to the destination without the user getting lost. To notify the user.
  • various data such as map data necessary for the mobile terminal 2 to execute the navigation application may be stored in advance in the memory unit 24 of the mobile terminal 2.
  • the wireless communication unit 27 is used to connect to a predetermined server and the necessary data is stored. You may make it acquire each time.
  • the mobile terminal 2 executes an application selected by the user among a plurality of applications including the navigation application as described above.
  • the user can select an application to be executed by the mobile terminal 2 by operating the operation unit 22 and selecting a desired application on the menu screen displayed on the display unit 21 of the mobile terminal 2.
  • On this menu screen for example, icons of applications that can use the cooperation function are displayed side by side.
  • an application corresponding to the icon is executed on the mobile terminal 2.
  • the mobile terminal 2 transmits a menu screen to the in-vehicle device 1 by the video signal from the video / audio signal output unit 26.
  • the in-vehicle device 1 displays a menu screen on the display unit 11 based on the video signal transmitted from the mobile terminal 2.
  • operation information corresponding to the touch operation is transmitted from the in-vehicle device 1 to the portable terminal by the short-range wireless communication interface unit 15. 2 is transmitted.
  • the operation information transmitted from the in-vehicle device 1 is received by the short-range wireless communication interface unit 25 in the mobile terminal 2 and output to the control unit 20. Based on the operation information received in this way, the control unit 20 recognizes which application is selected by the user in the in-vehicle device 1 and executes the application. Thereby, the user can select a desired application in the in-vehicle device 1 and cause the mobile terminal 2 to execute the same as in the case where the menu screen displayed on the display unit 21 of the mobile terminal 2 is used.
  • control unit 20 can execute each application in the foreground or the background.
  • the application When executed in the foreground, the application is a target of image display or operation input in the in-vehicle device 1 and the portable terminal 2.
  • the process according to the application is executed by the control unit 20, but the application is not subjected to image display or operation input in the in-vehicle device 1 and the portable terminal 2.
  • audio may be output from an application executing in the background.
  • an application called an application manager is installed in the mobile terminal 2 in advance and stored in the memory unit 24. That is, the memory unit 24 stores a plurality of applications including an application manager.
  • the application manager is read from the memory unit 24 and executed by the control unit 20.
  • FIG. 3 is a diagram showing a schematic configuration of software in the mobile terminal 2.
  • the application manager 201 includes a sub application Ma and a sub application Ms.
  • the sub-application Ma has a launcher function for starting an application other than the application manager 201, and a policy file acquisition function for acquiring a policy file in which various information necessary for cooperative operation between the in-vehicle device 1 and the mobile terminal 2 is recorded. And have.
  • the control unit 20 can use these functions by executing the sub application Ma in the foreground. For example, it is possible to call another application using the launcher function, and cause the control unit 20 to execute the application in the foreground instead of the sub application Ma.
  • a policy file acquisition function can be used to acquire a data file called a policy file from an external server device or the like. In the policy file, restriction information indicating the contents of operation restriction during traveling of the vehicle for each application, resolution information of the display unit 21, interval time information described later, and the like are recorded. The acquired policy file is stored in the memory unit 24.
  • the sub application Ms has a communication function for connecting the mobile terminal 2 to the in-vehicle device 1 and an operation restriction function for restricting the operation while the vehicle is running.
  • the control unit 20 can use these functions by executing the sub application Ms in the background.
  • a communication function it is possible to refer to a policy file stored in the memory unit 24 and exchange various types of communication information necessary for cooperation between the mobile terminal 2 and the in-vehicle device 1.
  • the operation restriction function referring to restriction information indicated in the policy file stored in the memory unit 24, it is possible to determine the content of the operation restriction while the vehicle is running for the application being executed in the foreground. Can do.
  • This determination result is transmitted as communication information from the portable terminal 2 to the in-vehicle device 1 by the communication function described above, and is used when the in-vehicle device 1 performs operation restriction during traveling of the vehicle.
  • the application manager 201 is configured by being divided into the sub application Ma executed in the foreground in the control unit 20 and the sub application Ms executed in the background in the control unit 20. By doing so, the function sharing of the application manager 201 can be optimized, and the function sharing suitable for execution in the foreground and the background can be achieved.
  • Application manager 201 calls one of the applications included in application 202 by the launcher function of sub application Ma. Then, the control unit 20 executes this application in the foreground instead of the sub application Ma. In the following description of FIG. 3, it is assumed that the application A is being executed.
  • the OS (Operating System) 203 is software for managing the overall operation of the mobile terminal 2.
  • the OS 203 mediates information input / output between the sub application Ms executed in the background in the control unit 20 and the SPP profile 204 and the HID profile 205.
  • the SPP profile 204 and the HID profile 205 are drivers used in short-range wireless communication performed between the in-vehicle device 1 and the mobile terminal 2, and are standardized as a part of standards used in Bluetooth.
  • the SPP profile 204 performs transmission / reception processing of communication information input / output between the mobile terminal 2 and the in-vehicle device 1 by the communication function of the sub application Ms.
  • the communication information transmitted from the mobile terminal 2 to the in-vehicle device 1 includes information indicating the determination result of the operation restriction content by the operation restriction function of the sub application Ms, and the resolution of the display unit 21 indicated in the acquired policy file. Information and interval time information are included.
  • the communication information transmitted from the in-vehicle device 1 to the mobile terminal 2 includes travel information corresponding to the travel state of the vehicle.
  • the HID profile 205 performs processing for receiving operation information output from the in-vehicle device 1 in accordance with the user's operation content in the in-vehicle device 1.
  • the contents of each information received by the SPP profile 204 and the HID profile 205 are output to the sub application Ms via the OS 203 and transferred to the application being executed by the communication function of the sub application Ms. Note that these pieces of information are transmitted and received between the short-range wireless communication interface unit 15 of the in-vehicle device 1 and the short-range wireless communication interface unit 25 of the mobile terminal 2 by wireless communication.
  • the sub application Ma When the sub application Ma is being executed in the foreground in the control unit 20, the sub application Ma generates an image of a menu screen for allowing the user to select an application to be executed by the above-described launcher function. Further, when the application A is being executed in the foreground in the control unit 20, the application A uses the traveling information and operation information passed from the sub application Ms as necessary to generate a predetermined image or sound. . These images and sound are temporarily stored in the sound / image memory 206 and then output to the HDMI driver 207.
  • the HDMI driver 207 performs a process of converting an image or sound generated by the sub application Ma or application A into a video signal or an audio signal according to a method defined by HDMI.
  • the video signal and audio signal are output to the in-vehicle apparatus 1 via the video / audio cable 3 by the video / audio signal output unit 26.
  • the mobile terminal 2 has a software configuration as described above.
  • a software configuration can be realized by using, for example, Android (registered trademark).
  • the sub-application Ma is executed by a thread called “Activity” and the sub-application Ms is executed by a thread called “Service”, so that the sub-application Ma is executed in the foreground in the control unit 20.
  • the application Ms can be executed in the background.
  • the operation when the user performs a touch operation on the in-vehicle device 1 will be described in detail.
  • the operation information corresponding to the touch position specified by the touch operation is transmitted from the in-vehicle device 1 to the mobile terminal 2.
  • Sent. At this time, the in-vehicle device 1 transmits operation information to the mobile terminal 2 using a mouse communication format called an HID packet.
  • an HID packet that is a communication format for a mouse in Bluetooth is generally used when a mouse is used as an input device of the mobile terminal 2.
  • the HID packet carries movement amount information corresponding to the movement of the mouse and button operation information corresponding to various button operations such as a click operation from the mouse at a predetermined time in a predetermined data format. It can be transmitted to the terminal 2.
  • the mobile terminal 2 Upon receiving these pieces of information transmitted from the mouse by the HID packet, the mobile terminal 2 performs the reception process using the HID profile 205 shown in FIG. Move the cursor on the screen according to the movement.
  • the operation content performed on the screen by the user is decoded from the screen content corresponding to the cursor position at that time and the content of the button operation.
  • the control unit 20 activates an application corresponding to the icon designated on the menu screen in accordance with the mouse operation content decoded by the OS 203 in this way, or performs an operation designated on the application screen being executed. Depending on the process.
  • the operation information corresponding to the touch operation on the in-vehicle device 1 is transmitted from the in-vehicle device 1 to the portable terminal 2 using the HID packet as described above.
  • the touch operation content can be recognized by the OS 203 as in the case of using the mouse.
  • FIG. 4 is a diagram for explaining operations of the in-vehicle device 1 and the mobile terminal 2 when a touch operation is performed in the in-vehicle device 1.
  • FIG. 4A shows a state before the touch operation.
  • an arrow-shaped cursor 40 displayed at the lower right end of the outer peripheral portions of the display unit 11 and the display unit 21 has the upper left end of the cursor 40 corresponding to the tip of the arrow as an instruction point. . That is, before the touch operation, the cursor 40 on the screen indicates the reference position 41 corresponding to the lower right end of the display unit 11 in the in-vehicle device 1, and indicates the reference position 42 corresponding to the lower right end of the display unit 21 in the mobile terminal 2. ing. At this time, most of the cursor 40 is located outside the range of each screen display of the display units 11 and 21 and is not actually displayed. Therefore, in FIG. 4A, the display position of the cursor 40 is indicated by a broken line.
  • the mobile terminal 2 displays a screen including the cursor 40 displayed at the reference position 42 on the display unit 21, and the image information on this screen is transmitted to the video / audio cable using the video signal described above. 3 to the in-vehicle device 1.
  • the in-vehicle device 1 displays the same screen as that displayed on the display unit 21 of the mobile terminal 2 on the display unit 11 based on the image information.
  • a screen including the cursor 40 displayed at the reference position 41 is displayed on the display unit 11.
  • the resolution (number of pixels) in the X direction (horizontal direction) of the display unit 11 is represented by Xv
  • the resolution (number of pixels) in the Y direction (vertical direction) is represented by Yv
  • the resolution (number of pixels) in the X direction (horizontal direction) of the display unit 21 is represented as Xs
  • the resolution (number of pixels) in the Y direction (vertical direction) is represented as Ys.
  • FIG. 4B shows a state when a touch operation is performed.
  • the in-vehicle device 1 detects the movement amount Px in the X direction and the movement in the Y direction as the movement amount from the reference position 41 at the lower right end pointed by the cursor 40 before the touch operation to the touch position 43.
  • the amount Py is calculated.
  • the movement amounts Px and Py are calculated, for example, by determining the number of pixels between the reference position 41 and the touch position 43 in the X direction and the Y direction, respectively.
  • the movement from the reference position 41 to the touch position 43 when the upper left corner of the display unit 11 is the starting point is defined as the positive direction of X
  • the downward direction is defined as the positive direction of Y.
  • the quantities Px and Py are both obtained as negative values.
  • the in-vehicle device 1 After calculating the movement amount Px in the X direction and the movement amount Py in the Y direction as described above, the in-vehicle device 1 subsequently uses the movement amounts Px and Py as the movement amounts Qx and Qy on the display unit 21 of the mobile terminal 2. Convert to The conversion of the movement amount is performed using the following formula (1) based on the above-described resolutions Xv, Yv and Xs, Ys.
  • Qx Px ⁇ (Xs / Xv)
  • Qy Py ⁇ (Ys / Yv) (1)
  • Xs / Xv and Ys / Yv are conversion coefficients for converting the movement amounts Px and Py into the movement amounts Qx and Qy, respectively.
  • the in-vehicle device 1 can obtain these conversion coefficients by acquiring the resolutions Xs and Ys of the display unit 21 from the mobile terminal 2 in advance.
  • the in-vehicle device 1 After calculating the converted movement amounts Qx and Qy, the in-vehicle device 1 transmits the movement amount information indicating these movement amounts Qx and Qy to the portable terminal 2 by the HID packet as the first operation information corresponding to the touch operation. Send.
  • this operation information is referred to as “Move”.
  • the mobile terminal 2 decodes the movement amounts Qx and Qy by the OS 203 based on this. Then, as shown in FIG. 4B, the cursor 40 is moved from the reference position 42 at the lower right corner by the movement amounts Qx and Qy and displayed on the display unit 21, and the screen image including the cursor 40 after the movement is displayed. Information is output to the in-vehicle device 1 via the video / audio cable 3 using the video signal described above.
  • the in-vehicle device 1 When receiving the image information of the screen including the moved cursor 40 from the portable terminal 2, the in-vehicle device 1 displays the same screen as that displayed on the display unit 21 of the portable terminal 2 based on the image information. 11 is displayed. As a result, as shown in FIG. 4B, a screen in which the cursor 40 indicates the touch position 43 is displayed on the display unit 11.
  • the in-vehicle device 1 After transmitting the operation information “Move”, the in-vehicle device 1 transmits, as the second operation information corresponding to the touch operation, button operation information indicating that a predetermined button operation, for example, a left click operation has been performed, as an HID packet. Is transmitted to the portable terminal 2.
  • this operation information is referred to as “Tap”.
  • movement amount information indicating that the movement amount of the cursor 40 is 0 is also transmitted together with the button operation information.
  • the mobile terminal 2 decodes the content of the button operation by the OS 203 based on this. Then, according to the display position of the cursor 40 after movement designated by the operation information “Move”, that is, the screen contents displayed at the touch position 43 and the button operation contents designated by the operation information “Tap”, For example, the application corresponding to the icon at the touch position 43 is activated.
  • the in-vehicle device 1 When the user performs a release operation of releasing the finger from the display unit 11 and ends the touch operation, the in-vehicle device 1 performs the button operation specified by the operation information “Tap” as the third operation information corresponding to the touch operation.
  • the button operation information indicating that it has been released is transmitted to the portable terminal 2 using an HID packet.
  • this operation information is referred to as “Untap”.
  • movement amount information indicating that the movement amount of the cursor 40 is 0 is also transmitted together with the button operation information, similarly to the operation information “Tap” described above.
  • the in-vehicle device 1 After transmitting the operation information “Untap”, the in-vehicle device 1 transmits the operation information for returning the display position of the cursor 40 from the touch position 43 to the reference position 41 as the fourth operation information corresponding to the touch operation. Is transmitted to the portable terminal 2.
  • this operation information is referred to as “Move_Reset”.
  • the in-vehicle device 1 preferably transmits, as the operation information “Move_Reset”, movement amount information indicating a movement amount from the touch position 43 to the reference position 41 or a movement amount larger than that to the mobile terminal 2.
  • movement amount information indicating a movement amount from the touch position 43 to the reference position 41 or a movement amount larger than that to the mobile terminal 2.
  • Operation information “Move_Reset” can be transmitted by transmitting movement amount information corresponding to the movement amount.
  • movement amount information indicating movement amounts ⁇ Qx and ⁇ Qy obtained by inverting these signs may be transmitted as operation information “Move_Reset”.
  • Good In addition to this, if there is a movement amount from the touch position 43 to the reference position 41 or more, movement amount information indicating an arbitrary movement amount can be transmitted as the operation information “Move_Reset”.
  • the mobile terminal 2 uses the OS 203 to decode the movement amount represented by the movement amount information. Then, the cursor 40 is moved to the reference position 42 at the lower right corner and displayed on the display unit 21, and the image information of the screen including the cursor 40 after the movement is displayed on the video / audio cable 3 using the video signal described above.
  • the in-vehicle device 1 When receiving the image information of the screen including the moved cursor 40 from the portable terminal 2, the in-vehicle device 1 displays the same screen as that displayed on the display unit 21 of the portable terminal 2 based on the image information. 11 is displayed. Thereby, a screen as shown in FIG. 4A is displayed again on the display unit 11.
  • each operation information of “Move”, “Tap”, “Untap”, and “Move_Reset” is displayed in the in-vehicle device 1 according to the touch operation.
  • To the portable terminal 2 sequentially. Thereby, in the portable terminal 2, a user's touch operation can be recognized and an appropriate process can be performed.
  • an acceleration process is executed when operation information indicating a movement amount of a certain distance or more is continuously input within a predetermined time. Yes.
  • This acceleration processing is for adding a movement amount larger than the actually input movement amount and moving the cursor so that the cursor can be moved to a desired position with a small mouse operation.
  • the touch operation as described above is realized by transmitting operation information corresponding to the touch operation from the in-vehicle device 1 to the portable terminal 2 using the HID packet. Therefore, when the acceleration process is executed in the mobile terminal 2, the cursor moves to a place different from the actual touch position, and as a result, the touch operation cannot be correctly recognized in the mobile terminal 2.
  • the in-vehicle device 1 when the user performs a touch operation continuously for a short time, the in-vehicle device 1 does not immediately transmit the operation information corresponding to the second and subsequent touch operations, but transmits it with a delay of a predetermined interval time. To do. Thereby, it is possible to prevent the operation information from the in-vehicle device 1 from being continuously input to the mobile terminal 2 a plurality of times within the interval time, and to prevent the mobile terminal 2 from executing the acceleration process.
  • operation information corresponding to the second and subsequent touch operations is sequentially delayed and accumulated, so that the total delay time becomes enormous.
  • the number of touch operations that delay the transmission of operation information is limited to a predetermined number, for example, five times, and touch operations that exceed this are discarded and operation information is not transmitted. It is preferable to do.
  • an upper limit may be provided for the delay time, and a touch operation input exceeding the upper limit may be discarded and the operation information may not be transmitted.
  • the in-vehicle device 1 obtains interval time information from the mobile terminal 2 in advance and sets an optimal interval time based on this information. For example, for various types and versions of OS, the corresponding interval time is recorded in advance in a predetermined server device.
  • the server device distributes information on the interval time corresponding to the OS 203 to the mobile terminal 2.
  • the portable terminal 2 notifies the in-vehicle device 1 of the interval time based on the information distributed from the server device. By doing so, the in-vehicle device 1 can acquire the optimum interval time for the OS 203 installed in the mobile terminal 2.
  • FIG. 5 is a sequence diagram showing a flow of information among the in-vehicle device 1, the portable terminal 2, and the server device related to the touch operation described above.
  • the in-vehicle device 1 When the in-vehicle device 1 and the mobile terminal 2 are connected, the in-vehicle device 1 outputs a session start request indicated by reference numeral 50 to the application manager 201 in FIG.
  • the mobile terminal 2 uses the wireless communication unit 27 by the sub-application Ma of the application manager 201 to the server device via a wireless communication network such as a mobile phone network or an Internet network. Connecting. Then, a policy file distribution request is made to the server device as indicated by reference numeral 51.
  • the sub-application Ma is mounted as information necessary for specifying the policy file, for example, information on each application stored in the memory unit 24, model information of the portable terminal 2, and the portable terminal 2.
  • the server apparatus is notified of information on the type and version of the OS 203 being installed.
  • the server device When receiving a policy file distribution request from the sub-application Ma of the portable terminal 2, the server device selects a policy file suitable for the portable terminal 2 from various policy files stored in advance, as indicated by reference numeral 52. Deliver to the mobile terminal 2.
  • the server device individually records, as policy files, various types of information terminals such as interval time information for each OS type and version, resolution information for each model, and restriction information for various applications. ing.
  • the server device selects a policy file most suitable for the mobile terminal 2 from these, and distributes the policy file to the mobile terminal 2 via a wireless communication network such as a telephone network or an Internet network.
  • FIG. 6 is a diagram illustrating an example of information recorded in a policy file distributed to the mobile terminal 2.
  • restriction information represents the content of the operation restriction during traveling of the vehicle of each application stored in the mobile terminal 2.
  • the resolution information represents the screen resolution in the horizontal direction (X direction) and the vertical direction (Y direction) of the display unit 21.
  • the resolution in the horizontal direction is 1280 pixels, and the resolution in the vertical direction.
  • the interval time information represents an interval time necessary for the OS 203, and the example in FIG. 6 indicates that the interval time is 100 ms.
  • the mobile terminal 2 When receiving the policy file distributed from the server device, the mobile terminal 2 stores the policy file in the memory 24 by the sub application Ma of the application manager 201. Then, the sub application Ms reads the policy file from the memory 24 and notifies the in-vehicle device 1 of the resolution and interval time using the short-range wireless communication interface unit 25 as indicated by reference numeral 53. Here, the resolution information and interval time information indicated in the received policy file are transmitted to the in-vehicle device 1 to notify the in-vehicle device 1 of these contents.
  • the in-vehicle device 1 When receiving the notification of the resolution and the interval time from the mobile terminal 2, the in-vehicle device 1 calculates the conversion coefficient used in the above-described equation (1) based on the notified resolution. Further, based on the notified interval time, the interval time for preventing the execution of the acceleration process is set.
  • the in-vehicle device 1 calculates the amount of movement after conversion corresponding to the touch position using the above conversion coefficient,
  • the operation information “Move” is transmitted to the OS 203 of the mobile terminal 2. Thereafter, as indicated by reference numeral 55, the second operation information “Tap” is transmitted.
  • the in-vehicle device 1 transmits the third operation information “Untap” as indicated by reference numeral 56. Thereafter, in order to return the cursor moved to the touch position to the original position, the fourth operation information “Move_Reset” is transmitted as indicated by reference numeral 57.
  • the in-vehicle device 1 stands by after calculating the converted movement amount according to the touch position.
  • the waiting time at this time is a time from when the operation information “Move_Reset” is transmitted according to the release operation with respect to the previous touch operation until the interval time elapses.
  • the in-vehicle device 1 continuously transmits the operation information “Move” and “Tap” to the OS 203 of the mobile terminal 2 as indicated by reference numerals 58 and 59, respectively.
  • the in-vehicle device 1 continuously transmits operation information “Untap” and “Move_Reset” to the OS 203 as indicated by reference numerals 60 and 61, respectively. Thereafter, the same operation is repeated.
  • each operation information is continuously transmitted from the in-vehicle device 1 to the portable terminal 2 in a predetermined order.
  • the operation information of subsequent touch operations is transmitted with a delay, so that a transmission interval of operation information longer than the interval time is ensured between touch operations.
  • the mobile terminal 2 can recognize the content of the touch operation performed by the user on the in-vehicle device 1 by decoding each operation information from the in-vehicle device 1 in the OS 203.
  • FIG. 7 is a flowchart of processing related to a touch operation executed in the in-vehicle device 1. The processing shown in this flowchart is executed by the control unit 10 when communication is established between the in-vehicle device 1 and the portable terminal 2.
  • step S ⁇ b> 10 the control unit 10 receives the resolution information and interval time information of the display unit 21 transmitted from the mobile terminal 2 using the short-range wireless communication interface unit 15.
  • the resolution Xs of the display unit 21 in the X direction and the resolution Ys in the Y direction are received from the portable terminal 2 as resolution information.
  • the OS 203 receives information indicating the length of time necessary for preventing the execution of acceleration processing, for example, an interval time of 100 ms, from the portable terminal 2 as interval time information.
  • step S ⁇ b> 20 the control unit 10 displays on the display unit 11 based on the resolution information of the display unit 21 received from the mobile terminal 2 in step S ⁇ b> 10 and the resolution of the display unit 11 stored in advance in the memory unit 14.
  • a conversion coefficient corresponding to the resolution ratio of the unit 21 is calculated.
  • the resolutions Xs and Ys of the display unit 21 represented by the resolution information received in step S10 are the resolution Xv for the X direction of the display unit 11 and the resolution Yv for the Y direction, respectively.
  • the conversion coefficient Xs / Xv for the X direction and the conversion coefficient Ys / Yv for the Y direction are calculated.
  • step S30 the control unit 10 determines whether or not a touch operation has been performed by the user on the operation unit 12 which is a touch panel switch configured integrally with the display unit 11. If a touch operation has been performed, the touch operation is detected and the process proceeds to step S40.
  • step S40 the control unit 10 calculates a movement amount from the cursor display position when the touch operation is detected in step S30 to the touch position specified by the touch operation.
  • the movement amount Px in the X direction and the movement amount Py in the Y direction are calculated as the movement amount from the reference position 41 at the lower right end to the touch position 43.
  • step S50 the control unit 10 converts the movement amount calculated in step S40 into a movement amount on the display unit 21 of the mobile terminal 2.
  • the control unit 10 uses the X-direction conversion coefficient Xs / Xv and the Y-direction conversion coefficient Ys / Yv calculated in step S20, the movement in the X direction calculated for the display unit 11 by the above-described equation (1).
  • the amount Px and the amount of movement Py in the Y direction are converted into the amount of movement Qx in the X direction and the amount of movement Qy in the Y direction on the display unit 21, respectively.
  • step S60 the control unit 10 determines whether or not an interval time has elapsed since the transmission of the previous operation information “Move_Reset”.
  • the elapsed time since operation information “Move_Reset” was transmitted in step S120 described later executed in response to the previous touch operation, and the interval time set based on the interval time information received in step S10, Compare As a result, if the elapsed time is less than the interval time, the process proceeds to step S70, and if the elapsed time is equal to or greater than the interval time, the process proceeds to step S80.
  • step S70 the control unit 10 stands by until the elapsed time from the transmission of the previous operation information “Move_Reset” reaches the interval time. Thereby, the execution of the process of the next step S80 is delayed, and the transmission of the operation information “Move” is delayed. When the interval time has elapsed, the process proceeds to step S80.
  • step S80 the control unit 10 transmits the operation information “Move” to the mobile terminal 2.
  • the control unit 10 uses the short-range wireless communication interface unit 15 to transmit movement amount information indicating the movement amount converted in step S50 to the mobile terminal 2 as operation information “Move”.
  • the movement amount information according to the distance from the display position of the cursor at the time of the touch operation to the detected touch position is transmitted from the in-vehicle device 1 to the portable terminal 2.
  • the movement amount information is transmitted using an HID packet that is a communication format for a mouse.
  • the movement amount information thus transmitted from the in-vehicle device 1 is received by the short-range wireless communication interface unit 25 in the portable terminal 2 and is decoded by the OS 203.
  • the cursor position on the screen is moved in the portable terminal 2, and image information including the moved cursor is transmitted from the portable terminal 2 to the in-vehicle device 1 and displayed on the display unit 11.
  • step S90 the control unit 10 transmits the operation information “Tap” to the mobile terminal 2.
  • the control unit 10 uses the short-range wireless communication interface unit 15, movement amount information indicating that the movement amount is 0 in both the X direction and the Y direction, and a predetermined button operation such as a left click operation. Button operation information indicating that has been performed is transmitted to the mobile terminal 2 as operation information “Tap”.
  • step S100 the control unit 10 determines whether or not a release operation has been performed by the user with respect to the operation unit 12 which is a touch panel switch configured integrally with the display unit 11.
  • the release operation is performed, that is, when the touch operation detected in step S30 is terminated, the process proceeds to step S110.
  • step S110 the control unit 10 transmits the operation information “Untap” to the mobile terminal 2.
  • the control unit 10 uses the short-range wireless communication interface unit 15 to indicate movement amount information indicating that the movement amount is 0 in both the X direction and the Y direction, and that the button operation has been released.
  • the button operation information is transmitted to the portable terminal 2 as operation information “Untap”.
  • step S ⁇ b> 120 the control unit 10 transmits operation information “Move_Reset” to the mobile terminal 2.
  • the control unit 10 uses the short-range wireless communication interface unit 15 to transfer the movement amount information set in advance according to the movement amount to the reference position to the portable terminal 2 as the operation information “Move_Reset”. Send.
  • step S120 the control part 10 will return to step S30, and will repeatedly perform the above processes according to the touch operation from a user.
  • the in-vehicle device 1 receives image information of a screen including the cursor 40 from the mobile terminal 2 by the video / audio signal input unit 16, and displays the screen on the display unit 11 which is a touch panel based on the image information. To do. And the touch position designated by the touch operation from the user is detected by the operation unit 12 constituting the touch panel together with the display unit 11, and the short-range wireless communication interface unit 15 is processed by the control unit 10. Operation information corresponding to the touch operation is transmitted to the portable terminal 2 (steps S80 to S120). If the touch operation is continuously performed at this time, the operation information is delayed and transmitted by waiting until the interval time elapses (step S70). Since it did in this way, it can prevent that an acceleration process is performed in the portable terminal 2. FIG. Therefore, when the display screen of the mobile terminal 2 to which the touch panel operation is applied is displayed on the in-vehicle device 1, the mobile terminal 2 can be operated from the in-vehicle device 1.
  • step S80 When the touch position 43 is designated by the user's touch operation, the control unit 10 transmits operation information “Move” for moving the cursor 40 from the reference position 41 to the touch position 43 in step S80.
  • operation information “Move_Reset” for returning the cursor 40 from the touch position 43 to the reference position 41 is transmitted in step S120.
  • the control unit 10 waits until the interval time elapses in step S70, and then executes step S80.
  • the operation information “Move” is transmitted with a delay. Since it did in this way, when a touch operation is performed continuously within an interval time, it can prevent reliably that an acceleration process is performed in the portable terminal 2.
  • step S80 the control unit 10 transmits movement amount information corresponding to the distance from the reference position 41 to the touch position 43 as operation information “Move”, and in step S120, a predetermined amount corresponding to the reference position 41 is transmitted.
  • the movement amount information is transmitted as operation information “Move_Reset”. Since it did in this way, the display position of the cursor 40 can always be returned to the original reference
  • the control unit 10 transmits the operation information “Move” in step S80, and then in step S90, the operation information “Tap” indicating a predetermined button operation. Send. If the designation of the touch position 43 is canceled after transmitting the operation information “Tap”, operation information “Untap” indicating the cancellation of the button operation is transmitted in step S110. Thereafter, operation information “Move_Reset” is transmitted in step S120. Since it did in this way, in the portable terminal 2, the content of the touch operation which the user performed with respect to the vehicle-mounted apparatus 1 can be recognized reliably.
  • the control unit 10 sets the movement amount of the cursor 40 to 0 in the operation information “Tap” and “Untap”. Thereby, in the portable terminal 2, the icon etc. corresponding to the touch position 43 designated by the user's touch operation can be reliably selected, and appropriate processing can be executed according to the selection result.
  • the in-vehicle device 1 acquires interval time information related to the interval time from the mobile terminal 2 using the short-range wireless communication interface unit 15 by the process of the control unit 10 (step S10). By performing the determination process in step S60 based on the interval time information, the control unit 10 determines whether or not to execute step S70. Thereby, it is determined whether or not the operation information “Move” is transmitted with a delay in the next step S80. Since it did in this way, an appropriate interval time can be set with respect to OS203 mounted in the portable terminal 2, and it can be judged whether operation information is delayed and transmitted.
  • step S10 the interval time information is transmitted from the portable terminal 2 based on the policy file distributed from the predetermined server device to the portable terminal 2. Therefore, the optimal interval time can be notified from the portable terminal 2 to the in-vehicle device 1 according to the type and version of the OS 203 installed in the portable terminal 2, and the interval time can be set in the in-vehicle device 1.
  • the control unit 10 uses the short-range wireless communication interface unit 15 to transmit each operation information using an HID packet that is a communication format for a mouse in Bluetooth. did. Since it did in this way, transmission of movement amount information can be implement
  • FIG. 8 is a diagram for explaining operations of the in-vehicle device 1 and the portable terminal 2 when a flick operation is performed in the in-vehicle device 1.
  • a flick operation for moving the touch position by quickly moving the finger in the direction of the arrow 70 is performed.
  • the in-vehicle device 1 first transmits operation information “Move” and “Tap” according to the touch position 43 specified first, as in the first embodiment described above. .
  • the in-vehicle device 1 detects the next touch position 44 specified after a predetermined time along the direction of the arrow 70 from the first touch position 43. Then, as the movement amount from the touch position 43 to the touch position 44, the movement amount Px1 in the X direction and the movement amount Py1 in the Y direction are calculated.
  • the in-vehicle device 1 uses the above-described equation (1) to calculate the movement amounts Px1 and Py1 as a mobile terminal. 2 are converted into movement amounts Qx1 and Qy1 on the display unit 21, respectively.
  • the same button operation information as the operation information “Tap” and the movement indicating the converted movement amounts Qx1 and Qy1
  • the amount information is transmitted to the portable terminal 2 by the HID packet. In the following description, this operation information is referred to as “Flick”.
  • the in-vehicle device 1 executes the same processing as described above every predetermined time.
  • the movement amount information indicating the movement amounts Qx2 and Qy2 after conversion according to the movement amounts Px2 and Py2 from the touch position 44 to the touch position 45, and the touch position 45 to the touch position 46.
  • the movement amount information indicating the movement amounts Qx3, Qy3 after conversion corresponding to the movement amounts Px3, Py3 until the operation information “Flick” together with the button operation information is sent from the in-vehicle device 1 to the portable terminal 2 every predetermined time. Sent.
  • the in-vehicle device 1 detects the touch positions 43 to 46 for every predetermined time from the touch positions continuously designated along the direction of the arrow 70 in the flick operation. Then, X-direction movement amounts Px1 to Px3 and Y-direction movement amounts Py1 to Py3 between the touch positions are calculated, and converted X-direction movement amounts Qx1 to Qx3 and Y-direction movement amounts Qy1 to Qy3 corresponding to these are calculated.
  • the operation information “Flick” including the movement amount information and the button operation information is transmitted to the mobile terminal 2 every predetermined time.
  • the mobile terminal 2 can detect the position 73 on the display unit 21 corresponding to the touch positions 43 to 46 on the display unit 11 of the in-vehicle device 1 specified in the flick operation. With respect to .about.76, the movement amounts Qx1 to Qx3 in the X direction between the positions and the movement amounts Qy1 to Qy3 in the Y direction can be acquired.
  • the detection result of the touch operation performed on the display unit 11 is output from the operation unit 12 constituting the touch panel together with the display unit 11 to the control unit 10 at every predetermined output cycle.
  • the output cycle of the detection result of the touch operation from the operation unit 12 is generally shorter than the transmission cycle of the HID packet used for transmitting the operation information “Flick”. Therefore, the control unit 10 extracts a response corresponding to the transmission cycle of the HID packet from the detection results of the touch operation input from the operation unit 12 every predetermined cycle, and based on this, extracts the operation information “Flick”. Preferably generated and transmitted.
  • a part of the function of the operation unit 12 may be realized by driver software executed by the control unit 10.
  • the mobile terminal 2 Upon receiving the operation information “Flick” from the in-vehicle device 1, the mobile terminal 2 decodes the content of the flick operation by the OS 203 based on this. Then, according to the flick operation content specified by the operation information “Flick”, for example, switching display of the menu screen, processing corresponding to the application being executed, and the like are performed.
  • the in-vehicle device 1 displays the operation information “Untap” and “Move_Reset” as in the first embodiment. Each is transmitted to the portable terminal 2 by the HID packet.
  • each operation information of “Move”, “Tap”, “Flick”, “Untap”, and “Move_Reset” according to the flick operation. are sequentially transmitted from the in-vehicle device 1 to the portable terminal 2. Thereby, in the portable terminal 2, a user's flick operation can be recognized and an appropriate process can be performed.
  • FIG. 9 is a sequence diagram showing a flow of information among the in-vehicle device 1, the mobile terminal 2, and the server device regarding the flick operation.
  • the in-vehicle device 1 and the mobile terminal 2 When the in-vehicle device 1 and the mobile terminal 2 are connected, the in-vehicle device 1, the mobile terminal 2, and the server device perform the operations indicated by reference numerals 50 to 53, respectively, as in the sequence diagram of FIG. 5 in the first embodiment.
  • the portable terminal 2 when the in-vehicle device 1 outputs a session start request, the portable terminal 2 requests the server device to distribute a policy file, and the server device selects a policy file suitable for the portable terminal 2 and selects the portable terminal 2. Deliver to.
  • the portable terminal 2 notifies the in-vehicle device 1 of the resolution and the interval time. Based on the resolution and interval time thus notified, the in-vehicle device 1 calculates the conversion coefficient and sets the interval time in the above-described equation (1).
  • the in-vehicle device 1 When the user performs a flick operation on the in-vehicle device 1, the in-vehicle device 1 performs the conversion after the conversion according to the touch position at the start of the flick operation, as in the case of the touch operation described in the first embodiment. The amount of movement is calculated. Then, as indicated by reference numerals 54 and 55, operation information “Move” and “Tap” are sequentially transmitted. Thereafter, the in-vehicle device 1 transmits operation information “Flick” corresponding to the amount of movement of the touch position in the flick operation to the portable terminal 2 at predetermined time intervals as indicated by reference numeral 80. The transmission of the operation information “Flick” is continuously performed while the flick operation is input.
  • the in-vehicle device 1 sequentially transmits operation information “Untap” and “Move_Reset” as indicated by reference numerals 56 and 57, respectively, as in the first embodiment. To do.
  • the in-vehicle device 1 waits until the interval time elapses, as in the first embodiment. When the interval time elapses, the in-vehicle device 1 repeats the same operation as described above.
  • the portable terminal 2 can recognize the flick operation performed by the user on the in-vehicle device 1 by decoding the operation information “Flick” from the in-vehicle device 1 in the OS 203.
  • FIG. 10 is a flowchart of processing related to a flick operation executed in the in-vehicle device 1.
  • the processing shown in this flowchart is executed by the control unit 10 when communication is established between the in-vehicle device 1 and the portable terminal 2.
  • the same processing numbers as those in the flowchart of FIG. 7 described in the first embodiment are assigned the same step numbers as in FIG. In the following, description of the processing of the same step number as in FIG. 7 is omitted unless particularly necessary.
  • step S91 the control unit 10 performs a flick operation from the user on the operation unit 12 which is a touch panel switch configured integrally with the display unit 11. It is determined whether or not.
  • the presence or absence of the flick operation is determined by determining whether or not the touch position has changed from the position when the touch operation is detected in step S30.
  • the touch position changes accordingly. Therefore, if a change in the touch position is detected, it is determined that a flick operation has been performed, and the process proceeds to the next step S92. If not detected, it is determined that there is no flick operation and the process proceeds to step S100.
  • step S92 the control unit 10 calculates the movement amount from the previous touch position.
  • the touch position that continuously changes during the flick operation is detected every predetermined time, and the amount of movement in the X direction and the Y direction from the previously detected touch position to the current touch position is detected. calculate.
  • step S93 the control unit 10 converts the movement amount calculated in step S92 into a movement amount on the display unit 21 of the mobile terminal 2.
  • the X-direction movement coefficient and Y-direction conversion coefficient Xs / Xv and Y-direction conversion coefficient Ys / Yv calculated in step S20 are used to calculate the X-direction movement amount and Y Convert the amount of movement in each direction.
  • step S94 the control unit 10 transmits the operation information “Flick” to the mobile terminal 2.
  • the control unit 10 uses the short-range wireless communication interface unit 15 to move amount information indicating the amount of movement converted in step S93 and a button operation indicating that a predetermined button operation such as a left click operation has been performed.
  • Information is transmitted to the portable terminal 2 as operation information “Flick”.
  • step S94 the control part 10 will progress to step S100, and will determine the presence or absence of release operation from a user. As a result, if a release operation is performed, that is, if the flick operation detected in step S91 is terminated, the process proceeds to step S110, and if not, the process returns to step S91 and the above-described processing is repeated.
  • the processes in steps S92 to S94 are repeatedly executed at predetermined time intervals after the flick operation is detected in step S91 until the release operation is detected in step S100. Accordingly, as described with reference to FIG. 8, the touch positions 43 to 46 in the flick operation are detected every predetermined time, and the X-direction movement amounts Px1 to Px3 and the Y-direction movement amounts Py1 to Py3 between the touch positions are calculated, respectively. Is done. Then, the converted X-direction movement amounts Qx1 to Qx3 and the Y-direction movement amounts Qy1 to Qy3 corresponding to these are respectively calculated, and the movement amount information corresponding to the converted movement amounts is displayed together with the button operation information and the operation information “Flick”. Is transmitted from the in-vehicle device 1 to the portable terminal 2 at predetermined time intervals.
  • step S80 When the flick operation is performed by moving the touch position during the user's touch operation, the control unit 10 transmits the operation information “Move” in step S80, and the operation information “Tap” in step S90. After the transmission, in step S94, operation information “Flick” including button operation information indicating a predetermined button operation and movement amount information corresponding to the movement amount of the touch position is transmitted. Since it did in this way, in the portable terminal 2, the content of the flick operation which the user performed with respect to the vehicle-mounted apparatus 1 can be recognized reliably.
  • a video signal and an audio signal are transmitted from the mobile terminal 2 to the in-vehicle device 1 by connecting the in-vehicle device 1 and the mobile terminal 2 to each other via the video / audio cable 3.
  • the present invention can also be realized using other communication methods and signal transmission methods.
  • a video signal or an audio signal from the mobile terminal 2 to the in-vehicle device 1 may be transmitted by wireless communication. Communication between the in-vehicle device 1 and the mobile terminal 2 can also be performed using wired communication such as USB.
  • operation information is transmitted from the in-vehicle device 1 to the portable terminal 2 using a communication format for a mouse in USB instead of the above-described HID packet.
  • Any communication method may be adopted as long as necessary signals and information can be transmitted and received between the in-vehicle device 1 and the portable terminal 2.
  • in-vehicle device 1 may acquire various vehicle information output from the vehicle, in addition to the vehicle speed signal and the parking signal.
  • the vehicle information acquired at this time may be used in a process executed by the in-vehicle device 1 or may be output from the in-vehicle device 1 to the mobile terminal 2 and used in a process executed by the mobile terminal 2.
  • activation conditions corresponding to vehicle information are set in advance for each application, and when vehicle information that satisfies the activation conditions is output from the vehicle, the application is automatically activated on the mobile terminal 2. can do.
  • information indicating the activation condition of each application may be transmitted from the mobile terminal 2 to the in-vehicle device 1 to determine whether the in-vehicle device 1 satisfies the activation condition based on the vehicle information.
  • the vehicle information may be transmitted from the in-vehicle device 1 to the portable terminal 2 and the portable terminal 2 may determine whether or not the activation condition is satisfied based on the vehicle information.
  • the display unit 11 of the in-vehicle device 1 is a touch panel and an image received from the mobile terminal 2 is displayed on the display unit 11 has been described.
  • the scope of application of the present invention is not limited to this.
  • the present invention can be applied to any display device as long as it is connected to an information terminal and displays an image received from the information terminal on a touch panel.
  • 1 vehicle-mounted device
  • 2 portable terminal
  • 3 video / audio cable
  • 10 control unit
  • 11 display unit
  • 12 operation unit
  • 13 audio output unit
  • 14 memory unit
  • 15 short-range wireless communication interface Unit
  • 16 video / audio signal input unit
  • 20 control unit
  • 21 display unit
  • 22 operation unit
  • 23 audio output unit
  • 24 memory unit
  • 25 short-range wireless communication interface unit
  • 26 video / audio unit Audio signal output unit
  • 27 wireless communication unit
  • 28 GPS receiving unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Telephone Function (AREA)

Abstract

 情報端末と接続される表示装置は、情報端末からカーソルを含む画面の画像情報を受信する画像受信部と、画像受信部により受信された画像情報に基づいて画面を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルと、タッチ操作に応じた操作情報を情報端末へ送信する送信部とを備える。送信部は、タッチ操作が連続して行われた場合に、操作情報を遅延させて送信する。

Description

表示装置
 本発明は、表示装置に関する。
 従来、携帯電話の表示画面と共に、携帯電話の各操作キーに対応する複数のタッチスイッチを車載装置のディスプレイに表示し、いずれかのタッチスイッチが操作されると、そのタッチスイッチに対応する操作キーの操作コマンドを車載装置から携帯電話に供給することで携帯電話を操作可能とした技術が知られている(特許文献1参照)。
日本国特開2003-244343号公報
 近年、操作キーを用いて操作を行う従来の携帯電話の他に、タッチパネルを用いることで直感的な操作を可能としたスマートフォンも広く利用されている。こうしたスマートフォンの場合、特許文献1の従来技術を利用して車載装置からの操作を実現することはできない。このように従来では、スマートフォンのようなタッチパネル操作を適用した情報端末の表示画面を表示装置で表示したときに、表示装置から情報端末を操作するための技術は提案されていなかった。
 本発明の第1の態様によると、情報端末と接続される表示装置は、情報端末からカーソルを含む画面の画像情報を受信する画像受信部と、画像受信部により受信された画像情報に基づいて画面を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルと、タッチ操作に応じた操作情報を情報端末へ送信する送信部とを備える。送信部は、タッチ操作が連続して行われた場合に、操作情報を遅延させて送信する。
 本発明の第2の態様によると、第1の態様の表示装置において、送信部は、タッチ操作によりタッチ位置が指定されると、カーソルを所定の基準位置からタッチ位置まで移動させるための第1の操作情報を送信し、第1の操作情報を送信した後にタッチ位置の指定が解除されると、カーソルをタッチ位置から基準位置まで戻すための第2の操作情報を送信し、第2の操作情報を送信した後、所定のインターバル時間以内に次のタッチ操作が行われると、次回の第1の操作情報を遅延させて送信することが好ましい。
 本発明の第3の態様によると、第2の態様の表示装置において、操作情報は、カーソルの移動量を示す移動量情報を含み、送信部は、基準位置からタッチ位置までの距離に応じた移動量情報を第1の操作情報として送信し、基準位置に応じた所定の移動量情報を第2の操作情報として送信することが好ましい。
 本発明の第4の態様によると、第2または第3の態様の表示装置において、送信部は、タッチ操作によりタッチ位置が指定されると、第1の操作情報を送信した後に、所定のボタン操作を示す第3の操作情報を送信し、第3の操作情報を送信した後にタッチ位置の指定が解除されると、ボタン操作の解除を示す第4の操作情報を送信した後に、第2の操作情報を送信することが好ましい。
 本発明の第5の態様によると、第4の態様の表示装置において、送信部は、第3の操作情報および第4の操作情報において、カーソルの移動量を0とすることが好ましい。
 本発明の第6の態様によると、第2または第3の態様の表示装置において、送信部は、タッチ操作中にタッチ位置が移動されると、第1の操作情報を送信した後に、所定のボタン操作を示すボタン操作情報とタッチ位置の移動量に応じた移動量情報とを含む操作情報を送信してもよい。
 本発明の第7の態様によると、第4または第5の態様の表示装置において、送信部は、タッチ操作中にタッチ位置が移動されると、第1の操作情報および第3の操作情報を送信した後に、ボタン操作を示すボタン操作情報とタッチ位置の移動量に応じた移動量情報とを含む操作情報を送信してもよい。
 本発明の第8の態様によると、第2乃至第7のいずれか一態様の表示装置は、情報端末からインターバル時間に関するインターバル時間情報を取得するインターバル時間情報取得部をさらに備えてもよい。この表示装置において、送信部は、インターバル時間情報取得部により取得されたインターバル時間情報に基づいて、操作情報を遅延させて送信するか否かを判断することが好ましい。
 本発明の第9の態様によると、第8の態様の表示装置において、インターバル時間情報は、所定のサーバ装置から情報端末に配信されるポリシーファイルに基づいて、情報端末から送信されることが好ましい。
 本発明の第10の態様によると、第1乃至9のいずれか一態様の表示装置において、送信部は、ブルートゥースまたはUSBにおけるマウス用の通信フォーマットを利用して、操作情報を送信してよい。
 本発明の第11の態様によると、情報端末と接続される表示装置は、情報端末からカーソルを含む画面の画像情報を受信する画像受信部と、画像受信部により受信された画像情報に基づいて画面を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルと、タッチ操作に応じた操作情報を情報端末へ送信する送信部とを備える。送信部は、タッチ操作中にタッチ位置が移動されると、所定のボタン操作を示すボタン操作情報とタッチ位置の移動量に応じた移動量情報とを含む操作情報を送信する。
 本発明によれば、タッチパネル操作を適用した情報端末の表示画面を表示装置で表示したときに、表示装置から情報端末を操作することができる。
本発明の一実施の形態による車載情報システムの構成を示す図である。 車載装置および携帯端末の構成を示すブロック図である。 携帯端末におけるソフトウェアの概略構成を示す図である。 車載装置においてタッチ操作が行われたときの車載装置と携帯端末の動作を説明する図である。 タッチ操作に関する車載装置、携帯端末およびサーバ装置間の情報の流れを示すシーケンス図である。 携帯端末に配信されるポリシーファイルにおいて記録されている情報の例を示す図である。 車載装置において実行されるタッチ操作に関する処理のフローチャートである。 車載装置においてフリック操作が行われたときの車載装置と携帯端末の動作を説明する図である。 フリック操作に関する車載装置、携帯端末およびサーバ装置間の情報の流れを示すシーケンス図である。 車載装置において実行されるフリック操作に関する処理のフローチャートである。
-第1の実施形態-
 図1は、本発明の一実施の形態による車載情報システムの構成を示す図である。図1に示す車載情報システムは、車両に搭載されて使用されるものであり、車載装置1と携帯端末2が近距離無線通信および映像・音声ケーブル3を介した有線通信で互いに接続されることによって実現される。車載装置1は、車両内に固定されており、たとえば車両のインストルメントパネル内などに設置されている。携帯端末2は、ユーザが持ち運び可能な携帯型の情報端末であり、たとえば携帯電話やスマートフォンなどである。なお、車載装置1と携帯端末2の間で行われる近距離無線通信には、たとえばBluetooth(ブルートゥース)(登録商標)などを用いることができる。また、映像・音声ケーブル3を介した有線通信には、たとえばHDMI(登録商標)などを用いることができる。
 車載装置1には、表示部11が設けられている。表示部11は、各種の画像や映像を表示可能なタッチパネルであり、たとえば抵抗膜方式のタッチパネルスイッチと液晶ディスプレイとを組み合わせて構成される。ユーザは、表示部11において任意の位置を指等でタッチ操作してその位置に表示されたアイコンや操作ボタン等を指定することで、所望の機能を携帯端末2に実行させることができる。なお、表示部11に加えて、さらに所定の操作に対応する操作スイッチを車載装置1に設けてもよい。
 携帯端末2には、表示部21が設けられている。表示部21は、各種の画像や映像を表示可能なタッチパネルであり、たとえば静電容量方式のタッチパネルスイッチと液晶ディスプレイとを組み合わせて構成される。ユーザは、表示部21に表示される画像や映像の内容に応じて、表示部21上で任意の位置を指等でタッチすることで、所望の機能を携帯端末2に実行させることができる。なお、ここでは表示部21をタッチパネルとした例を説明したが、タッチパネルではない通常の表示モニタとしてもよい。その場合、携帯端末2が実行する処理の内容に応じた各種の操作スイッチを携帯端末2に設けることが好ましい。あるいは、表示部21をタッチパネル式の表示モニタとし、さらに所定の操作に対応する操作スイッチを携帯端末2に設けてもよい。
 図2は、車載装置1および携帯端末2の構成を示すブロック図である。図2に示すように車載装置1は、制御部10、表示部11、操作部12、音声出力部13、メモリ部14、近距離無線通信インタフェース部15および映像・音声信号入力部16を有する。一方、携帯端末2は、制御部20、表示部21、操作部22、音声出力部23、メモリ部24、近距離無線通信インタフェース部25、映像・音声信号出力部26、無線通信部27およびGPS(Global Positioning System)受信部28を有する。
 車載装置1において、制御部10は、マイクロプロセッサや各種周辺回路、RAM、ROM等によって構成されており、メモリ部14に記録されている制御プログラムに基づいて各種の処理を実行する。この制御部10が行う処理により、各種の画像表示処理や音声出力処理などが実行される。
 さらに制御部10は、車両から出力される車速信号およびパーキング信号を取得する。この車速信号およびパーキング信号に基づいて、制御部10は、車両の走行状態が走行中または停車中のいずれであるかを判断する。なお、車両から制御部10への車速信号およびパーキング信号の出力は、たとえば、車両内に設けられた通信ネットワークである不図示のCAN(Controller Area Network)を経由して、車両に搭載された車速センサから車速パルスが出力されることにより行われる。
 表示部11は、図1を用いて前述したように、液晶ディスプレイ等によって構成される表示モニタである。操作部12は、表示部11に対するユーザのタッチ操作を検出するための部分であり、前述のタッチパネルスイッチに相当する。なお、図2では表示部11と操作部12を別々に示しているが、実際にはこれらが一体化されて一つのタッチパネルを構成している。また、前述のようにタッチパネル以外の操作スイッチを車載装置1に設けた場合は、その操作スイッチも操作部12に含まれる。操作部12に対して行われたユーザの入力操作内容は制御部10へ出力され、制御部10が行う処理に反映される。
 音声出力部13は、アンプ、スピーカ等を有しており、制御部10の制御によって各種の音声を出力することができる。たとえば、携帯端末2または不図示の記録媒体から読み出された音楽データを再生した音楽や、車両を目的地まで誘導するための誘導音声などが音声出力部13から出力される。
 メモリ部14は、不揮発性のデータ格納装置であり、たとえばHDD(ハードディスクドライブ)やフラッシュメモリ等によって実現される。メモリ部14には、たとえば制御部10において用いられる前述の制御プログラムなど、各種のデータが記憶されている。メモリ部14におけるデータの読み出しおよび書き込みは、制御部10の制御により必要に応じて行われる。
 近距離無線通信インタフェース部15は、制御部10の制御により、携帯端末2との間で近距離無線通信を行う際に必要な無線インタフェース処理を行う。たとえば、制御部10から出力された情報を所定の無線信号形式に変換して携帯端末2へ送信したり、携帯端末2から所定の無線信号形式で出力された情報を受信して制御部10へ出力したりする。近距離無線通信インタフェース部15によるインタフェース処理は、Bluetooth等の所定の通信規格に従って行われる。
 映像・音声信号入力部16は、映像・音声ケーブル3を介して携帯端末2から入力される映像信号と音声信号を受け、これらの信号を画面表示用の画像(映像)データと音声出力用の音声データにそれぞれ変換して制御部10へ出力する。映像・音声信号入力部16から制御部10へ画像データと音声データが出力されると、制御部10は、表示部11を制御してその画像データに基づく画像を表示部11に画面表示させると共に、音声出力部13を制御してその音声データに基づく音声を音声出力部13に出力させる。
 一方、携帯端末2において、制御部20は、車載装置1の制御部10と同様にマイクロプロセッサや各種周辺回路、RAM、ROM等によって構成されており、メモリ部24に記録されている制御プログラムに基づいて各種の処理を実行する。
 表示部21は、前述したようなタッチパネル式の表示モニタである。操作部22は、ユーザの入力操作を検出するための部分である。なお、図2では表示部21と操作部22を別々の構成として示しているが、実際には前述の表示部11と同様に、表示部21と操作部22が一体化されて一つのタッチパネルを構成している。また、前述のようにタッチパネル以外の操作スイッチを携帯端末2に設けた場合は、その操作スイッチも操作部22に含まれる。操作部22に対して行われたユーザの入力操作内容は制御部20へ出力され、制御部20が行う処理に反映される。
 音声出力部23は、アンプ、スピーカ等を有しており、制御部20の制御によって各種の音声を出力することができる。たとえば、携帯端末2を用いて通話を行ったときには、通話相手の音声が音声出力部23から出力される。
 メモリ部24は、車載装置1のメモリ部14と同様の不揮発性のデータ格納装置であり、制御部20の処理において利用するための各種のデータが記憶されている。このメモリ部24には、ユーザが予め入手した様々なアプリケーションプログラム(以下、単にアプリケーションと称する)が記憶されている。ユーザは、メモリ部24に記憶された各種アプリケーションの中からいずれかを選択して制御部20に実行させることにより、様々な機能を携帯端末2において実現することができる。
 近距離無線通信インタフェース部25は、車載装置1の近距離無線通信インタフェース部15と同様に、所定の通信規格に基づいた無線インタフェース処理を行う。すなわち、車載装置1と携帯端末2との間の情報通信は、近距離無線通信インタフェース部15と近距離無線通信インタフェース部25とが互いに無線通信で情報を授受することにより実現される。
 映像・音声信号出力部26は、制御部20により生成された画像(映像)と音声を、たとえばHDMI等の所定の通信規格に応じた映像信号と音声信号にそれぞれ変換し、映像・音声ケーブル3を介して車載装置1へ出力する。この映像信号と音声信号が車載装置1において映像・音声信号入力部16に入力されると、携帯端末2において表示部21に表示されるのと同一の画像(画面)が車載装置1の表示部11にも表示される。また、携帯端末2において音声出力部23から出力されるのと同一の音声が車載装置1の音声出力部13からも出力される。こうした機能はビデオミラーリングと呼ばれている。
 無線通信部27は、不図示の無線通信回線網を介して携帯端末2を他の携帯端末やサーバに接続するための無線通信を行う。携帯端末2は、無線通信部27が行う無線通信により、他の携帯端末との間で通話を行ったり、サーバから任意のアプリケーションをダウンロードしたりすることができる。なお、無線通信部27が行う無線通信では、たとえば携帯電話回線網や、無線LANを介したインターネット回線網などを無線通信回線網として利用することができる。
 GPS受信部28は、GPS衛星から送信されるGPS信号を受信して制御部20へ出力する。GPS信号には、携帯端末2の現在位置と現在時刻を求めるための情報として、そのGPS信号を送信したGPS衛星の位置と送信時刻に関する情報が含まれている。したがって、所定数以上のGPS衛星からGPS信号を受信することにより、これらの情報に基づいて現在位置と現在時刻を制御部20において算出することができる。
 次に、本車載情報システムにおける車載装置1と携帯端末2との連携機能について説明する。本車載情報システムは、車載装置1と携帯端末2との連携機能を有している。この連携機能を用いることで、車載装置1と携帯端末2とが互いに接続された状態で携帯端末2において様々なアプリケーションを実行すると、車載装置1において当該アプリケーションに応じた画像表示や音声出力を行うことができる。また、車載装置1に対して行われたユーザの操作内容を、携帯端末2において実行されているアプリケーションの動作に反映させることができる。
 たとえば、携帯端末2においてナビゲーション用のアプリケーションを実行することにより、車両を目的地まで誘導するためのナビゲーション処理を行うことができる。このナビゲーション処理では、携帯端末2において現在位置付近の地図を描画した地図画面を作成し、その地図画面を表す画像情報を、前述の映像信号により、映像・音声信号出力部26から映像・音声ケーブル3を介して映像・音声信号入力部16へ出力する。これにより、携帯端末2から車載装置1へ地図画面を送信し、車載装置1の表示部11において現在位置付近の地図画面を表示できるようにする。また、車載装置1の操作部12または携帯端末2の操作部22を操作してユーザが目的地を設定すると、車両の現在位置を出発地として、そこから設定された目的地までの推奨経路を携帯端末2において探索する。そして、推奨経路上の誘導地点に車両が近づくと、その誘導地点における車両の進行方向に応じた誘導音声を携帯端末2から車載装置1へ送信する。これにより、車載装置1の音声出力部13から誘導音声を出力できるようにする。なお、このとき携帯端末2から車載装置1に対して、誘導音声出力の開始と終了のタイミングに応じてそれぞれ所定の信号を出力してもよい。このようにすれば、車載装置1においてラジオ放送や再生中のCD等による音声が出力されている場合であっても、その音声のボリュームを誘導音声の出力中には低下させ、ユーザが誘導音声を聞き取りやすくすることができる。以上説明したように、表示部11に地図画像を表示したり、音声出力部13から誘導音声を出力したりすることで、車載装置1は、ユーザが迷わずに車両を目的地まで運転できるようにするための報知をユーザに対して行う。
 なお、携帯端末2がナビゲーション用のアプリケーションを実行するために必要な地図データ等の各種データは、携帯端末2のメモリ部24において予め記憶されたものを使用してもよい。あるいは、メモリ部24には必要最小限のデータのみを記憶しておき、携帯端末2がナビゲーション用のアプリケーションを実行したときには、無線通信部27を用いて所定のサーバに接続し、必要なデータをその都度取得するようにしてもよい。
 携帯端末2では、上記のようなナビゲーション用のアプリケーションを含む複数のアプリケーションのうち、ユーザに選択されたアプリケーションを実行する。ユーザは、携帯端末2の表示部21に表示されるメニュー画面において、操作部22を操作して所望のアプリケーションを選択することにより、携帯端末2に実行させるアプリケーションの選択を行うことができる。このメニュー画面には、たとえば、連携機能を利用可能な各アプリケーションのアイコンが並べて表示されている。ユーザがメニュー画面上でいずれかのアイコンをタッチパネル操作等により選択すると、そのアイコンに対応するアプリケーションが携帯端末2において実行される。
 さらに携帯端末2は、映像・音声信号出力部26からの映像信号によりメニュー画面を車載装置1へ送信する。車載装置1は、携帯端末2から送信された映像信号に基づいて、表示部11にメニュー画面を表示する。このメニュー画面において、ユーザがタッチパネルの一部である操作部12のタッチ操作により所望のアプリケーションを選択すると、そのタッチ操作に応じた操作情報が近距離無線通信インタフェース部15により車載装置1から携帯端末2へ送信される。
 車載装置1から送信された操作情報は、携帯端末2において近距離無線通信インタフェース部25により受信され、制御部20へ出力される。こうして受信された操作情報に基づいて、制御部20は、車載装置1においてどのアプリケーションがユーザに選択されたかを認識し、当該アプリケーションを実行する。これによりユーザは、携帯端末2の表示部21に表示されるメニュー画面を用いた場合と同様に、所望のアプリケーションを車載装置1において選択し、携帯端末2に実行させることができる。
 なお、制御部20は、各アプリケーションをフォアグランドまたはバックグランドで実行することができる。フォアグランドで実行した場合、そのアプリケーションは車載装置1および携帯端末2において画像表示や操作入力の対象とされる。一方、バックグランドで実行した場合、そのアプリケーションに応じた処理が制御部20により実行されるが、そのアプリケーションは車載装置1および携帯端末2において画像表示や操作入力の対象とはされない。ただし、音声についてはバックグランド実行中のアプリケーションから出力してもよい。
 車載装置1と携帯端末2とを互いに接続して前述のような連携機能を実現するために、携帯端末2には、アプリケーションマネージャと呼ばれるアプリケーションが予めインストールされてメモリ部24に記憶されている。すなわち、メモリ部24には、アプリケーションマネージャを含む複数のアプリケーションが記憶されている。車載装置1に携帯端末2が接続されると、このアプリケーションマネージャがメモリ部24から読み出され、制御部20において実行される。
 図3は、携帯端末2におけるソフトウェアの概略構成を示す図である。図3において、アプリケーションマネージャ201は、サブアプリケーションMaと、サブアプリケーションMsとを有している。
 サブアプリケーションMaは、アプリケーションマネージャ201以外のアプリケーションを起動するためのランチャ機能と、車載装置1と携帯端末2の連携動作に必要な各種情報が記録されたポリシーファイルを取得するためのポリシーファイル取得機能とを有している。制御部20は、サブアプリケーションMaをフォアグランドで実行することにより、これらの機能を利用することができる。たとえば、ランチャ機能を用いて、他のアプリケーションを呼び出し、サブアプリケーションMaに代えてそのアプリケーションを制御部20にフォアグランドで実行させることができる。また、ポリシーファイル取得機能を用いて、外部のサーバ装置等からポリシーファイルと呼ばれるデータファイルを取得することができる。このポリシーファイルには、各アプリケーションに対する車両走行中の動作規制の内容を示す規制情報や、表示部21の解像度情報、後述するインターバル時間情報などが記録されている。取得したポリシーファイルは、メモリ部24に記憶される。
 サブアプリケーションMsは、携帯端末2を車載装置1に接続するための通信機能と、車両走行中の動作規制を行うための動作規制機能とを有している。制御部20は、サブアプリケーションMsをバックグランドで実行することにより、これらの機能を利用することができる。たとえば、通信機能を用いて、メモリ部24に記憶されているポリシーファイルを参照し、携帯端末2と車載装置1との間で連携時に必要な各種の通信情報をやり取りすることができる。また、動作規制機能を用いて、メモリ部24に記憶されているポリシーファイルに示された規制情報を参照して、フォアグランドで実行中のアプリケーションに対する車両走行中の動作規制の内容を判断することができる。この判断結果は、上記の通信機能により、携帯端末2から車載装置1への通信情報として送信され、車載装置1において車両走行中の動作制限を行う際に利用される。
 以上説明したように、アプリケーションマネージャ201は、制御部20においてフォアグランドで実行されるサブアプリケーションMaと、制御部20においてバックグランドで実行されるサブアプリケーションMsとに分けて構成されている。このようにすることで、アプリケーションマネージャ201の機能分担を最適化し、フォアグランドとバックグランドでそれぞれ実行するのに適した機能分担とすることができる。
 アプリケーションマネージャ201は、サブアプリケーションMaのランチャ機能により、アプリケーション202に含まれる各アプリケーションのいずれかを呼び出す。すると、制御部20により、このアプリケーションがサブアプリケーションMaに代えてフォアグランドで実行される。なお、図3に対する以下の説明では、アプリケーションAが実行されているものとして説明する。
 OS(オペレーティングシステム)203は、携帯端末2の全体的な動作を管理するためのソフトウェアである。携帯端末2を車載装置1に接続した場合、OS203は、制御部20においてバックグランドで実行されるサブアプリケーションMsと、SPPプロファイル204およびHIDプロファイル205との間で入出力される情報の仲介を行う。SPPプロファイル204およびHIDプロファイル205は、車載装置1と携帯端末2の間で行われる近距離無線通信において利用されるドライバであり、Bluetoothで用いられる規格の一部として標準化されている。
 SPPプロファイル204は、サブアプリケーションMsの通信機能により携帯端末2と車載装置1の間で入出力される通信情報の送受信処理を行う。携帯端末2から車載装置1へ送信される通信情報には、サブアプリケーションMsの動作規制機能による動作規制内容の判断結果を示した情報や、取得済みのポリシーファイルに示された表示部21の解像度情報やインターバル時間情報などが含まれる。車載装置1から携帯端末2へ送信される通信情報には、車両の走行状態に応じた走行情報などが含まれる。一方、HIDプロファイル205は、車載装置1におけるユーザの操作内容に応じて車載装置1から出力される操作情報を受信するための処理を行う。SPPプロファイル204およびHIDプロファイル205により受信された各情報の内容は、OS203を介してサブアプリケーションMsに出力され、サブアプリケーションMsの通信機能により実行中のアプリケーションへと受け渡される。なお、これらの各情報の送受信は、車載装置1の近距離無線通信インタフェース部15と携帯端末2の近距離無線通信インタフェース部25との間で無線通信により行われる。
 制御部20においてサブアプリケーションMaをフォアグランドで実行中の場合、サブアプリケーションMaは、前述のランチャ機能により、ユーザに実行するアプリケーションを選択させるためのメニュー画面の画像を生成する。また、制御部20においてアプリケーションAをフォアグランドで実行中の場合、アプリケーションAは、サブアプリケーションMsから受け渡された走行情報や操作情報を必要に応じて利用し、所定の画像や音声を生成する。これらの画像や音声は、音声・画像メモリ206に一時的に記憶された後、HDMIドライバ207へ出力される。
 HDMIドライバ207は、HDMIで定められた方式に従って、サブアプリケーションMaやアプリケーションAにより生成された画像や音声を映像信号や音声信号に変換する処理を行う。この映像信号や音声信号は、映像・音声信号出力部26により、映像・音声ケーブル3を介して車載装置1へ出力される。
 携帯端末2は、以上説明したようなソフトウェア構成を有している。なお、こうしたソフトウェア構成は、たとえばAndroid(登録商標)を用いて実現することができる。この場合、たとえばサブアプリケーションMaを「Activity」と呼ばれるスレッドで実行し、サブアプリケーションMsを「Service」と呼ばれるスレッドで実行することにより、制御部20においてサブアプリケーションMaをフォアグランドで実行しつつ、サブアプリケーションMsをバックグランドで実行することができる。
 次に、ユーザが車載装置1においてタッチ操作を行った場合の動作について詳しく説明する。前述のように、車載装置1の表示部11に表示された画面上でユーザがタッチ操作を行うと、そのタッチ操作で指定されたタッチ位置に応じた操作情報が車載装置1から携帯端末2へ送信される。このとき車載装置1は、HIDパケットと呼ばれるマウス用の通信フォーマットを利用して、携帯端末2へ操作情報を送信する。
 なお、Bluetoothにおけるマウス用の通信フォーマットであるHIDパケットは、一般的には、携帯端末2の入力デバイスとしてマウスを使用したときに利用される。マウスを使用した場合、HIDパケットでは、所定のデータフォーマットにより、マウスの動きに応じた移動量情報と、クリック操作等の各種ボタン操作に応じたボタン操作情報とを、所定時間ごとにマウスから携帯端末2へ送信することができる。HIDパケットによりマウスから送信されたこれらの情報を受信すると、携帯端末2は、図3に示したHIDプロファイル205により受信処理を行った後、OS203により解読することでマウスの動きを検出し、その動きに応じて画面上のカーソルを移動させる。さらに、クリック操作等のボタン操作が行われると、そのときのカーソル位置に対応する画面内容とボタン操作の内容から、ユーザが画面上で行った操作内容を解読する。制御部20では、このようにしてOS203により解読されたマウスの操作内容に応じて、メニュー画面上で指定されたアイコンに対応するアプリケーションを起動したり、実行中のアプリケーション画面で指定された操作に応じた処理を実行したりする。
 本実施形態による車載情報システムでは、上記のようなHIDパケットを利用して、車載装置1でのタッチ操作に応じた操作情報を車載装置1から携帯端末2へ送信する。これにより、携帯端末2において、マウス使用時と同様にOS203によりタッチ操作内容を認識できるようにしている。
 図4は、車載装置1においてタッチ操作が行われたときの車載装置1と携帯端末2の動作を説明する図である。図4(a)は、タッチ操作前の様子を示している。図4(a)において、表示部11と表示部21の外周部分のうち右下端にそれぞれ表示されている矢印形状のカーソル40は、その矢印の先端部分に当たるカーソル40の左上端を指示点としている。すなわち、タッチ操作前において画面上のカーソル40は、車載装置1では表示部11の右下端に当たる基準位置41を指示しており、携帯端末2では表示部21の右下端に当たる基準位置42を指示している。なお、このときカーソル40の大部分は、表示部11、21の各画面表示の範囲外に位置しており、実際には表示されない。そのため、図4(a)ではカーソル40の表示位置を破線で示している。
 タッチ操作前において、携帯端末2は、基準位置42に表示されたカーソル40を含む画面を表示部21に表示すると共に、この画面の画像情報を、前述の映像信号を用いて、映像・音声ケーブル3を介して車載装置1へ出力する。携帯端末2から画像情報を受信すると、車載装置1は、その画像情報に基づいて、携帯端末2の表示部21に表示されているのと同じ画面を表示部11に表示する。これにより、図4(a)に示すように、基準位置41に表示されたカーソル40を含む画面が表示部11において表示される。
 ここで図4(a)に示すように、表示部11のX方向(横方向)に対する解像度(画素数)をXv、Y方向(縦方向)に対する解像度(画素数)をYvとそれぞれ表す。また、表示部21のX方向(横方向)に対する解像度(画素数)をXs、Y方向(縦方向)に対する解像度(画素数)をYsとそれぞれ表す。これらの解像度の情報は、車載装置1と携帯端末2において、メモリ部14、24にそれぞれ予め記憶されている。
 図4(b)は、タッチ操作が行われたときの様子を示している。図4(b)に示すように、ユーザが表示部11を指で触れることにより車載装置1に対してタッチ操作を行い、タッチ位置43を指定したとする。このタッチ操作を検出すると、車載装置1は、タッチ操作前にカーソル40が指示していた右下端の基準位置41からタッチ位置43までの移動量として、X方向の移動量PxおよびY方向の移動量Pyを算出する。この移動量Px、Pyは、たとえば、基準位置41からタッチ位置43までの間にある画素の数をX方向とY方向についてそれぞれ求めることにより算出される。ここで、図中に示すように、表示部11の左上端を起点とし、右方向をXの正方向、下方向をYの正方向と定めた場合、基準位置41からタッチ位置43までの移動量Px、Pyは、いずれも負の値として求められる。
 上記のようにしてX方向の移動量PxおよびY方向の移動量Pyを算出したら、続いて車載装置1は、この移動量Px、Pyを携帯端末2の表示部21上の移動量Qx、Qyに変換する。この移動量の変換は、前述の解像度Xv、YvおよびXs、Ysを基に、下記の式(1)を用いて行われる。
 Qx=Px×(Xs/Xv)、Qy=Py×(Ys/Yv)  ・・・(1)
 上記の式(1)において、Xs/XvおよびYs/Yvは、移動量Px、Pyを移動量Qx、Qyにそれぞれ変換する際の変換係数である。車載装置1は、表示部21の解像度Xs、Ysを携帯端末2から事前に取得することで、これらの変換係数を求めることができる。
 変換後の移動量Qx、Qyを算出したら、車載装置1は、タッチ操作に応じた一つ目の操作情報として、これらの移動量Qx、Qyを示す移動量情報をHIDパケットにより携帯端末2へ送信する。以下の説明では、この操作情報を「Move」と称する。
 車載装置1から上記の操作情報「Move」を受信すると、これに基づいて携帯端末2は、移動量Qx、QyをOS203により解読する。そして、図4(b)に示すように、カーソル40を右下端の基準位置42から移動量Qx、Qyだけ移動させて表示部21に表示すると共に、この移動後のカーソル40を含む画面の画像情報を、前述の映像信号を用いて、映像・音声ケーブル3を介して車載装置1へ出力する。
 携帯端末2から移動後のカーソル40を含む画面の画像情報を受信すると、車載装置1は、その画像情報に基づいて、携帯端末2の表示部21に表示されているのと同じ画面を表示部11に表示する。これにより、図4(b)に示すように、カーソル40がタッチ位置43を指示している画面が表示部11において表示される。
 操作情報「Move」を送信した後、車載装置1は、タッチ操作に応じた二つ目の操作情報として、所定のボタン操作、たとえば左クリック操作が行われたことを示すボタン操作情報をHIDパケットにより携帯端末2へ送信する。以下の説明では、この操作情報を「Tap」と称する。なお、操作情報「Tap」では、ボタン操作情報と合わせて、カーソル40の移動量が0であることを示す移動量情報も送信される。
 車載装置1から上記の操作情報「Tap」を受信すると、これに基づいて携帯端末2は、当該ボタン操作の内容をOS203により解読する。そして、操作情報「Move」で指定された移動後のカーソル40の表示位置、すなわちタッチ位置43に表示されている画面内容と、操作情報「Tap」で指定されたボタン操作内容とに応じて、たとえば、タッチ位置43のアイコンに対応するアプリケーションの起動などを行う。
 ユーザが表示部11から指を離すリリース操作を行ってタッチ操作を終了すると、車載装置1は、タッチ操作に応じた三つ目の操作情報として、操作情報「Tap」で指定されたボタン操作が解除されたことを示すボタン操作情報をHIDパケットにより携帯端末2へ送信する。以下の説明では、この操作情報を「Untap」と称する。なお、操作情報「Untap」では、前述の操作情報「Tap」と同様に、ボタン操作情報と合わせて、カーソル40の移動量が0であることを示す移動量情報も送信される。
 操作情報「Untap」を送信した後、車載装置1は、タッチ操作に応じた四つ目の操作情報として、カーソル40の表示位置をタッチ位置43から基準位置41へ戻すための操作情報をHIDパケットにより携帯端末2へ送信する。以下の説明では、この操作情報を「Move_Reset」と称する。
 車載装置1は、上記の操作情報「Move_Reset」として、タッチ位置43から基準位置41までの移動量、またはそれ以上の移動量を示す移動量情報を携帯端末2へ送信することが好ましい。たとえば、前述のように表示部11の右方向をXの正方向、下方向をYの正方向と定めた場合、基準位置41に対応する移動量として、X方向、Y方向のそれぞれについて、表示部11の解像度(画素数)以上の任意の移動量(たとえば、移動量情報において表現可能な最大移動量)を予め設定しておく。この移動量に応じた移動量情報を送信することで、操作情報「Move_Reset」を送信することができる。あるいは、前述の式(1)で計算した移動量Qx、Qyに基づいて、これらの符号をそれぞれ反転した移動量-Qx、-Qyを示す移動量情報を操作情報「Move_Reset」として送信してもよい。これ以外にも、タッチ位置43から基準位置41までの移動量以上あれば、任意の移動量を示す移動量情報を操作情報「Move_Reset」として送信することができる。
 車載装置1から操作情報「Move_Reset」として上記のような移動量情報を受信すると、これに基づいて携帯端末2は、当該移動量情報が表す移動量をOS203により解読する。そして、カーソル40を右下端の基準位置42へ移動させて表示部21に表示すると共に、この移動後のカーソル40を含む画面の画像情報を、前述の映像信号を用いて、映像・音声ケーブル3を介して車載装置1へ出力する。
 携帯端末2から移動後のカーソル40を含む画面の画像情報を受信すると、車載装置1は、その画像情報に基づいて、携帯端末2の表示部21に表示されているのと同じ画面を表示部11に表示する。これにより、図4(a)に示すような画面が表示部11において再び表示される。
 以上説明したように、車載装置1に対してユーザがタッチ操作を行うと、そのタッチ操作に応じて、「Move」、「Tap」、「Untap」、「Move_Reset」の各操作情報が車載装置1から携帯端末2へ順次送信される。これにより、携帯端末2においてユーザのタッチ操作を認識し、適切な処理を実行することができる。
 次に、車載装置1における連続タッチ操作時の誤動作防止について説明する。HIDパケットを利用して行われるマウス操作の場合、一定距離以上の移動量を示す操作情報が所定時間以内に連続して入力されると、加速度処理と呼ばれる処理が実行されることが知られている。この加速度処理は、実際に入力された移動量よりも多くの移動量を加算してカーソルを移動させることで、少ないマウス操作でカーソルを所望の位置に移動できるようにするためのものである。
 しかし、本実施形態による車載情報システムでは、タッチ操作に応じた操作情報をHIDパケットを利用して車載装置1から携帯端末2へ送信することで、上記のようなタッチ操作を実現している。そのため、加速度処理が携帯端末2において実行されると、実際のタッチ位置とは異なる場所にカーソルが移動してしまい、その結果、携帯端末2において正しくタッチ操作を認識できなくなってしまう。
 そこで、ユーザが短時間に連続してタッチ操作を行った場合、車載装置1は、2回目以降のタッチ操作に応じた操作情報を直ちには送信せずに、所定のインターバル時間だけ遅延させて送信する。これにより、車載装置1からの操作情報がインターバル時間内に複数回連続して携帯端末2に入力されるのを防いで、携帯端末2において加速度処理が実行されないようにすることができる。
 なお、多数のタッチ操作がインターバル時間内に続けて行われると、2回目以降の各タッチ操作に応じた操作情報が順次遅延されて蓄積されるため、その遅延時間の合計が膨大になってしまうことがある。したがって、こうした不都合を避けるために、操作情報の送信を遅延するタッチ操作の回数を所定数、たとえば5回までに制限し、これを超過したタッチ操作については破棄して操作情報を送信しないようにすることが好ましい。あるいは、遅延時間に上限を設け、この上限を超えて入力されたタッチ操作については破棄して操作情報を送信しないようにしてもよい。
 また、上記の処理において、加速度処理の実行を防ぐために必要なインターバル時間は必ずしも一定ではなく、携帯端末2に搭載されているOS203の種類やバージョンによって異なる場合がある。したがって、車載装置1は、インターバル時間の情報を携帯端末2から事前に取得しておき、この情報に基づいて最適なインターバル時間を設定することが好ましい。たとえば、様々な種類やバージョンのOSについて、それぞれに対応するインターバル時間を所定のサーバ装置に予め記録しておく。このサーバ装置から携帯端末2に対して、OS203に対応するインターバル時間の情報を配信する。携帯端末2は、サーバ装置から配信された情報に基づいて、車載装置1へインターバル時間を通知する。このようにすることで、携帯端末2に搭載されているOS203に対して最適なインターバル時間を車載装置1において取得することができる。
 図5は、以上説明したタッチ操作に関する車載装置1、携帯端末2およびサーバ装置間の情報の流れを示すシーケンス図である。
 車載装置1と携帯端末2が接続されると、車載装置1は、携帯端末2において実行されている図3のアプリケーションマネージャ201に対して、符号50に示すセッション開始要求を出力する。このセッション開始要求を受けると、携帯端末2は、アプリケーションマネージャ201のサブアプリケーションMaにより、無線通信部27を用いて、携帯電話回線網やインターネット回線網などの無線通信回線網を介してサーバ装置に接続する。そして、サーバ装置に対して、符号51に示すようにポリシーファイルの配信要求を行う。このときサブアプリケーションMaは、ポリシーファイルを特定するために必要な情報として、たとえば、メモリ部24に記憶されている各アプリケーションに関する情報や、携帯端末2の機種情報や、携帯端末2に搭載されているOS203の種類やバージョンに関する情報などをサーバ装置に通知する。
 携帯端末2のサブアプリケーションMaからポリシーファイルの配信要求を受けると、サーバ装置は、予め記憶された各種のポリシーファイルの中から携帯端末2に適したポリシーファイルを選択し、符号52に示すように携帯端末2へ配信する。なお、サーバ装置には、様々な情報端末に対して、そのOSの種類やバージョンごとのインターバル時間情報や、機種ごとの解像度情報、各種のアプリケーションに対する規制情報などが、ポリシーファイルとして個別に記録されている。サーバ装置は、この中から携帯端末2にとって最適なポリシーファイルを選択し、電話回線網やインターネット回線網などの無線通信回線網を介して携帯端末2へ配信する。
 図6は、携帯端末2に配信されるポリシーファイルにおいて記録されている情報の例を示す図である。図6に示すように、ポリシーファイルには、携帯端末2に対する規制情報、解像度情報およびインターバル時間情報が記録されている。規制情報は、携帯端末2に記憶されている各アプリケーションの車両走行中における動作規制の内容を表しており、図6の例では、アプリケーションAに対しては画像表示とユーザの操作入力を両方とも許可し、アプリケーションBに対しては画像表示を許可して操作入力を禁止し、アプリケーションCに対しては画像表示と操作入力を両方とも禁止することを示している。解像度情報は、表示部21の横方向(X方向)および縦方向(Y方向)の画面の解像度を表しており、図6の例では、横方向の解像度が1280画素であり、縦方向の解像度が640画素であることを示している。インターバル時間情報は、OS203において必要なインターバル時間を表しており、図6の例では、インターバル時間が100msであることを示している。
 サーバ装置から配信されたポリシーファイルを受信すると、携帯端末2は、アプリケーションマネージャ201のサブアプリケーションMaにより、そのポリシーファイルをメモリ24に記憶させる。そして、サブアプリケーションMsにより、メモリ24からポリシーファイルを読み出し、近距離無線通信インタフェース部25を用いて、符号53に示すように、車載装置1に対して解像度およびインターバル時間の通知を行う。ここでは、受信したポリシーファイルに示された解像度情報やインターバル時間情報を車載装置1へ送信することにより、これらの内容を車載装置1に通知する。
 携帯端末2から解像度およびインターバル時間の通知を受けると、車載装置1は、通知された解像度に基づいて、前述の式(1)で用いられる変換係数を算出する。また、通知されたインターバル時間に基づいて、加速度処理の実行を防ぐためのインターバル時間の設定を行う。
 ユーザが車載装置1に対してタッチ操作を行うと、車載装置1は、上記の変換係数を用いてタッチ位置に応じた変換後の移動量を算出し、符号54に示すように、一つ目の操作情報「Move」を携帯端末2のOS203へ送信する。その後、符号55に示すように、二つ目の操作情報「Tap」を送信する。
 操作情報「Tap」を送信した後、ユーザがタッチ操作を終了するリリース操作を行うと、車載装置1は、符号56に示すように、三つ目の操作情報「Untap」を送信する。その後、タッチ位置に移動されたカーソルを元の位置に戻すため、符号57に示すように四つ目の操作情報「Move_Reset」を送信する。
 リリース操作後、インターバル時間内にユーザがタッチ操作を続けて行うと、車載装置1は、タッチ位置に応じた変換後の移動量を算出した後に待機する。このときの待機時間は、前回のタッチ操作に対するリリース操作に応じて操作情報「Move_Reset」を送信してからインターバル時間を経過するまでの時間である。インターバル時間が経過したら、車載装置1は、符号58、59にそれぞれ示すように、操作情報「Move」および「Tap」を携帯端末2のOS203へ続けて送信する。その後、ユーザがリリース操作を行ってタッチ操作を終了すると、車載装置1は、符号60、61にそれぞれ示すように、操作情報「Untap」および「Move_Reset」をOS203へ続けて送信する。以降は、同様の動作が繰り返される。
 以上説明したように、ユーザがタッチ操作とリリース操作を行う度に、車載装置1から携帯端末2へ各操作情報が所定の順序で続けて送信される。また、インターバル時間内にタッチ操作が連続して行われた場合は、後のタッチ操作の操作情報を遅延させて送信することで、タッチ操作間でインターバル時間以上の操作情報の送信間隔が確保される。携帯端末2は、車載装置1からの各操作情報をOS203において解読することにより、ユーザが車載装置1に対して行ったタッチ操作の内容を認識することができる。
 図7は、車載装置1において実行されるタッチ操作に関する処理のフローチャートである。このフローチャートに示す処理は、車載装置1と携帯端末2の間で通信が確立されると、制御部10により実行されるものである。
 ステップS10において、制御部10は、近距離無線通信インタフェース部15を用いて、携帯端末2から送信される表示部21の解像度情報とインターバル時間情報を受信する。ここでは前述のように、表示部21のX方向に対する解像度Xsと、Y方向に対する解像度Ysとを、解像度情報として携帯端末2から受信する。また、OS203において加速度処理の実行を防ぐために必要な時間の長さ、たとえば100msのインターバル時間を示す情報を、インターバル時間情報として携帯端末2から受信する。
 ステップS20において、制御部10は、ステップS10で携帯端末2から受信した表示部21の解像度情報と、メモリ部14に予め記憶されている表示部11の解像度とに基づいて、表示部11に対する表示部21の解像度比に応じた変換係数を算出する。ここでは前述の式(1)に示したように、ステップS10で受信した解像度情報が表す表示部21の解像度Xs、Ysを、表示部11のX方向に対する解像度XvとY方向に対する解像度Yvでそれぞれ割ることで、X方向に対する変換係数Xs/Xvと、Y方向に対する変換係数Ys/Yvとを算出する。
 ステップS30において、制御部10は、表示部11と一体的に構成されたタッチパネルスイッチである操作部12に対してユーザからタッチ操作が行われたか否かを判定する。タッチ操作が行われた場合は、そのタッチ操作を検出してステップS40へ進む。
 ステップS40において、制御部10は、ステップS30でタッチ操作を検出したときのカーソルの表示位置から、そのタッチ操作で指定されたタッチ位置までの移動量を算出する。ここでは前述のように、右下端の基準位置41からタッチ位置43までの移動量として、X方向の移動量PxおよびY方向の移動量Pyを算出する。
 ステップS50において、制御部10は、ステップS40で算出した移動量を携帯端末2の表示部21上の移動量に変換する。ここでは、ステップS20で算出したX方向の変換係数Xs/XvおよびY方向の変換係数Ys/Yvを用いて、前述の式(1)により、表示部11に対して算出されたX方向の移動量PxおよびY方向の移動量Pyを、表示部21上のX方向の移動量QxおよびY方向の移動量Qyにそれぞれ変換する。
 ステップS60において、制御部10は、前回の操作情報「Move_Reset」の送信からインターバル時間以上経過したか否かを判定する。ここでは、前回のタッチ操作に応じて実行された後述のステップS120において操作情報「Move_Reset」が送信されてからの経過時間と、ステップS10で受信したインターバル時間情報に基づいて設定されたインターバル時間とを比較する。その結果、経過時間がインターバル時間未満である場合はステップS70へ進み、インターバル時間以上である場合はステップS80へ進む。
 ステップS70において、制御部10は、前回の操作情報「Move_Reset」の送信からの経過時間がインターバル時間となるまで待機する。これにより、次のステップS80の処理の実行を遅らせて、操作情報「Move」の送信を遅延させる。インターバル時間を経過したら、ステップS80へ進む。
 ステップS80において、制御部10は、操作情報「Move」を携帯端末2へ送信する。このとき制御部10は、近距離無線通信インタフェース部15を用いて、ステップS50で変換した移動量を示す移動量情報を、操作情報「Move」として携帯端末2へ送信する。これにより、タッチ操作時のカーソルの表示位置から検出されたタッチ位置までの距離に応じた移動量情報が、車載装置1から携帯端末2へ送信される。この移動量情報の送信は、前述のように、マウス用の通信フォーマットであるHIDパケットを利用して行われる。こうして車載装置1から送信された移動量情報は、携帯端末2において近距離無線通信インタフェース部25により受信され、OS203により解読される。その結果、携帯端末2において画面上のカーソル位置が移動され、移動後のカーソルを含む画像情報が携帯端末2から車載装置1へと送信されて表示部11に表示される。
 ステップS90において、制御部10は、操作情報「Tap」を携帯端末2へ送信する。このとき制御部10は、近距離無線通信インタフェース部15を用いて、X方向、Y方向のいずれについても移動量が0であることを示す移動量情報と、左クリック操作等の所定のボタン操作が行われたことを示すボタン操作情報とを、操作情報「Tap」として携帯端末2へ送信する。
 ステップS100において、制御部10は、表示部11と一体的に構成されたタッチパネルスイッチである操作部12に対してユーザからリリース操作が行われたか否かを判定する。リリース操作が行われた場合、すなわちステップS30で検出したタッチ操作が終了された場合は、ステップS110へ進む。
 ステップS110において、制御部10は、操作情報「Untap」を携帯端末2へ送信する。このとき制御部10は、近距離無線通信インタフェース部15を用いて、X方向、Y方向のいずれについても移動量が0であることを示す移動量情報と、ボタン操作が解除されたことを示すボタン操作情報とを、操作情報「Untap」として携帯端末2へ送信する。
 ステップS120において、制御部10は、操作情報「Move_Reset」を携帯端末2へ送信する。このとき制御部10は、近距離無線通信インタフェース部15を用いて、基準位置までの移動量に応じて予め設定された前述のような移動量情報を、操作情報「Move_Reset」として携帯端末2へ送信する。
 ステップS120を実行したら、制御部10はステップS30へ戻り、ユーザからのタッチ操作に応じて前述のような処理を繰り返し実行する。
 以上説明した本発明の一実施の形態によれば、次のような作用効果を奏する。
(1)車載装置1は、映像・音声信号入力部16により、携帯端末2からカーソル40を含む画面の画像情報を受信し、その画像情報に基づいて当該画面をタッチパネルである表示部11に表示する。そして、表示部11と共にタッチパネルを構成している操作部12により、ユーザからのタッチ操作により指定されたタッチ位置を検出し、制御部10の処理により、近距離無線通信インタフェース部15を用いて、そのタッチ操作に応じた操作情報を携帯端末2へ送信する(ステップS80~S120)。このときにタッチ操作が連続して行われた場合は、インターバル時間を経過するまで待機することにより(ステップS70)、操作情報を遅延させて送信する。このようにしたので、加速度処理が携帯端末2において実行されるのを防止することができる。したがって、タッチパネル操作を適用した携帯端末2の表示画面を車載装置1で表示したときに、車載装置1から携帯端末2を操作することができる。
(2)制御部10は、ユーザのタッチ操作によりタッチ位置43が指定されると、ステップS80において、カーソル40を基準位置41からタッチ位置43まで移動させるための操作情報「Move」を送信する。また、操作情報「Move」を送信した後にタッチ位置43の指定が解除されると、ステップS120において、カーソル40をタッチ位置43から基準位置41まで戻すための操作情報「Move_Reset」を送信する。この操作情報「Move_Reset」を送信した後、所定のインターバル時間以内に次のタッチ操作が行われると、制御部10は、ステップS70においてインターバル時間を経過するまで待機し、その後にステップS80を実行することで、操作情報「Move」を遅延させて送信する。このようにしたので、インターバル時間以内にタッチ操作が連続して行われた場合に、加速度処理が携帯端末2において実行されるのを確実に防止することができる。
(3)制御部10は、ステップS80では、基準位置41からタッチ位置43までの距離に応じた移動量情報を操作情報「Move」として送信し、ステップS120では、基準位置41に応じた所定の移動量情報を操作情報「Move_Reset」として送信する。このようにしたので、タッチ操作の終了後には、カーソル40の表示位置を毎回必ず元の基準位置41に戻すことができる。これにより、タッチパネル操作を適用した携帯端末2の表示画面を車載装置1で表示したときに、車載装置1の表示部11と携帯端末2の表示部21との間で解像度が異なることで移動後のカーソル位置に誤差が生じるような場合であっても、その誤差を累積させずに、車載装置1から携帯端末2を適切に操作することができる。
(4)制御部10は、ユーザのタッチ操作によりタッチ位置43が指定されると、ステップS80で操作情報「Move」を送信した後に、ステップS90において、所定のボタン操作を示す操作情報「Tap」を送信する。また、この操作情報「Tap」を送信した後にタッチ位置43の指定が解除されると、ステップS110において、当該ボタン操作の解除を示す操作情報「Untap」を送信する。その後に、ステップS120で操作情報「Move_Reset」を送信する。このようにしたので、携帯端末2において、ユーザが車載装置1に対して行ったタッチ操作の内容を確実に認識することができる。
(5)制御部10は、上記の操作情報「Tap」および「Untap」において、カーソル40の移動量を0とする。これにより、携帯端末2において、ユーザのタッチ操作で指定されたタッチ位置43に対応するアイコン等を確実に選択し、その選択結果に応じて適切な処理を実行することができる。
(6)車載装置1は、制御部10の処理により、近距離無線通信インタフェース部15を用いて、携帯端末2からインターバル時間に関するインターバル時間情報を取得する(ステップS10)。このインターバル時間情報に基づいてステップS60の判定処理を行うことで、制御部10は、ステップS70を実行するか否かを判断する。これにより、次のステップS80で操作情報「Move」を遅延させて送信するか否かを判断する。このようにしたので、携帯端末2に搭載されているOS203に対して適切なインターバル時間を設定し、操作情報を遅延させて送信するか否かの判断を行うことができる。
(7)ステップS10において、上記のインターバル時間情報は、所定のサーバ装置から携帯端末2に配信されるポリシーファイルに基づいて、携帯端末2から送信される。したがって、携帯端末2に搭載されているOS203の種類やバージョンの違いに応じて、最適なインターバル時間を携帯端末2から車載装置1へ通知し、車載装置1においてインターバル時間を設定することができる。
(8)制御部10は、ステップS80、S90、S110およびS120において、近距離無線通信インタフェース部15により、ブルートゥースにおけるマウス用の通信フォーマットであるHIDパケットを利用して各操作情報を送信するようにした。このようにしたので、既存の通信フォーマットを利用して、移動量情報の送信を容易かつ確実に実現することができる。
-第2の実施形態-
 次に、本発明の第2の実施形態について説明する。前述の第1の実施形態では、ユーザが車載装置1に対して画面上の任意の位置を指定するタッチ操作を行うと、そのタッチ操作に応じた操作情報をHIDパケットにより車載装置1から携帯端末2へと送信することで、車載装置1から携帯端末2を操作する例を説明した。これに対して、第2の実施形態では、さらにフリック操作と呼ばれる、タッチ操作中にタッチ位置を所定方向に弾くように素早く移動させるタッチ操作の例について説明する。
 図8は、車載装置1においてフリック操作が行われたときの車載装置1と携帯端末2の動作を説明する図である。図8に示すように、ユーザが表示部11を指で触れることにより車載装置1に対してタッチ位置43を指定した後、指を矢印70の方向に素早く動かしてタッチ位置を移動させるフリック操作を行ったとする。このようなフリック操作を検出すると、車載装置1は、まずは前述の第1の実施形態と同様に、最初に指定されたタッチ位置43に応じて、操作情報「Move」および「Tap」を送信する。
 続いて車載装置1は、最初のタッチ位置43から矢印70の方向に沿って所定時間後に指定された次のタッチ位置44を検出する。そして、タッチ位置43からタッチ位置44までの移動量として、X方向の移動量Px1およびY方向の移動量Py1を算出する。
 上記のようにしてタッチ位置43からタッチ位置44までの移動量Px1、Py1を算出したら、続いて車載装置1は、前述の式(1)を用いて、これらの移動量Px1、Py1を携帯端末2の表示部21上の移動量Qx1、Qy1にそれぞれ変換する。そして、第1の実施形態で説明した四種類の操作情報とは異なる五つ目の操作情報として、操作情報「Tap」と同様のボタン操作情報と、変換後の移動量Qx1、Qy1を示す移動量情報とを、HIDパケットにより携帯端末2へ送信する。以下の説明では、この操作情報を「Flick」と称する。
 ユーザからのフリック操作の入力中に、車載装置1は、上記と同様の処理を所定時間ごとに実行する。その結果、矢印70の方向に沿って、タッチ位置44からタッチ位置45までの移動量Px2、Py2に応じた変換後の移動量Qx2、Qy2を示す移動量情報と、タッチ位置45からタッチ位置46までの移動量Px3、Py3に応じた変換後の移動量Qx3、Qy3を示す移動量情報とが、ボタン操作情報と共に、操作情報「Flick」として、車載装置1から携帯端末2へ所定時間ごとに送信される。
 以上説明したように、車載装置1は、フリック操作において矢印70の方向に沿って連続的に指定されたタッチ位置の中から、所定時間ごとのタッチ位置43~46を検出する。そして、各タッチ位置間のX方向移動量Px1~Px3およびY方向移動量Py1~Py3をそれぞれ算出し、これらに応じた変換後のX方向移動量Qx1~Qx3およびY方向移動量Qy1~Qy3を示す移動量情報とボタン操作情報とを含む操作情報「Flick」を、携帯端末2へ所定時間ごとに送信する。この操作情報「Flick」を受信することで、携帯端末2は、フリック操作において指定された車載装置1の表示部11上でのタッチ位置43~46にそれぞれ対応する表示部21上での位置73~76について、各位置間のX方向の移動量Qx1~Qx3およびY方向の移動量Qy1~Qy3を取得することができる。
 なお、車載装置1において、表示部11に対して行われたタッチ操作の検出結果は、表示部11と共にタッチパネルを構成する操作部12から制御部10へ所定の出力周期ごとに出力される。この操作部12からのタッチ操作の検出結果の出力周期は、一般的に、操作情報「Flick」の送信に用いられるHIDパケットの送信周期よりも短い。したがって、制御部10は、操作部12より所定周期ごとに入力されるタッチ操作の検出結果の中から、HIDパケットの送信周期に対応するものを抽出し、これに基づいて操作情報「Flick」を生成および送信することが好ましい。ここで、操作部12の機能の一部を、制御部10で実行されるドライバソフトウェアにより実現してもよい。
 車載装置1から上記の操作情報「Flick」を受信すると、これに基づいて携帯端末2は、当該フリック操作の内容をOS203により解読する。そして、操作情報「Flick」で指定されたフリック操作内容に応じて、たとえば、メニュー画面の切り替え表示や、実行中のアプリケーションにおいて対応する処理などを行う。
 その後、ユーザがタッチ位置46において表示部11から指を離すリリース操作を行ってフリック操作を終了すると、車載装置1は、第1の実施形態と同様に、操作情報「Untap」および「Move_Reset」をHIDパケットにより携帯端末2へそれぞれ送信する。
 以上説明したように、車載装置1に対してユーザがフリック操作を行うと、そのフリック操作に応じて、「Move」、「Tap」、「Flick」、「Untap」、「Move_Reset」の各操作情報が車載装置1から携帯端末2へ順次送信される。これにより、携帯端末2においてユーザのフリック操作を認識し、適切な処理を実行することができる。
 図9は、フリック操作に関する車載装置1、携帯端末2およびサーバ装置間の情報の流れを示すシーケンス図である。
 車載装置1と携帯端末2が接続されると、車載装置1、携帯端末2およびサーバ装置は、第1の実施形態における図5のシーケンス図と同様に、符号50~53に示した動作をそれぞれ行う。すなわち、車載装置1がセッション開始要求を出力すると、携帯端末2は、サーバ装置に対してポリシーファイルの配信を要求し、サーバ装置は、携帯端末2に適したポリシーファイルを選択して携帯端末2へ配信する。このポリシーファイルを受信すると、携帯端末2は、車載装置1に対して解像度およびインターバル時間の通知を行う。こうして通知された解像度およびインターバル時間にそれぞれ基づいて、車載装置1は、前述の式(1)における変換係数の算出およびインターバル時間の設定を行う。
 ユーザが車載装置1に対してフリック操作を行うと、車載装置1は、最初に第1の実施形態で説明したタッチ操作の場合と同様に、フリック操作開始時のタッチ位置に応じた変換後の移動量を算出する。そして、符号54、55に示すように、操作情報「Move」、「Tap」を順に送信する。その後、車載装置1は符号80に示すように、フリック操作におけるタッチ位置の移動量に応じた操作情報「Flick」を携帯端末2へ所定時間ごとに送信する。この操作情報「Flick」の送信は、フリック操作が入力されている間、連続して行われる。
 ユーザがフリック操作を終了してリリース操作を行うと、車載装置1は、第1の実施形態と同様に、符号56、57にそれぞれ示すように、操作情報「Untap」、「Move_Reset」を順に送信する。
 なお、操作情報「Move_Reset」の送信後、所定のインターバル時間内にユーザがタッチ操作を続けて行うと、車載装置1は、第1の実施形態と同様に、インターバル時間を経過するまで待機する。インターバル時間が経過したら、車載装置1は、上記と同様の動作を繰り返す。
 以上説明したように、ユーザが車載装置1に対してフリック操作を行うと、車載装置1から携帯端末2に対して、操作情報「Move」、「Tap」の送信後に、所定のボタン操作情報と、当該フリック操作におけるタッチ位置の移動量に応じた移動量情報とを含む操作情報「Flick」が、所定時間ごとに送信される。携帯端末2は、車載装置1からの操作情報「Flick」をOS203において解読することにより、ユーザが車載装置1に対して行ったフリック操作を認識することができる。
 図10は、車載装置1において実行されるフリック操作に関する処理のフローチャートである。このフローチャートに示す処理は、車載装置1と携帯端末2の間で通信が確立されると、制御部10により実行されるものである。なお、図10において、第1の実施形態で説明した図7のフローチャートと同じ処理内容の部分には、図7と同一のステップ番号を付している。以下では、この図7と同一ステップ番号の処理については、特に必要のない限りは説明を省略する。
 ステップS90で操作情報「Tap」を携帯端末2へ送信した後、ステップS91において、制御部10は、表示部11と一体的に構成されたタッチパネルスイッチである操作部12に対してユーザからフリック操作が行われたか否かを判定する。ここでは、ステップS30でタッチ操作を検出したときの位置からタッチ位置が変化したか否かを判定することで、フリック操作の有無を判定する。図8で説明したように、ユーザが指を任意の方向に素早く動かすことでフリック操作を行うと、これに伴ってタッチ位置が変化する。そのため、タッチ位置の変化を検出した場合は、フリック操作が行われたと判定して次のステップS92へ進み、検出しなかった場合は、フリック操作なしと判定してステップS100へ進む。
 ステップS92において、制御部10は、前回のタッチ位置からの移動量を算出する。ここでは前述のように、フリック操作中に連続的に変化するタッチ位置を所定時間ごとに検出し、その中で前回検出したタッチ位置から今回のタッチ位置までのX方向およびY方向の移動量を算出する。
 ステップS93において、制御部10は、ステップS92で算出した移動量を携帯端末2の表示部21上の移動量に変換する。ここでは、ステップS50と同様に、ステップS20で算出したX方向の変換係数Xs/XvおよびY方向の変換係数Ys/Yvを用いて、前述の式(1)により、X方向の移動量とY方向の移動量をそれぞれ変換する。
 ステップS94において、制御部10は、操作情報「Flick」を携帯端末2へ送信する。このとき制御部10は、近距離無線通信インタフェース部15を用いて、ステップS93で変換した移動量を示す移動量情報と、左クリック操作等の所定のボタン操作が行われたことを示すボタン操作情報とを、操作情報「Flick」として携帯端末2へ送信する。
 ステップS94を実行したら、制御部10はステップS100に進み、ユーザからのリリース操作の有無を判定する。その結果、リリース操作が行われた場合、すなわちステップS91で検出したフリック操作が終了された場合はステップS110へ進み、そうでない場合はステップS91へ戻って前述の処理を繰り返す。
 以上説明したように、ステップS91でフリック操作が検出されてからステップS100でリリース操作が検出されるまでの間に、ステップS92~S94の処理が所定時間ごとに繰り返し実行される。これにより、図8で説明したように、フリック操作におけるタッチ位置43~46が所定時間ごとに検出され、各タッチ位置間のX方向移動量Px1~Px3およびY方向移動量Py1~Py3がそれぞれ算出される。そして、これらに対応する変換後のX方向移動量Qx1~Qx3およびY方向移動量Qy1~Qy3がそれぞれ算出され、各変換後の移動量に応じた移動量情報がボタン操作情報と共に操作情報「Flick」として、車載装置1から携帯端末2へ所定時間ごとに送信される。
 以上説明した本発明の第2の実施形態によれば、第1の実施形態で説明した(1)~(8)に加えて、さらに次の(9)のような作用効果を奏する。
(9)制御部10は、ユーザのタッチ操作中にタッチ位置が移動されることでフリック操作が行われると、ステップS80で操作情報「Move」を送信し、ステップS90で操作情報「Tap」を送信した後に、ステップS94において、所定のボタン操作を示すボタン操作情報とタッチ位置の移動量に応じた移動量情報とを含む操作情報「Flick」を送信する。このようにしたので、携帯端末2において、ユーザが車載装置1に対して行ったフリック操作の内容を確実に認識することができる。
 なお、以上説明した各実施の形態では、映像・音声ケーブル3を介して車載装置1と携帯端末2を互いに接続することで、携帯端末2から車載装置1へ映像信号と音声信号を送信する例を説明した。また、Bluetooth等の所定の通信規格に従って行われる近距離無線通信により、車載装置1と携帯端末2との間で通信を行う例を説明した。しかし、他の通信方式や信号伝送方式を用いても本発明は実現可能である。たとえば、携帯端末2から車載装置1への映像信号や音声信号を無線通信で送信してもよい。また、車載装置1と携帯端末2との間の通信をUSB等の有線通信を用いて行うこともできる。この場合、図7のステップS80、S90、S110およびS120では、前述のHIDパケットの代わりに、USBにおけるマウス用の通信フォーマット等を利用して、車載装置1から携帯端末2へ操作情報を送信することができる。車載装置1と携帯端末2との間で必要な信号や情報を送受信可能なものである限り、どのような通信方式を採用してもよい。
 以上説明した各実施の形態において、車速信号やパーキング信号以外にも、車両から出力される様々な車両情報を車載装置1において取得するようにしてもよい。このとき取得された車両情報は、車載装置1が実行する処理において利用してもよいし、あるいは、車載装置1から携帯端末2へ出力し、携帯端末2が実行する処理において利用してもよい。一例として、車両情報に応じた起動条件をアプリケーションごとに予め設定しておき、その起動条件を満たす車両情報が車両から出力されたときに、当該アプリケーションを携帯端末2において自動的に起動するようにすることができる。この場合、各アプリケーションの起動条件を示す情報を携帯端末2から車載装置1へ送信し、車載装置1において起動条件を満たすか否かを車両情報に基づいて判定してもよい。あるいは、車載装置1から携帯端末2へ車両情報を送信し、その車両情報に基づいて起動条件を満たすか否かを携帯端末2において判定してもよい。これにより、たとえば、燃料残量が所定値未満まで減ってきたという車両情報が車両から出力されたときに、現在位置周辺のガソリンスタンドを検索するためのアプリケーションを携帯端末2において自動的に起動することができる。
 以上説明した各実施の形態では、車載装置1の表示部11をタッチパネルとし、この表示部11に携帯端末2から受信した画像を表示する場合の例を説明した。しかし、本発明の適用範囲はこれに限定されるものではない。情報端末と接続され、その情報端末から受信した画像をタッチパネルに表示するものである限り、どのような表示装置においても本発明を適用することができる。
 以上説明した各実施の形態や各種の変形例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されるものではない。また、上記実施の形態と変形例とを任意に組み合わせて用いてもよい。
 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
 日本国特許出願2013年第50791号(2013年3月13日出願)
1:車載装置、2:携帯端末、3:映像・音声ケーブル、10:制御部、11:表示部、12:操作部、13:音声出力部、14:メモリ部、15:近距離無線通信インタフェース部、16:映像・音声信号入力部、20:制御部、21:表示部、22:操作部、23:音声出力部、24:メモリ部、25:近距離無線通信インタフェース部、26:映像・音声信号出力部、27:無線通信部、28:GPS受信部

Claims (11)

  1.  情報端末と接続される表示装置であって、
     前記情報端末からカーソルを含む画面の画像情報を受信する画像受信部と、
     前記画像受信部により受信された画像情報に基づいて前記画面を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルと、
     前記タッチ操作に応じた操作情報を前記情報端末へ送信する送信部とを備え、
     前記送信部は、前記タッチ操作が連続して行われた場合に、前記操作情報を遅延させて送信する表示装置。
  2.  請求項1に記載の表示装置において、
     前記送信部は、
     前記タッチ操作により前記タッチ位置が指定されると、前記カーソルを所定の基準位置から前記タッチ位置まで移動させるための第1の操作情報を送信し、
     前記第1の操作情報を送信した後に前記タッチ位置の指定が解除されると、前記カーソルを前記タッチ位置から前記基準位置まで戻すための第2の操作情報を送信し、
     前記第2の操作情報を送信した後、所定のインターバル時間以内に次のタッチ操作が行われると、次回の前記第1の操作情報を遅延させて送信する表示装置。
  3.  請求項2に記載の表示装置において、
     前記操作情報は、前記カーソルの移動量を示す移動量情報を含み、
     前記送信部は、前記基準位置から前記タッチ位置までの距離に応じた移動量情報を前記第1の操作情報として送信し、前記基準位置に応じた所定の移動量情報を前記第2の操作情報として送信する表示装置。
  4.  請求項2または3に記載の表示装置において、
     前記送信部は、
     前記タッチ操作により前記タッチ位置が指定されると、前記第1の操作情報を送信した後に、所定のボタン操作を示す第3の操作情報を送信し、
     前記第3の操作情報を送信した後に前記タッチ位置の指定が解除されると、前記ボタン操作の解除を示す第4の操作情報を送信した後に、前記第2の操作情報を送信する表示装置。
  5.  請求項4に記載の表示装置において、
     前記送信部は、前記第3の操作情報および前記第4の操作情報において、前記カーソルの移動量を0とする表示装置。
  6.  請求項2または3に記載の表示装置において、
     前記送信部は、前記タッチ操作中に前記タッチ位置が移動されると、前記第1の操作情報を送信した後に、所定のボタン操作を示すボタン操作情報と前記タッチ位置の移動量に応じた移動量情報とを含む操作情報を送信する表示装置。
  7.  請求項4または5に記載の表示装置において、
     前記送信部は、前記タッチ操作中に前記タッチ位置が移動されると、前記第1の操作情報および前記第3の操作情報を送信した後に、前記ボタン操作を示すボタン操作情報と前記タッチ位置の移動量に応じた移動量情報とを含む操作情報を送信する表示装置。
  8.  請求項2乃至7のいずれか一項に記載の表示装置において、
     前記情報端末から前記インターバル時間に関するインターバル時間情報を取得するインターバル時間情報取得部をさらに備え、
     前記送信部は、前記インターバル時間情報取得部により取得されたインターバル時間情報に基づいて、前記操作情報を遅延させて送信するか否かを判断する表示装置。
  9.  請求項8に記載の表示装置において、
     前記インターバル時間情報は、所定のサーバ装置から前記情報端末に配信されるポリシーファイルに基づいて、前記情報端末から送信される表示装置。
  10.  請求項1乃至9のいずれか一項に記載の表示装置において、
     前記送信部は、ブルートゥースまたはUSBにおけるマウス用の通信フォーマットを利用して、前記操作情報を送信する表示装置。
  11.  情報端末と接続される表示装置であって、
     前記情報端末からカーソルを含む画面の画像情報を受信する画像受信部と、
     前記画像受信部により受信された画像情報に基づいて前記画面を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルと、
     前記タッチ操作に応じた操作情報を前記情報端末へ送信する送信部とを備え、
     前記送信部は、前記タッチ操作中に前記タッチ位置が移動されると、所定のボタン操作を示すボタン操作情報と前記タッチ位置の移動量に応じた移動量情報とを含む操作情報を送信する表示装置。
PCT/JP2014/055485 2013-03-13 2014-03-04 表示装置 WO2014141954A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US14/774,210 US9846506B2 (en) 2013-03-13 2014-03-04 Display device
CN201480014777.1A CN105190522B (zh) 2013-03-13 2014-03-04 显示装置
EP14765255.6A EP2975829B1 (en) 2013-03-13 2014-03-04 Display apparatus
JP2015505413A JP6317326B2 (ja) 2013-03-13 2014-03-04 表示装置
US15/813,624 US20180136779A1 (en) 2013-03-13 2017-11-15 Display Device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-050791 2013-03-13
JP2013050791 2013-03-13

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/774,210 A-371-Of-International US9846506B2 (en) 2013-03-13 2014-03-04 Display device
US15/813,624 Continuation US20180136779A1 (en) 2013-03-13 2017-11-15 Display Device

Publications (1)

Publication Number Publication Date
WO2014141954A1 true WO2014141954A1 (ja) 2014-09-18

Family

ID=51536620

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/055485 WO2014141954A1 (ja) 2013-03-13 2014-03-04 表示装置

Country Status (5)

Country Link
US (2) US9846506B2 (ja)
EP (1) EP2975829B1 (ja)
JP (2) JP6317326B2 (ja)
CN (2) CN105190522B (ja)
WO (1) WO2014141954A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190007356A (ko) * 2017-07-12 2019-01-22 미래나노텍(주) 양방향 터치스크린 장치 및 이를 이용한 정보 표시 방법
KR20210042862A (ko) * 2020-05-29 2021-04-20 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 스마트 백미러에 사용되는 제어 방법, 장치, 전자기기 및 저장매체

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104679469B (zh) * 2014-12-29 2019-02-26 合肥杰发科技有限公司 车载终端及其获取手持终端的屏幕分辨率的方法
JP6724463B2 (ja) * 2016-03-24 2020-07-15 株式会社Ihi 電子機器、対象システムの操作方法、および操作プログラム
US10476963B2 (en) * 2016-05-09 2019-11-12 Honda Motor Co., Ltd. System and method for contacting vehicle for tandem parking
US9817511B1 (en) * 2016-09-16 2017-11-14 International Business Machines Corporation Reaching any touch screen portion with one hand
WO2018058362A1 (zh) * 2016-09-28 2018-04-05 北京小米移动软件有限公司 显示方法、装置及行车记录仪
CN107747949A (zh) * 2017-09-28 2018-03-02 惠州Tcl移动通信有限公司 导航时车载终端画面投射的方法、移动终端及存储介质
IL259518B2 (en) 2018-05-22 2023-04-01 Lumus Ltd Optical system and method for improving light field uniformity
GB2577067B (en) * 2018-09-12 2021-01-13 Avecto Ltd Controlling applications by an application control system in a computer device
JP6778735B2 (ja) * 2018-12-26 2020-11-04 本田技研工業株式会社 表示装置、表示方法、およびプログラム
CN112463086A (zh) * 2019-09-06 2021-03-09 华为技术有限公司 一种显示控制方法及电子设备
CN111045590B (zh) * 2019-12-04 2021-06-04 广州小鹏汽车科技有限公司 一种车载模拟按键的方法、系统、存储介质及车辆
CN112799557B (zh) * 2021-01-28 2022-03-22 青岛海信移动通信技术股份有限公司 一种水墨屏显示控制方法、终端及计算机可读存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036141A (ja) * 2001-07-25 2003-02-07 Sony Corp 入力装置
JP2003244343A (ja) 2002-02-21 2003-08-29 Toyota Motor Corp 表示装置、携帯端末及び情報表示システム
JP2010108212A (ja) * 2008-10-30 2010-05-13 Kyocera Corp コンテンツ処理システム、端末装置及びコンテンツ処理方法
WO2012065020A1 (en) * 2010-11-12 2012-05-18 Apple Inc. Device, method, and graphical user interface for navigating a list of identifiers
US20120144323A1 (en) * 2010-10-01 2012-06-07 Imerj, Llc Desktop Reveal By Moving a Logical Display Stack With Gestures
JP2012257156A (ja) * 2011-06-10 2012-12-27 Kyocera Corp 通信端末
WO2013183765A1 (ja) * 2012-06-08 2013-12-12 クラリオン株式会社 表示装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3841661B2 (ja) * 2001-10-09 2006-11-01 富士通テン株式会社 ナビゲーションシステム、およびナビゲーション装置、並びに携帯電話機
JP4765729B2 (ja) * 2006-03-31 2011-09-07 カシオ計算機株式会社 コンピュータシステムのクライアント装置およびその制御プログラム、サーバ装置およびその制御プログラム
JP5623287B2 (ja) * 2007-12-05 2014-11-12 ジョンソン コントロールズテクノロジーカンパニーJohnson Controls Technology Company 車両ユーザインターフェースシステム及び方法
JP2010086216A (ja) * 2008-09-30 2010-04-15 Fujitsu Ten Ltd 情報処理装置、方法、プログラム、及び情報配信システム
JP2010127781A (ja) * 2008-11-27 2010-06-10 Fujitsu Ten Ltd 車載装置および同装置を有する車載システム
JP2010130553A (ja) * 2008-11-28 2010-06-10 Fujitsu Ten Ltd 車載装置
JP5247388B2 (ja) * 2008-12-01 2013-07-24 富士通テン株式会社 車載システムおよび車載システムの操作制御方法
JP2010130669A (ja) * 2008-12-01 2010-06-10 Fujitsu Ten Ltd 車載装置および無線通信システム
US9258402B2 (en) * 2009-04-14 2016-02-09 Qualcomm Incorporated System and method for controlling mobile devices
JP5442326B2 (ja) * 2009-06-15 2014-03-12 アルパイン株式会社 車載用通信装置
JP2011033460A (ja) * 2009-07-31 2011-02-17 Fujitsu Ten Ltd ナビゲーションシステム、車載機、ナビゲーション方法及びプログラム
US8860676B2 (en) * 2010-01-26 2014-10-14 Panasonic Intellectual Property Corporation Of America Display control device, method, program, and integrated circuit
US8265928B2 (en) * 2010-04-14 2012-09-11 Google Inc. Geotagged environmental audio for enhanced speech recognition accuracy
JP5494318B2 (ja) * 2010-07-20 2014-05-14 株式会社デンソー 携帯端末および通信システム
JP5628612B2 (ja) * 2010-09-17 2014-11-19 クラリオン株式会社 車載情報システム、車載装置、情報端末
JP5613005B2 (ja) * 2010-10-18 2014-10-22 オリンパスイメージング株式会社 カメラ
JP5633341B2 (ja) * 2010-11-30 2014-12-03 カシオ計算機株式会社 サーバベース・コンピューティング・システムのクライアント装置、サーバ装置、およびプログラム
JP5429198B2 (ja) * 2011-01-12 2014-02-26 コニカミノルタ株式会社 画像処理装置、画像形成システム、および制御プログラム
JP5472256B2 (ja) * 2011-05-06 2014-04-16 株式会社デンソー 車両用表示装置および情報表示システム
KR20130053185A (ko) * 2011-11-15 2013-05-23 삼성전자주식회사 전자기기들 간의 상호 제어 방법 및 시스템
EP2808773A4 (en) * 2012-01-26 2015-12-16 Panasonic Corp MOBILE TERMINAL, TELEPHONE RECEIVER AND DEVICE CONNECTING METHOD
JP6032286B2 (ja) * 2012-08-27 2016-11-24 日本電気株式会社 車載機、携帯端末制御方法およびプログラム
CN104737104B (zh) * 2012-10-19 2017-12-19 三菱电机株式会社 信息处理装置、信息终端、信息处理系统及校准方法
US9430067B2 (en) * 2013-01-11 2016-08-30 Sony Corporation Device and method for touch detection on a display panel
CN103631866B (zh) * 2013-11-01 2017-01-18 北京奇虎科技有限公司 网页的显示方法和浏览器

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036141A (ja) * 2001-07-25 2003-02-07 Sony Corp 入力装置
JP2003244343A (ja) 2002-02-21 2003-08-29 Toyota Motor Corp 表示装置、携帯端末及び情報表示システム
JP2010108212A (ja) * 2008-10-30 2010-05-13 Kyocera Corp コンテンツ処理システム、端末装置及びコンテンツ処理方法
US20120144323A1 (en) * 2010-10-01 2012-06-07 Imerj, Llc Desktop Reveal By Moving a Logical Display Stack With Gestures
WO2012065020A1 (en) * 2010-11-12 2012-05-18 Apple Inc. Device, method, and graphical user interface for navigating a list of identifiers
JP2012257156A (ja) * 2011-06-10 2012-12-27 Kyocera Corp 通信端末
WO2013183765A1 (ja) * 2012-06-08 2013-12-12 クラリオン株式会社 表示装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190007356A (ko) * 2017-07-12 2019-01-22 미래나노텍(주) 양방향 터치스크린 장치 및 이를 이용한 정보 표시 방법
KR102372803B1 (ko) * 2017-07-12 2022-03-10 미래나노텍(주) 양방향 터치스크린 장치 및 이를 이용한 정보 표시 방법
KR20210042862A (ko) * 2020-05-29 2021-04-20 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 스마트 백미러에 사용되는 제어 방법, 장치, 전자기기 및 저장매체
JP2021108187A (ja) * 2020-05-29 2021-07-29 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. スマートバックミラーを制御するための方法、装置、電子機器及び記憶媒体
KR102501293B1 (ko) 2020-05-29 2023-02-16 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디. 스마트 백미러에 사용되는 제어 방법, 장치, 전자기기 및 저장매체
JP7230093B2 (ja) 2020-05-29 2023-02-28 阿波▲羅▼智▲聯▼(北京)科技有限公司 スマートバックミラーを制御するための方法、装置、電子機器及び記憶媒体

Also Published As

Publication number Publication date
JPWO2014141954A1 (ja) 2017-02-16
EP2975829B1 (en) 2022-02-09
US20160018943A1 (en) 2016-01-21
CN109240633B (zh) 2021-10-22
US9846506B2 (en) 2017-12-19
EP2975829A4 (en) 2016-12-28
EP2975829A1 (en) 2016-01-20
JP6317326B2 (ja) 2018-04-25
US20180136779A1 (en) 2018-05-17
CN105190522B (zh) 2018-10-23
JP2018110039A (ja) 2018-07-12
JP6559825B2 (ja) 2019-08-14
CN105190522A (zh) 2015-12-23
CN109240633A (zh) 2019-01-18

Similar Documents

Publication Publication Date Title
JP6559825B2 (ja) 表示装置、情報端末操作方法
JP6124169B2 (ja) 表示装置
JP6103620B2 (ja) 車載情報システム、情報端末、アプリケーション実行方法、プログラム
JP6058654B2 (ja) 車載情報システム、情報端末、アプリケーション実行方法
JP6074150B2 (ja) 車載情報システム、情報端末、アプリケーション実行方法、プログラム
KR20170099903A (ko) 장치들에 걸쳐 디지털 개인 비서 에이전트를 스케일링하기 위한 기법
US20130229377A1 (en) Accessory protocol for touch screen device accessibility
CN109582893A (zh) 一种页面显示位置跳转方法、装置,终端设备及存储介质
JP6557457B2 (ja) 画像表示システム、画像表示方法、及び表示装置
JP6362875B2 (ja) 車載装置、車載情報システム
WO2022160612A1 (zh) 与车辆的车载系统交互方法、存储介质和移动终端
JP2015220533A (ja) 車載情報システム、車載装置、情報端末、アプリケーション実行方法
WO2013180279A1 (ja) 車載情報システム、情報端末、アプリケーション実行方法、プログラム
JP6397530B2 (ja) 表示装置
KR20150044417A (ko) 복수의 단말 간 사용자인터페이스 통합 방법 및 이를 수행하는 단말
JP2012063249A (ja) 車載情報システム、車載装置、情報端末
WO2016069286A1 (en) Application level audio connection and streaming
JP7193904B2 (ja) 電子装置および電子システム
KR20150059429A (ko) 사용자 제스처를 이용한 복수의 단말 간 사용자인터페이스 통합 방법 및 이를 수행하는 단말
JP2015118483A (ja) 表示装置、表示連携システム、表示装置の制御方法、プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480014777.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14765255

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015505413

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14774210

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2014765255

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE