WO2015063879A1 - 情報処理装置、情報端末、情報通信中継装置、情報通信システムおよび情報処理方法 - Google Patents

情報処理装置、情報端末、情報通信中継装置、情報通信システムおよび情報処理方法 Download PDF

Info

Publication number
WO2015063879A1
WO2015063879A1 PCT/JP2013/079382 JP2013079382W WO2015063879A1 WO 2015063879 A1 WO2015063879 A1 WO 2015063879A1 JP 2013079382 W JP2013079382 W JP 2013079382W WO 2015063879 A1 WO2015063879 A1 WO 2015063879A1
Authority
WO
WIPO (PCT)
Prior art keywords
message
information
terminal
unit
transmission
Prior art date
Application number
PCT/JP2013/079382
Other languages
English (en)
French (fr)
Inventor
英一 有田
下谷 光生
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to US14/916,139 priority Critical patent/US10237211B2/en
Priority to JP2015544686A priority patent/JP5980442B2/ja
Priority to PCT/JP2013/079382 priority patent/WO2015063879A1/ja
Priority to CN201380080626.1A priority patent/CN105723349B/zh
Publication of WO2015063879A1 publication Critical patent/WO2015063879A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3691Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement

Definitions

  • the present invention relates to an information processing device, an information terminal, an information communication relay device, an information communication system, and an information processing method.
  • a plurality of display devices may be mounted.
  • the display device is disposed in front of the driver's seat, between the driver's seat and the front passenger seat, and in front of the front passenger seat.
  • a display device for the rear seat may be disposed on the headrest of the front seat.
  • Patent Document 1 discloses a technique for viewing AV (Audio-Visual) content in a mobile device on any of a plurality of monitors in the vehicle. Specifically, when the user of the mobile device selects one of a plurality of monitors in the vehicle, the in-vehicle system that controls the plurality of monitors receives the content data from the mobile device and sends the content to the selected monitor. indicate. When selecting a monitor, the positions of a plurality of monitors in the vehicle are displayed on the screen of the mobile device. Patent Document 1 discloses a technique for detecting the positions of a plurality of monitors in a vehicle.
  • the factors that hinder communication are not limited to the above examples.
  • the environment in which people communicate is not limited to the mobile body.
  • the object of the present invention is to provide a technology useful for people's communication, for example, a technology capable of diversifying people's communication.
  • An information processing apparatus includes a conversion target acquisition unit and a message conversion unit.
  • the conversion target acquisition unit is transmitted / received within the basic area or between the basic area and the extended area by being present in the basic area that is inside the mobile body or in the extended area that is identified outside the basic area as the basic area. From the time the message is generated on the transmission side to the time the message is provided to the user on the reception side, the message is acquired as a conversion target message.
  • the message conversion unit converts the conversion target message according to a predetermined message conversion process to obtain a converted message.
  • the message to be converted is converted according to the message conversion process between the time when it is generated on the transmission side and the time it is provided to the user on the reception side. For this reason, it is possible to provide various formats for people's communication.
  • FIG. 1 is a block diagram illustrating a first configuration example of an information communication system according to Embodiment 1.
  • FIG. 3 is a block diagram illustrating a second configuration example of the information communication system according to the first embodiment.
  • 3 is a block diagram illustrating a first configuration example of an information terminal according to Embodiment 1.
  • FIG. 1 is a diagram illustrating an example in which an information communication system is mounted on an automobile according to Embodiment 1.
  • FIG. 10 is a diagram illustrating a state in which a message is created in a transmission side terminal in the first embodiment.
  • FIG. 10 is a diagram illustrating a state in which a transmission destination candidate icon is displayed on the screen of the transmission side terminal in the first embodiment.
  • FIG. 10 is a diagram for explaining a state in which a message is dragged to a destination candidate icon in the first embodiment.
  • 3 is a block diagram illustrating an exemplary configuration of an information processing unit according to Embodiment 1.
  • FIG. 5 is a flowchart for explaining an operation example of a message transmission function unit in the first embodiment.
  • FIG. 10 is a diagram for explaining a transmission selection rule in the second embodiment.
  • FIG. 10 is a diagram illustrating an example of association between a gesture operation and a terminal attribute according to the third embodiment.
  • FIG. 10 is a diagram for explaining an example of association between a gesture operation and a vehicle speed in the third embodiment.
  • FIG. 10 is a diagram illustrating a second example of a message to be transmitted in the fourth embodiment.
  • FIG. 10 is a diagram for explaining a third example of messages to be transmitted in the fourth embodiment.
  • FIG. 10 is a diagram for describing a first example of a technique for identifying the position of a portable information terminal in a fifth embodiment.
  • FIG. 20 is a diagram for describing a second example of a technique for specifying the position of a portable information terminal in the fifth embodiment.
  • FIG. 16 is a diagram illustrating an information communication system when a portable information terminal exists outside a vehicle according to Embodiment 6.
  • FIG. 20 is a block diagram illustrating a second configuration example of an information terminal in the seventh embodiment.
  • FIG. 38 is a block diagram illustrating a third configuration example of the information communication system according to the eighth embodiment.
  • FIG. 40 is a diagram for explaining voice conversion processing as a second example of message conversion in the ninth embodiment.
  • FIG. 40 is a diagram for explaining text conversion processing as a third example of message conversion in the ninth embodiment.
  • FIG. 38 is a block diagram illustrating a configuration example of a message conversion function unit in the ninth embodiment.
  • 40 is a flowchart for explaining an operation example of the message conversion function unit in the ninth embodiment.
  • FIG. 29 is a block diagram illustrating an example in which a message conversion function unit is mounted on a transmission-side terminal according to the ninth embodiment.
  • FIG. 29 is a block diagram illustrating an example in which a message conversion function unit is mounted on a receiving-side terminal according to the ninth embodiment.
  • FIG. 29 is a block diagram illustrating an example in which a message conversion function unit is mounted on a system overall control device according to the ninth embodiment.
  • FIG. 40 is a diagram for describing an example of execution selection of message conversion processing in the ninth embodiment.
  • FIG. 38 is a diagram for explaining an example of selecting execution and type of message conversion processing according to terminal attribute information in the ninth embodiment. It is a figure explaining the example which selects execution selection and a kind of message conversion processing according to vehicle speed about Embodiment 9.
  • FIG. 1 is a block diagram illustrating a first configuration example of an information communication system 10 according to the first embodiment.
  • the information communication system 10 includes a plurality of information terminal apparatuses 11.
  • the number of information terminal apparatuses 11 is not limited to the example of FIG.
  • the information terminal device 11 may be called the information terminal 11, the terminal 11, etc.
  • Information terminal 11 provides the user with visual information and auditory information. Further, the information terminal 11 accepts information input by the user. Each information terminal 11 has a communication function and communicates with other information terminals 11.
  • the communication function can be realized by wireless communication, wired communication, or a combination thereof.
  • the information communication system 10 may include a transmission-only information terminal 11 or may include a reception-only information terminal 11.
  • the information terminal 11 Since the information terminal 11 has both the transmission function and the reception function as described above, it may operate as the information terminal 11 on the transmission side or may operate as the information terminal 11 on the reception side.
  • the information communication system 10 employs both one-to-one communication and one-to-many communication. However, it is also possible to adopt only one of the communication forms.
  • the information terminal 11 when operating as a transmission side may be referred to as a transmission side information terminal 11, a transmission side terminal 11, a first information terminal 11, a first terminal 11, and the like.
  • the information terminal 11 when operating as a receiving side may be referred to as a receiving side information terminal 11, a receiving side terminal 11, a transmission destination terminal 11, a second information terminal 11, a second terminal 11, and the like.
  • FIG. 2 is a block diagram illustrating a second configuration example of the information communication system 10.
  • an overall system control device 12 that controls the information communication system 10 as a whole is added.
  • the overall system control device 12 has a communication function and communicates with each information terminal 11.
  • the communication function can be realized by wireless communication, wired communication, or a combination thereof.
  • the system overall control device 12 functions as, for example, an information communication relay device that relays communication between the information terminals 11. That is, each information terminal 11 communicates via the system overall control device 12.
  • a relay function can be realized by a general routing function.
  • each information terminal 11 and the overall system control device 12 is given in advance unique identification information (hereinafter also referred to as ID).
  • ID is used, for example, to specify the source and destination of information.
  • the ID is shared not only for communication but also for other processing.
  • FIG. 3 is a block diagram illustrating a configuration example of the information terminal 11.
  • the information terminal 11 includes an information processing unit 21, a storage unit 22, and an information output unit 23.
  • the information output unit 23 includes a display unit 24 and an audio output unit 25.
  • the information terminal 11 further includes an information input unit 26 and an external communication unit 27.
  • the information processing unit 21 is a device that performs various processes in the information terminal 11. For this reason, the information processing unit 21 may be called the information processing device 21.
  • the various processes include, for example, control of the storage unit 22, the information output unit 23, the information input unit 26, and the external communication unit 27.
  • the various processes include, for example, generation of data to be supplied to the information output unit 23 and analysis of a user operation acquired through the information input unit 26.
  • the information processing unit 21 includes a central processing unit (for example, configured with one or a plurality of microprocessor circuits) and a main storage unit (for example, one or a plurality of storage devices such as a ROM, a RAM, and a flash memory). The case where it is comprised is illustrated. According to this example, various processes are executed by the central processing unit executing various programs stored in the main storage unit. Various processes can be executed in parallel. Various functions corresponding to the various processes are realized.
  • a central processing unit for example, configured with one or a plurality of microprocessor circuits
  • main storage unit for example, one or a plurality of storage devices such as a ROM, a RAM, and a flash memory.
  • the program executed by the central processing unit may be stored in advance in the main storage unit, or may be read from the auxiliary storage unit (here, the storage unit 22) during execution and stored in the main storage unit. Good.
  • the main storage unit is used not only for storing programs but also for storing various data.
  • the main storage unit provides a work area when the central processing unit executes the program.
  • the main storage unit provides an image holding unit for writing an image to be displayed on the display unit 24.
  • the image holding unit may be called a video memory or a graphic memory.
  • various functions of the information processing unit 21 are realized by software, but all or a part of the various functions are realized by hardware (for example, an arithmetic circuit configured to perform a specific arithmetic operation). Also good.
  • the storage unit 22 stores various information.
  • the storage unit 22 is provided as an auxiliary storage unit used by the information processing unit 21.
  • the storage unit 22 can be configured using one or more storage devices such as a hard disk device, a rewritable and nonvolatile semiconductor memory, and an optical disk device, for example.
  • Information stored in the storage unit 22 includes image data (objects such as icons, map data, etc.), audio data (operation sounds, notification sounds, sound effects, guidance sounds, etc.), AV data, and the like.
  • the display unit 24 provides visual information to the user.
  • a case where the display unit 24 is configured by a liquid crystal display device is illustrated, and the display unit 24 may be referred to as a liquid crystal display device 24 or a display device 24 below.
  • the display unit 24 may be configured by other types of display devices.
  • the display unit 24 performs a display operation based on the image data supplied from the information processing unit 21.
  • the audio output unit 25 provides auditory information to the user.
  • the audio output unit 25 can be realized by an audio output device including a speaker, an audio amplifier, and the like.
  • audio data supplied from the information processing unit 21 is converted into an analog electric signal by an audio amplifier and output as audio from a speaker.
  • the information input unit 26 receives an input operation performed on the information terminal 11, and the input operation is processed by a signal that can be processed by the information processing unit 21. Hand over to 21.
  • the input part 26 is comprised with a contact-type touch panel.
  • the input unit 26 may be referred to as a touch panel 26.
  • a non-contact type touch panel may be employed.
  • the touch panel may be called a touch pad.
  • the contact type is sometimes called a two-dimensional (2D) type
  • the non-contact type is sometimes called a three-dimensional (3D) type.
  • a structure in which the touch panel 26 is overlaid on the screen of the liquid crystal display device 24 is illustrated. According to this, the user can perform an input operation with a sense of touching an icon or the like displayed on the screen. However, it is possible to adopt a structure in which the touch panel 26 is not superimposed on the screen of the liquid crystal display device 24. In this case, the touch panel 26 is used in a place different from the screen of the liquid crystal display device 24.
  • the user's finger (more specifically, the fingertip) is illustrated as an instruction to input to the touch panel 26.
  • a tool such as a stylus pen (also called a touch pen) may be used as an indicator.
  • a pointing device such as a mouse may be used as the input unit 26 instead of or in addition to the touch panel.
  • a so-called motion capture device that recognizes a user's operation by various sensors, cameras, or the like may be used.
  • the external communication unit 27 is a circuit that mediates a communication signal between the information processing unit 21 and an external device existing outside the terminal.
  • the external device corresponds to the other information terminal 11 in the example of FIG. 1, and corresponds to the overall system control device 12 in the example of FIG.
  • the external communication unit 27 acquires data to be transmitted from the information processing unit 21, converts the transmission data into a transmission signal of a communication standard adopted in advance, and outputs the transmission signal to the outside of the information terminal 11. To do. On the contrary, the external communication unit 27 receives a signal arriving from the outside of the information terminal 11, extracts data included in the received signal in accordance with a communication standard adopted in advance, and obtains the received data obtained as an information processing unit Deliver to 21.
  • the configuration of the information terminal 11 is not limited to the example of FIG.
  • the audio output unit 25 may be omitted.
  • a position information acquisition unit that acquires information on the current position of the information terminal 11 may be provided.
  • the position information acquisition unit can be configured by, for example, a GPS (Global Positioning System) receiving antenna and a GPS receiving device that detects the current position of the information terminal 11 based on information from a GPS satellite received by the GPS receiving antenna. is there.
  • the configuration of the position information acquisition unit is not limited to this example.
  • FIG. 4 is a top view of the automobile, and illustration of a ceiling portion of the automobile is omitted for explanation.
  • the information communication system 10 may be mounted on a vehicle (for example, a railway vehicle) other than an automobile, or may be mounted on a mobile body (for example, an airplane or a ship) other than the vehicle. Further, the use of the information communication system 10 is not limited to a mobile body.
  • the information terminal 11 is arranged for each seat.
  • the display screen of the information terminal 11 for the driver's seat (here, the front right seat) is arranged in the front part of the driver's seat on the dashboard, and is embodied as an integrated instrument panel, for example.
  • the integrated instrument panel is, for example, a meter (speedometer, tachometer, etc.), warning light, indicator light, navigation image, operation status of various devices (AV (Audio-Visual) equipment, etc.), It is a display panel that can display captured images in an integrated manner.
  • the integrated instrument panel is sometimes referred to as a meter cluster.
  • the display screen of the information terminal 11 for the passenger seat (here, the front left seat) is arranged in front of the passenger seat on the dashboard.
  • the display screen of the information terminal 11 for the rear right seat is disposed on the back surface of the driver seat, for example, the headrest portion of the driver seat.
  • the display screen of the information terminal 11 for the rear left seat is disposed on the rear surface of the passenger seat, for example, the headrest portion of the passenger seat.
  • the overall system control device 12 can be arranged at any location in the vehicle.
  • 5 to 7 are diagrams for explaining an example of information transmission operation in the information communication system 10.
  • 5 to 7 are examples of screen display of the transmission side terminal 11.
  • FIG. 1
  • the user of the transmission side terminal 11 creates a message 31 as information to be transmitted using the transmission side terminal 11 (see FIG. 5).
  • the message 31 is a character (in other words, text data), and character input uses a general input operation such as a software keyboard.
  • 5 to 7 illustrate the case where the message 31 is displayed on the map image, in other words, the case where the background of the message 31 is a map image, the situation in which the message 31 is created is this example. It is not limited to.
  • the touch is a one-point touch (that is, a touch with one finger).
  • the state of touch is conceptually illustrated by a black circle.
  • the icon 32 represents the information terminal 11 that is a candidate for the transmission destination of the message 31. For this reason, the icon 32 may be called a transmission destination candidate icon 32.
  • FIG. 6 illustrates the case where the transmission-side terminal 11 is the passenger seat terminal 11, and icons 32 corresponding to the information terminals 11 for the driver seat, the rear right seat, and the rear left seat are displayed. .
  • the message 31 is dragged to any destination candidate icon 32 (see FIG. 7)
  • the message is transmitted to the information terminal 11 corresponding to the icon 32. That is, the destination terminal 11 and the message transmission instruction can be performed by dragging.
  • the drag here is a one-point drag (that is, a drag with one finger).
  • the state of dragging is conceptually illustrated with black arrows. Flicks may be used instead of dragging.
  • the received message 31 is displayed at a preset position on the screen. In addition, you may make it notify the transmission side terminal 11 that the message 31 was received by performing gesture operation allocated beforehand with respect to the received message 31.
  • FIG. 1 A diagram illustrating an exemplary computing environment in accordance with the present disclosure.
  • FIG. 8 is a block diagram illustrating a configuration example of the information processing unit 21 regarding the transmission of the message 31.
  • the information processing unit 21 includes a message transmission function unit 40.
  • the message transmission function unit 40 includes a communication environment management unit 41, a message creation unit 42, a transmission destination candidate display control unit 43, and a message. And a transmission processing unit 44.
  • the communication environment management unit 41 confirms the presence of the information terminal 11 that is the communication partner of the own terminal 11, that is, the other terminal 11.
  • the confirmation process of the other terminal 11 can be executed by a general technique in the communication field.
  • the communication environment management unit 41 acquires terminal arrangement information related to the arrangement position relationship of the information terminals 11 belonging to the information communication system 10.
  • the terminal arrangement information is information that summarizes the arrangement positions of the information terminals 11 (which can be distinguished by IDs), for example.
  • Information on the relative position between the terminal 11 and the other terminal 11 can be acquired from the terminal arrangement information, and the information on the relative position is used for arrangement of the transmission destination candidate icon 32 (see FIG. 6).
  • the arrangement locations of the four information terminals 11 are fixed, so the arrangement positions of the information terminals 11 are known. For this reason, it is possible to create terminal arrangement information in advance, for example, when the information communication system 10 is mounted on a vehicle. Further, the terminal arrangement information may be stored in advance in a storage unit of each information terminal 11 (for example, the storage unit 22 or the main storage unit of the information processing unit 21). According to this, the communication environment management unit 41 executes a process of acquiring terminal arrangement information from a storage unit in which terminal arrangement information is stored in advance (hereinafter referred to as a first terminal arrangement information acquisition process). Terminal arrangement information can be acquired.
  • each information terminal 11 may collect ID and arrangement position information from the other terminals 11.
  • the communication environment management unit 41 executes a process of acquiring terminal arrangement information by collecting information using communication with the other terminal 11 (referred to as a second terminal arrangement information acquisition process).
  • terminal arrangement information can be acquired.
  • the communication environment management unit 41 acquires the terminal attribute information of the other terminal 11.
  • the terminal attribute information is, for example, information relating to whether the information terminal 11 (which can be distinguished by the ID) is for a driver seat, a passenger seat, a rear right seat, or a rear left seat. It can be said that this exemplary terminal attribute information is information indicating whether or not the information terminal 11 is for the driver's seat (in other words, for the driver).
  • the terminal attribute information is displayed on, for example, the transmission destination candidate icon 32 (see FIG. 6).
  • the terminal attribute information of the own terminal 11 and the other terminals 11 may be stored in advance in the storage unit of each information terminal 11 (for example, the storage unit 22 or the main storage unit of the information processing unit 21).
  • the communication environment management unit 41 executes a process of acquiring terminal attribute information from a storage unit in which terminal attribute information is stored in advance (hereinafter referred to as a first terminal attribute information acquisition process).
  • the terminal attribute information of the other terminal 11 (and the own terminal 11) can be acquired.
  • each information terminal 11 may distribute its terminal attribute information to the other terminals 11.
  • each information terminal 11 may collect terminal attribute information from the other terminals 11.
  • the communication environment management unit 41 executes a process of acquiring terminal attribute information by collecting information using communication with the other terminal 11 (referred to as a second terminal attribute information acquisition process).
  • terminal attribute information can be acquired.
  • the communication environment management unit 41 executes the various processes described above at a preset timing.
  • Such timing includes, for example, at least one of activation of the information terminal 11, regular timing during operation, timing when the other terminal 11 is detected, and immediately before transmission of the message 31.
  • the terminal attribute information may be information related to the user of the information terminal 11, such as user name, gender, age, age group (for example, distinction between children and adults), and the like. Information about the user may be registered in advance in the information terminal 11, for example.
  • the message creation unit 42 provides a creation environment for the message 31 to the user. For example, when an operation for touching a message creation icon is performed as an operation for requesting the creation environment of the message 31, the message creation unit 42 displays an image of the software keyboard on the screen of the terminal 11, and the message 31. Accepts input. In addition, the message creation unit 42 displays the message 31 on the screen during and after the creation.
  • the transmission destination candidate display control unit 43 displays a transmission destination candidate icon 32 representing the transmission destination candidate of the message 31 on the screen of the own terminal 11. Since there are three other terminals 11 in the example of FIG. 4, three destination candidate icons 32 are displayed as shown in FIG.
  • the display of the transmission destination candidate icon 32 is executed by performing a transmission destination candidate call operation on the own terminal 11.
  • the destination candidate call operation is, for example, an operation of touching the message 31 as described above.
  • an operation of touching a dedicated icon, that is, a transmission destination candidate call icon may be assigned to a transmission destination candidate call operation.
  • the transmission destination candidate display control unit 43 matches the relative position between the own terminal 11 and the other terminal 11 based on the terminal arrangement information acquired by the communication environment management unit 41.
  • the candidate icon 32 is arrange
  • the passenger terminal information terminal 11 is the own terminal 11, and the display position of the message 31 corresponds to the arrangement position of the own terminal 11.
  • the destination candidate icon 32 corresponding to the information terminal 11 for the driver's seat is arranged on the right side of the message 31.
  • a destination candidate icon 32 corresponding to the information terminal 11 for the rear left seat is disposed below the message 31.
  • the destination candidate icon 32 corresponding to the information terminal 11 for the rear right seat is arranged diagonally to the lower right of the message 31.
  • the display position of the message 31 is made to correspond to the arrangement position of the terminal 11 itself.
  • the position on the screen corresponding to the position of the terminal 11 is not limited to this example.
  • the transmission destination candidate display control unit 43 displays the terminal attribute information (separation of seats in the example of FIG. 6) of the corresponding other terminal 11 on each icon 32.
  • the terminal attribute information is acquired by the communication environment management unit 41 as described above.
  • the message transmission processing unit 44 executes the transmission process of the message 31 when the first gesture operation specified in advance is performed on the own terminal 11.
  • the first gesture operation is a gesture operation for drawing a trajectory from the display position of the message 31 toward any one of the transmission destination candidate icons 32. As described above, drag and flick are exemplified as a gesture operation for drawing a trajectory.
  • continuous user operation means that the subsequent operation is started within a preset time interval from the end of the previous operation. The case where three or more user operations are continued is similarly understood.
  • the first gesture operation can be started as it is without releasing the indicator that touched the message 31 in the destination candidate call operation from the touch panel 26.
  • the first gesture operation may be started after the indicator that has touched the message 31 by the destination candidate call operation is once released from the touch panel 26.
  • the message transmission process includes a transmission destination selection process and a transmission object selection process.
  • the transmission destination selection process is a process of selecting another terminal 11 set as the transmission destination of the message 31.
  • the transmission object selection process is a process of selecting a transmission object from the display objects displayed on the screen of the terminal 11 itself.
  • the information terminal 11 corresponding to the icon 32 positioned in the direction of the locus of the first gesture operation is selected as the transmission destination. Further, in the transmission object selection process of the first embodiment, the message 31 that is a display object located at the start point of the locus of the first gesture operation is selected as the transmission object.
  • the message transmission processing unit 44 generates transmission data including the ID of the selected transmission destination terminal 11 in the header and including the message 31 in the payload, and delivers the transmission data to the external communication unit 27 (see FIG. 3). As a result, the message 31 is transmitted to the destination terminal 11.
  • FIG. 9 is a flowchart for explaining an operation example of the message transmission function unit 40.
  • the communication environment management unit 41 confirms the presence of the other terminal 11 in step ST11. If the presence of the other terminal 11 cannot be confirmed, the operation flow ST10 ends.
  • step ST11 the communication environment management unit 41 acquires the terminal arrangement information in step ST12, and acquires the terminal attribute information of the other terminal 11 in step ST13. Note that step ST13 may be executed before step ST12.
  • step ST14 the message creation unit 42 receives an input of the message 31.
  • step ST15 it waits for transmission destination candidate call operation to be performed.
  • the transmission destination candidate display control unit 43 causes the display device 24 to display the transmission destination candidate icon 32 in step ST16.
  • step ST17 the process waits for the first gesture operation.
  • the operation flow ST ⁇ b> 10 is ended.
  • ⁇ Effect> According to the first embodiment, it is possible to specify the message 31 to be transmitted and the destination of the message 31 by a gesture operation. For this reason, the message 31 can be transmitted by an intuitive operation.
  • the first message transmission instruction is given as compared with an operation for touching the destination candidate call icon displayed at a position different from the message 31. It is easy to perform gesture operations in succession. That is, good operability can be provided.
  • the use of the destination candidate icon 32 makes it easy to recognize and specify the destination terminal 11.
  • all the transmission destination candidate icons 32 may be arranged at a preset location on the screen (for example, on the lower side of the screen).
  • the transmission destination candidate icon 32 according to the relative position between the own terminal 11 and the other terminal 11 as described above, the information terminal 11 to which the message 31 is to be transmitted matches the direction of the first gesture operation. To do. For this reason, intuitive operability can be provided.
  • the display of terminal attribute information (seating distinction in the above example) on the transmission destination candidate icon 32 contributes to good operability.
  • FIG. 10 is a diagram for explaining the transmission selection rule.
  • the transmission selection rule defines how to select the transmission destination terminal 11 in the transmission destination selection process. Further, the transmission selection rule defines how to select a transmission object from the display objects displayed on the transmission-side terminal 11 in the transmission object selection process.
  • the transmission selection rule is defined in advance, and is given to the information processing unit 21 in a format (reference table, program conditional expression, etc.) that can be used by the information processing unit 21.
  • the transmission selection rule illustrated in FIG. 10 is a rule when the second gesture operation for simultaneously drawing a plurality of trajectories in the same direction is performed on the transmission-side terminal 11 in succession to the transmission destination candidate call operation.
  • dragging and flicking are exemplified as gesture operations for drawing a trajectory.
  • FIG. 10 also shows the rules regarding the one-finger operation described in the first embodiment (see rules (i) to (ii)).
  • the transmission selection rule related to the second gesture operation is the relationship between the types of display objects located at the start points of the plurality of trajectories, the directions of the plurality of trajectories, the destination terminal 11, and the transmission objects. Is defined in advance.
  • Rule (iii) stipulates that the second gesture operation draws two trajectories, and both of the start points of the two trajectories are located on the message 31.
  • the message 31 is selected as a transmission object.
  • all other terminals 11 are selected as the destination terminals 11 regardless of the direction of the trajectory.
  • Rule (iv) stipulates that the second gesture operation draws two trajectories, and the start points of the two trajectories are located on the message 31 and on a display object other than the message 31.
  • the display object other than the message 31 is a background image (more specifically, a map image) of the message is illustrated.
  • both the message 31 and the background image are selected as transmission objects.
  • the transmission destination terminal 11 the information terminal 11 corresponding to the transmission destination candidate icon 32 positioned in the direction of the two trajectories is selected.
  • the transmission process of the message 31 is not executed.
  • the rule (v) stipulates that the second gesture operation draws two trajectories and both start points of the two trajectories are located on the background image, not on the message 31. ing. In this case, a predetermined process, for example, scrolling of the background image is executed.
  • Rule (vi) stipulates that the second gesture operation draws three trajectories. However, the rule (vi) does not include a condition related to the position of the start point of the three trajectories. According to the rule (v), all display objects (that is, the message 31 and the background image) displayed on the transmission side terminal 11 are selected as transmission objects. Further, all other terminals 11 are selected as the destination terminals 11 regardless of the direction of the trajectory.
  • one finger of the gesture operation is placed on the message 31, and the other terminal 11 positioned in the direction of the gesture operation is selected as the destination terminal 11. .
  • rule (iii) two fingers are placed on the message 31 and all the other terminals 11 are selected as the destination terminals 11.
  • the transmission selection rule in FIG. 10 shows on the message 31 about the first gesture operation with one finger and the second gesture operation with two fingers.
  • a rule (referred to as rule (vii)) of selecting the transmission destination terminal 11 is also defined according to the number of gesture operation start points located.
  • the second gesture operation describes an example in which a plurality of trajectories are drawn simultaneously.
  • a plurality of trajectories are drawn in order.
  • the rule (iv) in FIG. 10 may be applied even when the message 31 is flicked and then the background image is flicked.
  • the flick direction of the background image does not need to be the same as the flick direction of the message 31.
  • the following rule referred to as rule (viii)
  • a gesture operation for drawing a locus from the display position of the message 31 toward any of the transmission destination candidate icons 32 is performed, and then the message 31 A case where a gesture operation (referred to as a third gesture operation) for drawing a trajectory in an arbitrary direction from a display object other than the above is defined. It is assumed that the destination candidate call operation, the first gesture operation, and the third gesture operation are successively performed in this order.
  • the other terminal 11 designated by the first gesture operation is selected as the destination terminal 11 as in the first embodiment.
  • the message 31 and a display object defined in advance here, the background image of the message 31 are selected as transmission objects.
  • the second gesture operation has described an example in which a plurality of trajectories are drawn in the same direction.
  • a plurality of trajectories can be drawn in different directions. For example, pinch out and pinch in.
  • a rule may be adopted in which when the pinch-out is performed, the message 31 is transmitted to all the other terminals 11.
  • the gesture operation of the message transmission instruction may be associated with the terminal attribute information.
  • FIG. 11 is a diagram illustrating the association between the gesture operation and the terminal attribute information. According to the example of FIG. 11, the allocation of the gesture operation for message transmission instruction differs depending on whether or not the transmission destination terminal 11 (that is, the reception side terminal 11) is a driver terminal.
  • the transmission destination terminal 11 when the transmission destination terminal 11 is a driver terminal, the number of accepted gesture operations is set to be smaller. Therefore, it is considered that the transmission-side user is conscious of the types of gesture operations that can be accepted, and thereby carefully performs message transmission operations. For this reason, for example, it is possible to make the transmitting side user aware of whether or not it is appropriate to transmit the message 31 to the driving driver. Even if a gesture operation that is not accepted (flick in FIG. 11) is performed, the message 31 does not reach the driver terminal 11, so the driver may be distracted by the received message 31. Absent.
  • FIG. 12 shows a diagram for explaining the association between the gesture operation and the vehicle speed when the transmission-side terminal 11 is for a driver.
  • the allocation of the gesture operation for the message transmission instruction is different according to the speed of the vehicle on which the information communication system 10 is mounted.
  • gesture-related threshold value including the stop state
  • drag and flick are assigned as the first to third gesture operations.
  • the vehicle speed is equal to or higher than the gesture-related threshold value
  • only flicks are assigned as the first to third gesture operations.
  • the message 31 is composed of characters.
  • the message 31 may be, for example, an image (in other words, image data).
  • the origin of the message 31 is not limited to people. That is, it is also possible to send messages generated by various hardware or software.
  • an image drawn by the user using the touch panel 26 and an image read by the user from the storage unit 22 can be handled as the message 31 to be transmitted.
  • a guidance image displayed as appropriate when the navigation function is used as a message 31 to be transmitted it is also possible to handle a guidance image displayed as appropriate when the navigation function is used as a message 31 to be transmitted.
  • a notification image an image such as a warning light or a display light
  • the notification image is not limited to the example of FIG.
  • the message creation unit 42 (see FIG. 8) that provides the user with the creation environment of the message 31 does not operate. In addition, it is possible to omit the function of creating the message 31 by the user, and in that case, it is not necessary to provide the message creating unit 42.
  • each information terminal 11 is fixed at a predetermined position in the automobile.
  • a portable information terminal (hereinafter sometimes referred to as a portable terminal) 11 is also applicable to the information communication system 10.
  • the mobile terminal 11 is a PDA (Personal Digital Assistant) such as a mobile phone, a smartphone, or a tablet terminal.
  • the mobile terminal 11 may be a device for a specific application such as a PND (Portable Navigation Device).
  • the mobile terminal 11 communicates with another terminal 11 by wireless communication.
  • the arrangement position of the mobile terminal 11 is indefinite. For this reason, when the mobile terminal 11 operates as the message 31 reception side (in other words, the transmission destination of the message 31), the transmission destination candidate icon 32 corresponding to the mobile terminal 11 is set in advance on the screen of the transmission side terminal 11, for example. What is necessary is just to arrange
  • the ID of the mobile terminal 11 or terminal attribute information for example, a user name
  • the transmission destination candidate icon 32 is displayed in accordance with the relative position between the own terminal 11 (that is, the transmission side terminal 11) and the other terminal 11, the message can be displayed by an intuitive operation. 31 can be transmitted.
  • the position information of the mobile terminal 11 in the terminal arrangement information.
  • the position of the portable terminal 11 can be specified as follows, for example.
  • the terminal detection unit 13 is arranged in advance for each seat, and the terminal detection unit 13 detects the portable terminal 11, whereby the portable terminal 11 is registered in the terminal arrangement information. That is, since the terminal detection unit 13 is fixed at a predetermined location, the arrangement position of the terminal detection unit 13 is used as the arrangement position of the mobile terminal 11.
  • the terminal detection unit 13 is configured to be able to detect the mobile terminal 11 by a contact method or a non-contact method.
  • the terminal detection unit 13 can be configured by applying technologies such as an automatic ticket gate and a shoplifting prevention system.
  • the terminal detection unit 13 is given in advance information on its own arrangement position. If the terminal detection unit 13 detects the mobile terminal 11, the terminal detection unit 13 transmits information on the arrangement position of the terminal detection unit 13 to the mobile terminal 11. The portable terminal 11 distributes information on the arrangement position of the terminal detection unit 13 to the other terminals 11 in association with the ID of the portable terminal 11 itself. In other words, the other terminal 11 collects ID and arrangement position information from the portable terminal 11.
  • the mobile terminal 11 may transmit its own ID to the terminal detection unit 13, and the terminal detection unit 13 may associate the information of its own arrangement position with the ID of the mobile terminal 11 and distribute it to the other terminals 11.
  • the communication environment management unit 41 (see FIG. 8) of each information terminal 11 performs a process of acquiring terminal arrangement information using the terminal detection unit 13 (referred to as a third terminal arrangement information acquisition process). By executing, the terminal arrangement information can be acquired.
  • a third terminal arrangement information acquisition process By executing, the terminal arrangement information can be acquired.
  • use of the terminal detection unit 13 is not limited to the above example.
  • the former example related to FIG. 15 corresponds to the above-described second terminal arrangement information acquisition process in which the terminal 11 acquires terminal arrangement information using communication with the other terminals 11.
  • the user may input the position of the mobile terminal 11.
  • the user calls an image of a top view of a car as a position input operation screen, and touches a seat where the user is sitting.
  • the portable terminal 11 distributes the information on the arrangement position of the touched seat to the other terminals 11 in association with the ID of the portable terminal 11 itself.
  • the other terminal 11 collects ID and arrangement position information from the portable terminal 11.
  • the position input operation screen may be called by the other terminal 11 that has detected the mobile terminal 11 or the system overall control device 12.
  • each information terminal 11 acquires the position of the other terminal 11 collected by communication.
  • the terminal arrangement information can be acquired from the information and the position information of the terminal 11 (see the second terminal arrangement information acquisition process).
  • the position of the mobile terminal 11 may be specified using an existing technology such as the technology introduced in Patent Document 1.
  • the example in which the information communication system 10 includes the mobile terminal 11 has been described.
  • the wireless communication type portable terminal 11 even if the portable terminal 11 exists outside the automobile, the portable terminal 11 can communicate with the information terminal 11 present inside the automobile. Therefore, the message 31 can be transmitted and received between the inside and outside of the automobile.
  • the information terminal 11 existing inside the automobile may be either a portable type or a built-in type.
  • the portable terminal 11 whose ID is registered in advance in the information communication system 10 has a qualification to participate in the information communication system 10 even when it exists outside the automobile.
  • the built-in information terminal 11 or the overall system control device 12 existing inside the automobile performs management and verification of the pre-registration information.
  • the inside of the automobile is the basic area 51 of the information communication system 10. That is, the information terminal 11 existing inside the automobile is present in the basic area 51.
  • an area 52 in FIG. 17 indicates a communication area of the mobile terminal 11 existing outside the automobile (more specifically, a portion of the communication area existing outside the automobile).
  • the communication area 52 of the mobile terminal 11 permitted to participate in the information communication system 10 is indicated by a solid line
  • the communication area 52 of the mobile terminal 11 not permitted to participate in the information communication system 10 is indicated by a broken line.
  • the position and number of the portable terminals 11 are not limited to the example of FIG.
  • the usage area of the information communication system 10 includes not only the basic area 51 but also the communication area 52 of the mobile terminal 11 permitted to participate in the information communication system 10. That is, it can be considered that such a communication area 52 is identified with the basic area 51. In other words, it is considered that the basic area 51 is extended to such a communication area 52. In view of this point, the communication area 52 identified with the basic area 51 is referred to as an extended area 52.
  • both transmission and reception of the message 31 can be performed only in the extended area 52. You may exclude situations that occur. That is, the usage condition of the information communication system 10 may be that at least one of message transmission and reception is performed in the basic area 51.
  • the location of the destination terminal 11 can be identified by referring to the terminal arrangement information in the destination selection process.
  • conditions may be imposed on the formation of the extended area 52.
  • the extended area 52 is recognized only when the mobile terminal 11 moves from the inside of the automobile to the outside.
  • the terminal detection unit 13 described in the example of FIG.
  • the user when entering or leaving a car, the user causes the terminal detection unit 13 to recognize the ID of the mobile terminal 11. According to this, it is possible to detect that the mobile terminal 11 leaves the car by the even number ID recognition.
  • time conditions may be imposed on the formation of the extended area 52. For example, after the portable terminal 11 leaves the car, the extended area 52 is recognized for a preset time length.
  • the application of the information communication system 10 can be expanded.
  • the two display screens can be provided by physically separate display devices.
  • Such a configuration may be referred to as dual display, dual monitor, multi-display, multi-monitor, etc.
  • the two display units 24a and 24b are realized by a single display device.
  • the left screen and the right screen are used as the display screens of the display units 24a and 24b.
  • Such a configuration may be called a screen division method or the like.
  • the single display device may have a configuration conforming to a so-called split view. That is, the split view has different visible images depending on the viewing direction of the display screen, and the split view display screen has a portion that provides an image that is visible from the left direction and a portion that provides an image that is visible from the right direction. For this reason, the display screen of display part 24a, 24b is provided by these two parts.
  • the display screens of the split screen and split view display devices are, for example, arranged in the center of the dashboard, that is, between the front of the driver seat and the front of the passenger seat.
  • a driver's seat (that is, driver's) screen and a passenger seat screen are provided.
  • the screen division method or the split view method may be employed for the mobile terminal 11.
  • the two audio output units 25a and 25b may be configured by separate audio output devices or may be configured by a single audio output device.
  • the two information input units 26a and 26b may be configured with separate touch panels or may be configured with one touch panel.
  • the information terminal 11 has the two information output units 23a and 23b, it is also assumed that the message 31 displayed on one display unit 24a or 24b is transmitted to the other display unit 24b or 24a. .
  • the information terminal 11a see FIG. 18
  • the information terminal 11b see FIG. 18
  • the message 31 is transmitted and received.
  • the information processing unit 21, the storage unit 22, and the external communication unit 27 are shared by the two information terminals 11a and 11b.
  • the message 31 is translated into another language and output at the receiving terminal 11 (see FIG. 20). Further, according to the voice conversion process, the message 31 is output as a voice message at the receiving terminal 11 (see FIG. 21). Further, according to the text conversion process, the message 31 generated by the user's gesture operation is output as a corresponding text message at the receiving terminal 11 (see FIG. 22). Note that reference numeral 33 in FIGS. 20 to 22 indicates a converted message.
  • the message 31 is finally converted into a speech in another language.
  • the text message obtained by the text conversion process may be translated or converted into speech.
  • the text message obtained by the text conversion process may be translated and then converted into speech.
  • FIG. 23 is a block diagram illustrating a configuration example of the message conversion function unit 60 that performs message conversion processing.
  • FIG. 24 is a flowchart for explaining an operation example of the message conversion function unit 60.
  • the message conversion function unit 60 is provided in the information processing unit 21 of the information terminal 11 or the like. Further, as described in the sixth embodiment (see FIG. 17), the message 31 is transmitted / received in the basic area 51 or between the basic area 51 and the extended area 52. It exists in the basic area 51 or the extended area 52.
  • the message conversion function unit 60 includes a conversion target acquisition unit 61, a message conversion unit 62, and a message transmission processing unit 63.
  • the conversion target acquisition unit 61 acquires a conversion target message (see step ST31 of the operation flow ST30 illustrated in FIG. 24).
  • the message to be converted is the message 31 at the beginning of generation.
  • the message conversion unit 62 converts the message to be converted in accordance with a predetermined message conversion process, and acquires a converted message (see step ST32).
  • the predetermined message conversion process is at least one of a translation process, a voice conversion process, and a text conversion process, and two of these processes. Two or more may be combined.
  • Translation processing can be performed using existing technology.
  • the message conversion unit 62 itself may have a translation function, or the message conversion unit 62 executes a translation process by using a translation server provided outside the automobile (for example, on the Internet). May be.
  • the message conversion unit 62 accesses the translation server on the Internet using an external communication unit (see the external communication unit 27 in FIG. 3), transmits the message to be converted to the translation server, and receives the message from the translation server. Receive translated messages.
  • the language after translation shall be preset, it may be settable by a user timely.
  • the voice conversion process can be executed using existing technology. For example, if a text-to-speech technique is used, a text message (that is, text data) can be converted into a voice message (that is, voice data).
  • a plurality of standard text messages are stored in a storage unit (refer to the storage unit 22 or the main storage unit of the information processing unit 21 in FIG. 3), and from among the plurality of standard text messages, It can be executed by selecting the one corresponding to the user's gesture operation.
  • the navigation function when the navigation function is used, it is assumed that the user traces a winding road (in other words, drags) as illustrated in FIG.
  • the traced trace becomes a conversion target message created by the user.
  • the message conversion unit 62 identifies, for example, that the trajectory as a conversion target message exists on a winding road, the trajectory exists ahead of the current position on the map, and the like. Then, from the identification result, the message conversion unit 62 selects “curve continues for a while” as the standard text message corresponding to the user operation.
  • the text conversion process is not limited to this example, and may be executed by other techniques.
  • the message conversion unit 62 transmits the converted message to the receiving terminal 11 (see step ST33).
  • the message conversion process may be executed after the initial message 31 is generated on the transmission side until it is provided to the user on the reception side. Therefore, the message conversion function unit 60 is provided in the transmission side terminal 11 or the reception side terminal 11. In the configuration example of FIG. 2, the message conversion function unit 60 can be provided in the overall system control device 12 (in other words, the information communication relay device 12).
  • FIG. 25 is a block diagram illustrating an example in which the message conversion function unit 60 is installed in the transmission-side terminal 11. According to the example of FIG. 25, the conversion target acquisition unit 61 acquires the message 31 created by the user from the message creation unit 42 as a conversion target message.
  • the message transmission processing unit 63 of the message conversion function unit 60 is realized by the message transmission processing unit 44 of the message transmission function unit 40. That is, the converted message is transmitted by delivering the converted message to the message transmission processing unit 44 of the message transmission function unit 40.
  • FIG. 26 is a block diagram illustrating an example in which the message conversion function unit 60 is installed in the receiving terminal 11. According to the example of FIG. 26, the conversion target acquisition unit 61 acquires the message 31 received from the other terminal 11 as a conversion target message.
  • the message transmission processing unit 63 is omitted in the receiving terminal 11. However, when the receiving terminal 11 also operates as the transmitting terminal 11, the message transmission processing unit 63 is not omitted, but does not operate on the received message 31.
  • FIG. 27 is a block diagram illustrating an example in which the message conversion function unit 60 is mounted on the information processing unit 71 of the system overall control device 12 (in other words, the information communication relay device 12).
  • the information processing unit 71 can be configured in the same manner as the information processing unit 21 of the information terminal 11.
  • the conversion target acquisition unit 61 acquires the message 31 received from the transmission side terminal 11 as a conversion target message.
  • the message transmission processing unit 63 transmits the converted message to the information terminal 11 set as the transmission destination in the received message 31.
  • the overall system control device 12 acquires the message 31 transmitted from the transmission side terminal 11 as a conversion target message and transmits the converted message to the reception side terminal 11.
  • the message conversion process is performed when the message 31 is relayed.
  • the message conversion function unit 60 may be provided in two or more of the transmission side terminal 11, the reception side terminal 11, and the system overall control device 12 (in other words, the information communication relay device 12).
  • the transmission side terminal 11 performs a text conversion process and transmits the obtained text message (that is, the converted message). Then, the receiving terminal 11 performs a translation process using the received text message as a conversion target message.
  • the information communication relay device 12 performs a translation process using the received text message as a conversion target message, and transmits the obtained translated message (that is, the converted message). Then, the receiving terminal 11 performs voice conversion using the received translated message as a conversion target message.
  • the message to be converted is converted according to the message conversion process between the time when it is generated on the transmission side and the time it is provided to the user on the reception side. For this reason, it is possible to provide various formats for people's communication.
  • the originator of the message 31 may be various types of hardware or software. For this reason, for example, a guidance image (see FIG. 13) displayed in a timely manner when using the navigation function, a notification image (see FIG. 14) displayed in association with the state of the vehicle, and the like are also conversion target messages. sell.
  • the text conversion process described above can be applied. That is, the message 31 created by various hardware and software is basically configured by an image object prepared in advance, a combination of the image objects, or a deformation of the image object. For this reason, if a standard text message is associated with each image object, the text conversion process can be executed.
  • Such execution selection may be set on a menu screen, for example.
  • the user may select to execute the message conversion process. For example, as shown in FIG. 28, when a predetermined part (the central part in FIG. 28) in the message 31 is touched, the message conversion unit 62 executes a message conversion process. On the other hand, when another predetermined part (peripheral part in FIG. 28) in the message 31 is touched, the message conversion unit 62 does not execute the message conversion process.
  • the message conversion unit 62 executes a message conversion process.
  • the message conversion unit 62 does not execute the message conversion process.
  • the touch operation is, for example, a transmission destination candidate call operation.
  • a touch to the start point such as the first gesture operation may be handled as the touch operation.
  • the message conversion unit 62 may select execution of the message conversion process according to the terminal attribute information of the receiving terminal 11. Further, the message conversion unit 62 may select the type of message conversion processing according to the terminal attribute information of the receiving terminal 11. For example, as shown in FIG. 29, when the receiving terminal 11 is for a driver, the voice conversion process is selected. On the other hand, a message conversion process of a preset type is selected for the other receiving terminal 11. Alternatively, message conversion processing is not executed for the other receiving side terminals 11.
  • the message conversion unit 62 may determine whether to execute the message conversion process and determine the type of the message conversion process according to the vehicle speed. For example, as shown in FIG. 30, when the vehicle speed is equal to or higher than a preset conversion-related threshold, the voice conversion process is selected. On the other hand, when the vehicle speed is less than the conversion-related threshold value (including the stop state), a preset type of message conversion process is selected. Alternatively, when the vehicle speed is less than the conversion-related threshold value, the message conversion process is not executed.
  • the contents of the message 31 can be known by voice, and it is not necessary to look at the screen.
  • the driver can know the content of the message 31 without looking at the screen while driving at a vehicle speed equal to or higher than the conversion-related threshold.
  • the selection of whether to execute the message conversion process and the type of the message conversion process may be determined according to the moving environment of the mobile object.
  • the moving environment is road conditions, weather, and the like. Specifically, when the road condition is bad and the car shakes, it may be possible to prevent or reduce motion sickness if the message 31 is output by voice rather than the screen display. When wind and rain become noise, it may be better to use the screen display without executing the voice conversion process.
  • the road condition information can be acquired from map data, an information center, a vibration sensor mounted on an automobile, etc., and the weather information can be acquired from a broadcast, an information center, or the like.
  • the selection of whether to execute the message conversion process and the type of the message conversion process may be determined according to the display state of the receiving terminal 11. Specifically, when the receiving terminal 11 outputs a map image, AV content, etc.), the receiving terminal 11 provides the message 31 by voice. On the other hand, when the receiving terminal 11 outputs music content or the like and displays its operation image, the message 31 is displayed on the operation image without performing the voice conversion process. According to this, the message 31 does not hide information having higher importance on the display content.
  • the message conversion function part 60 when the message conversion function part 60 is provided in the receiving side terminal 11, the message conversion function part 60 can know the display state of the receiving side terminal 11 easily. On the other hand, when the message conversion function part 60 is not provided in the receiving side terminal 11, the receiving side terminal 11 should just notify the other terminal 11 of its own display state.
  • the selection of whether or not to execute the message conversion process and the type of the message conversion process may be determined according to a combination of various conditions (not limited to the conditions exemplified above).
  • the transmission destination of the message (here, the converted message) may be selected according to the terminal attribute information of the receiving terminal 11.
  • the message transmission processing unit 63 determines, for example, whether to transmit the converted message to the driver terminal 11 according to the terminal attribute information of the receiving terminal 11. Further, for example, it is determined whether or not to transmit the converted message to the information terminal 11 of the user who is not more than a preset age.
  • the message conversion function unit 60 can be used without being combined with the message transmission function unit 40.
  • the conversion target acquisition unit 61 acquires the conversion target message
  • the converted message can be transmitted without the user performing a specific transmission operation.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Environmental Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Atmospheric Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Ecology (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computing Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

 情報処理装置はメッセージ変換機能部60を含む。メッセージ変換機能部60は変換対象取得部61とメッセージ変換部62とを含む。変換対象取得部61は、移動体の内部である基幹エリアまたは基幹エリアの外側で基幹エリアと同一視された拡張エリアに存在することによって、基幹エリア内または基幹エリアと拡張エリアとの間で送受信されるメッセージを、送信側で生成されてから受信側でユーザに提供されるまでの間に、変換対象メッセージとして取得する。メッセージ変換部62は、変換対象メッセージを予め定められたメッセージ変換処理に従って変換して変換済みメッセージを取得する。

Description

情報処理装置、情報端末、情報通信中継装置、情報通信システムおよび情報処理方法
 本発明は、情報処理装置、情報端末、情報通信中継装置、情報通信システムおよび情報処理方法に関する。
 近年の自動車では、複数の表示装置が搭載される場合がある。例えば、運転席正面、運転席と助手席との間および助手席正面に、表示装置が配置される。また、後席用の表示装置が前席のヘッドレストに配置される場合がある。
 なお、特許文献1には、モバイル機器内に在るAV(Audio-Visual)コンテンツを、車内の複数のモニタのうちのいずれかで視聴するための技術が開示されている。具体的には、モバイル機器のユーザが車内の複数のモニタのうちのいずれかを選択すると、複数のモニタを制御する車載システムが、モバイル機器からコンテンツデータを受信し、選択されたモニタにコンテンツを表示する。モニタを選択する際、車内の複数のモニタの位置がモバイル機器の画面に表示される。また、特許文献1には、車内の複数のモニタの位置を検出する技術が開示されている。
特開2010-93515号公報
 ところで、自動車等の移動体内では、人々の間のコミュニケーションを取りにくい場合がある。例えば、AVコンテンツを楽しんでいる人は、話しかけられても、気が付かないかもしれない。また、例えば、運転者に話しかけること、および、運転者の視線を大きくそらせることは、控えた方がよい。
 また、例えば、大型車、マイクロバス、列車、飛行機、船舶、等の移動体においては、離れた人どうしが会話するのは困難である。また、お互いが近くに居ても、他の人の声等が邪魔になる場合もある。
 なお、コミュニケーションの妨げとなる要因は上記の例に限られるものではない。また、人々のコミュニケーションがなされる環境は移動体内に限られるものではない。
 本発明は、人々のコミュニケーションに関して有用な技術、例えば人々のコミュニケーションを多様化しうる技術を提供することを目的とする。
 本発明の一形態に関する情報処理装置は、変換対象取得部と、メッセージ変換部とを含む。変換対象取得部は、移動体の内部である基幹エリアまたは基幹エリアの外側で基幹エリアと同一視された拡張エリアに存在することによって、基幹エリア内または基幹エリアと拡張エリアとの間で送受信されるメッセージを、送信側で生成されてから受信側でユーザに提供されるまでの間に、変換対象メッセージとして取得する。メッセージ変換部は、変換対象メッセージを予め定められたメッセージ変換処理に従って変換して変換済みメッセージを取得する。
 上記一形態によれば、送信側で生成されてから受信側でユーザに提供までの間に、変換対象メッセージがメッセージ変換処理に従って変換される。このため、人々のコミュニケーションに多様な形式を提供可能である。
 本発明の目的、特徴および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1について、情報通信システムの第1の構成例を説明するブロック図である。 実施の形態1について、情報通信システムの第2の構成例を説明するブロック図である。 実施の形態1について、情報端末の第1の構成例を説明するブロック図である。 実施の形態1について、情報通信システムが自動車に搭載された例を説明する図である。 実施の形態1について、送信側端末においてメッセージを作成する様子を説明する図である。 実施の形態1について、送信側端末の画面に送信先候補アイコンが表示された様子を説明する図である。 実施の形態1について、メッセージを送信先候補アイコンにドラッグする様子を説明する図である。 実施の形態1について、情報処理部の構成例を説明するブロック図である。 実施の形態1について、メッセージ送信機能部の動作例を説明するフローチャートである。 実施の形態2について、送信選択規則を説明する図である。 実施の形態3について、ジェスチャ操作と端末属性との関連付けの例を説明する図である。 実施の形態3について、ジェスチャ操作と車速との関連付けの例を説明する図である。 実施の形態4について、送信対象となるメッセージの第2例を説明する図である。 実施の形態4について、送信対象となるメッセージの第3例を説明する図である。 実施の形態5について、携帯型の情報端末の位置を特定する技術の第1例を説明する図である。 実施の形態5について、携帯型の情報端末の位置を特定する技術の第2例を説明する図である。 実施の形態6について、携帯型の情報端末が車外に存在する場合の情報通信システムを説明する図である。 実施の形態7について、情報端末の第2の構成例を説明するブロック図である。 実施の形態8について、情報通信システムの第3の構成例を説明するブロック図である。 実施の形態9について、メッセージ変換の第1例として翻訳処理を説明する図である。 実施の形態9について、メッセージ変換の第2例として音声変換処理を説明する図である。 実施の形態9について、メッセージ変換の第3例としてテキスト変換処理を説明する図である。 実施の形態9について、メッセージ変換機能部の構成例を説明するブロック図である。 実施の形態9について、メッセージ変換機能部の動作例を説明するフローチャートである。 実施の形態9について、メッセージ変換機能部が送信側端末に搭載された例を説明するブロック図である。 実施の形態9について、メッセージ変換機能部が受信側端末に搭載された例を説明するブロック図である。 実施の形態9について、メッセージ変換機能部がシステム全体制御装置に搭載された例を説明するブロック図である。 実施の形態9について、メッセージ変換処理の実行選択の例を説明する図である。 実施の形態9について、メッセージ変換処理の実行選択および種類を端末属性情報に応じて選択する例を説明する図である。 実施の形態9について、メッセージ変換処理の実行選択および種類を車速に応じて選択する例を説明する図である。
 <実施の形態1>
 <情報通信システム>
 図1に、実施の形態1について、情報通信システム10の第1の構成例を説明するブロック図を示す。図1に示すように、情報通信システム10は複数の情報端末装置11を含んでいる。但し、情報端末装置11の数は図1の例に限定されるものではない。なお、情報端末装置11を情報端末11、端末11、等と呼ぶ場合もある。
 情報端末11は視覚的情報および聴覚的情報をユーザに提供する。また、情報端末11はユーザによる情報入力を受け付ける。また、各情報端末11は通信機能を有しており、他の情報端末11と通信を行う。
 通信機能は無線通信、有線通信またはそれらの組み合わせによって実現可能である。以下では、全ての情報端末11が送信機能と受信機能の両方を有する例を挙げる。但し、情報通信システム10は送信専用の情報端末11を含んでもよいし、あるいは、受信専用の情報端末11を含んでもよい。
 情報端末11は、上記のように送信機能と受信機能の両方を有するので、送信側の情報端末11として動作する場合もあるし、受信側の情報端末11として動作する場合もある。また、情報通信システム10では一対一通信と一対多通信の両方を採用している。但し、いずれか一方の通信形態のみを採用することも可能である。
 なお、送信側として動作する場合の情報端末11を送信側情報端末11、送信側端末11、第1の情報端末11、第1の端末11、等と呼ぶ場合もある。同様に、受信側として動作する場合の情報端末11を受信側情報端末11、受信側端末11、送信先端末11、第2の情報端末11、第2の端末11、等と呼ぶ場合もある。
 図2に、情報通信システム10の第2の構成例を説明するブロック図を示す。図2の例では、情報通信システム10を全体的に制御するシステム全体制御装置12が追加されている。システム全体制御装置12は、通信機能を有しており、各情報端末11と通信を行う。通信機能は無線通信、有線通信またはそれらの組み合わせによって実現可能である。
 システム全体制御装置12は、例えば、情報端末11間の通信を中継する情報通信中継装置として機能する。つまり、各情報端末11はシステム全体制御装置12を経由して通信を行う。かかる中継機能は一般的なルーティング機能によって実現可能である。
 ここで、各情報端末11およびシステム全体制御装置12には固有の識別情報(以下、IDと呼ぶ場合もある)が予め与えられている。当該IDは、例えば情報の発信元および送信先を特定するために利用される。以下では、説明を簡単にするために、当該IDを通信だけでなく他の処理においても共用するものとする。
 <情報端末>
 図3に、情報端末11の構成例を説明するブロック図を示す。図3の例によれば、情報端末11は情報処理部21と記憶部22と情報出力部23とを含んでいる。ここでは、情報出力部23は表示部24と音声出力部25とを含んでいる。情報端末11はさらに、情報入力部26と外部通信部27とを含んでいる。
 情報処理部21は、情報端末11における各種の処理を行う装置である。このため、情報処理部21を情報処理装置21と呼んでもよい。上記各種処理には、例えば、記憶部22、情報出力部23、情報入力部26および外部通信部27の制御が含まれる。また、上記各種処理には、例えば、情報出力部23に供給するデータの生成と、情報入力部26を介して取得されるユーザ操作の解析とが含まれる。
 ここでは、情報処理部21が、中央演算処理部(例えば1つまたは複数のマイクロプロセッサ回路で構成される)と、主記憶部(例えばROM、RAM、フラッシュメモリ等の1つまたは複数の記憶装置で構成される)とによって、構成される場合を例示する。この例によれば、主記憶部に格納された各種プログラムを中央演算処理部が実行することによって、各種処理が実行される。各種処理は並列的に実行させることも可能である。各種処理によって、それに対応した各種機能が実現される。
 中央演算処理部が実行するプログラムは、主記憶部に予め格納されていてもよいし、あるいは、実行時に補助記憶部(ここでは記憶部22)から読み出されて主記憶部に格納されてもよい。主記憶部は、プログラムだけでなく各種データの格納にも利用される。また、主記憶部は、中央演算処理部がプログラムを実行する際の作業領域を提供する。また、主記憶部は、表示部24に表示する画像を書き込むため画像保持部を提供する。画像保持部はビデオメモリまたはグラフィックメモリと呼ばれる場合もある。
 ここでは情報処理部21の各種機能がソフトウェアによって実現されるが、それらの各種機能の全部または一部がハードウェア(例えば、特定の演算を行うように構成された演算回路等)によって実現されてもよい。
 記憶部22は、各種情報を格納する。ここでは、記憶部22は、情報処理部21が利用する補助記憶部として設けられている。記憶部22は、例えば、ハードディスク装置、書き換え可能かつ不揮発性の半導体メモリ、光ディスク装置、等の記憶装置の1つ以上を利用して構成可能である。
 記憶部22に格納される情報として、画像データ(アイコン等のオブジェクト、地図データ、等)、音声データ(操作音、通知音、効果音、ガイダンス音声、等)、AVデータ、等が挙げられる。
 表示部24は、視覚的情報をユーザに提供する。ここでは、表示部24が液晶表示装置によって構成される場合を例示し、以下では表示部24を液晶表示装置24または表示装置24と呼ぶ場合もある。但し、表示部24を他の種類の表示装置によって構成することも可能である。表示部24は例えば、情報処理部21から供給される画像データに基づいて、表示動作を行う。
 音声出力部25は、聴覚的情報をユーザに提供する。音声出力部25は、スピーカ、オーディオアンプ、等を含む音声出力装置によって実現可能である。例えば、情報処理部21から供給された音声データは、オーディオアンプによってアナログ電気信号に変換され、スピーカから音声として出力される。
 情報入力部26(以下、入力部26とも呼ぶ場合もある)は、情報端末11に対して行われる入力操作を受け付け、その入力操作を、情報処理部21が処理可能な信号によって、情報処理部21に引き渡す。
 ここでは、入力部26が接触型のタッチパネルによって構成される場合を例示する。このため、以下では、入力部26をタッチパネル26と呼ぶ場合もある。但し、非接触型のタッチパネルを採用することも可能である。なお、タッチパネルはタッチパッドと呼ばれる場合もある。また、接触型は2次元(2D)型と呼ばれ、非接触型は3次元(3D)型と呼ばれる場合もある。
 また、タッチパネル26が液晶表示装置24の画面上に重ねられた構造を例示する。これによれば、ユーザは、画面に表示されたアイコン等に触れる感覚で、入力操作を行うことができる。但し、タッチパネル26が液晶表示装置24の画面上に重ねられていない構造を採用することも可能である。この場合、タッチパネル26は液晶表示装置24の画面上とは異なる場所で使用される。
 また、タッチパネル26に対して入力を行う指示物として、ユーザの指(より具体的には指先)を例示する。但し、例えばスタイラスペン(タッチペンとも呼ばれる)等の道具を指示物として利用してもよい。
 なお、タッチパネルに代えてまたは加えて、マウス等のポインティングデバイスを入力部26として利用してもよい。また、各種のセンサ、カメラ等によってユーザの動作を認識する、いわゆるモーションキャプチャ装置を利用してもよい。
 外部通信部27は、情報処理部21と端末外部に存在する外部装置との間で通信信号を仲介する回路である。外部装置は、図1の例では他の情報端末11が対応し、図2の例ではシステム全体制御装置12が対応する。
 具体的に外部通信部27は、送信するデータを情報処理部21から取得し、その送信データを、予め採用された通信規格の送信信号に変換し、その送信信号を情報端末11の外部へ出力する。逆に、外部通信部27は、情報端末11の外部から到来した信号を受信し、その受信信号に含まれるデータを、予め採用された通信規格に従って抽出し、得られた受信データを情報処理部21へ引き渡す。
 情報端末11の構成は図3の例に限定されるものではない。例えば、聴覚的情報の出力を利用しない場合、音声出力部25を省略してもよい。また、外部入力部を設けることによって、視覚的情報と聴覚的情報の一方または両方を情報端末11の外部から取り込むようにしてもよい。
 また、情報端末11の現在位置の情報を取得する位置情報取得部が設けられてもよい。位置情報取得部は、例えば、GPS(Global Positioning System)受信アンテナと、GPS受信アンテナによって受信したGPS衛星からの情報に基づいて情報端末11の現在位置を検出するGPS受信装置と、によって構成可能である。但し、位置情報取得部の構成はこの例に限定されるものではない。
 <情報伝達の概要>
 より具体的な構成例を説明する前に、情報端末11間の情報伝達の概要を説明する。その説明を分かりやすくするために、ここでは図4に示すように情報通信システム10が自動車に搭載された例を挙げる。図4は自動車の上面図であり、説明のために自動車の天井部分の図示を省略している。
 但し、情報通信システム10は、自動車以外の車両(例えば鉄道車両)に搭載されてもよいし、車両以外の移動体(例えば飛行機、船)に搭載されてもよい。また、情報通信システム10の利用は移動体内に限定されるものではない。
 図4の例によれば、各座席用に情報端末11が配置されている。具体的には、運転席(ここでは前右席)用の情報端末11の表示画面は、ダッシュボードの運転席正面部分に配置されており、例えば統合インストルメントパネルとして具現化される。なお、統合インストルメントパネルとは、例えば、メータ(速度計、回転計、等)、警告灯、表示灯、ナビゲーション画像、各種装置(AV(Audio-Visual)機器等)の動作状況、車載カメラによる撮像画像を、統合的に表示可能な表示盤である。統合インストルメントパネルは、メータクラスタ、等と呼ばれる場合もある。
 また、助手席(ここでは前左席)用の情報端末11の表示画面は、ダッシュボードの助手席正面部分に配置されている。後右席用の情報端末11の表示画面は運転席背面に配置され、例えば運転席のヘッドレスト部分に配置されている。後左席用の情報端末11の表示画面は助手席背面に配置され、例えば助手席のヘッドレスト部分に配置されている。
 なお、図2の構成例に関して、システム全体制御装置12は車内の任意の場所に配置可能である。
 図5~図7に、情報通信システム10における情報送信操作の一例を説明するための図を示す。図5~図7は送信側端末11の画面表示の例である。
 まず、送信側端末11のユーザが、送信側端末11を使って、送信対象の情報として、メッセージ31を作成する(図5参照)。ここでは、メッセージ31は文字(換言すればテキストデータ)とし、文字の入力はソフトウェア・キーボード等の一般的な入力操作を利用するものとする。
 なお、図5~図7ではメッセージ31が地図画像上に表示されている場合、換言すればメッセージ31の背景が地図画像である場合を例示しているが、メッセージ31を作成する状況はこの例に限定されるものではない。
 メッセージ31の作成後、メッセージ31をタッチすると、送信側端末11の画面に3つのアイコン32が表示される(図6参照)。ここでのタッチは1点タッチ(すなわち1指によるタッチ)とする。図6ではタッチの様子を黒塗り円で概念的に図示している。
 上記アイコン32はメッセージ31の送信先候補となる情報端末11を表している。このため、アイコン32を送信先候補アイコン32と呼んでもよい。図6は、送信側端末11が助手席用端末11である場合を例示しており、運転席用、後右席用および後左席用の情報端末11にそれぞれ対応したアイコン32が表示される。
 そして、メッセージ31をいずれかの送信先候補アイコン32までドラッグすると(図7参照)、そのアイコン32に対応する情報端末11にメッセージが送信される。すなわち、ドラッグによって、送信先端末11の指定とメッセージ送信指示とを行うことができる。ここでのドラッグは1点ドラッグ(すなわち1指によるドラッグ)とする。図7ではドラッグの様子を黒塗り矢印で概念的に図示している。なお、ドラッグの代わりにフリックを使ってもよい。
 受信側端末11では、受信したメッセージ31が、画面中の予め設定された位置に表示される。なお、受信したメッセージ31に対して、予め割り当てられたジェスチャ操作をすることによって、メッセージ31を受信したことを送信側端末11に通知するようにしてもよい。
 <メッセージ送信機能>
 図8に、メッセージ31の送信に関して、情報処理部21の構成例を説明するブロック図を示す。図8の例によれば、情報処理部21はメッセージ送信機能部40を含み、メッセージ送信機能部40は通信環境管理部41と、メッセージ作成部42と、送信先候補表示制御部43と、メッセージ送信処理部44とで構成されている。
 <通信環境管理部>
 通信環境管理部41は、自端末11の通信相手となる情報端末11、すなわち他端末11の存在を確認する。他端末11の確認処理は、通信分野の一般的な技術によって実行可能である。
 また、通信環境管理部41は、情報通信システム10に属する情報端末11の配置位置関係に関する端末配置情報を取得する。端末配置情報は例えば、各情報端末11(IDによって区別可能である)の配置位置をまとめた情報である。端末配置情報から自端末11と他端末11との相対位置の情報を取得可能であり、かかる相対位置の情報は送信先候補アイコン32(図6参照)の配置に利用される。
 図4の例では4つの情報端末11の配置場所は固定されているので、各情報端末11の配置位置は既知である。このため、端末配置情報を予め作成しておく、例えば情報通信システム10を自動車に搭載する際に作成しておくことが可能である。また、その端末配置情報を各情報端末11の記憶部(例えば、記憶部22または情報処理部21の主記憶部)に予め格納しておけばよい。これによれば、通信環境管理部41は、端末配置情報が予め格納された記憶部から端末配置情報を取得する処理(第1の端末配置情報取得処理と呼ぶことにする)を実行することによって、端末配置情報を取得可能である。
 あるいは、各情報端末11に自身の配置位置の情報を予め与えておき、その配置位置の情報を自身のIDと関連付けて他端末11に配信してもよい。換言すれば、各情報端末11が他端末11からIDおよび配置位置の情報を収集してもよい。これによれば、通信環境管理部41は、他端末11との通信を利用した情報収集によって端末配置情報を取得する処理(第2の端末配置情報取得処理と呼ぶことにする)を実行することによって、端末配置情報を取得可能である。
 なお、第1の端末配置情報取得処理と第2の端末配置情報取得処理との両方を採用してもよい。
 また、通信環境管理部41は、他端末11の端末属性情報を取得する。端末属性情報は例えば、その情報端末11(IDによって区別可能である)が運転席用、助手席用、後右席用および後左席用のいずれであるかの区別に関する情報である。この例示の端末属性情報は、その情報端末11が運転席用(換言すれば運転者用)であるか否かを示す情報であるとも言える。なお、情報端末11が運転者用であるか否かを示す端末属性情報は、2値状態(例えばTrueとFalse)を利用することによって構成してもよい。
 端末属性情報は例えば、送信先候補アイコン32(図6参照)に表示される。
 図4の例では情報通信システム10に4つの情報端末11が属することは既知である。このため、自端末11および他端末11の端末属性情報を、各情報端末11の記憶部(例えば、記憶部22または情報処理部21の主記憶部)に予め格納しておけばよい。これによれば、通信環境管理部41は、端末属性情報が予め格納された記憶部から端末属性情報を取得する処理(第1の端末属性情報取得処理と呼ぶことにする)を実行することによって、他端末11の(さらには自端末11の)端末属性情報を取得可能である。
 あるいは、各情報端末11が自身の端末属性情報を他端末11に配信してもよい。換言すれば、各情報端末11が他端末11から端末属性情報を収集してもよい。これによれば、通信環境管理部41は、他端末11との通信を利用した情報収集によって端末属性情報を取得する処理(第2の端末属性情報取得処理と呼ぶことにする)を実行することによって、端末属性情報を取得可能である。
 なお、第1の端末属性情報取得処理と第2の端末属性情報取得処理との両方を採用してもよい。
 通信環境管理部41は上記の各種処理を、予め設定されたタイミングで実行する。かかるタイミングは例えば、情報端末11の起動時と、稼働中の定期的なタイミングと、他端末11を検出したタイミングと、メッセージ31の送信直前と、のうちの少なくとも1つを含む。
 なお、端末属性情報は、情報端末11のユーザに関する情報、例えばユーザ名、性別、年齢、年齢層(例えば子供か大人かの区別)等の情報であってもよい。ユーザに関する情報は、例えば、情報端末11に事前に登録しておけばよい。
 <メッセージ作成部>
 メッセージ作成部42は、メッセージ31の作成環境をユーザに提供する。例えば、メッセージ31の作成環境を要求する操作として、メッセージ作成用のアイコンをタッチする操作が行われた場合、メッセージ作成部42は自端末11の画面にソフトウェア・キーボードの画像を表示し、メッセージ31の入力を受け付ける。また、メッセージ作成部42は、作成途中および作成後において、メッセージ31を画面に表示する。
 <送信先候補表示制御部>
 送信先候補表示制御部43は、メッセージ31の送信先候補を表す送信先候補アイコン32を、自端末11の画面に表示させる。図4の例では3つの他端末11が存在するので、図6に示すように3つの送信先候補アイコン32が表示される。
 送信先候補アイコン32の表示は、自端末11に対して送信先候補呼び出し操作が行われることによって、実行される。送信先候補呼び出し操作は例えば、上記のようにメッセージ31をタッチする操作である。あるいは、例えば、専用のアイコンすなわち送信先候補呼び出しアイコンをタッチする操作を、送信先候補呼び出し操作に割り当ててもよい。
 送信先候補アイコン32の表示に際して、送信先候補表示制御部43は、通信環境管理部41が取得した端末配置情報に基づいて、自端末11と他端末11との相対位置に合わせて、送信先候補アイコン32を自端末11の画面上に配置する(図6参照)。
 より具体的に図6の例では、助手席用の情報端末11が自端末11であり、メッセージ31の表示位置を自端末11の配置位置に対応させている。このため、運転席用の情報端末11に対応する送信先候補アイコン32は、メッセージ31の右横に配置されている。また、後左席用の情報端末11に対応する送信先候補アイコン32は、メッセージ31の下側に配置されている。また、後右席用の情報端末11に対応する送信先候補アイコン32は、メッセージ31の右斜め下に配置されている。
 上記のように図6の例ではメッセージ31の表示位置を自端末11の配置位置に対応させている。但し、自端末11の位置を画面上のどの位置に対応させるかは、この例に限定されるものではない。
 また、送信先候補表示制御部43は、各アイコン32に、対応する他端末11の端末属性情報(図6の例では座席の区別)を表示する。端末属性情報は上記のように、通信環境管理部41によって取得される。
 <メッセージ送信処理部>
 メッセージ送信処理部44は、予め規定された第1のジェスチャ操作が自端末11に対して行われた場合に、メッセージ31の送信処理を実行する。第1のジェスチャ操作は、メッセージ31の表示位置から送信先候補アイコン32のいずれかに向けて軌跡を描くジェスチャ操作である。軌跡を描くジェスチャ操作として上記のように、ドラッグとフリックが例示される。
 また、第1のジェスチャ操作が送信先候補呼び出し操作に連続して行われることが、メッセージ送信処理の実行条件として要求される。ここで、ユーザ操作が連続するとは、先の操作の終了から、予め設定された時間間隔以内に、後の操作が開始されることを言う。なお、3つ以上のユーザ操作が連続する場合も同様に理解される。
 ここで、第1のジェスチャ操作は、送信先候補呼び出し操作でメッセージ31にタッチした指示物をタッチパネル26から離すことなく、そのまま開始することが可能である。あるいは、送信先候補呼び出し操作でメッセージ31にタッチした指示物をタッチパネル26から一旦離した後に、第1のジェスチャ操作を開始してもよい。
 メッセージ送信処理は、送信先選択処理と、送信オブジェクト選択処理とを含む。送信先選択処理は、メッセージ31の送信先に設定する他端末11を選択する処理である。送信オブジェクト選択処理は、自端末11の画面に表示されている表示オブジェクトから送信オブジェクトを選択する処理である。
 実施の形態1の送信先選択処理では、第1のジェスチャ操作の軌跡の方向に位置するアイコン32に対応する情報端末11が、送信先に選択される。また、実施の形態1の送信オブジェクト選択処理では、第1のジェスチャ操作の軌跡の始点に位置する表示オブジェクトであるメッセージ31が送信オブジェクトに選択される。
 メッセージ送信処理部44は、選択した送信先端末11のIDをヘッダに含むとともにメッセージ31をペイロードに含む送信データを生成し、その送信データを外部通信部27(図3参照)に引き渡す。それにより、メッセージ31が送信先端末11に送信される。
 <動作例>
 図9に、メッセージ送信機能部40の動作例を説明するフローチャートを示す。図9に例示の動作フローST10によれば、ステップST11において通信環境管理部41が他端末11の存在を確認する。他端末11の存在が確認できなければ、動作フローST10は終了する。
 ステップST11において他端末11の存在を確認できた場合、通信環境管理部41は、ステップST12において端末配置情報を取得し、ステップST13において他端末11の端末属性情報を取得する。なお、ステップST13をステップST12よりも先に実行してもよい。
 その後、ステップST14において、メッセージ作成部42がメッセージ31の入力を受け付ける。
 そして、ステップST15において、送信先候補呼び出し操作が行われるのを待つ。送信先候補呼び出し操作が情報処理装置21の入力解析部によって検出された場合、ステップST16において送信先候補表示制御部43が、送信先候補アイコン32を表示装置24に表示させる。
 次に、ステップST17において、第1のジェスチャ操作が行われるのを待つ。但し、図9では、送信先候補呼び出し操作の終了から、予め設定された時間間隔以内に第1のジェスチャ操作が検出されない場合、動作フローST10を終了するものとしている。
 ステップST17によって、第1のジェスチャ操作が送信先候補呼び出し操作に連続して行われたことを情報処理装置21の入力解析部が検出した場合、ステップST18においてメッセージ送信処理部44が上記のように第1のジェスチャ操作に基づいてメッセージ31を送信する。
 <効果>
 実施の形態1によれば、ジェスチャ操作によって、送信対象であるメッセージ31を指定可能であるとともに、メッセージ31の送信先を指定可能である。このため、直感的な操作によって、メッセージ31を送信することができる。
 また、送信先候補呼び出し操作にメッセージ31をタッチする操作を割り当てた場合、メッセージ31とは別の位置に表示された送信先候補呼び出しアイコンをタッチする操作に比べて、メッセージ送信指示である第1のジェスチャ操作を連続して行い易い。すなわち、良好な操作性を提供できる。
 また、送信先候補アイコン32の利用によれば、送信先端末11の認識および指定が容易になる。
 ここで、全ての送信先候補アイコン32を画面の予め設定された場所(例えば画面下側)に配置してもよい。しかし、上記のように自端末11と他端末11との相対位置に合わせて送信先候補アイコン32を配置することによって、メッセージ31を送信したい情報端末11と第1のジェスチャ操作の方向とが一致する。このため、直感的な操作性を提供することができる。
 また、送信先候補アイコン32に端末属性情報(上記の例では座席の区別)が表示されていることも、良好な操作性に貢献する。
 <実施の形態2>
 実施の形態1では、メッセージ31の送信操作を1指で行う場合を説明した。実施の形態2では、複数指による操作例を説明する。
 図10に、送信選択規則を説明する図を示す。送信選択規則は、送信先選択処理において、送信先端末11をどのように選択するかについて、規定している。また、送信選択規則は、送信オブジェクト選択処理において、送信側端末11に表示されている表示オブジェクトからどのように送信オブジェクトを選択するかについて、規定している。送信選択規則は予め規定され、情報処理部21が利用可能な形式(参照テーブル、プログラムの条件式、等)によって情報処理部21に与えられている。
 図10に例示の送信選択規則は、複数の軌跡を同時に同じ方向に描く第2のジェスチャ操作が、送信先候補呼び出し操作に連続して、送信側端末11に対して行われた場合の規則を規定している(規則(iii)~(vi)参照)。ここで、軌跡を描くジェスチャ操作として、ドラッグとフリックが例示される。なお、図10には、実施の形態1で説明した1指操作に関する規則も図示している(規則(i)~(ii)参照)。
 具体的に、第2のジェスチャ操作に関する送信選択規則は、上記複数の軌跡の始点に位置する表示オブジェクトの種類と、上記複数の軌跡の方向と、送信先端末11と、送信オブジェクトと、の関係を予め規定している。
 規則(iii)は、第2のジェスチャ操作が2本の軌跡を描き、当該2本の軌跡の始点の両方がメッセージ31上に位置する場合について規定している。この場合、メッセージ31を送信オブジェクトとして選択する。また、軌跡の方向に関係なく、全ての他端末11を送信先端末11として選択する。
 規則(iv)は、第2のジェスチャ操作が2本の軌跡を描き、当該2本の軌跡の始点が、メッセージ31上と、メッセージ31以外の表示オブジェクト上に位置する場合について規定している。ここでは図5の例を参照し、メッセージ31以外の表示オブジェクトが、メッセージの背景画像(より具体的には地図画像)である場合を例示する。この場合、送信オブジェクトとして、メッセージ31と背景画像の両方を選択する。また、送信先端末11として、2本の軌跡の方向に位置する送信先候補アイコン32に対応する情報端末11を選択する。
 なお、規則(v)によれば、メッセージ31の送信処理は実行されない。具体的には、規則(v)は、第2のジェスチャ操作が2本の軌跡を描き当該2本の軌跡の始点の両方が、メッセージ31上ではなく、背景画像上に位置する場合について規定している。この場合、予め規定された処理、例えば背景画像のスクロールが実行される。
 規則(vi)は、第2のジェスチャ操作が3本の軌跡を描く場合について規定している。但し、規則(vi)は当該3本の軌跡の始点の位置に関連する条件を含んでいない。規則(v)によれば、送信オブジェクトとして、送信側端末11に表示されている全ての表示オブジェクト(すなわち、メッセージ31と背景画像)を選択する。また、軌跡の方向に関係なく、全ての他端末11を送信先端末11として選択する。
 なお、メッセージ31の送信処理を実行しない規則(ii),(v)を、送信選択規則から省略してもよい。
 図10を再び参照すると、規則(i),(iv)は、ジェスチャ操作の1指がメッセージ31上に置かれ、当該ジェスチャ操作の方向に位置する他端末11が送信先端末11として選択される。これに対し、規則(iii)では、2指がメッセージ31上に置かれ、全ての他端末11が送信先端末11として選択される。このため、規則(i),(iii),(iv)に鑑みると、図10の送信選択規則は、1指による第1のジェスチャ操作および2指による第2のジェスチャ操作について、メッセージ31上に位置するジェスチャ操作の始点の数に応じて、送信先端末11を選択するという規則(規則(vii)と呼ぶことにする)も規定している。
 また、上記では第2のジェスチャ操作は複数の軌跡を、同時に描く例を説明した。これに対し、複数の軌跡を、順番に描く場合も想定される。例えば、メッセージ31をフリックし、続いて背景画像をフリックした場合にも、図10の規則(iv)を適用してもよい。ここで、送信先端末11はメッセージ31のフリック方向によって選択されるものとすれば、背景画像のフリック方向はメッセージ31のフリック方向と同じである必要はない。これらに鑑みると、次の規則(規則(viii)と呼ぶことにする)を規定できる。
 すなわち、規則(viii)は、メッセージ31の表示位置から送信先候補アイコン32のいずれかに向けて軌跡を描くジェスチャ操作(すなわち既述の第1のジェスチャ操作)が行われ、続けて、メッセージ31以外の表示オブジェクト上から任意の方向に軌跡を描くジェスチャ操作(第3のジェスチャ操作と呼ぶことにする)が行われる場合について、規定している。なお、送信先候補呼び出し操作と、第1のジェスチャ操作と、第3のジェスチャ操作とはこの順序で、連続して行うものとする。規則(viii)では、送信先端末11として、実施の形態1と同様に、第1のジェスチャ操作によって指定された他端末11を選択する。また、送信オブジェクトとして、メッセージ31と、予め規定された表示オブジェクト(ここではメッセージ31の背景画像)とを選択する。
 また、上記では第2のジェスチャ操作は複数の軌跡を、同じ方向に描く例を説明した。これに対し、複数の軌跡を、異なる方向に描くことも可能である。例えばピンチアウト、ピンチインである。かかる点に鑑み、例えば、ピンチアウトが行われた場合にはメッセージ31を全ての他端末11に送信する、という規則を採用してもよい。
 ここで、上記では規則(iii)等において送信先として全ての他端末11に選択する例を説明した。これに対し、例えば、端末属性情報に応じて、一部の他端末11を送信先から除外してもよい。これによれば、例えば、運転者用端末11を除く、あるいは、予め設定された年齢以下のユーザの情報端末11を除く、といった条件付きで送信先を選択可能である。かかる条件は、規則(i)等のようにジェスチャ方向によって送信先が指定される場合にも適用可能である。
 実施の形態2によれば、多様な操作を提供することができる。
 <実施の形態3>
 メッセージ送信指示のジェスチャ操作は、端末属性情報と関連付けてもよい。図11に、ジェスチャ操作と端末属性情報との関連付けを説明する図を示す。図11の例によれば、送信先端末11(すなわち受信側端末11)が運転者用端末であるか否かによって、メッセージ送信指示のジェスチャ操作の割り当てが異なる。
 具体的には、送信先端末11が運転者用端末でない場合、上記の第1~第3のジェスチャ操作としてドラッグとフリックが割り当てられている。これに対し、送信先端末11が運転者用端末である場合、上記の第1~第3のジェスチャ操作としてドラッグのみが割り当てられている。
 なお、図11の例とは逆に、フリックのみを、運転者用端末11宛てのメッセージ送信に割り当てることも可能である。また、ジェスチャ操作の種類および割り当ては図11の例に限定されるものではない。
 図11の例によれば、送信先端末11が運転者用端末である場合、受け付けられるジェスチャ操作の数が、より少なく設定されている。したがって、送信側ユーザは、受け付けられるジェスチャ操作の種類を意識し、それによりメッセージ送信操作を慎重に行う、と考えられる。このため、例えば運転中の運転者に今、メッセージ31を送信するのが適切か否かの配慮を、送信側ユーザに気付かせることが可能である。また、仮に、受け付けられないジェスチャ操作(図11ではフリック)を行った場合であっても運転者用端末11にはメッセージ31が届かないので、運転者が受信メッセージ31に気を取られることがない。
 ここで、フリックは、ドラッグと比較して、気軽な操作である。逆に言えば、ドラッグは、フリックと比較して、慎重な操作である。なぜならば、ドラッグは、操作の開始前から終了時まで、操作そのものを意識すると考えられるからである。かかる点に鑑みると、ドラッグは、送信先への配慮を気付かせるきっかけを与えることが可能である。したがって、図11の例のようにドラッグを運転者宛てメッセージ31の送信に割り当てることは、より好ましいと考えられる。
 図12に、送信側端末11が運転者用である場合において、ジェスチャ操作と車速との関連付けを説明する図を示す。図12の例によれば、情報通信システム10が搭載された自動車の速度に応じて、メッセージ送信指示のジェスチャ操作の割り当てが異なる。
 具体的には、車速が予め設定されたジェスチャ関連閾値未満の場合(停車状態を含む)、上記の第1~第3のジェスチャ操作としてドラッグとフリックが割り当てられている。これに対し、車速が上記ジェスチャ関連閾値以上の場合、上記の第1~第3のジェスチャ操作としてフリックのみが割り当てられている。なお、ジェスチャ操作の種類および割り当ては図12の例に限定されるものではない。
 上記のように、ドラッグは、ユーザの意識を操作そのものに向かわせやすい、と考えられる。このため、運転中の運転者が、ドラッグ操作を行うのは好ましくない。かかる点に鑑み、図12の例では、車速がジェスチャ関連閾値以上である場合、運転者が実行可能なジェスチャ操作をフリックのみに制限しているのである。それにより、運転者に配慮した操作性を提供することができる。
 <実施の形態4>
 実施の形態1では、メッセージ31は文字で構成される例を説明した。しかし、メッセージ31は例えば画像(換言すれば画像データ)であってもよい。また、実施の形態1では、メッセージ31をユーザが作成する例を説明した。しかし、メッセージ31の作成元は人に限られるものではない。すなわち、各種のハードウェアまたはソフトウェアが生成するメッセージを送信することも可能である。
 例えば、ユーザがタッチパネル26を使って描画した画像、および、ユーザが記憶部22から読み出した画像をそれぞれ、送信対象のメッセージ31として扱うことも可能である。
 また、例えば、図13に示すように、ナビゲーション機能を利用している場合に適時表示される誘導画像を、送信対象のメッセージ31として扱うことも可能である。また、図14に例示するように、自動車の状態に関連して表示される通知画像(警告灯、表示灯等の画像)を、送信対象のメッセージ31として扱うことも可能である。なお、通知画像は図14の例に限定されるものではない。
 これによれば、様々なメッセージ31を送信することができる。
 なお、図13および図14の例のようにメッセージ31がユーザによって作成されない場合、メッセージ31の作成環境をユーザに提供するメッセージ作成部42(図8参照)は動作しない。また、ユーザがメッセージ31を作成する機能を省略することも可能であり、その場合、メッセージ作成部42を設ける必要はない。
 <実施の形態5>
 実施の形態1では、各情報端末11が自動車内の予め定められた位置に固定されている例を説明した。しかし、携帯型の情報端末(以下、携帯端末と呼ぶ場合もある)11も、情報通信システム10に適用可能である。携帯端末11は例えば、携帯電話、スマートフォン、タブレット端末等のPDA(Personal Digital Assistant)である。また、携帯端末11は例えば、PND(Portable Navigation Device)等の特定用途向けの装置であってもよい。
 なお、以下では携帯端末11が無線通信によって他端末11と通信する場合を想定する。但し、例えば車内に予め設けられた配線に携帯端末11を接続することによって、有線通信を利用することも可能である。
 携帯端末11は配置位置が不定である。このため、携帯端末11がメッセージ31の受信側(換言すればメッセージ31の送信先)として動作する場合、携帯端末11に対応する送信先候補アイコン32は例えば、送信側端末11の画面の予め設定された場所(例えば画面下側)に配置すればよい。この場合、携帯端末11のIDまたは端末属性情報(例えばユーザ名)を送信先候補アイコン32に表示すれば、送信側ユーザは携帯端末11を識別することが可能である。
 これに対し、実施の形態で述べたように、送信先候補アイコン32を自端末11(すなわち送信側端末11)と他端末11との相対位置に合わせて表示すれば、直感的な操作によってメッセージ31を送信可能である。そのためには、携帯端末11の位置情報を端末配置情報に登録する必要がある。携帯端末11の位置は例えば次のようにして特定可能である。
 例えば、図15に示すように、各座席用に端末検出部13を予め配置しておき、端末検出部13が携帯端末11を検出することによって、携帯端末11が端末配置情報に登録される。すなわち、端末検出部13は予め定められた場所に固定されているので、端末検出部13の配置位置を携帯端末11の配置位置として利用するのである。
 より具体的には、端末検出部13は、接触方式または非接触方式によって携帯端末11を検出可能に構成されている。例えば、自動改札機、万引き防止システム、等の技術を応用すれば、端末検出部13を構成可能である。
 端末検出部13には自身の配置位置の情報を予め与えておく。端末検出部13は携帯端末11を検出したならば、その携帯端末11に端末検出部13の配置位置の情報を送信する。携帯端末11は、端末検出部13の配置位置の情報を、携帯端末11自身のIDと関連付けて他端末11に配信する。換言すれば、他端末11は携帯端末11からIDおよび配置位置の情報を収集する。
 あるいは、携帯端末11が自身のIDを端末検出部13に送信し、端末検出部13が自身の配置位置の情報と携帯端末11のIDとを関連付けて他端末11に配信してもよい。
 すなわち、各情報端末11の通信環境管理部41(図8参照)は、端末検出部13を利用して端末配置情報を取得する処理(第3の端末配置情報取得処理と呼ぶことにする)を実行することによって、端末配置情報を取得可能である。但し、端末検出部13の利用は上記の例に限定されるものではない。
 なお、図15に関する前者の例は、自端末11が他端末11との通信を利用して端末配置情報を取得する既述の第2の端末配置情報取得処理にも該当する。
 また、携帯端末11の位置をユーザが入力してもよい。例えば、図16に示すように、ユーザが、位置入力操作画面として自動車の上面図の画像を呼び出し、ユーザ自身が座っている席をタッチする。それにより、携帯端末11は、タッチされた席の配置位置の情報を、携帯端末11自身のIDと関連付けて他端末11に配信する。換言すれば、他端末11は携帯端末11からIDおよび配置位置の情報を収集する。なお、位置入力操作画面は、携帯端末11を検出した他端末11またはシステム全体制御装置12によって呼び出されてもよい。
 これによれば、携帯端末11が自動車の外部に在る場合(次に説明する実施の形態6を参照)にも対応可能である。
 なお、図16に関する当該例は、自端末11が他端末11との通信を利用して端末配置情報を取得する既述の第2の端末配置情報取得処理に分類される。
 また、例えば、携帯端末11を含む全ての情報端末11が、自端末11の現在位置の情報を取得する位置情報取得部を有する場合、各情報端末11は、通信によって収集した他端末11の位置情報と、自端末11の位置情報とから、端末配置情報を取得可能である(第2の端末配置情報取得処理を参照)。
 また、特許文献1に紹介された技術等の既存技術を利用して、携帯端末11の位置を特定してもよい。
 このように、実施の形態5によれば、情報通信システム10の適用を拡大することができる。
 <実施の形態6>
 実施の形態5では情報通信システム10が携帯端末11を含む例を説明した。無線通信型の携帯端末11によれば、携帯端末11が自動車の外部に存在していても、携帯端末11は自動車の内部に存在する情報端末11と通信可能である。したがって、自動車の内部と外部とでメッセージ31の送受信が可能である。なお、自動車の内部に存在する情報端末11は携帯型と備え付け型のいずれであってもよい。
 ここで、自動車の外部には多くの携帯端末11が存在しうる。このため、自動車の内部に存在する情報端末11と通信できる、換言すれば情報通信システム10に参加できる、携帯端末11を制限することが考えられる。
 例えば、IDが情報通信システム10に予め登録されている携帯端末11は、自動車の外部に存在する場合であっても、情報通信システム10に参加する資格を有するものとする。具体的には、自動車の内部に存在する備え付け型の情報端末11またはシステム全体制御装置12が、事前登録情報の管理および照合を行う。
 この状況について図17の概念図を参照する。図17の例において、自動車の内部が情報通信システム10の基幹エリア51になる。すなわち、自動車の内部に存在する情報端末11は、基幹エリア51に存在することになる。
 また、図17中のエリア52は、自動車の外部に存在する携帯端末11の通信エリア(より具体的には、通信エリアのうちで自動車の外部に存在する部分)を示している。但し、情報通信システム10への参加が許可された携帯端末11の通信エリア52を実線で示し、情報通信システム10への参加が許可されていない携帯端末11の通信エリア52を破線で示している。なお、携帯端末11の位置および数は図17の例に限定されるものではない。
 この場合、情報通信システム10の利用エリアは、基幹エリア51だけでなく、情報通信システム10への参加が許可された携帯端末11の通信エリア52も含むことになる。すなわち、そのような通信エリア52は基幹エリア51と同一視されている、と考えることができる。換言すれば、基幹エリア51がそのような通信エリア52まで拡張されている、と考えられる。かかる点に鑑み、基幹エリア51と同一視された通信エリア52を拡張エリア52と呼ぶことにする。
 但し、拡張エリア52は常に存在するとは限らない点、および、情報通信システム10の主たる利用エリアは基幹エリア51である点に鑑みると、拡張エリア52内のみでメッセージ31の送信と受信の両方が行われる状況を除外してもよい。すなわち、メッセージの送信と受信の少なくとも一方は基幹エリア51内で行われることを、情報通信システム10の利用条件としてもよい。例えば、送信先選択処理において端末配置情報を参照すれば、送信先端末11の位置を識別可能である。
 また、拡張エリア52の形成に条件を課してもよい。例えば、携帯端末11が自動車の内部から外部へ移動した場合にのみ、拡張エリア52を認めるようにする。かかる条件の適用には、図15の例で説明した端末検出部13を応用することが考えられる。例えば、自動車に入る際および自動車から出る際に、ユーザが携帯端末11のIDを端末検出部13に認識させるのである。これによれば、偶数回目のID認識によって、携帯端末11が自動車から出ることを検出可能である。
 また、拡張エリア52の形成に時間的な条件を課してもよい。例えば、携帯端末11が自動車から出てから、予め設定された時間長さだけ、拡張エリア52を認めるようにする。
 このように、実施の形態6によれば、情報通信システム10の適用を拡大することができる。
 <実施の形態7>
 実施の形態1~6では、図3に示すように、情報端末11に1つの情報出力部23と1つの情報入力部26とが設けられている例を説明した。これに対し、図18の例では、2つの情報出力部23a,23bと、2つの情報入力部26a,26bとが設けられている。但し、3つ以上の情報出力部23と、3つ以上の情報入力部26とを設けることも可能である。
 図18の例によれば、2つの表示部24a,24bが存在するので、2つの表示画面が存在することになる。2つの表示画面は物理的に別々の表示装置によって提供可能である。かかる構成は、デュアルディスプレイ、デュアルモニタ、マルチディスプレイ、マルチモニタ、等と呼ばれる場合がある。
 また、2つの表示画面を単一の表示装置によって提供することも可能である。この場合、2つの表示部24a,24bが単一の表示装置によって実現される。
 例えば、当該単一の表示装置の表示画面を左右に2分割することによって、左画面と右画面とを表示部24a,24bの表示画面として利用する。かかる構成は画面分割方式等と呼ばれる場合がある。
 また、例えば、上記単一の表示装置がいわゆるスプリットビューに準拠した構成を有していてもよい。すなわち、スプリットビューは表示画面を見る方向によって、見える画像が異なり、スプリットビュー用の表示画面は左方向から見える画像を提供する部分と、右方向から見える画像を提供する部分とを有する。このため、これら2つの部分によって、表示部24a,24bの表示画面が提供される。
 画面分割方式およびスプリットビュー方式の表示装置の表示画面は、例えば、ダッシュボード中央、すなわち運転席正面と助手席正面の間に配置される。この場合、運転席用(すなわち運転者用)画面と助手席用画面とが提供される。また、例えば携帯端末11に画面分割方式またはスプリットビュー方式が採用されてもよい。
 同様に、2つの音声出力部25a,25bを、別々の音声出力装置で構成してもよいし、単一の音声出力装置で構成してもよい。
 また、2つの情報入力部26a,26bを、別々のタッチパネルで構成してもよいし、1つのタッチパネルで構成してもよい。
 ここで、情報端末11が2つの情報出力部23a,23bを有する場合、一方の表示部24aまたは24bに表示されたメッセージ31を、他方の表示部24bまたは24aに送信するといった使い方も想定される。この場合、情報出力部23aと情報入力部26aとを含む情報端末11a(図18参照)と、情報出力部23bと情報入力部26bとを含む情報端末11b(図18参照)との間で、メッセージ31が送受信される、と理解できる。なお、図18の例では、情報処理部21と記憶部22と外部通信部27とは、2つの情報端末11a,11bによって共用されている。
 <実施の形態8>
 実施の形態1~7ではメッセージ送信機能部40(図8参照)が情報端末11に設けられている例を説明した。これに対し、図19に示すように、メッセージ送信機能部40をシステム全体制御装置12の情報処理部に設けてもよい。かかる構成によっても、上記の各種効果が得られる。
 <実施の形態9>
 実施の形態9では、メッセージ31の変換処理を説明する。メッセージ変換処理として、翻訳処理、音声変換処理、テキスト変換処理が例示される。
 翻訳処理によれば、メッセージ31が他言語に翻訳されて受信側端末11において出力される(図20参照)。また、音声変換処理によれば、メッセージ31が受信側端末11において音声メッセージとして出力される(図21参照)。また、テキスト変換処理によれば、ユーザのジェスチャ操作によって生成されたメッセージ31が、受信側端末11では、対応するテキストメッセージによって出力される(図22参照)。なお、図20~図22中の符号33は変換済みメッセージを示している。
 翻訳処理と音声変換処理とテキスト変換処理とのうちの2つ以上を組み合わせることも可能である。例えば、翻訳処理の後に音声変換処理を行えば、メッセージ31は最終的に他言語の音声に変換される。また、テキスト変換処理によって得られたテキストメッセージを、翻訳してもよいし、あるいは、音声に変換してもよい。また、テキスト変換処理によって得られたテキストメッセージを、翻訳した上で、音声に変換してもよい。
 以下でもこの3種類のメッセージ変換処理を例示するが、メッセージ変換処理の種類はこの例に限定されるものではない。例えば、点滅表示等の表示形態の変換を採用することも可能である。
 図23に、メッセージ変換処理を行うメッセージ変換機能部60の構成例を説明するブロック図を示す。また、図24に、メッセージ変換機能部60の動作例を説明するフローチャートを示す。
 なお、後述のように、メッセージ変換機能部60は情報端末11の情報処理部21等に設けられる。また、実施の形態6(図17参照)で説明したようにメッセージ31は、基幹エリア51内、または、基幹エリア51と拡張エリア52との間で、送受信されるので、メッセージ変換機能部60は基幹エリア51または拡張エリア52に存在する。
 図23の例によれば、メッセージ変換機能部60は、変換対象取得部61と、メッセージ変換部62と、メッセージ送信処理部63とを含んでいる。
 変換対象取得部61は、変換対象メッセージを取得する(図24に例示の動作フローST30のステップST31を参照)。ここでは、変換対象メッセージは生成当初のメッセージ31とする。
 メッセージ変換部62は、変換対象メッセージを、予め定められたメッセージ変換処理に従って変換して、変換済みメッセージを取得する(ステップST32参照)。ここで、予め定められたメッセージ変換処理は、図20~図22の例に倣えば、翻訳処理と音声変換処理とテキスト変換処理とのうちの少なくとも1つであり、これらの処理のうちの2つ以上が組み合わされてもよい。
 翻訳処理は、既存技術を利用して実行可能である。メッセージ変換部62自体が翻訳機能を有してもよいし、あるいは、メッセージ変換部62は、自動車の外部に(例えばインターネット上に)に設けられた翻訳サーバを利用することによって、翻訳処理を実行してもよい。具体的には、メッセージ変換部62は、インターネット上の翻訳サーバに外部通信部(図3の外部通信部27を参照)を使ってアクセスし、翻訳サーバに変換対象メッセージを送信し、翻訳サーバから翻訳済みメッセージを受信する。なお、翻訳後の言語は、予め設定されるものとするが、ユーザによって適時、設定可能であってもよい。
 音声変換処理は、既存技術を利用して実行可能である。例えば、テキスト読み上げ技術を利用すれば、テキストメッセージ(すなわちテキストデータ)を音声メッセージ(すなわち音声データ)に変換可能である。
 テキスト変換処理は、例えば、複数の定型テキストメッセージを記憶部(図3の記憶部22または情報処理部21の主記憶部を参照)に格納しておき、その複数の定型テキストメッセージの中から、ユーザのジェスチャ操作に対応するものを選択することによって、実行可能である。
 より具体的には、ナビゲーション機能を利用している場合に、図22に例示するようにユーザが曲がりくねった道路をなぞる(換言すればドラッグする)とする。当該なぞった軌跡が、ユーザによって作成された変換対象メッセージになる。メッセージ変換部62は、例えば、変換対象メッセージである上記軌跡が曲がりくねった道路上に存在すること、当該軌跡が地図上で現在位置よりも前方に存在すること、等を識別する。そして、その識別結果から、メッセージ変換部62は、ユーザ操作に対応する定型テキストメッセージとして「しばらくカーブが続きます」を選択する。
 但し、テキスト変換処理はこの例に限定されるものではなく、他の技術によって実行してもよい。
 メッセージ変換部62は、変換済みメッセージを受信側端末11に送信する(ステップST33参照)。
 ここで、メッセージ変換処理は、当初のメッセージ31が送信側で生成されてから受信側でユーザに提供されるまでの間に、実行されればよい。このため、メッセージ変換機能部60は送信側端末11または受信側端末11に設けられる。また、図2の構成例においては、メッセージ変換機能部60をシステム全体制御装置12(換言すれば情報通信中継装置12)に設けることも可能である。
 図25に、メッセージ変換機能部60が送信側端末11に搭載された例を説明するブロック図を示す。図25の例によれば、変換対象取得部61は、メッセージ作成部42から、ユーザが作成したメッセージ31を変換対象メッセージとして取得する。
 また、図25の例では、メッセージ変換機能部60のメッセージ送信処理部63は、メッセージ送信機能部40のメッセージ送信処理部44によって実現される。すなわち、変換済みメッセージを、メッセージ送信機能部40のメッセージ送信処理部44に引き渡すことによって、変換済みメッセージが送信される。
 図26に、メッセージ変換機能部60が受信側端末11に搭載された例を説明するブロック図を示す。図26の例によれば、変換対象取得部61は、他端末11から受信したメッセージ31を変換対象メッセージとして取得する。
 また、図26に示すように、受信側端末11ではメッセージ送信処理部63が省略される。但し、受信側端末11が送信側端末11としても動作する場合、メッセージ送信処理部63は省略されないが、受信メッセージ31に対しては動作しない。
 図27に、メッセージ変換機能部60がシステム全体制御装置12(換言すれば情報通信中継装置12)の情報処理部71に搭載された例を説明するブロック図を示す。なお、情報処理部71は、情報端末11の情報処理部21と同様に構成可能である。
 図27の例によれば、変換対象取得部61は、送信側端末11から受信したメッセージ31を変換対象メッセージとして取得する。また、図27の例では、メッセージ送信処理部63は変換済みメッセージを、受信メッセージ31で送信先に設定されていた情報端末11に送信する。
 これにより、システム全体制御装置12(換言すれば情報通信中継装置12)は、送信側端末11から送信されたメッセージ31を変換対象メッセージとして取得するとともに変換済みメッセージを受信側端末11に送信することによって、メッセージ31を中継する際にメッセージ変換処理を行う。
 ここで、メッセージ変換機能部60を、送信側端末11と、受信側端末11と、システム全体制御装置12(換言すれば情報通信中継装置12)とのうちの2つ以上に設けてもよい。
 これによれば、例えば、次のような利用が考えられる。まず、送信側端末11はテキスト変換処理を行い、得られたテキストメッセージ(すなわち変換済みメッセージ)を送信する。そして、受信側端末11は、受信したテキストメッセージを変換対象メッセージとして翻訳処理を行う。
 あるいは、情報通信中継装置12が、受信したテキストメッセージを変換対象メッセージとして翻訳処理を行い、得られた翻訳済みメッセージ(すなわち変換済みメッセージ)を送信する。そして、受信側端末11は、受信した翻訳済みメッセージを変換対象メッセージとして音声変換を行う。
 このように、送信側で生成されてから受信側でユーザに提供までの間に、変換対象メッセージがメッセージ変換処理に従って変換される。このため、人々のコミュニケーションに多様な形式を提供可能である。
 ここで、実施の形態4において、メッセージ31の作成元は、各種のハードウェアまたはソフトウェアであってもよいことを説明した。このため、例えば、ナビゲーション機能を利用している場合に適時表示される誘導画像(図13参照)、自動車の状態に関連して表示される通知画像(図14参照)、等も変換対象メッセージとなりうる。
 これについては例えば、上記のテキスト変換処理を応用可能である。すなわち、各種のハードウェアおよびソフトウェアが作成するメッセージ31は、基本的に、予め準備された画像オブジェクト、または、当該画像オブジェクトの組み合わせ、または、当該画像オブジェクトの変形によって構成される。このため、各画像オブジェクトに定型テキストメッセージを関連付けておけば、テキスト変換処理を実行可能である。
 ところで、メッセージ変換処理を実行するか否かを選択できれば、より好ましい。かかる実行選択は例えばメニュー画面において設定することが考えられる。
 また、ユーザがメッセージ31を送信する際に、ユーザがメッセージ変換処理の実行を選択するようにしてもよい。例えば、図28に示すように、メッセージ31中の予め定められた部分(図28では中央部)がタッチされた場合、メッセージ変換部62はメッセージ変換処理を実行する。これに対し、メッセージ31中の予め定められた別の部分(図28では周辺部)がタッチされた場合、メッセージ変換部62はメッセージ変換処理を実行しない。
 あるいは、メッセージ31中の予め定められたオブジェクト(図28では右折を示す矢印オブジェクト)がタッチされた場合、メッセージ変換部62はメッセージ変換処理を実行する。これに対し、メッセージ31中の背景部分がタッチされた場合、メッセージ変換部62はメッセージ変換処理を実行しない。
 なお、図28の例において上記タッチ操作は例えば、送信先候補呼び出し操作である。あるいは、第1のジェスチャ操作等の始点へのタッチを、上記タッチ操作として扱ってもよい。あるいは、これらとは別の操作を上記タッチ操作として定義してもよい。
 メッセージ変換部62は、受信側端末11の端末属性情報に応じて、メッセージ変換処理の実行を選択するようにしてもよい。また、メッセージ変換部62は、受信側端末11の端末属性情報に応じて、メッセージ変換処理の種類を選択するようにしてもよい。例えば、図29に示すように、受信側端末11が運転者用である場合には音声変換処理が選択される。これに対し、その他の受信側端末11については、予め設定された種類のメッセージ変換処理が選択される。あるいは、その他の受信側端末11については、メッセージ変換処理を実行しない。
 また、メッセージ変換部62は、メッセージ変換処理を実行するか否かの選択およびメッセージ変換処理の種類を、車速に応じて決定してもよい。例えば、図30に示すように、車速が予め設定された変換関連閾値以上の場合、音声変換処理が選択される。これに対し、車速が上記変換関連閾値未満の場合(停車状態を含む)、予め設定された種類のメッセージ変換処理が選択される。あるいは、車速が上記変換関連閾値未満の場合、メッセージ変換処理を実行しない。
 図29および図30の例によれば、予め設定された条件下では、メッセージ31の内容を音声で知ることができ、画面を見なくても済む。特に図29と図30の組み合わせによれば、運転者は、上記変換関連閾値以上の車速で運転している最中に、画面を見なくても、メッセージ31の内容を知ることができる。
 メッセージ変換処理を実行するか否かの選択およびメッセージ変換処理の種類は、移動体の移動環境に応じて決定されてもよい。移動環境は道路状態、天候等である。具体的には、道路状態が悪く自動車が揺れる場合には、メッセージ31を画面表示よりも音声によって出力した方が、乗り物酔いを防止または軽減できるかもしれない。また、風雨が騒音になる場合には、音声変換処理を実行せずに、画面表示を利用した方がよいかもしれない。なお、道路状態の情報は地図データ、情報センター、自動車に搭載された振動センサ、等から取得可能であり、天候の情報は放送、情報センター等から取得可能である。
 メッセージ変換処理を実行するか否かの選択およびメッセージ変換処理の種類は、受信側端末11の表示状態に応じて決定されてもよい。具体的には、受信側端末11が地図画像、AVコンテンツ等)を出力している場合には、受信側端末11においてメッセージ31を音声によって提供する。これに対し、受信側端末11が音楽コンテンツ等を出力しているとともにそれの操作画像を表示している場合、音声変換処理を実行せずに、メッセージ31を操作画像に重ねて表示する。これによれば、メッセージ31によって表示内容により高い重要度を有する情報が隠されることがない。
 なお、受信側端末11にメッセージ変換機能部60が設けられている場合、そのメッセージ変換機能部60は受信側端末11の表示状態を容易に知ることができる。これに対し、受信側端末11にメッセージ変換機能部60が設けられていない場合、受信側端末11が自身の表示状態を他端末11に通知すればよい。
 メッセージ変換処理を実行するか否かの選択およびメッセージ変換処理の種類は、各種条件(上記に例示の条件に限定されない)の組み合わせに応じて決定されてもよい。
 ここで、実施の形態2で述べたように、受信側端末11の端末属性情報に応じて、メッセージ(ここでは変換済みメッセージ)の送信先を選択してもよい。これによれば、メッセージ送信処理部63は受信側端末11の端末属性情報に応じて、例えば、運転者用端末11に変換済みメッセージを送信するか否かを決定する。また、例えば、予め設定された年齢以下のユーザの情報端末11に、変換済みメッセージを送信するか否か、が決定される。
 上記ではメッセージ変換機能部60をメッセージ送信機能部40と組み合わせる例を説明した。しかし、メッセージ変換機能部60は、メッセージ送信機能部40と組み合わせなくても、利用可能である。そのような例によれば、例えば、変換対象取得部61が変換対象メッセージを取得した場合、ユーザが特定の送信操作をしなくても、変換済みメッセージを送信可能である。
 <変形例>
 本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。
 この発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 10 情報通信システム、11 情報端末、12 システム全体制御装置(情報通信中継装置)、13 端末検出部、21 情報処理部(情報処理装置)、31 メッセージ、32 送信先候補アイコン、33 変換済みメッセージ、40 メッセージ送信機能部、41 通信環境管理部、43 送信先候補表示制御部、44 メッセージ送信処理部、51 基幹エリア、52 拡張エリア、60 メッセージ変換機能部、61 変換対象取得部、62 メッセージ変換部、63 メッセージ送信処理部、ST10,ST30 動作フロー、ST11~ST18,ST31~ST33 処理ステップ。

Claims (13)

  1.  移動体の内部である基幹エリアまたは前記基幹エリアの外側で前記基幹エリアと同一視された拡張エリアに存在することによって、前記基幹エリア内または前記基幹エリアと前記拡張エリアとの間で送受信されるメッセージを、送信側で生成されてから受信側でユーザに提供されるまでの間に、変換対象メッセージとして取得する、変換対象取得部と、
     前記変換対象メッセージを予め定められたメッセージ変換処理に従って変換して変換済みメッセージを取得するメッセージ変換部と
    を備える情報処理装置。
  2.  前記メッセージ変換処理は翻訳処理を含む、請求項1に記載の情報処理装置。
  3.  前記メッセージ変換部は前記翻訳処理を前記移動体の外部に設けられた翻訳サーバを利用して行う、請求項2に記載の情報処理装置。
  4.  前記メッセージ変換処理は、ジェスチャ操作によって生成された前記変換対象メッセージを、対応するテキストメッセージに変換するテキスト変換処理を含む、請求項1に記載の情報処理装置。
  5.  前記メッセージ変換処理はテキストメッセージを音声メッセージに変換する音声変換処理を含む、請求項1に記載の情報処理装置。
  6.  前記変換対象メッセージは前記移動体の状態に関するメッセージである、請求項1に記載の情報処理装置。
  7.  前記メッセージ変換部は、前記メッセージ変換処理を実行するか否かの選択および前記メッセージ変換処理の種類を、受信側の情報端末の端末属性情報と、前記移動体の移動速度と、前記移動体の移動環境と、前記受信側の情報端末の表示状態とのうちの少なくとも1つに応じて決定する、請求項1に記載の情報処理装置。
  8.  前記変換済みメッセージを受信側の情報端末に送信するメッセージ送信処理部をさらに備える、請求項1に記載の情報処理装置。
  9.  前記メッセージ送信処理部は、前記受信側の情報端末の端末属性に応じて、前記変換済みメッセージを前記受信側の情報端末に送信するか否かを決定する、請求項8に記載の情報処理装置。
  10.  請求項1に記載の情報処理装置を備える情報端末。
  11.  請求項1に記載の情報処理装置を備え、
     送信側の情報端末から送信された前記メッセージを前記変換対象メッセージとして取得するとともに前記変換済みメッセージを受信側の情報端末に送信することによって、前記メッセージを中継する際に前記メッセージ変換処理を行う、
    情報通信中継装置。
  12.  請求項1に記載の情報処理装置と、
     送信側として機能する第1の情報端末と、
     受信側として機能する第2の情報端末と
    を備える情報通信システム。
  13.  (a)移動体の内部である基幹エリア内で送受信される、または、前記基幹エリアと、前記基幹エリアの外側で前記基幹エリアと同一視された拡張エリアとの間で送受信されるメッセージを、送信側で生成されてから受信側でユーザに提供されるまでの間に、前記基幹エリアまたは前記拡張エリアにおいて、変換対象メッセージとして取得するステップと、
     (b)前記変換対象メッセージを予め定められたメッセージ変換処理に従って変換して変換済みメッセージを取得するステップと
    を備える情報処理方法。
PCT/JP2013/079382 2013-10-30 2013-10-30 情報処理装置、情報端末、情報通信中継装置、情報通信システムおよび情報処理方法 WO2015063879A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US14/916,139 US10237211B2 (en) 2013-10-30 2013-10-30 Information processing apparatus, information terminal, information communication relay apparatus, and information processing method
JP2015544686A JP5980442B2 (ja) 2013-10-30 2013-10-30 情報処理装置、情報端末、情報通信中継装置および情報処理方法
PCT/JP2013/079382 WO2015063879A1 (ja) 2013-10-30 2013-10-30 情報処理装置、情報端末、情報通信中継装置、情報通信システムおよび情報処理方法
CN201380080626.1A CN105723349B (zh) 2013-10-30 2013-10-30 信息处理装置、信息终端、信息通信中继装置及信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/079382 WO2015063879A1 (ja) 2013-10-30 2013-10-30 情報処理装置、情報端末、情報通信中継装置、情報通信システムおよび情報処理方法

Publications (1)

Publication Number Publication Date
WO2015063879A1 true WO2015063879A1 (ja) 2015-05-07

Family

ID=53003528

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/079382 WO2015063879A1 (ja) 2013-10-30 2013-10-30 情報処理装置、情報端末、情報通信中継装置、情報通信システムおよび情報処理方法

Country Status (4)

Country Link
US (1) US10237211B2 (ja)
JP (1) JP5980442B2 (ja)
CN (1) CN105723349B (ja)
WO (1) WO2015063879A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018534642A (ja) * 2015-08-28 2018-11-22 グーグル エルエルシー デバイス間での通知の転送
JP2021079895A (ja) * 2019-11-22 2021-05-27 株式会社Mobility Technologies コミュニケーションシステム、コミュニケーション方法及び情報端末

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6570789B2 (ja) * 2017-04-24 2019-09-04 三菱電機株式会社 報知制御装置および報知制御方法
JP6969493B2 (ja) * 2018-05-16 2021-11-24 株式会社Jvcケンウッド 映像出力装置、映像出力方法、及びコンピュータプログラム
WO2020222317A1 (ko) * 2019-04-29 2020-11-05 엘지전자 주식회사 전자 장치 및 전자 장치의 동작 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11234208A (ja) * 1998-02-12 1999-08-27 Denso Corp 情報通信システム
JP2006512647A (ja) * 2002-12-30 2006-04-13 シンガポール エアラインズ リミテッド 多言語交信方法とシステム
JP2006099296A (ja) * 2004-09-29 2006-04-13 Nec Corp 翻訳システム、翻訳通信システム、機械翻訳方法、および、プログラム
JP2006246297A (ja) * 2005-03-07 2006-09-14 Matsushita Electric Ind Co Ltd 情報通信システムとそれを用いたコミュニケーション方法
JP2011101118A (ja) * 2009-11-04 2011-05-19 Denso It Laboratory Inc 認証システム及び認証方法
JP2013053942A (ja) * 2011-09-05 2013-03-21 Panasonic Corp ナビゲーション装置、および、それを用いて運転支援システム
JP2013089238A (ja) * 2011-10-20 2013-05-13 Fuji Xerox Co Ltd ジェスチャ処理プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005236560A (ja) * 2004-02-18 2005-09-02 Sony Corp 車両通信システムおよびゲートウエイ装置
US20080120419A1 (en) * 2006-03-21 2008-05-22 David Charles Yamartino Transparent Global Computer Communication Network
JP5102469B2 (ja) * 2006-08-01 2012-12-19 クラリオン株式会社 ナビゲーション装置
US8166119B2 (en) * 2008-04-25 2012-04-24 T-Mobile Usa, Inc. Messaging device for delivering messages to recipients based on availability and preferences of recipients
JP2010093515A (ja) 2008-10-07 2010-04-22 Alpine Electronics Inc モバイル機器データの複数モニタ選択転送システム
JP5298811B2 (ja) * 2008-12-01 2013-09-25 富士通株式会社 車載装置および連携サービス制御プログラム
US8766817B2 (en) * 2011-03-07 2014-07-01 International Business Machines Corporation Road hazard detection and warning system and method
JP2012227649A (ja) * 2011-04-18 2012-11-15 Denso Corp 車載用携帯端末制御装置
US20140329563A1 (en) * 2011-12-20 2014-11-06 Infobank Corp. Information processing method and system, and recording medium
JP5767998B2 (ja) 2012-03-30 2015-08-26 クラリオン株式会社 車載機およびその制御方法と遠隔操作システム
US9602779B2 (en) * 2012-07-10 2017-03-21 Christopher DeJuliis System for passenger monitoring
US9552731B2 (en) * 2013-01-31 2017-01-24 Nec Corporation Mobile communication apparatus, mobile communication method and program
KR102108500B1 (ko) * 2013-02-22 2020-05-08 삼성전자 주식회사 번역 기반 통신 서비스 지원 방법 및 시스템과, 이를 지원하는 단말기

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11234208A (ja) * 1998-02-12 1999-08-27 Denso Corp 情報通信システム
JP2006512647A (ja) * 2002-12-30 2006-04-13 シンガポール エアラインズ リミテッド 多言語交信方法とシステム
JP2006099296A (ja) * 2004-09-29 2006-04-13 Nec Corp 翻訳システム、翻訳通信システム、機械翻訳方法、および、プログラム
JP2006246297A (ja) * 2005-03-07 2006-09-14 Matsushita Electric Ind Co Ltd 情報通信システムとそれを用いたコミュニケーション方法
JP2011101118A (ja) * 2009-11-04 2011-05-19 Denso It Laboratory Inc 認証システム及び認証方法
JP2013053942A (ja) * 2011-09-05 2013-03-21 Panasonic Corp ナビゲーション装置、および、それを用いて運転支援システム
JP2013089238A (ja) * 2011-10-20 2013-05-13 Fuji Xerox Co Ltd ジェスチャ処理プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018534642A (ja) * 2015-08-28 2018-11-22 グーグル エルエルシー デバイス間での通知の転送
US10775980B2 (en) 2015-08-28 2020-09-15 Google Llc Transferring notifications between devices
JP2021079895A (ja) * 2019-11-22 2021-05-27 株式会社Mobility Technologies コミュニケーションシステム、コミュニケーション方法及び情報端末
JP7436184B2 (ja) 2019-11-22 2024-02-21 Go株式会社 コミュニケーションシステム、コミュニケーション方法及び情報端末

Also Published As

Publication number Publication date
US20160218999A1 (en) 2016-07-28
JP5980442B2 (ja) 2016-08-31
CN105723349B (zh) 2018-12-14
US10237211B2 (en) 2019-03-19
CN105723349A (zh) 2016-06-29
JPWO2015063879A1 (ja) 2017-03-09

Similar Documents

Publication Publication Date Title
CN107107841B (zh) 信息处理装置
CN107250729B (zh) 信息处理系统、车载装置、及终端装置
JP5980442B2 (ja) 情報処理装置、情報端末、情報通信中継装置および情報処理方法
JP5832674B2 (ja) 表示制御システム
EP2770500B1 (en) Method for providing a voice-speech service and mobile terminal implementing the same
EP3165994A1 (en) Information processing device
EP2826689A2 (en) Mobile terminal and control method thereof
US20150192426A1 (en) Input/Output Functions Related To A Portable Device In An Automotive Environment
US12008168B2 (en) Method for operating a mobile terminal using a gesture recognition and control device, gesture recognition and control device, motor vehicle, and an output apparatus that can be worn on the head
WO2018230527A1 (ja) 運転支援方法、運転支援プログラム及び車両制御装置
JP2012008968A (ja) 携帯機器と連携し、該携帯機器に対して可能な入力操作を実現する車載機器
JP2017204104A (ja) 制御装置、車載装置、映像配信方法、及びプログラム
WO2016084360A1 (ja) 車両用表示制御装置
JP6221265B2 (ja) タッチパネル操作装置及びタッチパネル操作装置における操作イベント判定方法
JP6270866B2 (ja) 情報通知装置、情報通知システム、情報通知方法及び情報通知プログラム
US10209949B2 (en) Automated vehicle operator stress reduction
JP2016053880A (ja) 車載システム、情報処理方法、およびコンピュータプログラム
JP6295360B1 (ja) メッセージ表示用プログラム、メッセージ表示装置、及びメッセージ表示方法
KR20130096107A (ko) 태스크 수행 방법 및 시스템과 기록 매체
JP6066882B2 (ja) 情報処理装置、情報端末、情報通信システムおよび情報送信方法
JP5591237B2 (ja) 割り込み表示システム、コンテンツ情報提供サーバ装置およびクライアント装置
JP6120751B2 (ja) 情報処理装置、情報端末、情報通信システムおよび情報提供方法
JP2016024556A (ja) メッセージの交換を行うプログラム、方法、及び電子機器
JP2015170098A (ja) メッセージ交換を行うプログラム、方法、及び電子機器
JP2016024555A (ja) メッセージの交換を行うプログラム、方法、及び電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13896458

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015544686

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14916139

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13896458

Country of ref document: EP

Kind code of ref document: A1