WO2019207913A1 - 電子機器及び処理システム - Google Patents

電子機器及び処理システム Download PDF

Info

Publication number
WO2019207913A1
WO2019207913A1 PCT/JP2019/005357 JP2019005357W WO2019207913A1 WO 2019207913 A1 WO2019207913 A1 WO 2019207913A1 JP 2019005357 W JP2019005357 W JP 2019005357W WO 2019207913 A1 WO2019207913 A1 WO 2019207913A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
user
information
control unit
target
Prior art date
Application number
PCT/JP2019/005357
Other languages
English (en)
French (fr)
Inventor
彰人 畑中
朋樹 岩泉
庸二 濱田
永愛 本間
功典 長瀬
須藤 智浩
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2019207913A1 publication Critical patent/WO2019207913A1/ja
Priority to US17/074,859 priority Critical patent/US11595519B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/38Graded-service arrangements, i.e. some subscribers prevented from establishing certain connections
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42365Presence services providing information on the willingness to communicate or the ability to communicate in terms of media capability or network connectivity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/027Services making use of location information using location based information parameters using movement velocity, acceleration information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2242/00Special services or facilities
    • H04M2242/14Special services or facilities with services dependent on location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/02Calling substations, e.g. by ringing

Definitions

  • This disclosure relates to electronic equipment.
  • the electronic device is an electronic device operated by a first user, and includes a communication unit and a control unit.
  • a communication part acquires the 1st information regarding a partner apparatus.
  • the control unit identifies the movement state of the second user of the counterpart device based on the first information.
  • a control part performs the process based on the specified movement state according to the transmission instruction
  • the electronic device is a counterpart device with which the electronic device can communicate.
  • a processing system includes the above-described electronic device and a counterpart device with which the electronic device can communicate.
  • movement of an electronic device It is a figure which shows an example of the display of an electronic device. It is a figure which shows an example of the display of an electronic device. It is a figure which shows an example of the display of an electronic device. It is a figure which shows an example of the display of an electronic device. It is a figure which shows an example of a mode that the electronic device and the hands-free apparatus are connected. It is a flowchart which shows an example of operation
  • FIG. 1 is a diagram illustrating an example of the configuration of the processing system 1.
  • the processing system 1 includes a plurality of electronic devices 10 and a server device 50 connected to a network 2.
  • the plurality of electronic devices 10 and the server device 50 can communicate with each other through the network 2.
  • the network 2 includes at least one of a wireless network and a wired network.
  • the network 2 includes, for example, a cellular phone system network including a base station, a wireless LAN (Local Area Network), the Internet, and the like.
  • a cellular phone system network including a base station, a wireless LAN (Local Area Network), the Internet, and the like.
  • Each electronic device 10 can transmit information about itself to the server device 50.
  • information regarding the electronic device 10 may be referred to as “device information”.
  • “own device” means the electronic device 10 itself
  • “self device user” means the user of the electronic device 10.
  • simply speaking “user” means a user of the electronic device 10.
  • the electronic device 10 that is a partner device with which the electronic device 10 communicates may be referred to as a “partner device 10”.
  • the user of the counterpart device 10 may be referred to as a “partner user”.
  • the plurality of electronic devices 10 connected to the network 2 include, for example, a mobile phone such as a smartphone, a tablet terminal, a personal computer, and a wearable device.
  • the wearable device included in the plurality of electronic devices 10 may be a wristband type or wristwatch type, or a headband type or eyeglass type. However, it may be a type that is worn on the body, such as a clothing type.
  • a wristwatch-type wearable device is sometimes called a smart watch.
  • the server device 50 is a kind of computer device.
  • the server device 50 can store device information transmitted from each electronic device 10.
  • the server device 50 can transmit device information of another electronic device 10 to the electronic device 10 in response to a request from the electronic device 10.
  • the electronic device 10 can receive device information of another electronic device 10 from the server device 50, and can perform processing based on the received device information.
  • processing system 1 Details of the processing system 1 will be described below. Hereinafter, the processing system 1 will be described mainly using an example in which the electronic device 10 is a mobile phone.
  • ⁇ Configuration example of electronic equipment> ⁇ Example of external appearance of electronic device> 2 and 3 are a perspective view and a rear view showing an example of the appearance of the electronic device 10 which is a mobile phone. As shown in FIGS. 2 and 3, the electronic device 10 includes a plate-like device case 11 that is substantially rectangular in plan view. The device case 11 constitutes the exterior of the electronic device 10.
  • the display surface 12 on which various information such as characters, symbols, and figures are displayed is located on the front surface 11a of the device case 11.
  • a touch panel 130 described later is located on the back side of the display surface 12. Accordingly, the user can input various information to the electronic device 10 by operating the display surface 12 on the front surface of the electronic device 10 with a finger or the like. Note that the user can also input various types of information to the electronic device 10 by operating the display surface 12 with an operator other than a finger, for example, a touch panel pen such as a stylus pen.
  • the receiver hole 13 is located at the upper end of the front surface 11a of the device case 11.
  • a speaker hole 14 is located at the lower end of the front surface 11a.
  • a microphone hole 15 is located on the lower side surface 11 c of the device case 11.
  • a lens 181 included in the first camera 180 described later is visible from the upper end portion of the front surface 11a of the device case 11.
  • a lens 191 included in a second camera 190 described later is visible from the upper end portion of the back surface 11 b of the device case 11.
  • the electronic device 10 includes an operation button group 210 (see FIG. 4 described later) including a plurality of operation buttons 21.
  • Each of the plurality of operation buttons 21 is a hardware button.
  • each of the plurality of operation buttons 21 is a push button.
  • at least one operation button 21 included in the operation button group 210 may be a software button displayed on the display surface 12.
  • the operation button group 210 includes operation buttons 21a, 21b, and 21c located at the lower end portion of the front surface 11a of the device case 11.
  • the operation button group 210 may include a power button and a volume button.
  • the operation button 21a is, for example, a back button.
  • the back button is an operation button for switching the display on the display surface 12 to the previous display.
  • the operation button 21b is a home button, for example.
  • the home button is an operation button for displaying a home screen on the display surface 12.
  • the operation button 21c is, for example, a history button.
  • the history button is an operation button for displaying the history of the application executed on the electronic device 10 on the display surface 12. When the user operates the operation button 21c, a history of applications executed on the electronic device 10 is displayed on the display surface 12.
  • FIG. 4 is a block diagram illustrating an example of an electrical configuration of the electronic device 10 illustrated in FIGS. 2 and 3.
  • the electronic device 10 includes, for example, a control unit 100, a wireless communication unit 110, a display unit 120, a touch panel 130, an operation button group 210, a position acquisition unit 140, and a real time clock 220.
  • the electronic device 10 further includes a receiver 150, a speaker 160, a microphone 170, a first camera 180, a second camera 190, a sensor device 200, a vibration unit 230, and a battery 240. These components included in the electronic device 10 are housed in a device case 11.
  • the control unit 100 can comprehensively manage the operation of the electronic device 10 by controlling other components of the electronic device 10. It can be said that the control unit 100 is a control device or a control circuit.
  • the controller 100 includes at least one processor to provide control and processing capabilities to perform various functions, as described in further detail below.
  • At least one processor is implemented as a single integrated circuit (IC) or as a plurality of communicatively connected integrated circuits (ICs) and / or discrete circuits. May be.
  • the at least one processor can be implemented according to various known techniques.
  • the processor includes one or more circuits or units configured to perform one or more data computation procedures or processes, for example, by executing instructions stored in associated memory.
  • the processor may be firmware (eg, a discrete logic component) configured to perform one or more data computation procedures or processes.
  • the processor may include one or more processors, controllers, microprocessors, microcontrollers, application specific integrated circuits (ASICs), digital signal processors, programmable logic devices, field programmable gate arrays, or the like.
  • ASICs application specific integrated circuits
  • digital signal processors programmable logic devices
  • field programmable gate arrays or the like.
  • the control unit 100 includes a CPU (Central Processing Unit) 101, a DSP (Digital Signal Processor) 102, and a storage unit 103.
  • the storage unit 103 includes a non-transitory recording medium that can be read by the CPU 101 and the DSP 102, such as a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • the ROM included in the storage unit 103 is, for example, a flash ROM (flash memory) that is a nonvolatile memory.
  • the storage unit 103 stores map information 103b, a plurality of control programs 103a for controlling the electronic device 10, and the like.
  • the map information 103b includes road information, train track information, facility information, and the like.
  • Various functions of the control unit 100 are realized by the CPU 101 and the DSP 102 executing various control programs 103 a in the storage unit 103.
  • the plurality of control programs 103a in the storage unit 103 include various applications (that is, application programs).
  • the storage unit 103 stores, for example, a telephone application, a browser, a schedule management application, a camera application, a still image display application, a moving image reproduction application, a music reproduction application, a message communication application, and the like.
  • the telephone application is an application for the electronic device 10 to perform telephone communication using the wireless communication unit 110, the receiver 150, the microphone 170, and the like. It can be said that the telephone application is an application for a user to make a call with a user of another electronic device 10 using the electronic device 10.
  • the telephone communication includes a communication form using a conventional telephone line and a communication form using the Internet called IP (Internet Protocol) telephone communication.
  • IP Internet Protocol
  • a telephone application for performing communication using a conventional telephone line may be referred to as a “conventional telephone application”.
  • a telephone application for performing IP telephone communication may be referred to as an “IP telephone application”.
  • the storage unit 103 may store a plurality of types of telephone applications.
  • the plurality of types of telephone applications in the storage unit 103 may include at least one type of conventional telephone application, and may include at least one type of IP telephone application.
  • the browser is an application for the electronic device 10 to display a website.
  • the schedule management application is an application for registering schedule information in the electronic device 10.
  • the camera application is an application for the electronic device 10 to photograph a subject using the first camera 180 and the second camera 190.
  • the still image display application is an application for the electronic device 10 to display a still image in the storage unit 103.
  • the moving image reproduction application is an application for the electronic device 10 to reproduce and display a moving image in the storage unit 103.
  • the music reproduction application is an application for the electronic device 10 to reproduce and output music in the storage unit 103.
  • the message communication application is an application for the electronic device 10 to perform message communication using the wireless communication unit 110 or the like.
  • the message communication includes a communication mode in which a message transmitted from the transmission side is temporarily stored in the server device, and the reception side reads the message from the server device.
  • This communication form is sometimes referred to as “electronic mail communication”.
  • the message communication includes a communication mode in which the receiving side can receive the message transmitted from the transmitting side immediately without reading from the server device, unlike the electronic mail communication.
  • This communication form is sometimes referred to as “instant message communication”.
  • the message includes characters and symbols.
  • a message communication application for realizing electronic mail communication may be referred to as an “electronic mail application”.
  • a message communication application for realizing instant message communication may be referred to as an “IM application”.
  • IM applications are sometimes referred to as “instant messengers”.
  • the storage unit 103 may store a plurality of types of message communication applications.
  • the plurality of types of message communication applications in the storage unit 103 may include at least one type of e-mail application, and may include at least one type of IM application.
  • the at least one application in the storage unit 103 may be stored in the storage unit 103 in advance. Further, at least one application in the storage unit 103 may be one that the electronic device 10 has downloaded from another device and stored in the storage unit 103.
  • the configuration of the control unit 100 is not limited to the above example.
  • the control unit 100 may include a plurality of CPUs 101. Further, the control unit 100 may not include the DSP 102 or may include a plurality of DSPs 102. Further, all the functions of the control unit 100 or a part of the functions of the control unit 100 may be realized by a hardware circuit that does not require software to realize the function.
  • the storage unit 103 may include a computer-readable non-transitory recording medium other than the ROM and RAM.
  • the storage unit 103 may include, for example, a small hard disk drive and an SSD (Solid State Drive).
  • the wireless communication unit 110 has an antenna 111.
  • the wireless communication unit 110 can perform wireless communication using the antenna 111 by, for example, a plurality of types of wireless communication methods. Wireless communication of the wireless communication unit 110 is controlled by the control unit 100. It can be said that the wireless communication unit 110 is a wireless communication circuit.
  • the wireless communication unit 110 can wirelessly communicate with a mobile phone system base station included in the network 2.
  • the wireless communication unit 110 can communicate with another mobile phone and a web server through the base station.
  • the wireless communication unit 110 can perform wireless communication using a wireless LAN such as WiFi included in the network 2.
  • the wireless communication unit 110 can directly perform short-range wireless communication with other devices without going through the network 2.
  • the wireless communication unit 110 can perform wireless communication in conformity with Bluetooth (registered trademark).
  • the wireless communication unit 110 may be capable of performing wireless communication in accordance with at least one of ZigBee (registered trademark) and NFC (Near Field Communication).
  • the wireless communication unit 110 performs various processing such as amplification processing on the signal received by the antenna 111 and outputs the processed received signal to the control unit 100.
  • the control unit 100 performs various processes on the input received signal and acquires information included in the received signal.
  • the control unit 100 outputs a transmission signal including information to the wireless communication unit 110.
  • the wireless communication unit 110 performs various processing such as amplification processing on the input transmission signal, and wirelessly transmits the processed transmission signal from the antenna 111.
  • the control unit 100 causes the wireless communication unit 110 to transmit device information of the electronic device 10 to the server device 50.
  • the display unit 120 includes a display surface 12 positioned on the front surface of the electronic device 10 and a display panel 121.
  • the display unit 120 can display various types of information on the display surface 12.
  • the display panel 121 is, for example, a liquid crystal display panel or an organic EL panel.
  • the display panel 121 can display various types of information such as characters, symbols, and figures by being controlled by the control unit 100.
  • the display panel 121 is opposed to the display surface 12 in the device case 11. Information displayed on the display panel 121 is displayed on the display surface 12. It can be said that the display unit 120 is a notification unit that notifies the user by performing display.
  • the touch panel 130 can detect an operation with an operator such as a finger on the display surface 12.
  • the touch panel 130 is, for example, a projected capacitive touch panel.
  • the touch panel 130 is located on the back side of the display surface 12, for example.
  • the control unit 100 can specify the content of an operation performed on the display surface 12 based on an electrical signal (output signal) from the touch panel 130. And the control part 100 can perform the process according to the specified operation content.
  • the position acquisition unit 140 can acquire position information indicating the position of the electronic device 10.
  • the position acquisition unit 140 can receive, for example, a satellite signal transmitted by a positioning satellite, and acquire position information of the electronic device 10 based on the received satellite signal.
  • the position information acquired by the position acquisition unit 140 includes, for example, latitude and longitude indicating the position of the electronic device 10. It can be said that the position acquisition unit 140 is a position acquisition circuit.
  • the position acquisition unit 140 is a GPS receiver, for example, and can receive a radio signal from a GPS (Global Positioning System) positioning satellite.
  • the position acquisition unit 140 calculates the current position of the electronic device 10 using, for example, latitude and longitude based on the received wireless signal, and outputs position information including the calculated latitude and longitude to the control unit 100. It can be said that the position information of the electronic device 10 is the position information of the user having the electronic device 10.
  • the position acquisition unit 140 may obtain the position information of the electronic device 10 based on a signal from a positioning satellite of a GNSS (Global Navigation Satellite System) other than GPS.
  • the position acquisition unit 140 is based on a signal from a positioning satellite of GLONASS (Global Navigation Satellite System), IRNSS (Indian Regional Navigation Satellite System), COMPASS, Galileo, or Quasi-Zenith Satellite System (QZSS).
  • GLONASS Global Navigation Satellite System
  • IRNSS Indian Regional Navigation Satellite System
  • COMPASS Galileo
  • QZSS Quasi-Zenith Satellite System
  • the electronic device 10 may not include the position acquisition unit 140.
  • the electronic device 10 may be connected to a position acquisition unit 140 separate from the electronic device 10 wirelessly or by wire.
  • the microphone 170 can convert a sound input from the outside of the electronic device 10 into an electrical sound signal and output it to the control unit 100. Sound from the outside of the electronic device 10 is taken into the electronic device 10 through the microphone hole 15 and input to the microphone 170.
  • the speaker 160 is, for example, a dynamic speaker.
  • the speaker 160 can convert an electrical sound signal from the control unit 100 into a sound and output the sound. Sound output from the speaker 160 is output from the speaker hole 14 to the outside. The user can hear the sound output from the speaker hole 14 even at a location away from the electronic device 10.
  • the speaker 160 can be said to be a notification unit that notifies the user by outputting sound.
  • the receiver 150 can output a received sound.
  • the receiver 150 is, for example, a dynamic speaker.
  • the receiver 150 can convert an electrical sound signal from the control unit 100 into sound and output the sound.
  • the sound output from the receiver 150 is output from the receiver hole 13 to the outside.
  • the volume of the sound output from the receiver hole 13 is smaller than the volume of the sound output from the speaker hole 14.
  • the user can hear the sound output from the receiver hole 13 by bringing his ear close to the receiver hole 13.
  • the receiver 150 is a notification unit that notifies the user by outputting sound.
  • a vibration element such as a piezoelectric vibration element that vibrates the front surface portion of the device case 11 may be provided. In this case, the sound is transmitted to the user by the vibration of the front portion.
  • the first camera 180 includes a lens 181 and an image sensor.
  • the second camera 190 includes a lens 191 and an image sensor. Each of the first camera 180 and the second camera 190 can photograph a subject based on control by the control unit 100, generate a still image or a moving image indicating the photographed subject, and output the still image or moving image to the control unit 100. .
  • the lens 181 of the first camera 180 is visible from the front surface 11a of the device case 11. Therefore, the first camera 180 can capture a subject existing on the front side (display surface 12 side) of the electronic device 10.
  • the first camera 180 is called an in camera.
  • the lens 191 of the second camera 190 is visible from the back surface 11 b of the device case 11. Therefore, the second camera 190 can photograph a subject existing on the back side of the electronic device 10.
  • the second camera 190 is called an out camera.
  • the sensor device 200 includes at least one sensor.
  • the sensor device 200 includes, for example, an acceleration sensor, an atmospheric pressure sensor, a geomagnetic sensor, and a gyro sensor.
  • the acceleration sensor is, for example, a three-axis acceleration sensor that can detect the acceleration of the electronic device 10.
  • the acceleration sensor can detect acceleration in the x-axis direction, the y-axis direction, and the z-axis direction set in the electronic device 10.
  • the x-axis direction, the y-axis direction, and the z-axis direction are set, for example, in the longitudinal direction, the short direction, and the thickness direction of the electronic device 10, respectively.
  • the atmospheric pressure sensor can detect the atmospheric pressure around the electronic device 10.
  • the geomagnetic sensor is, for example, a three-axis geomagnetic sensor that can detect a magnetic field (also referred to as a magnetic field) around the electronic device 10.
  • the geomagnetic sensor can detect magnetic fields in the x-axis direction, the y-axis direction, and the z-axis direction set in the electronic device 10.
  • the gyro sensor is, for example, a three-axis gyro sensor that can detect the angular velocity of the electronic device 10.
  • the gyro sensor can detect angular velocities around the x-axis, y-axis, and z-axis set in the electronic device 10.
  • the sensor device 200 may not include at least one of an acceleration sensor, an atmospheric pressure sensor, a geomagnetic sensor, and a gyro sensor.
  • the electronic device 10 may be connected to the at least one sensor separate from the electronic device 10 wirelessly or by wire.
  • the sensor device 200 may include a sensor other than an acceleration sensor, an atmospheric pressure sensor, a geomagnetic sensor, and a gyro sensor.
  • the sensor device 200 may include at least one of a proximity sensor, an illuminance sensor, and a temperature sensor.
  • the electronic device 10 may be connected to a sensor other than the acceleration sensor, the atmospheric pressure sensor, the geomagnetic sensor, and the gyro sensor by wireless or wired.
  • the real time clock 220 measures the current time and notifies the control unit 100 of it.
  • the vibration unit 230 can vibrate the electronic device 10. Specifically, the vibration unit 230 can vibrate the device case 11 under the control of the control unit 100. The vibration unit 230 can notify the user who has the electronic device 10 by vibrating the device case 11.
  • the vibration unit 230 includes, for example, an eccentric motor. It can be said that the vibration unit 230 is a notification unit that notifies the user by vibrating the device case 11.
  • the battery 240 is, for example, a rechargeable battery.
  • the power output from the battery 240 is supplied to various components such as the control unit 100 and the wireless communication unit 110 included in the electronic device 10.
  • FIG. 5 is a diagram illustrating an example of the configuration of the server device 50.
  • the server device 50 includes, for example, a control unit 51, a communication unit 54 connected to the network 2, and a display unit 55.
  • the display unit 55 is, for example, a liquid crystal display panel or an organic EL panel.
  • the display unit 55 can display various types of information such as characters, symbols, and figures by being controlled by the control unit 51.
  • the control unit 51 can comprehensively manage the operation of the server device 50 by controlling other components of the server device 50. It can be said that the control unit 51 is a control device or a control circuit.
  • the controller 51 includes at least one processor to provide control and processing capabilities to perform various functions, as described in further detail below. The above description of the processor included in the control unit 100 of the electronic apparatus 10 can be applied to the processor included in the control unit 51.
  • the control unit 51 includes a CPU 52 and a storage unit 53.
  • the storage unit 53 includes a non-transitory recording medium that can be read by the CPU 52, such as a ROM and a RAM.
  • the ROM included in the storage unit 53 is, for example, a flash ROM that is a nonvolatile memory.
  • the storage unit 53 stores a plurality of control programs 53 a for controlling the server device 50.
  • the storage unit 53 stores device information 300 transmitted from the electronic device 10. In the storage unit 103, device information 300 is managed for each electronic device 10.
  • Various functions of the control unit 51 are realized by the CPU 52 executing various control programs 53 a in the storage unit 53.
  • the communication unit 54 is connected to the network 2 by wire or wirelessly.
  • the communication unit 54 can communicate with a device such as the electronic device 10 connected to the network 2 through the network 2.
  • the communication unit 54 can input information received from the network 2 to the control unit 51.
  • the communication unit 54 can output information received from the control unit 51 to the network 2.
  • control unit 51 may include a plurality of CPUs 52.
  • the control unit 51 may include at least one DSP. Further, all the functions of the control unit 51 or a part of the functions of the control unit 51 may be realized by a hardware circuit that does not require software to realize the function.
  • the storage unit 53 may include a computer-readable non-transitory recording medium other than the ROM and RAM.
  • the storage unit 53 may include, for example, a small hard disk drive and an SSD.
  • At least one control program 53 a in the storage unit 53 may be stored in advance in the storage unit 53.
  • the at least one control program 53 a in the storage unit 53 may be one that the server device 50 has downloaded from another device and stored in the storage unit 53.
  • the server device 50 may include a configuration other than the control unit 51, the communication unit 54, and the display unit 55.
  • the server device 50 may include an input device for the user to input information to the server device 50 such as a touch panel.
  • FIG. 6 is a diagram illustrating a display example of the electronic device 10.
  • FIG. 6 schematically shows an example of the home screen 400.
  • the home screen 400 displayed on the display screen 12 corresponds to an application in the storage unit 103, and an icon 401 for instructing the electronic device 10 to execute the corresponding application is shown. .
  • the home screen 400 includes an icon 401a corresponding to a browser, an icon 401b corresponding to a music playback application, an icon 401c corresponding to a camera application, and an icon 401d corresponding to an e-mail application. It is.
  • the home screen 400 includes an icon 401e corresponding to the conventional telephone application and an icon 401f corresponding to the IP telephone application.
  • the home screen 400 includes two icons 401g and 401h respectively corresponding to two types of IM applications provided from different companies, for example.
  • the user can select the icon 401 by performing a predetermined operation (for example, a tap operation) on the icon 401 included in the home screen 400.
  • the control unit 100 reads the application corresponding to the selected icon 401 from the storage unit 103 and executes it. That is, when the touch panel 130 detects a predetermined operation on the icon 401, the control unit 100 reads out an application corresponding to the icon 401 from the storage unit 103 and executes the application. Accordingly, the user can select the icon 401 by operating the icon 401 and cause the electronic device 10 to execute an application corresponding to the selected icon 401. For example, when the user taps an icon 401 d corresponding to the email application, the electronic device 10 executes the email application. When the user taps the icon 401e corresponding to the conventional telephone application, the electronic telephone 10 executes the conventional telephone application.
  • a predetermined operation for example, a tap operation
  • each screen displayed on the display surface 12 includes a notification area 450 that notifies the state of the electronic device 10.
  • the notification area 450 is also called a status bar.
  • the notification area 450 includes, for example, an icon 451 indicating the communication state of the wireless communication unit 110, an icon 452 indicating the remaining battery level for the battery 240, and the current acquired by the real-time clock 220. And an icon 453 indicating the time.
  • the notification area 450 shows information related to the generated event.
  • the information includes, for example, an icon for notifying the reception of a new message and an icon for notifying a missed call.
  • the notification area 450 may be omitted.
  • incoming notification for electronic devices When the electronic device 10 receives an incoming call communication from the counterpart device 10, the electronic device 10 notifies the user of the telephone device of the incoming call communication. In addition, when the electronic device 10 receives a message transmitted by the partner device 10 through message communication (in other words, an incoming call), the electronic device 10 notifies the user of the device of the message communication.
  • the transmission of telephone communication may be referred to as “telephone transmission”.
  • an incoming notification for telephone communication may be referred to as “incoming call notification”
  • an incoming notification for message communication may be referred to as “message incoming notification”.
  • an incoming call communication may be referred to as “incoming call”.
  • the electronic device 10 can perform a telephone call notification and a message call notification using the display unit 120, the speaker 160, and the vibration unit 230, for example.
  • the electronic device 10 causes the electronic device 10 to display an incoming call notification screen for notifying incoming calls on the display unit 120 while the incoming call is being received (hereinafter, sometimes referred to as “incoming call”).
  • An incoming call notification can be sent to the user of the device. It can be said that the incoming call notification screen is incoming call notification information for notifying incoming calls.
  • the control unit 100 causes the speaker 160 to output a ring tone for telephone communication (hereinafter, sometimes referred to as “telephone ring tone”) to the speaker 160, so that the electronic device 10 sends a call incoming notification to itself. Can be done to the user.
  • This incoming call notification is sometimes referred to as “sound incoming call notification”.
  • the control unit 100 causes the vibration unit 230 to vibrate the device case 11 so that the electronic device 10 can notify the user of the incoming call of the phone.
  • This incoming call notification may be referred to as a “vibration incoming call notification”.
  • the control unit 100 causes the display unit 120 to display information for notifying the reception of the message, for example, in the notification area 450, so that the electronic device 10 receives the message incoming notification. To the user of the device.
  • the control unit 100 causes the speaker 160 to output a ring tone for message communication, so that the electronic device 10 can notify the user of the incoming message of the message.
  • This message incoming notification may be referred to as “sound message incoming notification”.
  • the control part 100 vibrates the apparatus case 11 to the vibration part 230, and the electronic device 10 can perform an incoming message notification to an own apparatus user. This message incoming notification may be referred to as “message incoming notification by vibration”.
  • the user can perform settings related to incoming notification on the electronic device 10 by operating the display surface 12, for example.
  • the user can set for the electronic device 10 whether or not to execute the incoming call notification by sound and whether or not to execute the incoming call notification by vibration.
  • the user can set the electronic device 10 as to whether to execute a message incoming notification by sound and whether to execute a message incoming notification by vibration.
  • the electronic device 10 basically performs an incoming call notification in accordance with the setting related to the incoming call notification in its own device. However, as will be described later, the incoming notification of the electronic device 10 may be controlled by another electronic device 10.
  • control unit 100 of the electronic device 10 can generate device information of the device itself and cause the wireless communication unit 110 to transmit the generated device information to the server device 50.
  • the control unit 100 causes the wireless communication unit 110 to transmit the latest device information to the server device 50 at regular time intervals. Further, the control unit 100 may cause the wireless communication unit 110 to transmit the device information to the server device 50 every time information included in the device information is changed. The control unit 100 may cause the wireless communication unit 110 to transmit the latest device information to the server device 50 every time there is a device information transmission request from the server device 50.
  • the electronic device 10 transmits the device information of the own device together with the identification information of the own device. As the identification information, for example, a telephone number assigned to the electronic device 10 is employed.
  • the control unit 51 stores the acquired device information and identification information in the storage unit 53 in association with each other. At this time, when old device information corresponding to the received identification information is stored in the storage unit 53, the control unit 51 stores the received device information in place of the old device information in the storage unit 53. To do. Thereby, the latest device information about each electronic device 10 is stored in the storage unit 53.
  • the device information of the electronic device 10 when the user of the electronic device 10 is moving, the device information of the electronic device 10 includes movement information indicating the movement state of the user. It can be said that the movement information is information indicating the movement state of the electronic device 10.
  • the control unit 100 specifies the movement state of the user based on the detection result of the sensor device 200 and the like. And the control part 100 produces
  • the device information may or may not include information other than the movement information. When the user of the electronic device 10 stops without moving, the device information of the electronic device 10 does not include movement information.
  • the control unit 100 can specify various movement states for the user. For example, based on the detection result of the acceleration sensor included in the sensor device 200, the control unit 100 is in a state where the user is moving on his / her own without riding on the vehicle, and in a state where the user is moving on the vehicle. Can be specified.
  • the control unit 100 can specify the user's own moving state based on the detection result of the acceleration sensor of the sensor device 200. It can be said.
  • the detection result of the acceleration sensor included in the sensor device 200 may be referred to as an “acceleration detection result”.
  • the control unit 100 can specify a state in which the user is walking and a state in which the user is running and moving as the user's own movement state.
  • walking state a state in which the user is running and moving as the user's own movement state.
  • running state the control unit 100 can specify the user's walking state and running state based on the acceleration detection result.
  • control unit 100 is configured such that the user is moving on a vehicle, the user is moving on a bicycle, and the user is moving faster than a bicycle such as an automobile, a train, and a bus. It is possible to identify a state where the vehicle is moving on a vehicle capable of being moved.
  • vehicle in order to distinguish between a bicycle and a vehicle that can move faster than that, simply speaking “vehicle” means a vehicle that can move faster than a bicycle.
  • the control unit 100 displays the acceleration detection result. Based on this, the user's bicycle movement state and vehicle movement state can be specified.
  • the acceleration of the electronic device 10 shows a unique temporal change pattern according to the moving state of the user having the electronic device 10.
  • the control unit 100 determines that the movement state of the user is the walking state when the pattern of the time change of the acceleration detected by the acceleration sensor of the sensor device 200 indicates a pattern corresponding to the walking state.
  • the control unit 100 determines that the moving state of the user is the traveling state when the pattern of the time change of the acceleration detected by the acceleration sensor indicates a pattern corresponding to the “running state”.
  • the control part 100 determines with a user's moving state being a bicycle moving state, when the pattern of the time change of the acceleration detected by an acceleration sensor shows the pattern according to a bicycle moving state.
  • the control part 100 determines with a user's moving state being a vehicle moving state, when the pattern of the time change of the acceleration detected by an acceleration sensor shows the pattern according to the vehicle moving state.
  • control unit 100 specifies whether the user is moving on a train or the user is driving and moving when the user's moving state is a vehicle moving state. Is possible.
  • a state in which the user is moving on a train may be referred to as a “train moving state”.
  • a state in which the user is driving and moving a car may be referred to as a “car driving state”.
  • control unit 100 determines that the movement state of the user is the vehicle movement state, and if the position of the own device is located on the train track, the user movement state is the train movement state. Judge that there is. At this time, for example, the control unit 100 uses the position indicated by the position information acquired by the position acquisition unit 140 as the position of the own apparatus. In addition, the control unit 100 can specify the position of the train track from the map information 103b in the storage unit 103.
  • the electronic device 10 can be used as a smart key of an automobile.
  • the user can use the electronic device 10 to lock the door of the automobile to be used, unlock the door, start the engine, or stop the engine.
  • the wireless communication unit 110 wirelessly communicates with a communication device mounted on an automobile, thereby causing the automobile to lock the door, unlock the door, start the engine, It can be stopped.
  • the storage unit 103 of the electronic device 10 stores an engine start / stop history as an engine operation history.
  • the control unit 100 determines that the user's moving state is the vehicle moving state and specifies that the engine of the automobile is currently operating from the engine operation history in the storage unit 103, the user's moving state is the automobile. It is determined that the vehicle is operating.
  • the control unit 100 determines that the movement state of the user is another vehicle movement state when the movement state of the user is the vehicle movement state and is not the train movement state or the car driving state.
  • the electronic device 10 may specify that the user's moving state is an automobile driving state using another method. For example, consider a case in which a camera that captures the state inside a vehicle is arranged in an automobile, and the electronic device 10 in the automobile can receive an image captured by the camera. In this case, the control unit 100 analyzes the captured image received by the own device and determines whether there is a person in the driver's seat. When the control unit 100 determines that the user's moving state is the vehicle moving state and determines that there is a person in the driver's seat of the car, the control unit 100 determines that the user's moving state is the car driving state.
  • the control unit 100 determines whether the user is operating the steering wheel of the automobile based on the detection result of the user's hand movement.
  • the electronic device 10 determines that the user's moving state is the vehicle moving state and determines that the user is operating the steering wheel of the vehicle.
  • the electronic device 10 determines that the user's moving state is the vehicle driving state. .
  • the control unit 100 determines whether there is a person in the driver's seat based on the signal from the directional microphone.
  • the control unit 100 determines that the user's moving state is the vehicle moving state and determines that there is a person in the driver's seat of the car.
  • the control unit 100 can specify the walking state, the traveling state, the bicycle moving state, the train moving state, the car driving state, and other vehicle moving states as the moving state of the user.
  • the control unit 100 specifies that the user's moving state is the walking state
  • the control unit 100 generates movement information indicating that the user's moving state is the self-moving state.
  • the control unit 100 specifies that the user's moving state is the traveling state
  • the control unit 100 generates movement information indicating that the user's moving state is the self-moving state.
  • the control unit 100 specifies that the user's movement state is the train movement state
  • the control unit 100 generates movement information indicating the fact.
  • control unit 100 When the control unit 100 specifies that the movement state of the user is the automobile driving state, the control unit 100 generates movement information indicating that fact. When the control unit 100 specifies that the user's movement state is another vehicle movement state, the control unit 100 generates movement information indicating the fact. Note that the method for specifying the user's movement state is not limited to the above example.
  • the electronic device 10 can perform processing based on device information of the counterpart device 10 in accordance with a call instruction from the user of the own device for telephone communication with the counterpart device 10. is there. Since the user can use such an electronic device 10, the convenience of the electronic device 10 is improved.
  • FIG. 7 is a flowchart showing an example of the operation of the electronic device 10 after the telephone application is activated.
  • the control unit 100 of the electronic device 10 reads the telephone application corresponding to the tapped icon 401 from the storage unit 103 and executes it. As a result, the telephone application is activated.
  • step s1 the control unit 100 confirms that a call instruction from the user of the own device regarding telephone communication with the counterpart device 10 is input to the own device based on the output signal from the touch panel 130. If specified, step s2 is executed.
  • calling instructions means calling instructions for telephone communications.
  • the counterpart device 10 may be referred to as a “target counterpart device 10”.
  • the user of the target partner device 10 may be referred to as a “target partner user”.
  • the electronic device 10 to which the transmission instruction is input may be referred to as “transmission instruction receiving device 10” or “instruction receiving device 10”.
  • FIG. 8 is a diagram showing a display example during execution of the telephone application.
  • FIG. 8 shows a display example during execution of a conventional telephone application.
  • FIG. 8 shows an example of an input screen 500 for inputting a telephone number assigned to the counterpart device 10 for telephone communication.
  • the input screen 500 may be called a dial pad or a keypad.
  • the input screen 500 includes twelve input buttons 501 for inputting symbols such as numbers.
  • Each input button 501 is assigned a symbol. For example, when a tap operation is performed on the input button 501, a symbol assigned to the input button 501 on which the tap operation has been performed is input to the electronic device 10. The user can input the telephone number of the counterpart device 10 to the electronic device 10 by operating the plurality of input buttons 501.
  • the input screen 500 includes a transmission instruction button 502 for inputting a transmission instruction to the electronic device 10.
  • a transmission instruction is input to the electronic device 10.
  • the user operates the call instruction button 502 to input a call communication call instruction with the counterpart device 10 to the electronic device 10. be able to.
  • the method by which the user inputs a call instruction to the electronic device 10 is not limited to the above example.
  • the user can input a call instruction to the electronic device 10 using an address book (also called a telephone book) in the storage unit 103.
  • the user performs a predetermined operation on the display surface 12 to cause the electronic device 10 to display the telephone number of the counterpart device 10 included in the address book in the storage unit 103 on the display surface 12.
  • the user can input a call instruction for telephone communication with the counterpart device 10 to the electronic device 10 by performing, for example, a tap operation on the phone number of the counterpart device 10 displayed on the display surface 12.
  • the user may input a call instruction to the electronic device 10 using a telephone call history or a telephone call history displayed on the display surface 12.
  • the user may input a call instruction to the electronic device 10 by inputting predetermined sound into the microphone 170.
  • a telephone number is used as identification information of the counterpart device 10 used when the electronic device 10 performs telephone communication with the counterpart device 10, but in the IP phone application, an identification other than the phone number is used. Information may be used.
  • step s2 the control unit 100 generates a first request signal for requesting the server device 50 for the device information of the target counterpart device 10.
  • the first request signal includes identification information of the target counterpart device 10.
  • the control unit 100 causes the wireless communication unit 110 to transmit a first request signal to the server device 50.
  • the control unit 51 reads out device information corresponding to the identification information included in the first request signal from the storage unit 53. Then, the server device 50 transmits the read device information to the transmission instruction receiving device 10. Thereby, the transmission instruction receiving device 10 can acquire the device information of the target counterpart device 10.
  • step s2 when the wireless communication unit 110 acquires the device information of the target counterpart device 10 from the server device 50 in step s3, in step s4, the control unit 100 executes a process based on the acquired device information.
  • the instruction receiving device 10 does not unconditionally transmit telephone communication in response to the transmission instruction, but performs processing according to the target counterpart device 10.
  • the control unit 100 identifies the current movement state of the target user based on movement information included in the device information acquired by the own apparatus. And the control part 100 performs the process based on the specified movement state.
  • the control unit 100 may control the operation of the device itself based on the identified moving state, or may control the operation of the target counterpart device 10 based on the identified moving state. A specific example of step s4 will be described in detail later.
  • the control unit 100 may register the acquired device information in the address book in the storage unit 103.
  • the control unit 100 may register the device information of the counterpart device 10 in association with the telephone number of the counterpart device 10 in the address book. Accordingly, the electronic device 10 displays the address book, so that the user can confirm the device information.
  • the electronic device 10 transmits the first request signal to the server device 50 using a transmission instruction as a trigger.
  • the electronic device 10 transmits the first request signal to the server device 50 using another condition as a trigger. May be.
  • the electronic device 10 may transmit the first request signal to the server device 50 at regular time intervals. In this case, as shown in FIG. 9, steps s2 and s3 are unnecessary, and in step s4, processing based on the device information most recently acquired by the instruction receiving device 10 is executed.
  • the electronic device 10 may acquire device information from the counterpart device 10 related to the transmission instruction without using the server device 50.
  • the control unit 100 of the instruction receiving device 10 causes the wireless communication unit 110 to transmit a second request signal for requesting device information to the target counterpart device 10 to the target counterpart device 10 in step s2.
  • the control unit 100 causes the wireless communication unit 110 to transmit the device information of the own device to the instruction receiving device 10.
  • the control unit 100 executes a process based on the acquired device information.
  • the electronic device 10 may transmit the second request signal to the counterpart device 10 using a condition different from the transmission instruction as a trigger.
  • the electronic device 10 may transmit the second request signal to the counterpart device 10 at regular time intervals. In this case, as shown in FIG. 9 described above, steps s2 and s3 are not necessary, and in step s4, processing based on the device information most recently acquired by the instruction receiving device 10 is executed.
  • the electronic device 10 may transmit the device information itself to the other electronic device 10 instead of transmitting the device information in response to a request from the other electronic device 10.
  • the electronic device 10 may transmit the device information of its own device to another electronic device 10 at regular time intervals. In this case, as shown in FIG. 9, steps s2 and s3 are unnecessary, and in step s4, the instruction receiving device 10 performs processing based on device information acquired most recently from the target counterpart device 10.
  • the communication speed is high as in a wireless communication method compliant with 5G (fifth generation mobile communication system), and A wireless communication method with low latency may be used.
  • 5G next generation mobile communication system
  • a wireless communication method with low latency may be used.
  • steps s2 and s3 described above a wireless communication scheme based on 5G may be used.
  • the electronic device 10 performs processing based on the movement state of the counterpart device 10 in response to a call instruction from the user of the own device for telephone communication with the counterpart device 10 after the telephone application is started. It is possible. Since the user can use such an electronic device 10, the convenience of the electronic device 10 is improved.
  • step s4 various specific examples of step s4 will be described.
  • the control unit 100 of the instruction receiving device 10 notifies the incoming call of the target partner device 10 in step s4 according to the movement state of the target partner user specified based on the movement information of the target partner device 10. Control. Thereby, the convenience of the electronic device 10 is improved.
  • FIG. 10 is a flowchart showing step s4 according to this example.
  • step s12 the control unit 100 of the instruction receiving device 10 acquires movement information from the device information of the target counterpart device 10.
  • step s12 the control unit 100 specifies the movement state of the target user based on the acquired movement information. If it is determined in step s12 that the moving state of the user is the self-moving state, step s13 is executed. In other words, when the movement information of the target counterpart device 10 indicates a self-moving state, step s13 is executed. If it is determined in step s12 that the user's movement state is the bicycle movement state, step s13 is executed. In other words, when the movement information of the target counterpart device 10 indicates the bicycle movement state, step s13 is executed. If it is determined in step s12 that the user's moving state is the automobile driving state, step s13 is executed. In other words, when the movement information of the target counterpart device 10 indicates a bicycle driving state, step s13 is executed.
  • step s14 is executed. In other words, when the movement information of the target counterpart device 10 indicates a state other than the self-moving state, the bicycle moving state, and the vehicle driving state, step s14 is executed.
  • Step s14 is executed.
  • the control unit 100 In step s13, the control unit 100 generates an incoming call notification control signal for controlling the incoming call notification in the target counterpart device 10. Specifically, the control unit 100 generates an incoming call notification control signal instructing not to execute an incoming call notification by sound. Then, the instruction receiving device 10 transmits telephone communication to the target partner device 10 and transmits the generated incoming call notification control signal. In the target counterpart device 10 that has received an outgoing call communication from the instruction accepting device 10, the control unit 100 uses a sound according to the received incoming notification control signal regardless of the setting content related to the incoming notification in its own device. The target counterpart device 10 is controlled so that the incoming call notification is not performed. That is, the control unit 100 does not cause the speaker 160 to output a telephone ring tone regardless of the setting content related to the incoming call notification in the own device.
  • step s14 the instruction receiving device 10 transmits a telephone communication to the target counterpart device 10.
  • the incoming call notification control signal transmitted in step s13 is not transmitted to the target counterpart device 10.
  • the target counterpart device 10 that has received the outgoing call in step s14 performs an incoming call notification according to the settings related to the incoming notification in its own device.
  • the target counterpart device 10 When the target counterpart device 10 responds to a telephone call from the instruction receiving device 10, telephone communication is performed between the instruction receiving device 10 and the target counterpart device 10.
  • the voice input to the microphone 170 is transmitted from the wireless communication unit 110 to the target partner device 10.
  • audio received by the wireless communication unit 110 is output from the receiver 150 or the speaker 160.
  • the voice input to the microphone 170 is transmitted from the wireless communication unit 110 to the instruction receiving device 10.
  • the sound received by the wireless communication unit 110 is output from the receiver 150 or the speaker 160.
  • the control unit 100 controls the target partner device 10 so that the target partner device 10 does not output a telephone ring tone.
  • the control unit 100 controls the target partner device 10 so that the target partner device 10 does not output a telephone ring tone.
  • the possibility that the user operates the electronic device 10 while moving on a bicycle is reduced. It may be dangerous for the user to operate the electronic device 10 while moving on a bicycle.
  • the safety of the user and its surroundings can be improved. Therefore, the convenience of the electronic device 10 is improved.
  • the control unit 100 controls the target partner device 10 so that the target partner device 10 does not output a telephone ring tone.
  • the user who is driving the automobile is less likely to notice an incoming telephone communication at the electronic device 10. Therefore, the possibility that the user operates the electronic device 10 while driving the automobile is reduced. It may be dangerous for the user to operate the electronic device 10 while driving a car.
  • the possibility that the user operates the electronic device 10 while driving the automobile is reduced, the safety of the user and the surrounding area can be improved. Therefore, the convenience of the electronic device 10 is improved.
  • the target counterpart device 10 When the target counterpart device 10 receives a call from the instruction receiving device 10, the incoming call history of the target counterpart device 10, that is, the incoming call history, corresponds to the call from the instruction receiving device 10.
  • the incoming call information indicating the incoming call is included. Therefore, the target partner user can confirm the incoming call communication with the instruction receiving device 10 at the target partner device 10 by confirming the telephone call history of the target partner device 10. Therefore, the target partner user can cause the target partner device 10 to make a call to the instruction receiving device 10 when the target partner user is stopped, for example.
  • the control unit 100 may generate an incoming call notification control signal instructing not to execute the incoming call notification by sound and the incoming call notification by vibration.
  • the control unit 100 in the target counterpart device 10 that has received a telephone call from the instruction receiving device 10, the control unit 100 generates a sound in accordance with the received incoming notification control signal regardless of the settings related to the incoming notification in its own device.
  • the target counterpart device 10 is controlled so as not to perform both the incoming call notification and the incoming call notification due to vibration.
  • a user who is moving by himself / herself, a user who is moving on a bicycle, or a user who is driving a car is less likely to notice an incoming call on the electronic device 10. Therefore, the safety of the user and the surroundings can be further improved.
  • step s13 the instruction receiving device 10 may stop the call transmission when the target counterpart device 10 receives the call in step s13.
  • FIG. 11 is a flowchart showing an example of step s4 in this case.
  • step s15 when the control unit 100 of the instruction receiving device 10 determines that the target counterpart device 10 has received an incoming call in step s13, it executes step s16. .
  • the control unit 100 controls the operation of the instruction receiving device 10 so that the instruction receiving device 10 stops calling the target counterpart device 10.
  • the target partner device 10 notifies the instruction receiving device 10 to that effect. Accordingly, in step s15, the instruction receiving device 10 can determine that the target partner device 10 has received the call in step s13.
  • the target counterpart user is the target counterpart device 10 by stopping the telephone call. It becomes harder to notice phone calls. Therefore, the safety of the user and the surroundings can be further improved. Even in this case, since the incoming call history of the target counterpart device 10 includes incoming information indicating an incoming call in response to a call from the instruction receiving device 10, the target counterpart user is By confirming the telephone call history of 10, it is possible to confirm the incoming call communication with the instruction receiving device 10 at the target counterpart device 10.
  • the control unit 100 when it is determined in step s12 that the target partner user's moving state is the self-moving state, in step s13, the control unit 100 notifies the wireless communication unit 110 of the incoming call notification control signal and The first notification command signal may be transmitted to the target counterpart device 10.
  • the first notification command signal is a signal that instructs the target partner device 10 to notify the instruction receiving device 10 that the self-moving state has ended when the target partner device 10 determines that the self-moving state has ended. It is.
  • the control unit 100 has completed the self-moving state of the target counterpart user. It is determined whether or not.
  • the control unit 100 determines that the target user's own movement state has ended.
  • the control unit 100 determines that the self-moving state of the target partner user has ended.
  • the control unit 100 generates first notification information that notifies the user. Then, the control unit 100 causes the wireless communication unit 110 to transmit the generated first notification information to the instruction receiving device 10.
  • the control unit 100 causes the notification unit of its own device to notify that the target user's own movement state has ended.
  • this notification unit for example, the display unit 120 is employed.
  • the control unit 100 causes the display unit 120 to display first end information 601 indicating that the target user's own movement state has ended.
  • FIG. 12 is a diagram illustrating a display example of the first end information 601. In the example of FIG. 12, the first end information 601 is superimposed on the home screen 400 displayed after step s16. The user of the instruction receiving device 10 that has confirmed the first end information 601 causes the instruction receiving device 10 to again make a call to the target counterpart device 10, for example.
  • the control unit 100 when it is determined in step s12 that the movement state of the target user is a bicycle movement state, the control unit 100 notifies the wireless communication unit 110 of an incoming call notification control signal in step s13.
  • the second notification command signal may be transmitted to the target counterpart device 10.
  • the second notification command signal is a signal for instructing the target partner device 10 to notify the instruction receiving device 10 that the bicycle movement state has ended when the target partner device 10 determines that the bicycle movement state has ended. It is.
  • the control unit 100 determines whether or not the bicycle movement state of the target counterpart user has ended. Determine.
  • the control unit 100 determines that the target user's bicycle movement state has ended. When the control unit 100 determines that the bicycle movement state of the target user has been completed, the control unit 100 generates second notification information to notify that. Then, the control unit 100 causes the wireless communication unit 110 to transmit the generated second notification information to the instruction receiving device 10.
  • the control unit 100 causes the notification unit of its own device to notify that the bicycle movement state of the target partner user has ended.
  • this notification unit for example, the display unit 120 is employed.
  • the control unit 100 causes the display unit 120 to display second end information 602 indicating that the target partner user's bicycle movement state has ended.
  • FIG. 13 is a diagram illustrating a display example of the second end information 602.
  • the second end information 602 is displayed superimposed on the home screen 400 as in the example of FIG. 12 described above.
  • the user of the instruction receiving device 10 confirming the second end information 602 causes the instruction receiving device 10 to make a call to the target counterpart device 10 again.
  • the second end information 602 may be the same as the first end information 601.
  • the control unit 100 when it is determined in step s12 that the moving state of the target user is an automobile driving state, the control unit 100 sends an incoming call notification control signal to the wireless communication unit 110 in step s13.
  • the third notification command signal may be transmitted to the target counterpart device 10.
  • the third notification command signal is a signal for instructing the target partner device 10 to notify the instruction receiving device 10 that the driving state of the vehicle has ended when the target partner device 10 determines that the driving state of the vehicle has ended. It is.
  • the control unit 100 while receiving a telephone call from the instruction receiving device 10, in the third notification command signal and the incoming notification control signal target counterpart device 10, the control unit 100 determines whether or not the target partner user's vehicle driving state has ended. Determine.
  • control unit 100 determines that the vehicle operation state of the target user has ended. In other words, the control unit 100 determines that the driving of the target partner user's automobile has ended. If the control unit 100 determines that the target partner user's vehicle driving state has ended, the control unit 100 generates third notification information to notify that. Then, the control unit 100 causes the wireless communication unit 110 to transmit the generated third notification information to the instruction receiving device 10.
  • the control unit 100 causes the notification unit of its own device to notify that the target partner user's vehicle driving state has ended.
  • this notification unit for example, the display unit 120 is employed.
  • the control unit 100 causes the display unit 120 to display third end information 603 indicating that the target partner user's automobile driving state has ended.
  • FIG. 14 is a diagram illustrating a display example of the third end information 603.
  • the third end information 603 is displayed superimposed on the home screen 400 as in the example of FIG. 12 described above.
  • the user of the instruction receiving device 10 confirming the third end information 603, for example, causes the instruction receiving device 10 to make a call to the target counterpart device 10 again.
  • the third end information 603 may be the same as the first end information 601.
  • the notification unit that notifies that the self-moving state, the bicycle moving state, or the car driving state has ended may be other than the display unit 120.
  • the notification unit may be the speaker 160 or the vibration unit 230.
  • the speaker 160 outputs a sound indicating that the self-moving state, the bicycle moving state, or the car driving state has ended.
  • the vibration unit 230 vibrates the device case 11 with a specific vibration pattern to notify the user of the own device that the self-moving state, the bicycle moving state, or the car driving state has ended.
  • the convenience of the electronic device 10 is improved by notifying the user of the device 10 that the electronic device 10 has completed the self-moving state, the bicycle moving state, or the car driving state of the user of the counterpart device 10. Further improve.
  • step s13 when the moving state of the target partner user is the self-moving state, step s13 is executed, but step s14 may be executed. Moreover, when the movement state of the target user is a bicycle movement state, step s14 may be executed instead of step s13. Moreover, when the moving state of the target user is an automobile driving state, step s14 may be executed instead of step s13.
  • the device information includes hands-free connection information.
  • the hands-free connection information is information indicating that a hands-free device for telephone communication that can be controlled by the electronic device 10 is connected to the electronic device 10 wirelessly or by wire. Users of the electronic device 10 and the hands-free device are common.
  • the control unit 100 when the hands-free device is connected to the own device, the control unit 100 generates device information including hands-free connection information.
  • the hands-free device when the hands-free device is not connected to the own device, the control unit 100 generates device information that does not include the hands-free connection information.
  • FIG. 15 is a diagram illustrating an example of a state in which the hands-free device 650 is connected to the electronic device 10.
  • a hands-free device 650 shown in FIG. 15 includes a main body 651 and an ear hook 652.
  • the main body 651 includes operation buttons 653, a speaker 654, and a microphone 655.
  • the hands-free device 650 is attached to the ear when the ear hook 652 is hooked on the user's ear.
  • the electronic device 10 can communicate with the hands-free device 650 using, for example, a short-range wireless communication method such as Bluetooth.
  • the electronic device 10 can control the hands-free device 650 to cause the hands-free device 650 to notify the incoming call of the device itself.
  • the hands-free device 650 shown in FIG. 15 can notify the user of the electronic device 10 of a phone call by outputting a phone ring tone from the speaker 654.
  • the electronic device 10 and the hands-free device 650 are connected wirelessly, but may be connected by wire.
  • the hands-free device 650 illustrated in FIG. 15 is a type of hands-free device that is worn on the user's ear, but may be another type of hands-free device.
  • the hands-free device 650 may notify the incoming call by vibrating the main body 651.
  • the electronic device 10 when the user operates the display surface 12 of the electronic device 10, the electronic device 10 performs setting so that the electronic device 10 controls the hands-free device 650 so that a telephone ring tone is output from the hands-free device 650. 10 can be performed.
  • this setting may be referred to as “hands-free setting”.
  • the incoming call notification by sound and the incoming call notification by vibration are not performed.
  • the electronic device 10 When a phone ring tone is output from the speaker 654 of the hands-free device 650 connected to the electronic device 10 that is receiving a call, when the user operates the operation button 653, the electronic device 10 responds to the incoming call, The telephone communication with the counterpart device 10 is started.
  • the electronic device 10 during telephone communication outputs the sound transmitted from the counterpart device 10 from the speaker 654 of the hands-free device 650.
  • the electronic device 10 during telephone communication transmits the voice input to the microphone 655 of the hands-free device 650 to the counterpart device 10.
  • the electronic device 10 can perform telephone communication with the counterpart device 10 using the hands-free device 650 connected thereto.
  • FIG. 16 is a flowchart showing step s4 according to this example.
  • the control unit 100 acquires movement information and hands-free connection information from the device information of the target counterpart device 10.
  • step s12 described above is executed, and the movement state of the target user is specified. If it is determined in step s12 that the moving state of the user is the self-moving state, step s22 is executed. If it is determined in step s12 that the user's moving state is the bicycle moving state, step s22 is executed. If it is determined in step s12 that the user's moving state is the automobile driving state, step s22 is executed.
  • step s14 when it is determined in step s12 that the user's moving state is a state other than the self-moving state, the bicycle moving state, and the vehicle driving state, step s14 described above is executed.
  • the target counterpart device 10 that has received the telephone call in step s14 controls the hands-free device 650 to cause the hands-free device 650 to perform a call incoming notification.
  • the target counterpart device 10 controls the hands-free device 650 to output a telephone ring tone from the speaker 654.
  • the target counterpart device 10 that has received the telephone call in step s14 performs a telephone call notification according to the settings related to the incoming call notification in its own device when the hands-free setting is not performed.
  • step s22 the control unit 100 generates a control signal to be transmitted to the target counterpart device 10.
  • This control signal is a signal for instructing the target counterpart device 10 to control the hands-free device 650 so that the hands-free device 650 notifies the incoming call.
  • the instruction receiving device 10 transmits telephone communication to the target counterpart device 10 and transmits the generated control signal to the target counterpart device 10.
  • the control unit 100 wirelessly regardless of whether or not the hands-free setting is performed on the device itself.
  • the hands-free device 650 is caused to perform a call arrival notification.
  • the target counterpart device 10 controls the hands-free device 650 to output a telephone ring tone from the speaker 654.
  • the instruction receiving device 10 may operate in the same manner as in the first example described above.
  • the control unit 100 causes the target partner to make a call incoming notification by the control of the target partner device 10.
  • the device 10 is controlled.
  • the user who is moving by himself / herself can make a call with the user of the counterpart device 10 using the hands-free device 650. Therefore, the possibility that the user operates the electronic device 10 while moving by himself / herself is reduced. As a result, the convenience of the electronic device 10 is improved.
  • the control unit 100 sets the target partner device 10 so that the hands-free device 650 notifies the incoming call by the control of the target partner device 10. Control. Accordingly, a user who is traveling on a bicycle can make a call with the user of the counterpart device 10 using the hands-free device 650. Therefore, the possibility that the user operates the electronic device 10 while riding on a bicycle is reduced. As a result, the convenience of the electronic device 10 is improved.
  • the control unit 100 sets the target partner device 10 so that the hands-free device 650 notifies the incoming call by the control of the target partner device 10. Control.
  • the user who is driving the car can make a call with the user of the counterpart device 10 using the hands-free device 650. Therefore, the possibility that the user operates the electronic device 10 while driving the automobile is reduced. As a result, the convenience of the electronic device 10 is improved.
  • step s22 when the target partner user's moving state is the self-moving state, step s22 is executed, but step s14 may be executed. Moreover, when the movement state of the target user is a bicycle movement state, step s14 may be executed instead of step s22. In addition, when the moving state of the target user is an automobile driving state, step s14 may be executed instead of step s22.
  • the device information transmitted by the electronic device 10 includes an address book stored in the electronic device 10, position information of the electronic device 10, and speed information indicating the speed of the electronic device 10. Is included.
  • the control unit 100 obtains the speed of the own device.
  • the control unit 100 can determine the speed of the own device based on the position information acquired by the position acquisition unit 140.
  • the control unit 100 may obtain the speed of the own device based on the acceleration detection result.
  • the control unit 100 according to this example includes an address book stored in the storage unit 103, position information acquired by the position acquisition unit 140, speed information indicating the obtained speed of the own device, movement information, Is generated, and the generated device information is transmitted to the wireless communication unit 110.
  • FIG. 17 is a flowchart showing step s4 according to this example.
  • Step s4 according to the present example is basically different from step s4 shown in FIG. 10 described above in the operation of the instruction receiving device 10 when the movement state of the target user is the automobile driving state.
  • step s31 the control unit 100 of the instruction receiving device 10 acquires movement information, an address book, position information, and speed information from the device information of the target counterpart device 10.
  • step s12 described above is executed, and the movement state of the target user is specified. If it is determined in step s12 that the user's moving state is the self-moving state, step s13 described above is executed. If it is determined in step s12 that the user's movement state is the bicycle movement state, step s13 described above is executed. If it is determined in step s12 that the user's movement state is the automobile driving state, step s32 is executed. When it is determined in step s12 that the user's moving state is a state other than the self-moving state, the bicycle moving state, and the vehicle driving state, step s14 described above is executed.
  • step s32 the control unit 100 acquires device information of each electronic device 10 other than the target partner device 10 registered in the address book acquired in step s31. Specifically, the control unit 100 acquires a telephone number assigned to the electronic device 10 other than the target counterpart device 10 from the address book. And the control part 100 produces
  • the third request signal is a signal for requesting the server device 50 for device information of the electronic device 10 to which the telephone number included therein is assigned. Then, the control unit 100 causes the wireless communication unit 110 to transmit a third request signal to the server device 50.
  • the control unit 100 performs such processing using the telephone number of each electronic device 10 other than the target counterpart device 10 registered in the address book.
  • the electronic device 10 other than the target counterpart device 10 registered in the address book of the target counterpart device 10 may be simply referred to as “address registration device 10”.
  • the control unit 51 reads out device information corresponding to the telephone number (in other words, identification information) included in the third request signal from the storage unit 53. Then, the control unit 51 causes the communication unit 54 to transmit the read device information to the instruction receiving device 10. Thereby, the instruction receiving device 10 can acquire device information of each address registration device 10.
  • step s33 the control unit 100 determines whether or not the address registration device 10 is present in the vehicle driven by the target user based on the device information of each address registration device 10 acquired in step s32. Determine.
  • a car driven by the target user may be referred to as a “target car”.
  • the address registration device 10 to be described may be referred to as “target address registration device 10”.
  • step s33 the control unit 100 acquires position information and speed information from the device information of the target address registration device 10 acquired in step s32.
  • the control unit 100 then adds the target address registration device in the target vehicle based on the position information and speed information of the target counterpart device 10 acquired in step s31 and the position information and speed information of the target address registration device 10. It is determined whether or not 10 exists.
  • the control unit 100 includes the target address registration device in the target automobile. It is determined that 10 exists.
  • the control unit 100 When the distance between the position indicated by the position information of the target counterpart device 10 and the position indicated by the position information of the target address registration device 10 is equal to or less than a threshold value, the control unit 100 performs the target counterpart device 10 and the target address registration device. It is determined that the position of 10 is close. In addition, when the absolute value of the difference between the speed indicated by the speed information of the target counterpart device 10 and the speed indicated by the speed information of the target address registration device 10 is equal to or less than a threshold value, the control unit 100 And the speed of the target address registration device 10 is determined to be substantially the same.
  • control unit 100 determines for each address registration device 10 whether or not the address registration device 10 exists in the target vehicle. If the control unit 100 specifies that at least one address registration device 10 exists in the target vehicle, the control unit 100 determines YES in step s33. On the other hand, when specifying that each address registration device 10 does not exist in the target vehicle, the control unit 100 determines NO in step s33.
  • step s13 is executed.
  • step s34 is executed.
  • the control unit 100 instructs the instruction receiving device 10 to make a call to the address registration device 10 existing in the target vehicle, instead of making a call to the target counterpart device 10.
  • the operation of the receiving device 10 is controlled.
  • step s33 when a plurality of address registration devices 10 existing in the target vehicle are specified, the instruction receiving device 10 selects one of the plurality of address registration devices 10 for the address registration device 10. Make a phone call.
  • the address registration device 10 that has received an incoming call from the instruction accepting device 10 performs a call incoming notification according to the contents of the setting relating to the incoming call notification in its own device.
  • the control unit 100 displays the electronic device 10 other than the target counterpart device 10 that exists in the automobile driven by the target counterpart user. Identify.
  • the control unit 100 specifies a device capable of telephone communication other than the target counterpart device 10 present in the target automobile. Then, the control unit 100 controls the operation of the instruction receiving device 10 so that the instruction receiving device 10 makes a call to the specified electronic device 10.
  • the instruction receiving device 10 can cause the passenger's electronic device 10 in the vehicle to execute the incoming call notification, not the electronic device 10 of the user driving the vehicle. Therefore, it is possible to reduce the possibility that the user driving the automobile operates the electronic device 10. As a result, the convenience of the electronic device 10 is improved.
  • steps s15 and s16 may be executed after step s13 in this example as well as the example of FIG. 11 described above.
  • the electronic device 10 when the hands-free device is connected to the electronic device 10, the electronic device 10 generates device information including hands-free connection information, and the hands-free device. If the device is not connected to the device itself, device information that does not include hands-free connection information may be generated. In this case, in step s31, if the control unit 100 can acquire the hands-free connection information from the device information of the target counterpart device 10, the control unit 100 executes steps s12, s14, and s22 in the same manner as in FIG. On the other hand, when the hands-free connection information cannot be acquired from the device information of the target counterpart device 10, the control unit 100 executes steps s12 to s14 and steps s32 to s34 in the same manner as in FIG.
  • step s13 when the moving state of the target partner user is the self-moving state, step s13 is executed, but step s14 may be executed. Moreover, when the movement state of the target user is a bicycle movement state, step s14 may be executed instead of step s13.
  • the control unit 100 of the instruction accepting device 10 accepts either the telephone communication or the message communication according to the movement state of the target partner user specified based on the movement information of the target partner device 10 in step s4. Decide what the device 10 does. Thereby, the convenience of the electronic device 10 is improved.
  • FIG. 18 is a flowchart showing step s4 according to this example.
  • step s11 and s12 are executed. If it is determined in step s12 that the movement state of the target user is the train movement state, step s42 is executed. On the other hand, when it is specified that the moving state of the target user is a state other than the train moving state, in step s41, the control unit 100 determines that the instruction receiving device 10 performs telephone communication. Thereafter, step s14 described above is executed.
  • step s42 the control unit 100 notifies the notification unit of the instruction receiving device 10 that the target partner user's moving state is the train moving state.
  • this notification unit for example, the display unit 120 is employed.
  • the control unit 100 causes the display unit 120 to display information 700 indicating that the target partner user's moving state is the train moving state.
  • FIG. 19 is a diagram showing a display example of the information 700. Note that the control unit 100 may notify a notification unit other than the display unit 120 that the target partner user's moving state is the train moving state.
  • step s43 the control unit 100 determines that the instruction receiving device 10 performs message communication.
  • step s44 the control unit 100 executes the message communication application in the storage unit 103. At this time, the control unit 100 may execute an e-mail application or an IM application.
  • step s45 the touch panel 130 performs a destination selection operation for selecting a message destination on the display surface 12, a message input operation, and a message transmission instruction operation (in other words, a message transmission instruction operation). Is detected.
  • the user of the instruction receiving device 10 selects the target partner device 10 as a message transmission destination.
  • step s46 the control unit 100 transmits a message to the selected counterpart device 10, that is, the target counterpart device 10.
  • the message communication application is activated, and the control unit 100 causes the display unit 120 to display the received message. Thereby, the target other user can confirm the message from the instruction receiving device 10.
  • step s42 may not be executed. That is, the notification unit does not have to notify the user of the device that the target partner user's moving state is the train moving state.
  • control unit 100 may automatically set the transmission destination of the message to be the target counterpart device 10. Accordingly, in step s45, the user does not need to perform a transmission destination selection operation on the display surface 12.
  • the control unit 100 determines to perform message communication and executes the message communication application.
  • the target partner device 10 can receive a message from the target partner device 10 instead of receiving a telephone call from the instruction receiving device 10. . If a user who is traveling on a train makes a call using the electronic device 10, there is a possibility that the user may be disturbed.
  • the target partner device 10 receives a message from the target partner device 10 instead of receiving a call from the instruction receiving device 10. This can reduce the possibility of trouble around the target user. Therefore, the convenience of the electronic device 10 is improved.
  • steps s42 to s46 are executed as in FIG. May be.
  • the control unit 100 performs predetermined processing when it is determined that the target user has got off the train. May be executed. Thereafter, when the message creation screen of the message communication application activated in step s44 is displayed, the control unit 100 executes a predetermined process when it is determined that the target user has got off the train. It may be referred to as “get-off handling processing”.
  • FIG. 20 is a diagram illustrating an example of a message creation screen 750 when the message communication application being executed is an e-mail application.
  • FIG. 21 is a diagram showing an example of a message creation screen 760 when the message communication application being executed is an IM application.
  • the message creation screen 750 can also be referred to as an email creation screen 750. Further, in the electronic device 10 that executes the IM application, when the message creation screen 760 is displayed, the message transmission destination is already selected.
  • the message creation screen 750 includes, for example, a destination column 751 indicating a message transmission destination, a subject column 752 indicating a subject, a body column 753 indicating a body, and a send button 754. It is.
  • the user can input the message transmission destination, the subject, and the body text to the electronic device 10 by operating the display surface 12 that displays the message creation screen 750.
  • a tap operation is performed on the transmission button 754
  • the electronic device 10 transmits a message created in accordance with a user instruction.
  • a message field 761 indicating a message to be transmitted in other words, a message input by the user, a send button 762, and a history screen 763. And are included.
  • the history screen 763 includes a transmission message 764 transmitted in the past and a reception message 765 received in the past.
  • the user can input a message to be transmitted to the electronic device 10 by operating the display surface 12 that displays the message creation screen 760. Then, for example, when a tap operation is performed on the transmission button 762, the electronic device 10 transmits the input message.
  • the IM application message creation screen 760 is a transmission / reception message display screen on which transmission / reception messages are displayed.
  • FIG. 22 is a flowchart showing an example of the getting-off handling process.
  • the getting-off processing is executed, for example, after the message creation screen is displayed on the display unit 120 for the first time after the message communication application is started in step s44 until the message creation screen is not displayed on the display unit 120.
  • step s51 is executed as shown in FIG.
  • the control unit 100 When the message communication application is activated in step s44 and the message creation screen is displayed on the display unit 120, step s51 is executed as shown in FIG.
  • the control unit 100 generates the first request signal described above for requesting the server device 50 for the device information of the target counterpart device 10. Then, the control unit 100 causes the wireless communication unit 110 to transmit the generated first request signal to the server device 50.
  • step s53 the control unit 100 determines whether or not the target partner user has got off the train based on the device information received in step s52.
  • the control unit 100 determines that the target partner user has got off the train.
  • the control unit 100 determines that the target user is not getting off the train.
  • step s54 is executed.
  • the control unit 100 controls the operation of the instruction receiving device 10 so that the instruction receiving device 10 transmits a telephone communication with the target counterpart device 10. That is, in step s54, the instruction receiving device 10 makes a telephone call to the target counterpart device 10.
  • step s54 is executed, the getting-off handling process ends.
  • step s53 if it is determined in step s53 that the target user is not getting off the train, step s51 is executed again. Thereafter, the instruction receiving device 10 operates in the same manner. Even if it is not determined as YES in step s53, the getting-off determination process ends when the message creation screen that is displayed for the first time after the message communication application is started in step s44 is not displayed.
  • FIG. 23 is a flowchart showing an example of the getting-off handling process in this case.
  • steps s51 to s53 described above are executed. If it is determined as YES in step s53, step s61 is executed. On the other hand, if it is determined as NO in step s53, step s51 is executed again. Thereafter, the instruction receiving device 10 operates in the same manner.
  • step s61 the control unit 100 informs the notification unit that the user selects whether or not the instruction receiving device 10 performs telephone communication with the target counterpart device 10.
  • the notification unit for example, the display unit 120 is employed.
  • the control unit 100 causes the display unit 120 to display a selection screen 770 for the user of the own apparatus to select whether or not the instruction receiving device 10 performs telephone communication with the target counterpart device 10.
  • FIG. 24 is a diagram showing an example of the selection screen 770.
  • the selection screen 770 includes information 771 and 772 and selection buttons 773 and 7774.
  • Information 771 is information indicating that the target user has got off the train.
  • Information 772 is information for instructing the user to select whether or not the instruction receiving device 10 makes a call to the target counterpart device 10.
  • the selection button 773 is a button that is operated when the user selects that the instruction receiving device 10 makes a call to the target counterpart device 10.
  • the selection button 773 is a button that is operated when the user selects execution of a telephone call to the target counterpart device 10.
  • the selection button 774 is a button that is operated when the user selects that the instruction receiving device 10 does not make a call to the target partner device 10.
  • the selection button 774 is a button that is operated when the user selects non-execution of a telephone call to the target counterpart device 10.
  • the user can notify the electronic device 10 that he / she has selected to execute a telephone call to the target partner device 10 by, for example, tapping the selection button 773.
  • the user can notify the electronic device 10 that he / she has selected not to call the target counterpart device 10 by, for example, tapping the selection button 774.
  • the selection screen 770 does not have to display the information 771.
  • step s62 based on the detection result on the touch panel 130, the control unit 100 selects whether the own device user has selected to perform a telephone call to the target counterpart device 10, or It is determined whether or not non-execution of telephone call to the target partner device 10 is selected.
  • the control unit 100 determines that the user of the own device has selected execution of the telephone call.
  • the control unit 100 determines that the user of the own apparatus has selected not to execute the telephone call.
  • step s63 the control unit 100 causes the instruction receiving device 10 to make a call communication with the target counterpart device 10 so that the instruction receiving device 10 transmits the telephone communication. Control the behavior. That is, the instruction receiving device 10 makes a telephone call to the target counterpart device 10.
  • step s63 the getting-off handling process ends.
  • the getting-off handling process ends.
  • the notification unit that notifies the user that the instruction receiving device 10 selects whether or not to perform telephone communication with the target partner device 10 may be other than the display unit 120.
  • the speaker 160 may output a voice meaning that the user selects whether or not the instruction receiving device 10 makes a telephone communication with the target partner device 10.
  • the vibration unit 230 vibrates the device case 11 with a specific vibration pattern, so that the user is notified that the instruction receiving device 10 selects whether or not to make a telephone communication with the target counterpart device 10. Also good.
  • at least two of the display unit 120, the speaker 160, and the vibration unit 230 may notify the user that the instruction receiving device 10 selects whether to make a telephone communication with the target partner device 10.
  • the vibration unit 230 When at least one of the speaker 160 and the vibration unit 230 notifies the user that the instruction receiving device 10 selects whether or not to make a telephone communication with the target partner device 10, By performing a predetermined operation on the surface 12, it is possible to select execution of a telephone call or selection of non-execution of a telephone call. Alternatively, the user of the own device may select execution of the telephone call or input non-execution of the telephone call by inputting a predetermined voice to the microphone 170.
  • the control unit 100 determines that the instruction receiving device 10 makes a telephone call to the target partner device 10 when the target partner user specifies that the user has got off the train.
  • the notification unit is notified that the user selects whether to make a call.
  • the user of the instruction receiving device 10 can select whether or not the instruction receiving device 10 makes a call to the target partner device 10 when the target partner user gets off the train during the creation of the message. it can. Therefore, the convenience of the electronic device 10 is further improved.
  • FIG. 25 is a flowchart showing step s4 according to this example.
  • steps s71 and s72 are executed instead of steps s43 to s46 in the flowchart shown in FIG.
  • steps s11 and s12 described above are executed. If it is determined in step s12 that the movement state of the target user is the train movement state, the above-described step s42 is executed, and information 700 is displayed on the display unit 120 of the instruction receiving device 10. When the display unit 120 displays the information 700 for a predetermined time, step s71 is executed. On the other hand, when it is specified that the movement state of the target partner user is a state other than the train movement state, the above steps s41 and s14 are executed, and the instruction receiving device 10 makes a call to the target partner device 10. I do.
  • step s71 the control unit 100 determines execution of voice / message conversion communication.
  • step s 72 the instruction receiving device 10 starts voice / message conversion communication with the target counterpart device 10.
  • the voice of the user input to the instruction receiving device 10 is converted into a message, the message is displayed on the target counterpart device 10, and the message transmitted by the target counterpart device 10 is voice.
  • the communication is such that the voice is output from the instruction receiving device 10.
  • voice / message conversion communication is performed between the instruction receiving device 10 and the target counterpart device 10
  • the voice is message communication. It is converted into an application message and input to the target counterpart device 10, and the message is displayed on the target counterpart device 10.
  • the user of the target counterpart device 10 inputs a message to the target counterpart device 10
  • the message is converted into a voice and input to the instruction receiving device 10, and the voice is output from the instruction receiving device 10.
  • FIGS. 26 and 27 are diagrams for explaining voice / message conversion communication between the instruction receiving device 10 and the target counterpart device 10.
  • the instruction receiving device 10 and the target counterpart device 10 perform voice / message conversion communication via the server device 50, for example.
  • the instruction receiving device 10 executing the telephone application is input to the microphone 170 of its own device in step s81 as shown in FIG. Is transmitted to the server device 50.
  • the control unit 100 of the instruction receiving device 10 causes the wireless communication unit 110 to transmit an audio signal output from the microphone 170 to the server device 50.
  • the control unit 100 causes the wireless communication unit 110 to also transmit the first conversion instruction signal to the server device 50.
  • the first conversion instruction signal is a signal that instructs the server device 50 to convert the voice transmitted from the instruction receiving device 10 into a message of a message communication application.
  • the voice transmitted from the instruction receiving device 10 is converted into, for example, an IM application message.
  • the control unit 51 changes the voice indicated by the received voice signal to the IM application in accordance with the first conversion instruction signal. To the message. That is, the control part 51 wakes up the voice which the audio
  • the target partner device 10 When the target partner device 10 receives the message from the server device 50 in step s84, the target partner device 10 displays the received message on the display unit 120 in step s85.
  • the control unit 100 of the target counterpart device 10 activates the IM application in the storage unit 103. Then, the control unit 100 causes the display unit 120 to display a message from the server device 50.
  • the message from the server device 50 is displayed on the message creation screen 760 (in other words, the transmission / reception message display screen) for creating a message to be transmitted to the instruction receiving device 10.
  • voice instruction accepting apparatus 10 is transmitted, if a voice emitted by a human when reading the character string "Hello", the character string "Hello" as a received message 765 is indicated in the message creation screen 760.
  • steps s81 to s85 are executed, and the voice input to the instruction receiving device 10 is converted into a message. Then, the message obtained by the conversion is displayed on the target counterpart device 10.
  • the control unit 100 that executes the IM application creates the target partner user in the wireless communication unit 110 in step s91 as shown in FIG.
  • a message addressed to the instruction receiving device 10 is transmitted to the server device 50.
  • the control unit 100 causes the wireless communication unit 110 to also transmit the second conversion instruction signal to the server device 50.
  • the second conversion instruction signal is a signal that instructs the server device 50 to convert a message transmitted from the target counterpart device 10 into a voice.
  • the control unit 51 converts the received message into voice in accordance with the second conversion instruction signal. In other words, the control unit 51 converts the message from the target counterpart device 10 into an audio signal indicating the voice that the person utters when the person reads it out. Thereafter, in step s93, the control unit 51 causes the communication unit 54 to transmit the generated audio signal to the instruction receiving device 10. For example, if the message transmitted by the target counterpart device 10 is a character string “thank you”, an audio signal indicating a voice uttered by a person when the character string “thank you” is read out is generated in step s92.
  • step s94 the instruction receiving device 10 outputs the audio indicated by the received audio signal to the outside in step s95.
  • the control unit 100 inputs the audio signal from the server device 50 to the receiver 150, for example.
  • the receiver 150 converts the input audio signal into sound and outputs the sound.
  • steps s91 to s95 are executed, and the message transmitted from the target counterpart device 10 is converted into voice. Then, the voice obtained by the conversion is output from the instruction receiving device 10.
  • step s72 after the voice / message conversion communication between the instruction receiving device 10 and the target counterpart device 10 starts, the instruction receiving device 10 that executes the telephone application does not execute the telephone application.
  • the voice / message conversion communication between the target device 10 and the target counterpart device 10 ends.
  • the user of the instruction receiving device 10 can be used when the instruction receiving device 10 performs telephone communication with the target partner device 10 or performs voice / message conversion communication.
  • the instruction receiving device 10 can be used in the same manner.
  • the user of the target counterpart device 10 may use the same target counterpart device 10 regardless of whether the target counterpart device 10 performs message communication with the instruction receiving device 10 or performs voice / message conversion communication. Can be used for
  • the control unit 100 of the instruction receiving device 10 determines to execute the voice / message conversion communication when the movement state of the target partner user is the train movement state. Thereby, when the target partner user is moving on a train, the target partner device 10 can receive a message from the target partner device 10 instead of receiving a telephone call from the instruction receiving device 10. . Therefore, it is possible to reduce the possibility of trouble around the target user.
  • the user of the instruction receiving device 10 who originally wanted to execute telephone communication with the instruction receiving device 10 can use the instruction receiving device 10 in the same manner as when the instruction receiving device 10 performs telephone communication. That is, the user of the instruction receiving device 10 can communicate with the user of the target counterpart device 10 by inputting a sound into the instruction receiving device 10 and listening to the sound output from the instruction receiving device 10. Therefore, the convenience of the electronic device 10 is improved.
  • step s42, step s71 and step are performed as in FIG. s72 may be executed.
  • the voice / message conversion communication between the instruction receiving device 10 and the target counterpart device 10 is performed via the server device 50, but may be performed not via the server device 50.
  • the control unit 100 of the instruction receiving device 10 may convert the voice input to the microphone 170 into a message, and the instruction receiving device 10 may transmit the message to the target counterpart device 10.
  • the control unit 100 of the target counterpart device 10 may convert a voice (in other words, a voice message) transmitted from the instruction receiving device 10 into a message, and the target counterpart device 10 may display the message.
  • control unit 100 of the target counterpart device 10 may convert a message addressed to the instruction receiving device 10 into a voice, and the target counterpart device 10 may transmit a voice signal indicating the voice to the instruction receiving device 10.
  • control unit 100 of the instruction receiving device 10 may convert a message from the target partner device 10 into a voice, and the instruction receiving device 10 may output the voice.
  • step s4 the control unit 100 of the instruction receiving device 10 indicates the movement state of the target partner user specified in step s12 to the notification unit of the own device during the transmission of the telephone communication with the target partner device 10.
  • the display unit 120 is employed.
  • the control unit 100 transmits information 790 indicating the movement state of the target partner user identified in step s12 during the outgoing call communication with the target partner device 10 after step s14 (see FIG. 10 and the like). Is displayed on the display unit 120.
  • the control unit 100 may cause the display unit 120 to display information 790 during transmission of telephone communication with the target partner device 10 after the above-described step s13 (see FIG. 10 and the like). Further, the control unit 100 may cause the display unit 120 to display information 790 during transmission of telephone communication with the target counterpart device 10 after the above-described step s22 (see FIG. 16).
  • FIG. 28 is a diagram showing a display example of information 790.
  • a calling screen 780 is displayed on the display unit 120 during a call communication with the target partner device 10.
  • the calling screen 780 is also called a calling screen.
  • the outgoing call screen 780 includes information 781, an image 782, and a outgoing call stop button 783.
  • Information 781 is information indicating that a call is being made.
  • the image 782 is an image included in information related to the target partner device 10 included in the address book in the storage unit 103.
  • the outgoing call stop button 783 is a button for stopping outgoing telephone calls.
  • the outgoing call screen 780 includes information 790 indicating the movement state of the target user.
  • information 790 in a case where the movement state of the target user identified in step s12 is a train movement state is shown.
  • the notification unit for notifying the movement state of the target user identified in step s12 during a call may be other than the display unit 120.
  • the notification unit may be the receiver 150, the speaker 160, or the vibration unit 230.
  • at least two of the display unit 120, the receiver 150, the speaker 160, and the vibration unit 230 may notify the user of the instruction receiving device 10 of the movement state of the target user identified in step s12 during a call. .
  • step s13 is not executed in the flowchart shown in FIG. Also good.
  • step s14 is executed regardless of the specified movement state. Then, during the transmission of the telephone communication with the target partner device 10 after step s14, the movement state of the target partner user specified in step s12 is notified from the notification unit to the user of the instruction receiving device 10.
  • the instruction receiving device 10 notifies the own device user of the movement state of the target partner user during transmission of telephone communication with the target partner device 10. Therefore, the user of the instruction receiving device 10 can perform processing according to the movement state of the target user notified from the instruction receiving device 10. For example, when the target partner user's moving state is the train moving state, the user of the instruction receiving device 10 operates the transmission stop button 783 to cause the instruction receiving device 10 to perform telephone communication with the target partner device 10. Transmission can be stopped. This reduces the possibility of inconvenience around the target user. As a result, the convenience of the electronic device 10 is improved.
  • the electronic device 10 uses the device information acquired from the server device 50 in the process according to the transmission instruction, but may be used in another process.
  • the electronic device 10 may use the device information acquired from the server device 50 when displaying the address book, the incoming call history, or the outgoing call history.
  • FIG. 29 is a flowchart showing an example of the operation of the electronic device 10 in this case.
  • the electronic device 10 to be described may be referred to as “target electronic device 10”.
  • the touch panel 130 detects an operation instructing to display the address book.
  • the control unit 100 of the target electronic device 10 requests the server device 50 for device information of each electronic device 10 other than its own device registered in the address book in the storage unit 103. Generate a signal.
  • the fourth request signal includes a telephone number assigned to each electronic device 10 other than the target electronic device 10 registered in the address book in the storage unit 103.
  • the control unit 100 causes the wireless communication unit 110 to transmit the generated fourth request signal to the server device 50.
  • the control unit 51 reads out device information corresponding to each telephone number included in the fourth request signal from the storage unit 53. Then, the server device 50 transmits the read device information to the target electronic device 10. Thereby, the target electronic device 10 can acquire the device information of each electronic device 10 other than its own device registered in the address book.
  • step s104 is executed.
  • the control unit 100 causes the display unit 120 to display the address book in the storage unit 103.
  • FIG. 30 is a diagram illustrating an example of a display screen 800 displayed on the display surface 12 when the target electronic device 10 displays an address book.
  • the address book includes information regarding each electronic device 10 registered in the address book.
  • information related to the electronic device 10 registered in the address book may be referred to as “address registration information”.
  • the address registration information includes a user name 801 of the electronic device 10, a telephone number assigned to the electronic device 10, an e-mail address assigned to the electronic device 10, and the like.
  • a user name 801 of the electronic device 10 a telephone number assigned to the electronic device 10
  • e-mail address 801 an e-mail address assigned to the electronic device 10
  • the display screen 800 shows a list of a plurality of user names 801 included in the address book.
  • FIG. 30 shows a plurality of user names 801a to 801e included in the address book.
  • the display screen 800 has a plurality of name fields 802 in which a plurality of user names 801 included in the address registration information are respectively shown.
  • FIG. 30 shows a plurality of name fields 802a to 802e respectively showing a plurality of user names 801a to 801e included in the address book.
  • the control unit 100 of the target electronic device 10 displays the details of the address registration information including the certain user name 801 on the display unit 120.
  • the control unit 100 causes the display unit 120 to display a telephone number and an e-mail address included in the address registration information.
  • the user of the target electronic device 10 performs a predetermined operation on the display surface 12 in a state where the display unit 120 displays the telephone number included in the address registration information, so that the electronic device to which the telephone number is assigned.
  • a call instruction for telephone communication with the device 10 can be input to the target electronic device 10.
  • control unit 100 of the target electronic device 10 displays the address registration information of a certain electronic device 10 on the display unit 120 in step s104, information 810 indicating the current movement state of the user of the certain electronic device 10 is also displayed. It is displayed on the display unit 120. In the example of FIG. 30, information 810 indicating the current movement state of the user of the electronic device 10 is displayed together with the user name 801 included in the address registration information of the electronic device 10. Information 810 indicating the current movement state of the user of the electronic device 10 is shown, for example, in the name column 802 in which the user name 801 of the electronic device 10 is shown.
  • the control unit 100 can specify the current movement state of the user of the electronic device 10 based on the movement information included in the device information of the electronic device 10 acquired in step s103.
  • the control unit 100 of the electronic device 10 when the control unit 100 of the electronic device 10 specifies that the user's moving state is the walking state, the control unit 100 generates movement information indicating that the user's moving state is the walking state. Moreover, if the control part 100 specifies that a user's moving state is a driving
  • information 810a indicating that the current movement state of the user having the user name 801a is in the car driving state is shown.
  • information 810c indicating that the current movement state of the user having the user name 801c is a walking state is shown.
  • information 810e indicating that the current movement state of the user having the user name 801d is a train movement state is shown.
  • the name field 802b includes information 810. Is not shown.
  • the movement information is not included in the device information of the electronic device 10 of the user having the user name 801d “Ishida” acquired in step s103, the name column 802d does not show the information 810. .
  • the target electronic device 10 displays information related to the other electronic device 10 included in the address book
  • the information indicating the current movement state of the user of the other electronic device 10 is also displayed.
  • the user of the target electronic device 10 can check the current movement state of the user of the other electronic device 10 together with information on the other electronic device 10 included in the address book. Therefore, the convenience of the electronic device 10 is improved.
  • the target electronic device 10 displays information related to another electronic device 10 included in a telephone call history that is a kind of call history, information indicating the current movement state of the user of the other electronic device 10 May also be displayed.
  • the operation of the target electronic device 10 in this case will be described with reference to FIG.
  • step s101 of FIG. 29 in the target electronic device 10, the touch panel 130 detects an operation for instructing to display a telephone call history.
  • step s102 described above is executed.
  • the control unit 100 calls the telephone call history. Is displayed on the display unit 120.
  • FIG. 31 is a diagram illustrating an example of a display screen 820 displayed on the display surface 12 when the target electronic device 10 displays a telephone call history.
  • the telephone call history includes transmission information 821 indicating the telephone call to the electronic device 10 for each electronic device 10 of the past telephone call destination.
  • the transmission information 821 includes, for example, a user name 822 and a transmission date / time 823 of the electronic device 10 that is the transmission destination.
  • FIG. 31 shows a plurality of transmission information 821a to 821c.
  • the electronic device 10 may be referred to as the electronic device 10 corresponding to the transmission information 821.
  • the transmission information 821 there are first transmission information 821 and second transmission information 821.
  • the first transmission information 821 is transmission information 821 indicating the telephone call when the other electronic device 10 responds to an incoming call in response to a telephone call from the target electronic device 10 to the other electronic device 10.
  • the second outgoing information 821 is outgoing information 821 indicating the outgoing call when the other electronic device 10 does not respond to the incoming call in response to the outgoing call to the other electronic device 10 by the target electronic device 10. is there.
  • the first transmission information 821 may be referred to as “answered transmission information 821”
  • the second transmission information 821 may be referred to as “unanswered transmission information 821”.
  • the transmission information 821 When the transmission information 821 is the non-response transmission information 821, the transmission information 821 includes information 824 indicating that it is the non-response transmission information 821.
  • the outgoing information 821b is unanswered outgoing information 821b, which includes information 824.
  • the transmission information 821a and 821c is the response-completed transmission information 821.
  • the display screen 820 has a plurality of information fields 825 in which a plurality of pieces of outgoing information 821 are shown.
  • FIG. 31 shows a plurality of information fields 825a to 825c in which a plurality of pieces of outgoing information 821a to 821c are respectively shown.
  • the user of the target electronic device 10 inputs, for example, a tapping operation on the information column 825 to the target electronic device 10 with a call communication transmission instruction with the electronic device 10 corresponding to the transmission information 821 included in the information column 825. be able to.
  • the control unit 100 of the target electronic device 10 displays the transmission information 821 included in the call transmission history on the display unit 120 in step s104, the current movement of the user of the electronic device 10 corresponding to the transmission information 821 is displayed.
  • Information 830 indicating the state is also displayed on the display unit 120. As shown in FIG. 31, information 830 indicating the current movement state of the user of the electronic device 10 is shown in, for example, an information column 825 in which outgoing information 821 indicating a telephone call to the electronic device 10 is shown.
  • the control unit 100 can specify the current movement state of the user of the electronic device 10 based on the movement information included in the device information of the electronic device 10 acquired in step s103.
  • information 830a indicating that the current movement state of the user of the electronic device 10 corresponding to the transmission information 821a is the driving state of the vehicle is shown in the information column 825a in which the transmission information 821a is shown.
  • the device information of the electronic device 10 corresponding to the transmission information 821b acquired in step s103 does not include movement information, and thus the information 830 is not shown in the information column 825b.
  • the information 830 is not shown in the information column 825c.
  • the target electronic device 10 displays information (that is, transmission information 821) related to the other electronic device 10 included in the telephone call history (in other words, the call history), the user of the other electronic device 10 is displayed.
  • information that is, transmission information 821
  • the user of the target electronic device 10 can view the current movement of the user of the other electronic device 10 together with information on the other electronic device 10 included in the telephone call history. The state can be confirmed. Therefore, the convenience of the electronic device 10 is improved.
  • the target electronic device 10 displays information related to another electronic device 10 included in the incoming call history, which is a type of call history, information indicating the current movement state of the user of the other electronic device 10 May also be displayed.
  • the operation of the target electronic device 10 in this case will be described with reference to FIG.
  • step s101 of FIG. 29 in the target electronic device 10, the touch panel 130 detects an operation instructing to display the incoming call history.
  • step s102 described above is executed.
  • the control unit 100 calls the incoming call history. Is displayed on the display unit 120.
  • FIG. 32 is a diagram showing an example of a display screen 840 displayed on the display surface 12 when the target electronic device 10 displays a telephone call history.
  • the incoming call history includes incoming call information 841 indicating the incoming call from the electronic device 10 for each electronic device 10 to which the target electronic device 10 has received a call in the past.
  • the incoming information 841 includes, for example, the name 842 of the user of the electronic device 10 that has received the incoming call and the incoming date and time 843 of the incoming call.
  • FIG. 32 shows a plurality of incoming information 841a to 841c.
  • the electronic device 10 may be referred to as the electronic device 10 corresponding to the incoming information 841.
  • the incoming call information 841 includes first incoming call information 841 and second incoming call information 841.
  • the first incoming information 841 is incoming information 841 indicating the incoming call when the target electronic device 10 responds to an incoming call from another electronic device 10.
  • the second incoming call information 841 is information indicating the incoming call when the target electronic device 10 does not respond to the incoming call from another electronic device 10.
  • the first incoming information 841 may be referred to as “answered incoming information 841”, and the second incoming information 841 may be referred to as “missed incoming information 841”. It can be said that the missed call information 841 is unanswered call information 841.
  • the incoming call information 841 When the incoming call information 841 is the missed call information 841, the incoming call information 841 includes information 844 indicating that it is the missed call information 841.
  • the incoming call information 841a is missed call information 841a, which includes information 844.
  • the incoming call information 841b and 841c are answered incoming call information 841.
  • the display screen 840 has a plurality of information fields 845 in which a plurality of incoming information 841 are shown.
  • FIG. 32 shows a plurality of information fields 845a to 845c in which a plurality of incoming information 841a to 841c are respectively shown.
  • the user of the target electronic device 10 inputs, for example, a tapping operation on the information column 845, to the target electronic device 10 to issue a call communication call instruction with the electronic device 10 corresponding to the incoming information 841 included in the information column 845. be able to.
  • the control unit 100 of the target electronic device 10 displays the incoming call information 841 included in the incoming call history in the display unit 120 in step s104, the current movement of the user of the electronic device 10 corresponding to the incoming call information 841 is displayed.
  • Information 850 indicating the state is also displayed on the display unit 120. As shown in FIG. 32, the information 850 indicating the current movement state of the user of the electronic device 10 is shown, for example, in an information column 845 in which incoming information 841 indicating an incoming call from the electronic device 10 is shown.
  • the control unit 100 can specify the current movement state of the user of the electronic device 10 based on the movement information included in the device information of the electronic device 10 acquired in step s103.
  • information 850c indicating that the current movement state of the user of the electronic device 10 corresponding to the incoming information 841c is the traveling state is shown in the information column 845c in which the incoming information 841c is shown.
  • the information column 845c in which the incoming information 841c is shown.
  • the target electronic device 10 displays the information related to the other electronic device 10 (that is, the incoming information 841) included in the incoming call history (in other words, the call history), the user of the other electronic device 10 By displaying information indicating the current movement state of the target electronic device 10, the user of the target electronic device 10 can view the current movement of the user of the other electronic device 10 together with information on the other electronic device 10 included in the incoming call history. The state can be confirmed. Therefore, the convenience of the electronic device 10 is improved.
  • the incoming information 841 included in the incoming call history
  • the target electronic device 10 displays information indicating the current movement state of the user of the other electronic device 10 together with the address book or the like
  • the other electronic device 10 communicates with the target electronic device 10 by telephone communication.
  • An estimation process for estimating whether or not to answer the incoming call may be performed.
  • the target electronic device 10 may display the estimation result information 860 indicating the result of the estimation process together with the information indicating the current movement state of the user of the electronic device 10.
  • FIG. 33 is a diagram showing an example of the above-described display screen 800 in this case.
  • the estimation result information 860 is indicated by, for example, a circle or a cross.
  • the estimation result information 860 for the electronic device 10 indicated by a circle means that the electronic device 10 will respond to an incoming call communication with the target electronic device 10.
  • the estimation result information 860 for the electronic device 10 indicated by a cross indicates that the electronic device 10 will not respond to incoming telephone communication with the target electronic device 10.
  • step s104 the control unit 100 of the target electronic device 10 receives an incoming call for telephone communication with the target electronic device 10 based on the movement information included in the device information of the electronic device 10 acquired in step s103.
  • An estimation process for estimating whether or not to respond is performed. For example, when the movement information of the electronic device 10 indicates a walking state, the control unit 100 estimates that the electronic device 10 will respond to an incoming call communication with the target electronic device 10. In addition, when the movement information of the electronic device 10 indicates the traveling state, the control unit 100 estimates that the electronic device 10 will respond to an incoming call communication with the target electronic device 10.
  • the control unit 100 estimates that the electronic device 10 will not respond to an incoming telephone communication with the target electronic device 10. In addition, when the movement information of the electronic device 10 indicates the train movement state, the control unit 100 estimates that the electronic device 10 will not respond to an incoming telephone communication with the target electronic device 10. In addition, when the movement information of the electronic device 10 indicates the driving state of the electronic device 10, the control unit 100 estimates that the electronic device 10 will not respond to incoming telephone communication with the target electronic device 10. In addition, when the movement information of the electronic device 10 indicates another vehicle movement state, the control unit 100 estimates that the electronic device 10 will not respond to an incoming telephone communication with the target electronic device 10. In step s104, the control unit 100 causes the display unit 120 to display an address book and the like, information indicating the current movement state of the user of the electronic device 10, and estimation result information 860 for the electronic device 10.
  • an estimation result indicating that the certain electronic device 10 will not respond to incoming telephone communication with the target electronic device 10 Information 860a is shown.
  • estimation result information 860c indicating that the certain electronic device 10 will respond to an incoming call communication with the target electronic device 10 is shown.
  • the name field 802e in which the user name 801e of a certain electronic device 10 is shown includes estimation result information 860e indicating that the certain electronic device 10 will not respond to an incoming call communication with the target electronic device 10. Has been.
  • estimation result information 860 may be displayed on the display screen 820 illustrated in FIG. 31 described above. Further, the estimation result information 860 may be shown on the display screen 840 shown in FIG.
  • the target electronic device 10 displays the estimation result information 860, will the user of the target electronic device 10 respond to the incoming call of the telephone communication with the target electronic device 10 by the other electronic device 10? You can check whether or not. Therefore, the convenience of the electronic device 10 is improved.
  • the target electronic device 10 may execute step s14 instead of steps s2 to s4 in FIG. 7 described above when executing the series of processes shown in FIG. 29 described above. That is, the target electronic device 10 may make a telephone call unconditionally according to the input outgoing call instruction. In addition, when executing the series of processes shown in FIG. 29, the target electronic device 10 may execute step s14 instead of step s4 in FIG. 9 described above.
  • the target electronic device 10 transmits the call information 821 (that is, unrepresented) that is included in the call origination history and is included in the call origination history when the other device 10 does not respond to an incoming call in response to a phone call to the other device 10 by its own device.
  • the response transmission information 821 instead of the above-described information 830, information 900 indicating the movement state of the partner user when the partner device 10 does not respond to the incoming call may be displayed.
  • FIG. 34 is a diagram illustrating a display example of the information 900.
  • information 900b about the electronic device 10 corresponding to the non-response transmission information 821b is shown in the information column 825b indicating the non-response transmission information 821b.
  • the information 900b indicates that the movement state of the user of the electronic device 10 when the electronic device 10 corresponding to the non-response transmission information 821b does not respond to the incoming call corresponding to the transmission indicated by the non-response transmission information 821b is the train movement state. It shows that there is.
  • the control unit 100 of the instruction receiving device 10 determines the movement state specified in step s12 as the target partner user when the target partner device 10 does not respond to the incoming call. It is used as a moving state.
  • step s12 the movement state of the target user is the train movement state.
  • the control unit 100 performs the target when the target counterpart device 10 does not respond to the incoming call. It is determined that the moving state of the other user is a train moving state.
  • the display unit 120 displays the call information 821 indicating the phone call in step s14
  • the control unit 100 confirms that the target partner user's moving state is the train moving state, such as information 900b in FIG.
  • Information 900 is displayed on the display unit 120.
  • step s12 of the flowchart shown in FIG. 10 the movement state of the target user is an automobile driving state.
  • the control unit 100 performs the target when the target counterpart device 10 does not respond to the incoming call. It is determined that the other user's moving state is the car driving state.
  • the control unit 100 displays the transmission information 821 indicating the telephone call in step s13 on the display unit 120
  • the control unit 100 displays the information 900 indicating that the movement state of the target partner user is the car driving state on the display unit 120.
  • step s12 of the flowchart shown in FIG. 16 the movement state of the target user is a bicycle movement state.
  • the control unit 100 performs the target when the target counterpart device 10 does not respond to the incoming call. It is determined that the other user's movement state is a bicycle movement state.
  • the control unit 100 displays the information 900 indicating that the movement state of the target partner user is the bicycle movement state on the display unit 120.
  • step s13 does not have to be executed in the flowchart shown in FIG. In this case, when the movement state of the target user is specified in step s12, step s14 is executed regardless of the specified movement state.
  • the target electronic device 10 may or may not display the information 830 when displaying the response transmission information 821.
  • the target electronic device 10 displays the information 900
  • the user of the target electronic device 10 does not respond to an incoming call in response to a call originating from the target electronic device 10 to the counterpart device 10.
  • the movement state of the other user can be confirmed. Therefore, the convenience of the electronic device 10 is improved.
  • the target electronic device 10 When the target electronic device 10 does not respond to an incoming call in response to a telephone call from the counterpart device 10, the target electronic device 10 displays incoming call information 841 (that is, missed call information 841) indicating the incoming call included in the incoming call history. Instead of the above-described information 850, information 910 indicating the movement state of the own device user when the own device does not respond to the incoming call may be displayed.
  • FIG. 35 is a diagram illustrating a display example of the information 910.
  • information indicating the movement state of the user of the target electronic device 10 when the target electronic device 10 does not respond to the incoming call indicated by the missed call information 841a is displayed in the information column 845a indicating the missed call information 841a.
  • 910a is shown.
  • the information 910a indicates that the movement state of the user of the target electronic device 10 when the target electronic device 10 does not respond to the incoming call indicated by the missed call information 841a is the bicycle movement state.
  • the control unit 100 determines that the above-described device does not respond to an incoming call in response to a call from the counterpart device 10 described above. In this way, the moving state of the user's own device is specified based on the acceleration detection result or the like in the own device. Then, the control unit 100 uses the identified movement state as the movement state of the own device user when the own device does not respond to an incoming call in response to a telephone call from the counterpart device 10.
  • step s14 may be executed instead of steps s2 to s4 in FIG. 7 described above, or in FIG. 9 described above. Alternatively, step s14 may be executed instead of step s4.
  • the target electronic device 10 may or may not display the information 850 when displaying the answered call information 841.
  • the target electronic device 10 displays the information 910
  • the user of the target electronic device 10 is the user when the target electronic device 10 does not respond to an incoming call in response to a telephone call from the counterpart device 10. Can be confirmed. Therefore, the convenience of the electronic device 10 is improved.
  • the electronic device 10 specifies the movement state of the user of the own device, but the server device 50 may specify the movement state of the user of the electronic device 10.
  • the electronic device 10 transmits to the server device 50 device information including information necessary for another device to specify the movement state of the own device user.
  • the electronic device 10 transmits device information including the acceleration detection result, the position information acquired by the position acquisition unit 140, and the engine operation history to the server device 50.
  • the control unit 51 specifies the movement state of the user of the electronic device 10 as described above based on the device information from the electronic device 10 and the map information in the storage unit 53.
  • control unit 51 stores movement information indicating the movement state of the user of the electronic device 10 specified in the device information of the electronic device 10 in the storage unit 53.
  • the device information of a certain electronic device 10 in the storage unit 53 of the server device 50 includes movement information indicating the movement state of the user of the certain electronic device 10.
  • the electronic device 10 may specify the movement state of the user of the other electronic device 10.
  • the electronic device 10 transmits device information including information necessary for another device to specify the movement state of the own device user to the server device 50.
  • the server device 50 stores the device information received from the electronic device 10 in the storage unit 53 as it is.
  • the electronic device 10 acquires the device information of the other electronic device 10 from the server device 50, based on the acquired device information and the map information 103 b in the storage unit 103, the user of the user of the other electronic device 10 Specify the movement status.
  • the control unit 100 of the electronic device 10 performs other processing based on the device information of the other electronic device 10 and the map information 103b in the storage unit 103.
  • the movement state of the user of the electronic device 10 is specified.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

電子機器は、第1ユーザによって操作される電子機器であって、通信部及び制御部を備える。通信部は、相手装置に関する第1情報を取得する。制御部は、第1情報に基づいて相手装置の第2ユーザの移動状態を特定する。制御部は、相手装置との第1の電話通信についての第1ユーザからの発信指示に応じて、特定した移動状態に基づく処理を行う。

Description

電子機器及び処理システム 関連出願の相互参照
 本出願は、日本国出願2018-084153号(2018年4月25日出願)の優先権を主張するものであり、当該出願の開示全体を、ここに参照のために取り込む。
 本開示は、電子機器に関する。
 電子機器に関して様々な技術が提案されている。
 電子機器及び処理システムが開示される。一の実施の形態では、電子機器は、第1ユーザによって操作される電子機器であって、通信部及び制御部を備える。通信部は、相手装置に関する第1情報を取得する。制御部は、第1情報に基づいて相手装置の第2ユーザの移動状態を特定する。制御部は、相手装置との第1の電話通信についての第1ユーザからの発信指示に応じて、特定した移動状態に基づく処理を行う。
 また、一の実施の形態では、電子機器は、上記の電子機器が通信可能な相手装置である。
 また、一の実施の形態では、処理システムは、上記の電子機器と、当該電子機器が通信可能な相手装置とを備える。
処理システムの一例を示す図である。 電子機器の外観の一例を示す斜視図である。 電子機器の外観の一例を示す背面図である。 電子機器の構成の一例を示すブロック図である。 サーバ装置の構成の一例を示すブロック図である。 電子機器の表示の一例を示す図である。 電子機器の動作の一例を示すフローチャートである。 電子機器の表示の一例を示す図である。 電子機器の動作の一例を示すフローチャートである。 電子機器の動作の一例を示すフローチャートである。 電子機器の動作の一例を示すフローチャートである。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器とハンズフリー装置とが接続されている様子の一例を示す図である。 電子機器の動作の一例を示すフローチャートである。 電子機器の動作の一例を示すフローチャートである。 電子機器の動作の一例を示すフローチャートである。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の動作の一例を示すフローチャートである。 電子機器の動作の一例を示すフローチャートである。 電子機器の表示の一例を示す図である。 電子機器の動作の一例を示すフローチャートである。 処理システムの動作の一例を示すフローチャートである。 処理システムの動作の一例を示すフローチャートである。 電子機器の表示の一例を示す図である。 電子機器の動作の一例を示すフローチャートである。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。
 <処理システムの一例の概要>
 図1は処理システム1の構成の一例を示す図である。図1に示されるように、処理システム1は、ネットワーク2に接続された複数の電子機器10及びサーバ装置50を備える。複数の電子機器10及びサーバ装置50は、ネットワーク2を通じて互いに通信することが可能である。
 ネットワーク2には、無線ネットワーク及び有線ネットワークの少なくとも一方が含まれる。本例では、ネットワーク2には、例えば、基地局等を含む、携帯電話システムのネットワーク、無線LAN(Local Area Network)及びインターネット等が含まれる。
 各電子機器10は、それ自身に関する情報をサーバ装置50に送信することが可能である。以後、電子機器10に関する情報を「機器情報」と呼ぶことがある。また、電子機器10の動作を説明する場合に、「自装置」と言えば、その電子機器10自身のことを意味し、「自装置ユーザ」と言えば、その電子機器10のユーザを意味する。また、電子機器10の動作を説明する場合に、単に「ユーザ」と言えば、当該電子機器10のユーザを意味する。また、電子機器10の動作を説明する場合に、その電子機器10が通信する相手装置となる電子機器10を「相手機器10」と呼ぶことがある。また、相手機器10のユーザを「相手ユーザ」と呼ぶことがある。
 ネットワーク2に接続される複数の電子機器10には、例えば、スマートフォン等の携帯電話機、タブレット端末、パーソナルコンピュータ及びウェアラブル機器などが含まれる。複数の電子機器10に含まれるウェアラブル機器は、リストバンド型あるいは腕時計型などの腕に装着するタイプであってもよいし、ヘッドバンド型あるいはメガネ型などの頭に装着するタイプであってもよいし、服型などの体に装着するタイプであってもよい。腕時計型のウェアラブル機器は、スマートウォッチと呼ばれることがある。
 サーバ装置50は、一種のコンピュータ装置である。サーバ装置50は、各電子機器10から送信される機器情報を記憶することが可能である。サーバ装置50は、電子機器10からの要求に応じて、当該電子機器10に対して、他の電子機器10の機器情報を送信することが可能である。電子機器10は、サーバ装置50から他の電子機器10の機器情報を受け取り、受け取った機器情報に基づいた処理を行うことが可能である。
 以下に処理システム1の詳細について説明する。以下では、主に電子機器10が携帯電話機である場合を例に挙げて、処理システム1について説明する。
 <電子機器の構成例>
 <電子機器の外観の一例>
 図2及び3は、携帯電話機である電子機器10の外観の一例を示す斜視図及び背面図である。図2及び3に示されるように、電子機器10は、平面視で略長方形の板状の機器ケース11を備えている。機器ケース11は電子機器10の外装を構成している。
 機器ケース11の前面11aには、文字、記号及び図形等の各種情報が表示される表示面12が位置している。表示面12の背面側には後述するタッチパネル130が位置している。これにより、ユーザは、電子機器10の前面の表示面12を指等で操作することによって、電子機器10に対して各種情報を入力することができる。なお、ユーザは、指以外の操作子、例えば、スタイラスペンなどのタッチパネル用ペンで表示面12を操作することによっても、電子機器10に対して各種情報を入力することができる。
 機器ケース11の前面11aの上端部にはレシーバ穴13が位置している。前面11aの下端部にはスピーカ穴14が位置している。機器ケース11の下側の側面11cにはマイク穴15が位置している。
 機器ケース11の前面11aの上端部からは、後述する第1カメラ180が有するレンズ181が視認可能となっている。図3に示されるように、機器ケース11の背面11bの上端部からは、後述する第2カメラ190が有するレンズ191が視認可能となっている。
 電子機器10は、複数の操作ボタン21から成る操作ボタン群210(後述の図4参照)を備えている。複数の操作ボタン21のそれぞれはハードウェアボタンである。具体的には、複数の操作ボタン21のそれぞれは押しボタンである。なお、操作ボタン群210に含まれる少なくとも一つの操作ボタン21は、表示面12に表示されるソフトウェアボタンであってもよい。
 操作ボタン群210には、機器ケース11の前面11aの下端部に位置する操作ボタン21a,21b,21cが含まれる。操作ボタン群210には、電源ボタン及びボリュームボタンが含まれてもよい。
 操作ボタン21aは、例えばバックボタンである。バックボタンは、表示面12の表示を一つ前の表示に切り替えるための操作ボタンである。ユーザが操作ボタン21aを操作することよって、表示面12の表示が一つ前の表示に切り替わる。操作ボタン21bは、例えばホームボタンである。ホームボタンは、表示面12にホーム画面を表示させるための操作ボタンである。ユーザが操作ボタン21bを操作することよって、表示面12にホーム画面が表示される。操作ボタン21cは、例えば履歴ボタンである。履歴ボタンは、電子機器10で実行されたアプリケーションの履歴を表示面12に表示させるための操作ボタンである。ユーザが操作ボタン21cを操作することよって、表示面12には、電子機器10で実行されたアプリケーションの履歴が表示される。
 <電子機器の電気的構成の一例>
 図4は、図2及び3に示される電子機器10の電気的構成の一例を示すブロック図である。図4に示されるように、電子機器10は、例えば、制御部100、無線通信部110、表示部120、タッチパネル130、操作ボタン群210、位置取得部140及びリアルタイムクロック220を備える。さらに電子機器10は、レシーバ150、スピーカ160、マイク170、第1カメラ180、第2カメラ190、センサ装置200、振動部230及び電池240を備える。電子機器10が備えるこれらの構成要素は、機器ケース11内に収められている。
 制御部100は、電子機器10の他の構成要素を制御することによって、電子機器10の動作を統括的に管理することが可能である。制御部100は制御装置あるいは制御回路とも言える。制御部100は、以下にさらに詳細に述べられるように、種々の機能を実行するための制御及び処理能力を提供するために、少なくとも1つのプロセッサを含む。
 種々の実施形態によれば、少なくとも1つのプロセッサは、単一の集積回路(IC)として、または複数の通信可能に接続された集積回路(IC)及び/またはディスクリート回路(discrete circuits)として実行されてもよい。少なくとも1つのプロセッサは、種々の既知の技術に従って実行されることが可能である。
 1つの実施形態において、プロセッサは、例えば、関連するメモリに記憶された指示を実行することによって1以上のデータ計算手続又は処理を実行するように構成された1以上の回路又はユニットを含む。他の実施形態において、プロセッサは、1以上のデータ計算手続き又は処理を実行するように構成されたファームウェア(例えば、ディスクリートロジックコンポーネント)であってもよい。
 種々の実施形態によれば、プロセッサは、1以上のプロセッサ、コントローラ、マイクロプロセッサ、マイクロコントローラ、特定用途向け集積回路(ASIC)、デジタル信号処理装置、プログラマブルロジックデバイス、フィールドプログラマブルゲートアレイ、またはこれらのデバイス若しくは構成の任意の組み合わせ、または他の既知のデバイス及び構成の組み合わせを含み、以下に説明される機能を実行してもよい。
 本例では、制御部100は、CPU(Central Processing Unit)101、DSP(Digital Signal Processor)102及び記憶部103を備える。記憶部103は、ROM(Read Only Memory)及びRAM(Random Access Memory)などの、CPU101及びDSP102が読み取り可能な非一時的な記録媒体を含む。記憶部103が有するROMは、例えば、不揮発性メモリであるフラッシュROM(フラッシュメモリ)である。記憶部103には、地図情報103b及び電子機器10を制御するための複数の制御プログラム103a等が記憶されている。地図情報103bには、道路情報、電車の線路情報及び施設情報等が含まれる。制御部100の各種機能は、CPU101及びDSP102が記憶部103内の各種制御プログラム103aを実行することによって実現される。
 記憶部103内の複数の制御プログラム103aには、様々なアプリケーション(つまり、アプリケーションプログラム)が含まれている。記憶部103には、例えば、電話アプリケーション、ブラウザ、スケジュール管理アプリケーション、カメラアプリケーション、静止画表示アプリケーション、動画再生アプリケーション、音楽再生アプリケーション及びメッセージ通信アプリケーション等が記憶されている。
 電話アプリケーションは、電子機器10が、無線通信部110、レシーバ150及びマイク170等を利用して電話通信を行うためのアプリケーションである。電話アプリケーションは、ユーザが電子機器10を利用して、他の電子機器10のユーザと通話を行うためのアプリケーションであると言える。電話通信には、従来型の電話回線を利用した通信形態と、IP(Internet Protocol)電話通信と呼ばれる、インターネットを利用した通信形態とが含まれる。従来型の電話回線を利用した通信を行うための電話アプリケーションを「従来型電話アプリケーション」と呼ぶことがある。また、IP電話通信を行うための電話プリケーションを「IP電話アプリケーション」と呼ぶことがある。
 記憶部103には、複数種類の電話アプリケーションが記憶されてもよい。記憶部103内の複数種類の電話アプリケーションには、少なくとも1種類の従来型電話アプリケーションが含まれてもよいし、少なくとも1種類のIP電話アプリケーションが含まれてもよい。
 ブラウザは、電子機器10がウェブサイトを表示するためのアプリケーションである。スケジュール管理アプリケーションは、電子機器10にスケジュール情報を登録するためのアプリケーションである。カメラプリケーションは、電子機器10が第1カメラ180及び第2カメラ190を利用して被写体を撮影するためのアプリケーションである。静止画表示アプリケーションは、電子機器10が記憶部103内の静止画を表示するためのアプリケーションである。動画再生アプリケーションは、電子機器10が記憶部103内の動画を再生して表示するためのアプリケーションである。音楽再生アプリケーションは、電子機器10が記憶部103内の音楽を再生して出力するためのアプリケーションである。
 メッセージ通信アプリケーションは、電子機器10が無線通信部110等を利用してメッセージ通信を行うためのアプリケーションである。メッセージ通信には、送信側から送信されたメッセージがサーバ装置に一旦保存され、受信側がサーバ装置からメッセージを読み出すような通信形態が含まれる。この通信形態は「電子メール通信」と呼ばれることがある。またメッセージ通信には、電子メール通信とは異なり、受信側が、送信側から送信されたメッセージをサーバ装置から読み出すことなくすぐに受信することができるような通信形態も含まれる。この通信形態は、「インスタントメッセージ通信」と呼ばれることがある。メッセージには、文字及び記号等が含まれる。以後、電子メール通信を実現するためのメッセージ通信アプリケーションを「電子メールアプリケーション」と呼ぶことがある。また、インスタントメッセージ通信を実現するためのメッセージ通信アプリケーションを「IMアプリケーション」と呼ぶことがある。IMアプリケーションは「インスタントメッセンジャー」と呼ばれることがある。
 記憶部103には、複数種類のメッセージ通信アプリケーションが記憶されてもよい。記憶部103内の複数種類のメッセージ通信アプリケーションには、少なくとも1種類の電子メールアプリケーションが含まれてもよいし、少なくとも1種類のIMアプリケーションが含まれてもよい。
 記憶部103内の少なくとも一つのアプリケーションは、記憶部103内にあらかじめ記憶されているものであってよい。また、記憶部103内の少なくとも一つのアプリケーションは、電子機器10が他の装置からダウンロードして記憶部103内に記憶したものであってよい。
 なお、制御部100の構成は上記の例には限られない。制御部100は、例えば、複数のCPU101を備えてもよい。また制御部100は、DSP102を備えなくてもよいし、複数のDSP102を備えてもよい。また、制御部100の全ての機能あるいは制御部100の一部の機能は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてもよい。また記憶部103は、ROM及びRAM以外の、コンピュータが読み取り可能な非一時的な記録媒体を備えていてもよい。記憶部103は、例えば、小型のハードディスクドライブ及びSSD(Solid State Drive)などを備えていてもよい。
 無線通信部110は、アンテナ111を有している。無線通信部110は、アンテナ111を用いて、例えば複数種類の無線通信方式で無線通信することが可能である。無線通信部110の無線通信は、制御部100によって制御される。無線通信部110は、無線通信回路とも言える。
 無線通信部110は、ネットワーク2に含まれる携帯電話システムの基地局と無線通信することが可能である。無線通信部110は、当該基地局を通じて、別の携帯電話機及びウェブサーバ等と通信することが可能である。
 また、無線通信部110は、ネットワーク2に含まれるWiFi等の無線LANを用いて無線通信を行うことが可能である。また無線通信部110は、ネットワーク2を介さずに直接他の装置と近距離無線通信を行うことが可能である。例えば、無線通信部110は、Bluetooth(登録商標)に準拠して無線通信することが可能である。無線通信部110は、ZigBee(登録商標)及びNFC(Near Field Communication)の少なくとも一方に準拠して無線通信することが可能であってもよい。
 無線通信部110は、アンテナ111で受信した信号に対して増幅処理等の各種処理を行い、処理後の受信信号を制御部100に出力する。制御部100は、入力される受信信号に対して各種処理を行って、当該受信信号に含まれる情報を取得する。また、制御部100は、情報を含む送信信号を無線通信部110に出力する。無線通信部110は、入力される送信信号に対して増幅処理等の各種処理を行って、処理後の送信信号をアンテナ111から無線送信する。制御部100は、後述するように、無線通信部110に、電子機器10の機器情報をサーバ装置50へ送信させる。
 表示部120は、電子機器10の前面に位置する表示面12と、表示パネル121とを備えている。表示部120は、表示面12に各種情報を表示することが可能である。表示パネル121は、例えば、液晶表示パネルあるいは有機ELパネルである。表示パネル121は、制御部100によって制御されることによって、文字、記号、図形などの各種情報を表示することが可能である。表示パネル121は、機器ケース11内において、表示面12と対向している。表示パネル121に表示される情報は表示面12に表示される。表示部120は、表示を行うことによって、ユーザに対して通知を行う通知部であると言える。
 タッチパネル130は、表示面12に対する指等の操作子による操作を検出することが可能である。タッチパネル130は、例えば、投影型静電容量方式のタッチパネルである。タッチパネル130は、例えば、表示面12の裏側に位置する。ユーザが指等の操作子によって表示面12に対して操作を行ったとき、その操作に応じた電気信号をタッチパネル130は制御部100に入力することが可能である。制御部100は、タッチパネル130からの電気信号(出力信号)に基づいて、表示面12に対して行われた操作の内容を特定することが可能である。そして制御部100は、特定した操作内容に応じた処理を行うことが可能である。
 操作ボタン群210の各操作ボタン21は、ユーザによって操作されると、操作されたことを示す操作信号を制御部100に出力することが可能である。これにより、制御部100は、各操作ボタン21について、当該操作ボタン21が操作されたか否かを判断することができる。操作信号が入力された制御部100が他の構成要素を制御することによって、電子機器10では、操作された操作ボタン21に割り当てられている機能が実行される。
 位置取得部140は、電子機器10の位置を示す位置情報を取得することが可能である。位置取得部140は、例えば、測位衛星が送信する衛星信号を受信し、受信した衛星信号に基づいて、電子機器10の位置情報を取得することが可能である。位置取得部140が取得する位置情報には、例えば、電子機器10の位置を示す緯度経度が含まれる。位置取得部140は位置取得回路であると言える。
 位置取得部140は、例えばGPS受信機であって、GPS(Global Positioning System)の測位衛星からの無線信号を受信することが可能である。位置取得部140は、受信した無線信号に基づいて電子機器10の現在位置を例えば緯度経度で算出し、算出した緯度経度を含む位置情報を制御部100に出力する。電子機器10の位置情報は、当該電子機器10を持つユーザの位置情報であるともいえる。
 なお位置取得部140は、GPS以外のGNSS(Global Navigation Satellite System)の測位衛星からの信号に基づいて電子機器10の位置情報を求めてもよい。例えば、位置取得部140は、GLONASS(Global Navigation Satellite System)、IRNSS(Indian Regional Navigational Satellite System)、COMPASS、Galileoあるいは準天頂衛星システム(QZSS:Quasi-Zenith Satellites System)の測位衛星からの信号に基づいて電子機器10の位置情報を求めてもよい。
 電子機器10は、位置取得部140を備えなくてもよい。この場合、電子機器10は、それとは別体の位置取得部140と無線あるいは有線で接続されてもよい。
 マイク170は、電子機器10の外部から入力される音を電気的な音信号に変換して制御部100に出力することが可能である。電子機器10の外部からの音は、マイク穴15から電子機器10の内部に取り込まれてマイク170に入力される。
 スピーカ160は、例えばダイナミックスピーカである。スピーカ160は、制御部100からの電気的な音信号を音に変換して出力することが可能である。スピーカ160から出力される音は、スピーカ穴14から外部に出力される。ユーザは、スピーカ穴14から出力される音を、電子機器10から離れた場所でも聞こえることが可能である。スピーカ160は、音を出力することによって、ユーザに対して通知を行う通知部であると言える。
 レシーバ150は受話音を出力することが可能である。レシーバ150は例えばダイナミックスピーカである。レシーバ150は、制御部100からの電気的な音信号を音に変換して出力することが可能である。レシーバ150から出力される音はレシーバ穴13から外部に出力される。レシーバ穴13から出力される音の音量は、スピーカ穴14から出力される音の音量よりも小さくなっている。ユーザは、レシーバ穴13から出力される音を、当該レシーバ穴13に耳を近づけることによって聞くことができる。レシーバ150は、音を出力することによって、ユーザに対して通知を行う通知部であると言える。なお、レシーバ150の代わりに、機器ケース11の前面部分を振動させる、圧電振動素子等の振動素子を設けてもよい。この場合には、音は、当該前面部分の振動によりユーザに伝達される。
 第1カメラ180は、レンズ181及びイメージセンサなどを備えている。第2カメラ190は、レンズ191及びイメージセンサなどを備えている。第1カメラ180及び第2カメラ190のそれぞれは、制御部100による制御に基づいて被写体を撮影し、撮影した被写体を示す静止画あるいは動画を生成して制御部100に出力することが可能である。
 第1カメラ180のレンズ181は、機器ケース11の前面11aから視認可能となっている。したがって、第1カメラ180は、電子機器10の前面側(表示面12側)に存在する被写体を撮影することが可能である。第1カメラ180はインカメラと呼ばれる。一方で、第2カメラ190のレンズ191は、機器ケース11の背面11bから視認可能となっている。したがって、第2カメラ190は、電子機器10の背面側に存在する被写体を撮影することが可能である。第2カメラ190はアウトカメラと呼ばれる。
 センサ装置200は、少なくとも一つのセンサを備える。本例では、センサ装置200は、例えば、加速度センサ、気圧センサ、地磁気センサ及びジャイロセンサを備える。加速度センサは、例えば、電子機器10の加速度を検出することが可能な3軸加速度センサである。加速度センサは、電子機器10に設定されたx軸方向、y軸方向及びz軸方向の加速度を検出することができる。x軸方向、y軸方向及びz軸方向は、例えば、電子機器10の長手方向、短手方向及び厚み方向にそれぞれ設定される。気圧センサは、電子機器10の周囲の気圧を検出することが可能である。地磁気センサは、例えば、電子機器10の周囲の磁場(磁界とも呼ばれる)を検出することが可能な3軸地磁気センサである。地磁気センサは、電子機器10に設定されたx軸方向、y軸方向及びz軸方向の磁場を検出することが可能である。ジャイロセンサは、例えば、電子機器10の角速度を検出することが可能な3軸ジャイロセンサである。ジャイロセンサは、電子機器10に設定されたx軸、y軸及びz軸のそれぞれの軸周りの角速度を検出することが可能である。
 なおセンサ装置200は、加速度センサ、気圧センサ、地磁気センサ及びジャイロセンサの少なくとも一つのセンサを備えなくてもよい。この場合、電子機器10は、それとは別体の当該少なくとも一つのセンサと、無線あるいは有線で接続されてもよい。また、センサ装置200は、加速度センサ、気圧センサ、地磁気センサ及びジャイロセンサ以外のセンサを備えてもよい。例えば、センサ装置200は、近接センサ、照度センサ及び温度センサの少なくとも一つを備えてもよい。また、電子機器10は、それとは別体の、加速度センサ、気圧センサ、地磁気センサ及びジャイロセンサ以外のセンサと、無線あるいは有線で接続されてもよい。
 リアルタイムクロック220は、現在時刻を計測して制御部100に通知する。振動部230は、電子機器10を振動させることができる。具体的には、振動部230は、制御部100による制御によって、機器ケース11を振動させることが可能である。振動部230は、機器ケース11を振動させることによって、電子機器10を持つユーザに対して通知を行うことが可能である。振動部230は例えば偏心モータを備えている。振動部230は、機器ケース11を振動させることによってユーザに通知を行う通知部であると言える。
 電池240は例えば充電式の電池である。電池240から出力される電源は、電子機器10が備える制御部100及び無線通信部110などの各種構成に対して供給される。
 <サーバ装置の構成例>
 図5はサーバ装置50の構成の一例を示す図である。図5に示されるように、サーバ装置50は、例えば、制御部51と、ネットワーク2に接続される通信部54と、表示部55とを備える。
 表示部55は、例えば、液晶表示パネルあるいは有機ELパネルである。表示部55は、制御部51によって制御されることによって、文字、記号、図形などの各種情報を表示することが可能である。
 制御部51は、サーバ装置50の他の構成要素を制御することによって、サーバ装置50の動作を統括的に管理することが可能である。制御部51は制御装置あるいは制御回路であるとも言える。制御部51は、以下にさらに詳細に述べられるように、種々の機能を実行するための制御及び処理能力を提供するために、少なくとも1つのプロセッサを含む。電子機器10の制御部100が備えるプロセッサについての上記の説明は、制御部51が備えるプロセッサについても言える。
 本例では、制御部51は、CPU52及び記憶部53を備える。記憶部53は、ROM及びRAMなどの、CPU52が読み取り可能な非一時的な記録媒体を含む。記憶部53が有するROMは、例えば、不揮発性メモリであるフラッシュROMである。記憶部53には、サーバ装置50を制御するための複数の制御プログラム53aが記憶されている。また記憶部53には、電子機器10が送信する機器情報300が記憶される。記憶部103内では、電子機器10ごとに機器情報300が管理されている。制御部51の各種機能は、CPU52が記憶部53内の各種制御プログラム53aを実行することによって実現される。
 通信部54は、有線あるいは無線でネットワーク2に接続されている。通信部54は、ネットワーク2を通じて、当該ネットワーク2に接続された、電子機器10等の装置と通信することが可能である。通信部54は、ネットワーク2から受け取った情報を制御部51に入力することが可能である。また通信部54は、制御部51から受け取った情報をネットワーク2に出力することが可能である。
 サーバ装置50の構成は図5の例には限られない。例えば、制御部51は、複数のCPU52を備えてもよい。また制御部51は、少なくとも一つのDSPを備えてもよい。また、制御部51の全ての機能あるいは制御部51の一部の機能は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてもよい。
 また記憶部53は、ROM及びRAM以外の、コンピュータが読み取り可能な非一時的な記録媒体を備えてもよい。記憶部53は、例えば、小型のハードディスクドライブ及びSSDなどを備えてもよい。記憶部53内の少なくとも一つの制御プログラム53aは、記憶部53内にあらかじめ記憶されているものであってよい。また、記憶部53内の少なくとも一つの制御プログラム53aは、サーバ装置50が他の装置からダウンロードして記憶部53内に記憶したものであってよい。
 サーバ装置50は、制御部51、通信部54及び表示部55以外の構成を備えてもよい。サーバ装置50は、例えば、タッチパネル等の、ユーザがサーバ装置50に情報を入力するための入力装置を備えてもよい。
 <電子機器の表示例>
 図6は電子機器10の表示例を示す図である。図6には、ホーム画面400の一例が模式的に示されている。図6に示されるように、表示面12に表示されるホーム画面400には、記憶部103内のアプリケーションに対応し、対応するアプリケーションの実行を電子機器10に指示するためのアイコン401が示される。
 図6の例では、ホーム画面400には、ブラウザに対応するアイコン401aと、音楽再生アプリケーションに対応するアイコン401bと、カメラアプリケーションに対応するアイコン401cと、電子メールアプリケーションに対応するアイコン401dとが含まれる。またホーム画面400には、従来型電話アプリケーションに対応するアイコン401eと、IP電話アプリケーションに対応するアイコン401fとが含まれる。またホーム画面400には、例えば異なる会社から提供される2種類のIMアプリケーションにそれぞれ対応する2つのアイコン401g及び401hが含まれる。
 ユーザは、ホーム画面400に含まれるアイコン401に対して所定の操作(例えばタップ操作)を行うことによって、当該アイコン401を選択することができる。制御部100は、選択されたアイコン401に対応するアプリケーションを記憶部103から読み出して実行する。つまり、制御部100は、タッチパネル130がアイコン401に対する所定の操作を検出すると、当該アイコン401に対応するアプリケーションを記憶部103から読み出して実行する。これにより、ユーザは、アイコン401を操作することによって当該アイコン401を選択し、選択したアイコン401に対応するアプリケーションを電子機器10に実行させることができる。例えば、ユーザが、電子メールアプリケーションに対応するアイコン401dをタップ操作すると、電子機器10では電子メールアプリケーションが実行される。またユーザが、従来型電話アプリケーションに対応するアイコン401eをタップ操作すると、電子機器10では従来型電話アプリケーションが実行される。
 ホーム画面400だけではなく、表示面12に表示される各画面には、電子機器10の状態を通知する通知領域450が含まれる。通知領域450は、ステータスバーとも呼ばれる。図6に示されるように、通知領域450には、例えば、無線通信部110の通信状態を示すアイコン451と、電池240についての電池残量を示すアイコン452と、リアルタイムクロック220で取得される現在時刻を示すアイコン453とが含まれる。
 また、電子機器10において特定のイベントが発生すると、通知領域450には、発生したイベントに関する情報が示される。当該情報には、例えば、新しいメッセージの受信を通知するアイコン及び不在着信を通知するアイコンなどが含まれる。
 以後、電子機器10の表示例を説明する場合に、通知領域450が特に関係しない場合には、通知領域450の図示を省略することがある。
 <電子機器の動作例について>
 <電子機器の着信通知の一例>
 電子機器10は、相手機器10からの電話通信の発信を着信すると、自装置ユーザに対して電話通信の着信通知を行う。また、電子機器10は、相手機器10がメッセージ通信で送信するメッセージを受信(言い換えれば着信)すると、自装置ユーザに対してメッセージ通信の着信通知を行う。以後、電話通信の発信を「電話発信」と呼ぶことがある。また、電話通信の着信通知を「電話着信通知」と呼び、メッセージ通信の着信通知を「メッセージ着信通知」と呼ぶことがある。また、電話通信の着信を「電話着信」と呼ぶことがある。
 電子機器10は、例えば、表示部120、スピーカ160及び振動部230を用いて、電話着信通知とメッセージ着信通知を行うことが可能である。例えば、電話通信の着信中(以後、「電話着信中」と呼ぶことがある)に、制御部100が、電話着信を通知する着信通知画面を表示部120に表示させることによって、電子機器10は電話着信通知を自装置ユーザに行うことができる。着信通知画面は、電話着信を通知する着信通知情報であるとも言える。また、電話着信中に、制御部100が、電話通信の着信音(以後、「電話着信音」と呼ぶことがある)をスピーカ160に出力させることによって、電子機器10は電話着信通知を自装置ユーザに行うことができる。この電話着信通知を「音による電話着信通知」と呼ぶことがある。そして、電話着信中に、制御部100が、振動部230に機器ケース11を振動させることによって、電子機器10は電話着信通知を自装置ユーザに行うことができる。この電話着信通知を「振動による電話着信通知」と呼ぶことがある。
 同様に、電子機器10でのメッセージの受信に応じて、制御部100が、表示部120に、メッセージの受信を通知する情報を例えば通知領域450に表示させることによって、電子機器10はメッセージ着信通知を自装置ユーザに行うことができる。また、電子機器10でのメッセージの受信に応じて、制御部100が、メッセージ通信の着信音をスピーカ160に出力させることによって、電子機器10はメッセージ着信通知を自装置ユーザに行うことができる。このメッセージ着信通知を「音によるメッセージ着信通知」と呼ぶことがある。そして、電子機器10でのメッセージの受信に応じて、制御部100が、振動部230に機器ケース11を振動させることによって、電子機器10はメッセージ着信通知を自装置ユーザに行うことができる。このメッセージ着信通知を「振動によるメッセージ着信通知」と呼ぶことがある。
 ユーザは、例えば表示面12を操作することによって、着信通知に関する設定を電子機器10に対して行うことができる。例えば、ユーザは、電話着信通知に関して、音による電話着信通知を実行するか否かと、振動による電話着信通知を実行するか否かを電子機器10に対して設定することができる。またユーザは、メッセージ着信通知に関して、音によるメッセージ着信通知を実行するか否かと、振動によるメッセージ着信通知を実行するか否かを電子機器10に対して設定することができる。電子機器10は、基本的には、自装置での着信通知に関する設定に応じて着信通知を行う。ただし、後述するように、電子機器10の着信通知が、他の電子機器10によって制御されることがある。
 <機器情報の送信について>
 本例では、電子機器10の制御部100は、自装置の機器情報を生成し、生成した機器情報を、無線通信部110にサーバ装置50へ送信させることが可能である。
 電子機器10では、例えば、制御部100は、一定時間ごとに、無線通信部110に、最新の機器情報をサーバ装置50へ送信させる。また制御部100は、機器情報に含まれる情報に変更が生じるたびに、無線通信部110に、機器情報をサーバ装置50へ送信させてもよい。また制御部100は、サーバ装置50から機器情報の送信要求があるたびに、無線通信部110に、最新の機器情報をサーバ装置50へ送信させてもよい。電子機器10は、自装置の識別情報とともに、自装置の機器情報を送信する。識別情報としては、例えば、電子機器10に割り当てられた電話番号が採用される。
 サーバ装置50では、通信部54が、電子機器10の機器情報及び識別情報を取得すると、制御部51は、取得された機器情報及び識別情報を互いに対応付けて記憶部53に記憶する。このとき、記憶部53内に、受信された識別情報に対応する古い機器情報が記憶されている場合には、制御部51は、古い機器情報の代わり受信された機器情報を記憶部53に記憶する。これにより、記憶部53内には、各電子機器10についての最新の機器情報が記憶される。
 本例では、電子機器10のユーザが移動している場合には、当該電子機器10の機器情報に、当該ユーザの移動状態を示す移動情報が含まれる。移動情報は、電子機器10の移動状態を示す情報であるとも言える。制御部100は、センサ装置200の検出結果等に基づいて、ユーザの移動状態を特定する。そして、制御部100は、特定した移動状態を示す移動情報を含む機器情報を生成する。機器情報には、移動情報以外の情報が含まれてもよいし、含まれなくてもよい。なお、電子機器10のユーザが移動せずに停止している場合には、当該電子機器10の機器情報には移動情報が含まれない。
 <移動状態の特定方法の一例>
 制御部100は、ユーザについての様々な移動状態を特定することが可能である。例えば、制御部100は、センサ装置200に含まれる加速度センサの検出結果に基づいて、ユーザが乗り物に乗らずに自力で移動している状態と、ユーザが乗り物に乗って移動している状態とを特定することができる。
 ここで、ユーザが自力で移動するとは、ユーザが乗り物に乗らずに自らの足で移動することを意味する。ユーザが自力で移動している状態を「自力移動状態」と呼ぶと、制御部100は、センサ装置200の加速度センサの検出結果に基づいて、ユーザの自力移動状態を特定することが可能であると言える。以後、センサ装置200に含まれる加速度センサの検出結果を「加速度検出結果」と呼ぶことがある。
 制御部100は、ユーザの自力移動状態としては、ユーザが歩いて移動している状態と、ユーザが走って移動している状態とを特定することができる。前者を「歩行状態」と呼び、後者を「走行状態」と呼ぶと、制御部100は、加速度検出結果に基づいて、ユーザの歩行状態及び走行状態を特定することが可能である。
 また、制御部100は、ユーザが乗り物に乗って移動している状態として、ユーザが自転車に乗って移動している状態と、ユーザが、自動車、電車及びバスなどの、自転車よりも速く移動することが可能な乗り物に乗って移動している状態とを特定することができる。以後、自転車と、それよりも速く移動することが可能な乗り物とを区別するために、単に「乗り物」と言えば、自転車よりも速く移動することが可能な乗り物を意味する。
 ユーザが自転車に乗って移動している状態を「自転車移動状態」と呼び、ユーザが乗り物に乗って移動している状態を「乗り物移動状態」と呼ぶと、制御部100は、加速度検出結果に基づいて、ユーザの自転車移動状態及び乗り物移動状態を特定することができる。
 ここで、電子機器10の加速度が、当該電子機器10を持つユーザの移動状態に応じた固有の時間変化のパターンを示すことが知られている。制御部100は、センサ装置200の加速度センサで検出される加速度の時間変化のパターンが、歩行状態に応じたパターンを示す場合には、ユーザの移動状態が歩行状態であると判定する。また、制御部100は、加速度センサで検出される加速度の時間変化のパターンが、「走行状態」に応じたパターンを示す場合には、ユーザの移動状態が走行状態であると判定する。また、制御部100は、加速度センサで検出される加速度の時間変化のパターンが、自転車移動状態に応じたパターンを示す場合には、ユーザの移動状態が自転車移動状態であると判定する。そして、制御部100は、加速度センサで検出される加速度の時間変化のパターンが、乗り物移動状態に応じたパターンを示す場合には、ユーザの移動状態が乗り物移動状態であると判定する。
 また、制御部100は、ユーザの移動状態が乗り物移動状態である場合に、ユーザが電車に乗って移動している状態なのか、ユーザが車を運転して移動している状態なのかを特定することが可能である。以後、ユーザが電車に乗って移動している状態を「電車移動状態」と呼ぶことがある。また、ユーザが自動車を運転して移動している状態を「自動車運転状態」と呼ぶことがある。
 制御部100は、例えば、ユーザの移動状態が乗り物移動状態であると判定し、かつ、自装置の位置が電車の線路上に位置している場合には、ユーザの移動状態が電車移動状態であると判定する。このとき、制御部100は、例えば、位置取得部140で取得される位置情報が示す位置を自装置の位置として使用する。また制御部100は、記憶部103内の地図情報103bから、電車の線路の位置を特定することができる。
 本例では、電子機器10は、自動車のスマートキーとして使用されることが可能である。ユーザは、電子機器10を用いて、利用する自動車に、ドアを施錠させたり、ドアを解錠させたり、エンジンを始動させたり、エンジンを停止させたりすることができる。電子機器10は、無線通信部110が、自動車に搭載された通信装置と無線通信することによって、当該自動車に、ドアを施錠させたり、ドアを解錠させたり、エンジンを始動させたり、エンジンを停止させたりすることができる。電子機器10の記憶部103には、エンジンの始動及び停止の履歴がエンジン動作履歴として記憶される。制御部100は、ユーザの移動状態が乗り物移動状態であると判定し、かつ、記憶部103内のエンジン動作履歴から自動車のエンジンが現在動作していることを特定すると、ユーザの移動状態が自動車運転状態であると判定する。
 制御部100は、ユーザの移動状態が、乗り物移動状態であって、電車移動状態及び自動車運転状態ではない場合、ユーザの移動状態が、他の乗り物移動状態であると判定する。
 なお、電子機器10は、ユーザの移動状態が自動車運転状態であることを他の方法を用いて特定してもよい。例えば、自動車内において、車内の様子を撮影するカメラが配置され、当該カメラの撮影画像を自動車内の電子機器10が受け取ることができる場合を考える。この場合、制御部100は、自装置が受け取った撮影画像を解析して、運転席に人が存在するか否かを判定する。そして、制御部100は、ユーザの移動状態が乗り物移動状態であると判定し、かつ、自動車の運転席に人が存在すると判定すると、ユーザの移動状態が自動車運転状態であると判定する。
 他の例として、電子機器10が、腕時計型のウェアラブル機器であって、ユーザの手の動きを検出することができる場合を考える。この場合、制御部100は、ユーザの手の動きの検出結果に基づいて、ユーザが自動車のハンドルを操作しているか否かを判定する。そして、電子機器10は、ユーザの移動状態が乗り物移動状態であると判定し、かつ、ユーザが自動車のハンドルを操作していると判定すると、ユーザの移動状態が自動車運転状態であると判定する。
 また他の例として、自動車内に、運転者の声だけを拾う指向性マイクが設けられ、当該指向性マイクから出力される信号を自動車内の電子機器10が受け取ることができる場合を考える。この場合、制御部100は、指向性マイクからの信号に基づいて、運転席に人がいるか否かを判定する。そして、制御部100は、ユーザの移動状態が乗り物移動状態であると判定し、かつ、自動車の運転席に人が存在すると判定すると、ユーザの移動状態が自動車運転状態であると判定する。
 このように、制御部100は、ユーザの移動状態として、歩行状態、走行状態、自転車移動状態、電車移動状態、自動車運転状態及び他の乗り物移動状態を特定することができる。制御部100は、ユーザの移動状態が歩行状態であることを特定すると、ユーザの移動状態が自力移動状態であることを示す移動情報を生成する。制御部100は、ユーザの移動状態が走行状態であることを特定すると、ユーザの移動状態が自力移動状態であることを示す移動情報を生成する。制御部100は、ユーザの移動状態が電車移動状態であることを特定すると、その旨を示す移動情報を生成する。制御部100は、ユーザの移動状態が自動車運転状態であることを特定すると、その旨を示す移動情報を生成する。制御部100は、ユーザの移動状態が他の乗り物移動状態であることを特定すると、その旨を示す移動情報を生成する。なお、ユーザの移動状態の特定方法は、上記の例に限られない。
 <電話アプリケーション起動後の電子機器の動作例>
 本例では、電子機器10は、電話アプリケーションの起動後、相手機器10との電話通信についての自装置ユーザからの発信指示に応じて、相手機器10の機器情報に基づく処理を行うことが可能である。ユーザは、このような電子機器10を利用することができることから、電子機器10の利便性が向上する。
 図7は、電話アプリケーション起動後の電子機器10の動作の一例を示すフローチャートである。電子機器10の制御部100は、上述のアイコン401eあるいはアイコン401fに対するタップ操作をタッチパネル130が検出すると、タップ操作されたアイコン401に対応する電話アプリケーションを記憶部103内から読み出して実行する。これにより、電話アプリケーションが起動する。
 電話アプリケーションの起動後、ステップs1において、制御部100は、タッチパネル130からの出力信号に基づいて、相手機器10との電話通信についての自装置ユーザからの発信指示が自装置に入力されたことを特定すると、ステップs2を実行する。
 以後、単に「発信指示」と言えば、電話通信についての発信指示を意味する。また、相手機器10との電話通信についての発信指示が電子機器10に入力された場合のその相手機器10を「対象相手機器10」と呼ぶことがある。また、対象相手機器10のユーザを「対象相手ユーザ」と呼ぶことがある。また、発信指示が入力された電子機器10を「発信指示受付機器10」あるいは「指示受付機器10」と呼ぶことがある。
 図8は、電話アプリケーションの実行中の表示例を示す図である。図8には、従来型電話アプリケーションの実行中の表示例が示されている。図8には、電話通信の相手機器10に割り当てられた電話番号を入力するための入力画面500の一例が示されている。入力画面500は、ダイヤルパッドあるいはキーパッドと呼ばれることがある。
 図8に示されるように、入力画面500には、番号等の記号を入力するための12個の入力ボタン501が含まれる。各入力ボタン501には記号が割り当てられている。入力ボタン501に対して例えばタップ操作が行われると、タップ操作が行われた入力ボタン501に割り当てられた記号が電子機器10に入力される。ユーザは、複数の入力ボタン501を操作することによって、電子機器10に対して、相手機器10の電話番号を入力することができる。
 また入力画面500には、発信指示を電子機器10に入力するための発信指示ボタン502が含まれる。発信指示ボタン502に対して例えばタップ操作が行われると、電子機器10に対して発信指示が入力される。ユーザは、電子機器10に対して相手機器10の電話番号を入力した後、発信指示ボタン502を操作することによって、電子機器10に対して、相手機器10との電話通信の発信指示を入力することができる。
 ユーザが発信指示を電子機器10に入力する方法は上記の例に限られない。ユーザは、例えば、記憶部103内のアドレス帳(電話帳とも呼ばれる)を利用して発信指示を電子機器10に入力することができる。この場合、例えば、ユーザは、表示面12に対して所定の操作を行って、電子機器10に、記憶部103内のアドレス帳に含まれる相手機器10の電話番号を表示面12に表示させる。そして、ユーザは、表示面12に表示される相手機器10の電話番号に対して例えばタップ操作を行うことによって、相手機器10との電話通信の発信指示を電子機器10に入力することができる。また、ユーザは、表示面12に表示される電話着信履歴あるいは電話発信履歴を利用して、発信指示を電子機器10に入力してもよい。また、ユーザは、マイク170に所定の音声を入力することによって、発信指示を電子機器10に入力してもよい。
 なお上記の例では、電子機器10が、相手機器10と電話通信を行う場合に用いる相手機器10の識別情報として、電話番号が使用されているが、IP電話アプリケーションにおいては、電話番号以外の識別情報が使用されることがある。
 ステップs2においては、制御部100は、対象相手機器10の機器情報をサーバ装置50に要求するための第1要求信号を生成する。この第1要求信号には、対象相手機器10の識別情報が含まれている。そして、制御部100は、無線通信部110に第1要求信号をサーバ装置50へ送信させる。
 第1要求信号を受信したサーバ装置50では、制御部51が、第1要求信号に含まれる識別情報に対応する機器情報を記憶部53から読み出す。そして、サーバ装置50は、読み出した機器情報を、発信指示受付機器10へ送信する。これにより、発信指示受付機器10は、対象相手機器10の機器情報を取得することができる。
 ステップs2の後、ステップs3において、無線通信部110がサーバ装置50から対象相手機器10の機器情報を取得すると、ステップs4において、制御部100は、取得された機器情報に基づく処理を実行する。
 本例では、指示受付機器10は、発信指示に応じて電話通信の発信を無条件に行うのではなく、対象相手機器10に応じた処理を行う。ステップs4において、制御部100は、自装置が取得した機器情報に含まれる移動情報に基づいて、対象相手ユーザの現在の移動状態を特定する。そして、制御部100は、特定した移動状態に基づく処理を行う。ステップs4において、制御部100は、特定した移動状態に基づいて自装置の動作の制御を行ってもよいし、特定した移動状態に基づいて対象相手機器10の動作の制御を行ってもよい。ステップs4の具体例については後で詳細に説明する。
 なお制御部100は、取得した機器情報を、記憶部103内のアドレス帳に登録してもよい。この場合、制御部100は、相手機器10の機器情報を、アドレス帳において、相手機器10の電話番号に対応付けて登録してもよい。これにより、電子機器10がアドレス帳を表示することによって、ユーザは、機器情報を確認することができる。
 また上記の例では、電子機器10は、発信指示をトリガとして、第1要求信号をサーバ装置50に送信しているが、他の条件をトリガとして、第1要求信号をサーバ装置50に送信してもよい。例えば、電子機器10は、一定時間ごとに、第1要求信号をサーバ装置50に送信してもよい。この場合、図9に示されるように、ステップs2,s3が不要となり、ステップs4では、指示受付機器10が直近に取得した機器情報に基づく処理が実行される。
 また、電子機器10は、サーバ装置50を介さずに、発信指示に係る相手機器10から機器情報を取得してもよい。この場合、例えば、指示受付機器10の制御部100は、ステップs2において、無線通信部110に、対象相手機器10に機器情報を要求するための第2要求信号を対象相手機器10へ送信させる。対象相手機器10では、無線通信部110が第2要求信号を受信すると、制御部100は、無線通信部110に、自装置の機器情報を指示受付機器10へ送信させる。指示受付機器10では、ステップs3において無線通信部110が対象相手機器10の機器情報を取得すると、ステップs4において、制御部100は、取得された機器情報に基づく処理を実行する。
 また、電子機器10は、発信指示とは別の条件をトリガとして、第2要求信号を相手機器10へ送信してもよい。例えば、電子機器10は、一定時間ごとに、第2要求信号を相手機器10へ送信してもよい。この場合、上述の図9に示されるように、ステップs2,s3が不要となり、ステップs4では、指示受付機器10が直近に取得した機器情報に基づく処理が実行される。
 また、電子機器10は、他の電子機器10からの要求に応じて機器情報を送信するのではなく、自ら機器情報を他の電子機器10に送信してもよい。例えば、電子機器10は、一定時間ごとに、自装置の機器情報を他の電子機器10に送信してもよい。この場合、図9のように、ステップs2,s3が不要となり、ステップs4において、指示受付機器10は、対象相手機器10から直近に取得した機器情報に基づく処理を行う。
 なお、電子機器10がサーバ装置50あるいは他の電子機器10から機器情報を取得する場合には、5G(第5世代移動通信システム)に準拠した無線通信方式のように、通信速度が大きく、かつレイテンシが小さい無線通信方式が使用されてもよい。例えば、上述のステップs2及びs3では、5Gに準拠した無線通信方式が使用されてもよい。
 このように、本例に係る電子機器10は、電話アプリケーションの起動後、相手機器10との電話通信についての自装置ユーザからの発信指示に応じて、相手機器10の移動状態に基づく処理を行うことが可能である。ユーザは、このような電子機器10を利用することができることから、電子機器10の利便性が向上する。以下に、ステップs4についての様々な具体例について説明する。
 <第1の例>
 本例では、指示受付機器10の制御部100は、ステップs4において、対象相手機器10の移動情報に基づいて特定した対象相手ユーザの移動状態に応じて、対象相手機器10での電話着信通知を制御する。これにより、電子機器10の利便性が向上する。図10は、本例に係るステップs4を示すフローチャートである。
 図10に示されるように、ステップs11において、指示受付機器10の制御部100は、対象相手機器10の機器情報から移動情報を取得する。次にステップs12において、制御部100は、取得した移動情報に基づいて、対象相手ユーザの移動状態を特定する。ステップs12において、ユーザの移動状態が自力移動状態であることが特定されると、ステップs13が実行される。言い換えれば、対象相手機器10の移動情報が自力移動状態を示す場合、ステップs13が実行される。また、ステップs12において、ユーザの移動状態が自転車移動状態であることが特定されると、ステップs13が実行される。言い換えれば、対象相手機器10の移動情報が自転車移動状態を示す場合、ステップs13が実行される。また、ステップs12において、ユーザの移動状態が自動車運転状態であることが特定されると、ステップs13が実行される。言い換えれば、対象相手機器10の移動情報が自転車運転状態を示す場合、ステップs13が実行される。
 一方で、ステップs12において、ユーザの移動状態が、自力移動状態、自転車移動状態及び自動車運転状態以外の状態であると特定されると、ステップs14が実行される。言い換えれば、対象相手機器10の移動情報が、自力移動状態、自転車移動状態及び自動車運転状態以外の状態を示す場合、ステップs14が実行される。
 なお、指示受付機器10が取得した最新の機器情報に移動情報が含まれていない場合には、言い換えれば、対象相手機器10のユーザが停止している場合には、ステップs14が実行される。
 ステップs13では、制御部100は、対象相手機器10での電話着信通知を制御するための着信通知制御信号を生成する。具体的には、制御部100は、音による電話着信通知を実行しないことを命令する着信通知制御信号を生成する。そして、指示受付機器10は、対象相手機器10に対して、電話通信の発信を行うとともに、生成した着信通知制御信号を送信する。指示受付機器10からの電話通信の発信を着信した対象相手機器10では、制御部100は、自装置での着信通知に関する設定の内容にかかわらず、受け取った着信通知制御信号に応じて、音による電話着信通知を行わないように対象相手機器10を制御する。つまり、制御部100は、自装置での着信通知に関する設定の内容にかかわらず、スピーカ160に電話着信音を出力させない。
 ステップs14では、指示受付機器10は、対象相手機器10に対して電話通信の発信を行う。このとき、ステップs13で送信される着信通知制御信号は対象相手機器10に送信されない。ステップs14での発信を着信した対象相手機器10は、自装置での着信通知に関する設定に従った電話着信通知を行う。
 対象相手機器10が、指示受付機器10からの電話発信に対して応答すると、指示受付機器10と対象相手機器10との間で電話通信が行われる。電話通信中の指示受付機器10では、マイク170に入力される音声が無線通信部110から対象相手機器10に送信される。電話通信中の対象相手機器10では、無線通信部110が受信する音声がレシーバ150あるいはスピーカ160から出力される。また、電話通信中の対象相手機器10では、マイク170に入力される音声が無線通信部110から指示受付機器10に送信される。電話通信中の指示受付機器10では、無線通信部110が受信する音声がレシーバ150あるいはスピーカ160から出力される。
 このように、本例では、制御部100は、対象相手ユーザの移動状態が、自力移動状態である場合、対象相手機器10が電話着信音を出力しないように対象相手機器10を制御する。これにより、自力で移動しているユーザは、電子機器10での電話着信に気が付きにくくなる。よって、ユーザが、自力で移動している状態で、電子機器10を操作する可能性が低減する。ユーザが、歩いている状態あるいは走っている状態で電子機器10を操作することは危険である可能性がある。本例では、ユーザが、自力で移動している状態で、電子機器10を操作する可能性が低減することから、当該ユーザ及びその周囲の人の安全性を向上することができる。よって、電子機器10の利便性が向上する。
 また、本例では、制御部100は、対象相手ユーザの移動状態が、自転車移動状態である場合、対象相手機器10が電話着信音を出力しないように対象相手機器10を制御する。これにより、自転車に乗って移動しているユーザは、電子機器10での電話着信に気が付きにくくなる。よって、ユーザが、自転車に乗って移動している状態で、電子機器10を操作する可能性が低減する。ユーザが、自転車に乗って移動している状態で電子機器10を操作することは危険である可能性がある。本例では、ユーザが、自転車に乗って移動している状態で、電子機器10を操作する可能性が低減することから、当該ユーザ及びその周囲の安全性を向上することができる。よって、電子機器10の利便性が向上する。
 また、本例では、制御部100は、対象相手ユーザの移動状態が、自動車運転状態である場合、対象相手機器10が電話着信音を出力しないように対象相手機器10を制御する。これにより、自動車を運転しているユーザは、電子機器10での電話通信の着信に気が付きにくくなる。よって、ユーザが、自動車を運転している状態で、電子機器10を操作する可能性が低減する。ユーザが、自動車を運転している状態で電子機器10を操作することは危険である可能性がある。本例では、ユーザが、自動車を運転している状態で、電子機器10を操作する可能性が低減することから、当該ユーザ及びその周囲の安全性を向上することができる。よって、電子機器10の利便性が向上する。
 なお、対象相手機器10が、指示受付機器10からの電話発信を着信した場合には、対象相手機器10の電話通信の着信履歴、つまり電話着信履歴に、指示受付機器10からの電話発信に応じた着信を示す着信情報が含まれるようになる。したがって、対象相手ユーザは、対象相手機器10の電話着信履歴を確認することによって、対象相手機器10での、指示受付機器10との電話通信の着信を確認することができる。よって、対象相手ユーザは、例えば停止しているときに、対象相手機器10に、指示受付機器10に対する電話発信を行わせることができる。
 上述のステップs13では、制御部100は、音による電話着信通知と振動による電話着信通知とを実行しないことを命令する着信通知制御信号を生成してもよい。この場合、指示受付機器10からの電話発信を着信した対象相手機器10では、制御部100は、自装置での着信通知に関する設定の内容にかかわらず、受け取った着信通知制御信号に応じて、音による電話着信通知及び振動による電話着信通知の両方を行わないように対象相手機器10を制御する。これにより、自力で移動しているユーザ、自転車に乗って移動しているユーザ、あるいは自動車を運転しているユーザは、電子機器10での電話着信にさらに気が付きにくくなる。よって、ユーザ及びその周囲の安全性をさらに向上することができる。
 また、ステップs13の実行後、指示受付機器10は、ステップs13での電話発信を対象相手機器10が着信した場合に、当該電話発信を停止してもよい。図11はこの場合のステップs4の一例を示すフローチャートである。
 図11に示されるように、ステップs13の後、ステップs15において、指示受付機器10の制御部100は、ステップs13での電話発信を対象相手機器10が着信したと判断すると、ステップs16を実行する。ステップs16では、制御部100が、対象相手機器10に対する電話発信を指示受付機器10が停止するように指示受付機器10の動作を制御する。なお、対象相手機器10は、指示受付機器10からの電話発信を着信したときには、その旨を指示受付機器10に通知する。したがって、ステップs15において、指示受付機器10は、ステップs13での電話発信を対象相手機器10が着信したと判断することができる。
 図11の例のように、指示受付機器10が、ステップs13での電話発信を対象相手機器10が着信した場合に、当該電話発信を停止することによって、対象相手ユーザが、対象相手機器10での電話着信にさらに気が付きにくくなる。よって、ユーザ及びその周囲の安全性をさらに向上することができる。なお、この場合であっても、対象相手機器10の電話着信履歴には、指示受付機器10からの電話発信に応じた着信を示す着信情報が含まれることから、対象相手ユーザは、対象相手機器10の電話着信履歴を確認することによって、対象相手機器10での、指示受付機器10との電話通信の着信を確認することができる。
 また図11の例では、ステップs12において、対象相手ユーザの移動状態が自力移動状態であることが特定されると、ステップs13において、制御部100は、無線通信部110に、着信通知制御信号及び第1通知命令信号を対象相手機器10へ送信させてもよい。第1通知命令信号とは、対象相手機器10が、自力移動状態が終了したと判定したとき、自力移動状態が終了したことを指示受付機器10に通知することを対象相手機器10に命令する信号である。この場合、指示受付機器10からの電話発信を着信するとともに、第1通知命令信号及び着信通知制御信号を受信した対象相手機器10では、制御部100が、対象相手ユーザの自力移動状態が終了したか否かを判定する。制御部100は、例えば、位置取得部140で取得される位置情報が示す位置が変化しなくなった場合、対象相手ユーザの自力移動状態が終了したと判定する。制御部100は、対象相手ユーザの自力移動状態が終了したと判定すると、その旨を通知する第1通知情報を生成する。そして、制御部100は、無線通信部110に、生成した第1通知情報を指示受付機器10へ送信させる。
 第1通知情報を受信した指示受付機器10では、制御部100は、自装置が有する通知部に、対象相手ユーザの自力移動状態が終了したことを通知させる。この通知部としては、例えば表示部120が採用される。この場合、制御部100は、対象相手ユーザの自力移動状態が終了したこと示す第1終了情報601を表示部120に表示させる。図12は、第1終了情報601の表示例を示す図である。図12の例では、ステップs16の後に表示されているホーム画面400に第1終了情報601が重ねられて表示されている。第1終了情報601を確認した指示受付機器10のユーザは、例えば、対象相手機器10に対する電話発信を再度指示受付機器10に実行させる。
 また、図11の例では、ステップs12において、対象相手ユーザの移動状態が自転車移動状態であることが特定されると、ステップs13において、制御部100は、無線通信部110に、着信通知制御信号及び第2通知命令信号を対象相手機器10へ送信させてもよい。第2通知命令信号とは、対象相手機器10が、自転車移動状態が終了したと判定したとき、自転車移動状態が終了したことを指示受付機器10に通知することを対象相手機器10に命令する信号である。この場合、指示受付機器10からの電話発信を着信するとともに、第2通知命令信号及び着信通知制御信号対象相手機器10では、制御部100が、対象相手ユーザの自転車移動状態が終了したか否かを判定する。制御部100は、例えば、位置取得部140で取得される位置情報が示す位置が変化しなくなった場合、対象相手ユーザの自転車移動状態が終了したと判定する。制御部100は、対象相手ユーザの自転車移動状態が終了したと判定すると、その旨を通知する第2通知情報を生成する。そして、制御部100は、無線通信部110に、生成した第2通知情報を指示受付機器10へ送信させる。
 第2通知情報を受信した指示受付機器10では、制御部100は、自装置が有する通知部に、対象相手ユーザの自転車移動状態が終了したことを通知させる。この通知部としては、例えば表示部120が採用される。この場合、制御部100は、対象相手ユーザの自転車移動状態が終了したこと示す第2終了情報602を表示部120に表示させる。図13は、第2終了情報602の表示例を示す図である。図13の例では、上述の図12の例と同様に、第2終了情報602がホーム画面400に重ねられて表示されている。第2終了情報602を確認した指示受付機器10のユーザは、例えば、対象相手機器10に対する電話発信を再度指示受付機器10に実行させる。なお、第2終了情報602は、第1終了情報601と同じであってもよい。
 また、図11の例では、ステップs12において、対象相手ユーザの移動状態が自動車運転状態であることが特定されると、ステップs13において、制御部100は、無線通信部110に、着信通知制御信号及び第3通知命令信号を対象相手機器10へ送信させてもよい。第3通知命令信号とは、対象相手機器10が、自動車運転状態が終了したと判定したとき、自動車運転状態が終了したことを指示受付機器10に通知することを対象相手機器10に命令する信号である。この場合、指示受付機器10からの電話発信を着信するとともに、第3通知命令信号及び着信通知制御信号対象相手機器10では、制御部100が、対象相手ユーザの自動車運転状態が終了したか否かを判定する。制御部100は、例えば、記憶部103内のエンジン動作履歴に基づいて、自動車のエンジンが停止したことを特定すると、対象相手ユーザの自動車運転状態が終了したと判定する。言い換えれば、制御部100は、対象相手ユーザの自動車の運転が終了したと判定する。制御部100は、対象相手ユーザの自動車運転状態が終了したと判定すると、その旨を通知する第3通知情報を生成する。そして、制御部100は、無線通信部110に、生成した第3通知情報を指示受付機器10へ送信させる。
 第3通知情報を受信した指示受付機器10では、制御部100は、自装置が有する通知部に、対象相手ユーザの自動車運転状態が終了したことを通知させる。この通知部としては、例えば表示部120が採用される。この場合、制御部100は、対象相手ユーザの自動車運転状態が終了したこと示す第3終了情報603を表示部120に表示させる。図14は、第3終了情報603の表示例を示す図である。図14の例では、上述の図12の例と同様に、第3終了情報603がホーム画面400に重ねられて表示されている。第3終了情報603を確認した指示受付機器10のユーザは、例えば、対象相手機器10に対する電話発信を再度指示受付機器10に実行させる。なお、第3終了情報603は、第1終了情報601と同じであってもよい。
 自力移動状態、自転車移動状態あるいは自動車運転状態が終了したことを通知する通知部は、表示部120以外であってもよい。例えば、通知部は、スピーカ160あるいは振動部230であってもよい。この場合、スピーカ160は、自力移動状態、自転車移動状態あるいは自動車運転状態が終了したことを意味する音声を出力する。また、振動部230は、特定の振動パターンで機器ケース11を振動させることによって、自力移動状態、自転車移動状態あるいは自動車運転状態が終了したことを自装置ユーザに通知する。
 このように、電子機器10が、自装置ユーザに対して、相手機器10のユーザの自力移動状態、自転車移動状態あるいは自動車運転状態が終了したことを通知することによって、電子機器10の利便性がさらに向上する。
 上記の例では、対象相手ユーザの移動状態が自力移動状態である場合、ステップs13が実行されるが、ステップs14が実行されてもよい。また、対象相手ユーザの移動状態が自転車移動状態である場合、ステップs13ではなくステップs14が実行されてもよい。また、対象相手ユーザの移動状態が自動車運転状態である場合、ステップs13ではなくステップs14が実行されてもよい。
 <第2の例>
 本例では、機器情報には、ハンズフリー接続情報が含まれている。ハンズフリー接続情報とは、電子機器10が制御することが可能な電話通信用のハンズフリー装置が当該電子機器10に無線あるいは有線で接続されていることを示す情報である。電子機器10及びハンズフリー装置のユーザは共通となっている。本例では、制御部100は、ハンズフリー装置が自装置に接続されている場合には、ハンズフリー接続情報を含む機器情報を生成する。一方で、制御部100は、ハンズフリー装置が自装置に接続されていない場合には、ハンズフリー接続情報を含まない機器情報を生成する。
 図15は、電子機器10にハンズフリー装置650が接続されている様子の一例を示す図である。図15に示されるハンズフリー装置650は、本体651及びイヤーフック652を備えている。本体651は、操作ボタン653、スピーカ654及びマイク655を備えている。ハンズフリー装置650は、イヤーフック652がユーザの耳に引っ掛けられることによって、当該耳に装着される。
 電子機器10は、ハンズフリー装置650と、例えば、Bluetooth等の近距離無線通信方式を用いて通信可能となっている。電子機器10は、ハンズフリー装置650を制御して、自装置での電話着信の通知を、ハンズフリー装置650に実行させることができる。図15に示されるハンズフリー装置650は、スピーカ654から電話着信音を出力することによって、電子機器10のユーザに対して電話着信通知を行うことが可能である。
 なお図15の例では、電子機器10とハンズフリー装置650とは、無線で接続されているが、有線で接続されてもよい。また、図15に示されるハンズフリー装置650は、ユーザの耳に装着されるタイプのハンズフリー装置であるが、他のタイプのハンズフリー装置であってもよい。また、ハンズフリー装置650は、本体651を振動させることによって、電話着信通知を行ってもよい。
 ユーザは、例えば、電子機器10の表示面12を操作することによって、ハンズフリー装置650から電話着信音が出力されるように電子機器10がハンズフリー装置650を制御するような設定を、電子機器10に対して行うことができる。以後、この設定を「ハンズフリー設定」と呼ぶことがある。ハンズフリー設定が行われている電子機器10では、音による電話着信通知及び振動による電話着信通知が行われない。
 電話着信中の電子機器10に接続されたハンズフリー装置650のスピーカ654から電話着信音が出力されている場合、ユーザが操作ボタン653を操作すると、電子機器10は、電話着信に応答して、相手機器10と電話通信を開始する。電話通信中の電子機器10は、相手機器10から送られてくる音声を、ハンズフリー装置650のスピーカ654から出力する。また、電話通信中の電子機器10は、ハンズフリー装置650のマイク655に入力される音声を、相手機器10に送信する。
 このようにして、電子機器10は、それに接続されたハンズフリー装置650を利用して、相手機器10と電話通信を行うことが可能である。
 図16は、本例に係るステップs4を示すフローチャートである。図16に示されるように、ステップs21において、制御部100は、対象相手機器10の機器情報から移動情報及びハンズフリー接続情報を取得する。次に、上述のステップs12が実行されて、対象相手ユーザの移動状態が特定される。ステップs12において、ユーザの移動状態が自力移動状態であることが特定されると、ステップs22が実行される。また、ステップs12において、ユーザの移動状態が自転車移動状態であることが特定されると、ステップs22が実行される。また、ステップs12において、ユーザの移動状態が自動車運転状態であることが特定されると、ステップs22が実行される。一方で、ステップs12において、ユーザの移動状態が、自力移動状態、自転車移動状態及び自動車運転状態以外の状態であることが特定されると、上述のステップs14が実行される。ステップs14での電話発信を着信した対象相手機器10は、ハンズフリー設定が行われている場合には、ハンズフリー装置650を制御することによって、ハンズフリー装置650に電話着信通知を実行させる。具体的には、対象相手機器10は、ハンズフリー装置650を制御して、そのスピーカ654から電話着信音を出力させる。一方で、ステップs14での電話発信を着信した対象相手機器10は、ハンズフリー設定が行われていない場合には、自装置での着信通知に関する設定に従った電話着信通知を行う。
 ステップs22では、制御部100は、対象相手機器10に送信される制御信号を生成する。この制御信号は、ハンズフリー装置650が電話着信通知を行うようにハンズフリー装置650を制御することを対象相手機器10に命令する信号である。制御部100が制御信号を生成すると、指示受付機器10は、対象相手機器10に対して電話通信の発信を行うとともに、生成された制御信号を対象相手機器10に送信する。
 指示受付機器10からの電話通信の発信を着信し、制御信号を受信した対象相手機器10では、制御部100は、自装置に対してハンズフリー設定が行われているか否かにかかわらず、無線通信部110を通じてハンズフリー装置650を制御することによって、ハンズフリー装置650に電話着信通知を実行させる。具体的には、対象相手機器10は、ハンズフリー装置650を制御して、そのスピーカ654から電話着信音を出力させる。
 なお、指示受付機器10が取得した最新の機器情報に移動情報が含まれていない場合には、上述のステップs14が実行される。また、指示受付機器10が取得した最新の機器情報に、移動情報が含まれるもののハンズフリー接続情報が含まれない場合には、言い換えれば、対象相手機器10にハンズフリー装置650が接続されていない場合には、指示受付機器10は上述の第1の例と同様に動作してもよい。
 このように、本例では、制御部100は、対象相手ユーザの移動状態が、自力移動状態である場合、ハンズフリー装置650が対象相手機器10による制御によって電話着信通知を行うように、対象相手機器10を制御する。これにより、自力で移動しているユーザは、ハンズフリー装置650を利用して、相手機器10のユーザと通話を行うことができる。よって、ユーザが、自力で移動している状態で電子機器10を操作する可能性が低減する。その結果、電子機器10の利便性が向上する。
 また本例では、制御部100は、対象相手ユーザの移動状態が、自転車移動状態である場合、ハンズフリー装置650が対象相手機器10による制御によって電話着信通知を行うように、対象相手機器10を制御する。これにより、自転車に乗って移動しているユーザは、ハンズフリー装置650を利用して、相手機器10のユーザと通話を行うことができる。よって、ユーザが、自転車に乗って移動している状態で電子機器10を操作する可能性が低減する。その結果、電子機器10の利便性が向上する。
 また本例では、制御部100は、対象相手ユーザの移動状態が、自動車運転状態である場合、ハンズフリー装置650が対象相手機器10による制御によって電話着信通知を行うように、対象相手機器10を制御する。これにより、自動車を運転しているユーザは、ハンズフリー装置650を利用して、相手機器10のユーザと通話を行うことができる。よって、ユーザが、自動車を運転している状態で電子機器10を操作する可能性が低減する。その結果、電子機器10の利便性が向上する。
 上記の例では、対象相手ユーザの移動状態が自力移動状態である場合、ステップs22が実行されるが、ステップs14が実行されてもよい。また、対象相手ユーザの移動状態が自転車移動状態である場合、ステップs22ではなくステップs14が実行されてもよい。また、対象相手ユーザの移動状態が自動車運転状態である場合、ステップs22ではなくステップs14が実行されてもよい。
 <第3の例>
 本例では、電子機器10が送信する機器情報には、当該電子機器10に記憶されているアドレス帳と、当該電子機器10の位置情報と、当該電子機器10の速さを示す速さ情報とが含まれる。本例に係る電子機器10では、制御部100が自装置の速さを求める。制御部100は、例えば、位置取得部140で取得される位置情報に基づいて、自装置の速さを求めることができる。制御部100は、加速度検出結果に基づいて、自装置の速さを求めてもよい。本例に係る制御部100は、記憶部103に記憶されているアドレス帳と、位置取得部140で取得される位置情報と、求めた自装置の速さを示す速さ情報と、移動情報とを含む機器情報を生成し、生成した機器情報を無線通信部110に送信させる。
 図17は、本例に係るステップs4を示すフローチャートである。本例に係るステップs4は、基本的には、対象相手ユーザの移動状態が自動車運転状態である場合の指示受付機器10の動作が上述の図10に示されるステップs4と異なる。
 図17に示されるように、ステップs31において、指示受付機器10の制御部100は、対象相手機器10の機器情報から、移動情報、アドレス帳、位置情報及び速さ情報を取得する。次に、上述のステップs12が実行されて、対象相手ユーザの移動状態が特定される。ステップs12において、ユーザの移動状態が自力移動状態であることが特定されると、上述のステップs13が実行される。ステップs12において、ユーザの移動状態が自転車移動状態であることが特定されると、上述のステップs13が実行される。ステップs12において、ユーザの移動状態が自動車運転状態であることが特定されると、ステップs32が実行される。ステップs12において、ユーザの移動状態が、自力移動状態、自転車移動状態及び自動車運転状態以外の状態であることが特定されると、上述のステップs14が実行される。
 ステップs32では、制御部100は、ステップs31で取得したアドレス帳に登録されている、対象相手機器10以外の各電子機器10の機器情報を取得する。具体的には、制御部100は、アドレス帳から、対象相手機器10以外の電子機器10に割り当てられた電話番号を取得する。そして、制御部100は、取得した電話番号を含む第3要求信号を生成する。この第3要求信号は、それに含まれる電話番号が割り当てられた電子機器10の機器情報をサーバ装置50に要求するための信号である。そして、制御部100は、無線通信部110に第3要求信号をサーバ装置50へ送信させる。このような処理を、制御部100は、アドレス帳に登録されている、対象相手機器10以外の各電子機器10の電話番号を用いて行う。以後、対象相手機器10のアドレス帳に登録されている、対象相手機器10以外の電子機器10を単に「アドレス登録機器10」と呼ぶことがある。
 第3要求信号を受信したサーバ装置50では、制御部51が、第3要求信号に含まれる電話番号(言い換えれば識別情報)に対応する機器情報を記憶部53から読み出す。そして、制御部51は、通信部54に、読み出した機器情報を指示受付機器10へ送信させる。これにより、指示受付機器10は各アドレス登録機器10の機器情報を取得することができる。
 ステップs32の後、ステップs33において、制御部100は、ステップs32で取得した各アドレス登録機器10の機器情報に基づいて、対象相手ユーザが運転する自動車内にアドレス登録機器10が存在するか否かを判定する。以後、対象相手ユーザが運転する自動車を「対象自動車」と呼ぶことがある。また、説明の対象のアドレス登録機器10を「対象アドレス登録機器10」と呼ぶことがある。
 ステップs33において、制御部100は、ステップs32で取得した対象アドレス登録機器10の機器情報から位置情報及び速さ情報を取得する。そして、制御部100は、ステップs31で取得した対象相手機器10の位置情報及び速さ情報と、対象アドレス登録機器10の位置情報及び速さ情報とに基づいて、対象自動車内に対象アドレス登録機器10が存在するか否かを判定する。制御部100は、対象相手機器10及び対象アドレス登録機器10の位置が近く、かつ、対象相手機器10及び対象アドレス登録機器10の速さがほぼ同じである場合、対象自動車内に対象アドレス登録機器10が存在すると判定する。制御部100は、対象相手機器10の位置情報が示す位置と、対象アドレス登録機器10の位置情報が示す位置との間の距離がしきい値以下のとき、対象相手機器10及び対象アドレス登録機器10の位置が近いと判定する。また、制御部100は、対象相手機器10の速さ情報が示す速さと、対象アドレス登録機器10の速さ情報が示す速さとの差分の絶対値がしきい値以下のとき、対象相手機器10及び対象アドレス登録機器10の速さがほぼ同じであると判定する。
 このようにして、制御部100は、各アドレス登録機器10について、対象自動車内に当該アドレス登録機器10が存在するか否かを判定する。制御部100は、対象自動車内に少なくとも一つのアドレス登録機器10が存在することを特定すると、ステップs33においてYESと判定する。一方で、制御部100は、各アドレス登録機器10が対象自動車内に存在しないことを特定すると、ステップs33においてNOと判定する。
 ステップs33においてNOと判定されると、上述のステップs13が実行される。一方で、ステップs33においてYESと判定されると、ステップs34が実行される。ステップs34では、制御部100は、指示受付機器10が、対象相手機器10に対して電話発信を行う替わりに、対象自動車内に存在するアドレス登録機器10に対して電話発信を行うように、指示受付機器10の動作を制御する。ステップs33において、対象自動車内に存在する複数のアドレス登録機器10が特定された場合には、指示受付機器10は、当該複数のアドレス登録機器10のうちのいずれか一つのアドレス登録機器10に対して電話発信を行う。指示受付機器10からの電話発信を着信したアドレス登録機器10は、自装置での着信通知に関する設定の内容に応じて、電話着信通知を行う。
 このように、本例では、制御部100は、対象相手機器10の移動状態が自動車運転状態である場合、対象相手ユーザが運転する自動車内に存在する、対象相手機器10以外の電子機器10を特定する。言い換えれば、制御部100は、対象相手機器10の移動状態が自動車運転状態である場合、対象自動車内に存在する、対象相手機器10以外の電話通信可能な装置を特定する。そして制御部100は、特定した電子機器10に対して指示受付機器10が電話発信を行うように指示受付機器10の動作を制御する。これにより、指示受付機器10は、自動車を運転しているユーザの電子機器10ではなく、当該自動車内の同乗者の電子機器10に電話着信通知を実行させることが可能となる。よって、自動車を運転しているユーザが電子機器10を操作する可能性を低減することができる。その結果、電子機器10の利便性が向上する。
 なお、上述の図11の例と同様に、本例においても、ステップs13の後に、ステップs15及びs16が実行されてもよい。
 また、上記の第2の例と同様に、本例においても、電子機器10は、ハンズフリー装置が自装置に接続されている場合、ハンズフリー接続情報を含む機器情報を生成し、ハンズフリー装置が自装置に接続されていない場合、ハンズフリー接続情報を含まない機器情報を生成してもよい。この場合、ステップs31において、制御部100は、対象相手機器10の機器情報からハンズフリー接続情報を取得できる場合には、上述の図16と同様にしてステップs12,s14及びs22を実行する。一方で、制御部100は、対象相手機器10の機器情報からハンズフリー接続情報を取得できない場合には、図17と同様にしてステップs12~s14及びステップs32~s34を実行する。
 また、上記の例では、対象相手ユーザの移動状態が自力移動状態である場合、ステップs13が実行されるが、ステップs14が実行されてもよい。また、対象相手ユーザの移動状態が自転車移動状態である場合、ステップs13ではなくステップs14が実行されてもよい。
 <第4の例>
 本例では、指示受付機器10の制御部100は、ステップs4において、対象相手機器10の移動情報に基づいて特定した対象相手ユーザの移動状態に応じて、電話通信及びメッセージ通信のどちらを指示受付機器10が行うかを決定する。これにより、電子機器10の利便性が向上する。図18は、本例に係るステップs4を示すフローチャートである。
 図18に示されるように、上述のステップs11及びs12が実行される。ステップs12において、対象相手ユーザの移動状態が電車移動状態であることが特定されると、ステップs42が実行される。一方で、対象相手ユーザの移動状態が、電車移動状態以外の状態であることが特定されると、ステップs41において、制御部100は、指示受付機器10が電話通信を行うことを決定する。その後、上述のステップs14が実行される。
 ステップs42では、制御部100は、対象相手ユーザの移動状態が電車移動状態であることを指示受付機器10の通知部に通知させる。この通知部としては、例えば表示部120が採用される。この場合、制御部100は、対象相手ユーザの移動状態が電車移動状態であることを示す情報700を表示部120に表示させる。図19は情報700の表示例を示す図である。なお、制御部100は、対象相手ユーザの移動状態が電車移動状態であることを、表示部120以外の通知部に通知させてもよい。
 表示部120が情報700を所定時間表示すると、ステップs43において、制御部100は、指示受付機器10がメッセージ通信を行うことを決定する。そしてステップs44において、制御部100は、記憶部103内のメッセージ通信アプリケーションを実行する。このとき、制御部100は、電子メールアプリケーションを実行してもよいし、IMアプリケーションを実行してもよい。
 ステップs44の後、ステップs45において、タッチパネル130は、表示面12に対する、メッセージの送信先を選択する送信先選択操作、メッセージの入力操作、及びメッセージの送信指示操作(言い換えればメッセージの発信指示操作)を検出する。指示受付機器10のユーザは、メッセージの送信先として対象相手機器10を選択する。ステップs45の後、ステップs46において、制御部100は、選択された相手機器10、つまり対象相手機器10にメッセージを送信する。
 指示受付機器10からメッセージを受信した対象相手機器10では、メッセージ通信アプリケーションが起動し、制御部100が、受信されたメッセージを表示部120に表示させる。これにより、対象相手ユーザは、指示受付機器10からのメッセージを確認することができる。
 なお、ステップs42は実行されなくてもよい。つまり、通知部は、対象相手ユーザの移動状態が電車移動状態であることを自装置ユーザに通知しなくてもよい。
 また制御部100は、ステップs44において、メッセージ通信アプリケーションを実行したとき、メッセージの送信先が、自動的に、対象相手機器10となるようにしてもよい。これにより、ステップs45において、ユーザは、表示面12に対する送信先選択操作が不要となる。
 このように、本例では、制御部100は、対象相手ユーザの移動状態が電車移動状態である場合、メッセージ通信の実行を決定し、メッセージ通信アプリケーションを実行する。これにより、対象相手ユーザが電車に乗って移動している場合、対象相手機器10は、指示受付機器10からの電話発信を着信する替わりに、対象相手機器10からのメッセージを受信することができる。電車に乗って移動しているユーザが電子機器10を利用して通話を行うことは、当該ユーザの周囲に迷惑をかける可能性がある。本例のように、対象相手ユーザが電車に乗って移動している場合、対象相手機器10が、指示受付機器10からの電話発信を着信する替わりに、対象相手機器10からのメッセージを受信することによって、対象相手ユーザの周囲に迷惑がかかる可能性を低減することができる。よって、電子機器10の利便性が向上する。
 なお、上述の第1~第3の例において、対象相手ユーザの移動状態が電車移動状態であることがステップs12で特定された場合には、図18と同様に、ステップs42~s46が実行されてもよい。
 また、制御部100は、ステップs44で起動されたメッセージ通信アプリケーションのメッセージ作成画面が表示部120に表示されている場合に、対象相手ユーザが電車から降りたことを特定したときに、所定の処理を実行するようにしてもよい。以後、制御部100が、ステップs44で起動されたメッセージ通信アプリケーションのメッセージ作成画面が表示されている場合に、対象相手ユーザが電車から降りたことを特定したときに所定の処理を実行することを「降車対応処理」と呼ぶことがある。
 図20は、実行中のメッセージ通信アプリケーションが電子メールアプリケーションである場合のメッセージ作成画面750の一例を示す図である。図21は、実行中のメッセージ通信アプリケーションがIMアプリケーションである場合のメッセージ作成画面760の一例を示す図である。メッセージ作成画面750は、電子メール作成画面750とも言える。また、IMアプリケーションを実行する電子機器10では、メッセージ作成画面760が表示されている場合、メッセージの送信先はすでに選択されている状態となっている。
 図20に示されるように、メッセージ作成画面750には、例えば、メッセージの送信先を示す宛先欄751と、件名を示す件名欄752と、本文を示す本文欄753と、送信ボタン754とが含まれる。ユーザは、メッセージ作成画面750を表示する表示面12を操作することによって、メッセージの送信先、件名及び本文を電子機器10に入力することができる。そして、送信ボタン754に対して例えばタップ操作が行われると、電子機器10は、ユーザの指示に応じて作成したメッセージを送信する。
 一方で、IMアプリケーションのメッセージ作成画面760には、図21に示されるように、送信対象のメッセージ、言い換えれば、ユーザによって入力されたメッセージを示すメッセージ欄761と、送信ボタン762と、履歴画面763とが含まれる。履歴画面763には、過去に送信した送信メッセージ764と、過去に受信した受信メッセージ765とが含まれる。ユーザは、メッセージ作成画面760を表示する表示面12を操作することによって、送信対象のメッセージを電子機器10に入力することができる。そして、送信ボタン762に対して例えばタップ操作が行われると、電子機器10は、入力されたメッセージを送信する。IMアプリケーションのメッセージ作成画面760は、送受信メッセージが表示される送受信メッセージ表示画面であるとも言える。
 図22は、降車対応処理の一例を示すフローチャートである。降車対応処理は、例えば、ステップs44においてメッセージ通信アプリケーションが起動された後に初めてメッセージ作成画面が表示部120に表示されてから、そのメッセージ作成画面が表示部120で表示されなくなるまでの間に実行される。
 ステップs44においてメッセージ通信アプリケーションが起動され、メッセージ作成画面が表示部120に表示されると、図22に示されるようにステップs51が実行される。ステップs51では、制御部100は、対象相手機器10の機器情報をサーバ装置50に要求するための上述の第1要求信号を生成する。そして、制御部100は、生成した第1要求信号を無線通信部110にサーバ装置50へ送信させる。
 ステップs51の後、ステップs52において、指示受付機器10が対象相手機器10の最新の機器情報を受信すると、ステップs53が実行される。ステップs53では、制御部100は、ステップs52で受信された機器情報に基づいて、対象相手ユーザが電車から降りたか否かを判定する。制御部100は、ステップs52で受信された機器情報に含まれる移動情報が、電車移動状態以外の状態を示す場合、対象相手ユーザが電車から降りたと判定する。一方で、制御部100は、ステップs52で受信された機器情報に含まれる移動情報が電車移動状態を示す場合、対象相手ユーザが電車から降りていないと判定する。
 ステップs53において、対象相手ユーザが電車から降りたと判定されると、ステップs54が実行される。ステップs54では、制御部100は、指示受付機器10が対象相手機器10との電話通信の発信を行うように指示受付機器10の動作を制御する。つまり、ステップs54では、指示受付機器10が、対象相手機器10に対して電話発信を行う。ステップs54が実行されると降車対応処理が終了する。
 一方で、ステップs53において、対象相手ユーザが電車から降りていないと判定されると、ステップs51が再度実行される。以後、指示受付機器10は同様に動作する。なお、ステップs53においてYESと判定されない場合であっても、ステップs44でメッセージ通信アプリケーションが起動された後に初めて表示されたメッセージ作成画面が表示されなくなると、降車判定処理は終了する。
 このように、図22示される降車対応処理では、指示受付機器10は、メッセージ作成画面が表示部120に表示されている場合に、対象相手ユーザが電車から降りたことを特定したとき、対象相手機器10に対して自動で電話発信を行う。したがって、指示受付機器10のユーザは、メッセージの作成中に対象相手ユーザが電車から降りた場合に、もともと希望していた対象相手ユーザとの通話を、指示受付機器10を操作することなく行うことができる。よって、電子機器10の利便性がさらに向上する。
 図22の降車対応処理では、指示受付機器10は、ユーザからの指示なく、対象相手機器10に対して自動で電話発信を行っているが、ユーザからの指示があったときに、対象相手機器10に対して電話発信を行ってもよい。図23は、この場合の降車対応処理の一例を示すフローチャートである。
 図23に示されるように、上述のステップs51~s53が実行される。ステップs53においてYESと判定されると、ステップs61が実行される。一方で、ステップs53においてNOと判定されると、ステップs51が再度実行される。以後、指示受付機器10は同様に動作する。
 ステップs61では、制御部100は、指示受付機器10が対象相手機器10との電話通信の発信を行うか否かをユーザが選択することを通知部に通知させる。この通知部としては、例えば表示部120が採用される。この場合、制御部100は、例えば、指示受付機器10が対象相手機器10との電話通信の発信を行うか否かを自装置ユーザが選択するための選択画面770を表示部120に表示させる。
 図24は選択画面770の一例を示す図である。図24に示されるように、選択画面770には、情報771及び772と、選択ボタン773及び7774とが含まれる。情報771は、対象相手ユーザが電車を降りたことを示す情報である。情報772は、指示受付機器10が対象相手機器10に対する電話発信を行うか否かを選択することをユーザに指示する情報である。選択ボタン773は、ユーザが、指示受付機器10が対象相手機器10に対する電話発信を行うことを選択した場合に操作するボタンである。言い換えれば、選択ボタン773は、ユーザが、対象相手機器10に対する電話発信の実行を選択した場合に操作するボタンである。選択ボタン774は、ユーザが、指示受付機器10が対象相手機器10に対する電話発信を行わないことを選択した場合に操作するボタンである。言い換えれば、選択ボタン774は、ユーザが、対象相手機器10に対する電話発信の不実行を選択した場合に操作するボタンである。ユーザは、選択ボタン773を例えばタップ操作することによって、対象相手機器10に対する電話発信の実行を選択したことを電子機器10に通知することができる。またユーザは、選択ボタン774を例えばタップ操作することによって、対象相手機器10に対する電話発信の不実行を選択したことを電子機器10に通知することができる。なお、選択画面770には、情報771が示されなくてもよい。
 ステップs61において選択画面770が表示された後、ステップs62において、制御部100は、タッチパネル130での検出結果に基づいて、自装置ユーザが、対象相手機器10に対する電話発信の実行を選択したか、対象相手機器10に対する電話発信の不実行を選択したかを判断する。制御部100は、タッチパネル130が、選択ボタン773に対する操作を検出したとき、電話発信の実行を自装置ユーザが選択したと判断する。一方で、制御部100は、タッチパネル130が、選択ボタン774に対する操作を検出したとき、電話発信の不実行を自装置ユーザが選択したと判断する。
 ステップs62において、電話発信の実行が選択されたと判断されると、ステップs63において、制御部100は、指示受付機器10が対象相手機器10との電話通信の発信を行うように指示受付機器10の動作を制御する。つまり、指示受付機器10が、対象相手機器10に対して電話発信を行う。ステップs63が実行されると降車対応処理が終了する。一方で、ステップs62において、電話発信の不実行が選択されたと判断されると、降車対応処理が終了する。
 なお、ステップs61において、指示受付機器10が対象相手機器10との電話通信の発信を行うか否かをユーザが選択することを通知する通知部は、表示部120以外であってもよい。例えば、スピーカ160が、指示受付機器10が対象相手機器10との電話通信の発信を行うか否かをユーザが選択することを意味する音声を出力してもよい。また、振動部230が特定の振動パターンで機器ケース11を振動させることによって、指示受付機器10が対象相手機器10との電話通信の発信を行うか否かを選択することがユーザに通知されてもよい。また、表示部120、スピーカ160及び振動部230の少なくとも2つが、指示受付機器10が対象相手機器10との電話通信の発信を行うか否かを選択することをユーザに通知してもよい。スピーカ160及び振動部230の少なくとも1つが、指示受付機器10が対象相手機器10との電話通信の発信を行うか否かを選択することをユーザに通知する場合には、自装置ユーザは、表示面12に対して所定の操作を行うことによって、電話発信の実行を選択したり、電話発信の不実行を選択したりすることができる。あるいは、自装置ユーザは、マイク170に所定の音声を入力することによって、電話発信の実行を選択したり、電話発信の不実行を選択したりしてもよい。
 このように、図23の例では、制御部100は、メッセージ作成画面が表示されて場合に、対象相手ユーザが電車から降りたことを特定したとき、指示受付機器10が対象相手機器10に対する電話発信を行うか否かをユーザが選択することを通知部に通知させる。これにより、指示受付機器10のユーザは、メッセージの作成中に対象相手ユーザが電車から降りた場合、指示受付機器10が対象相手機器10に対して電話発信を行うか否かを選択することができる。よって、電子機器10の利便性がさらに向上する。
 <第5の例>
 図25は本例に係るステップs4を示すフローチャートである。図25に示されるフローチャートは、上述の図18に示されるフローチャートにおいて、ステップs43~s46の替わりにステップs71及びs72が実行されるものである。
 図25に示されるように、上述のステップs11及びs12が実行される。ステップs12において、対象相手ユーザの移動状態が電車移動状態であることが特定されると、上述のステップs42が実行されて、情報700が指示受付機器10の表示部120に表示される。表示部120が情報700を所定時間表示すると、ステップs71が実行される。一方で、対象相手ユーザの移動状態が、電車移動状態以外の状態であることが特定されると、上述のステップs41及びs14が実行され、指示受付機器10は対象相手機器10に対して電話発信を行う。
 ステップs71では、制御部100は、音声・メッセージ変換通信の実行を決定する。そしてステップs72において、指示受付機器10は、対象相手機器10との間で、音声・メッセージ変換通信を開始する。
 ここで、音声・メッセージ変換通信とは、指示受付機器10に入力されるユーザの音声がメッセージに変換されて、当該メッセージが対象相手機器10で表示され、対象相手機器10が送信するメッセージが音声に変換されて、当該音声が指示受付機器10から出力されるような通信である。指示受付機器10と対象相手機器10との間で音声・メッセージ変換通信が行われる場合には、指示受付機器10のユーザが、指示受付機器10に対して音声を入力すると、その音声がメッセージ通信アプリケーションのメッセージに変換されて対象相手機器10に入力され、当該メッセージが対象相手機器10で表示される。一方で、対象相手機器10のユーザが、メッセージを対象相手機器10に入力すると、そのメッセージが音声に変換されて指示受付機器10に入力され、当該音声が指示受付機器10から出力される。
 図26及び図27は、指示受付機器10と対象相手機器10との間での音声・メッセージ変換通信を説明するための図である。指示受付機器10及び対象相手機器10は、例えばサーバ装置50を介して、音声・メッセージ変換通信を行う。
 ステップs71において、音声・メッセージ変換通信の実行が決定されると、電話アプリケーションを実行している指示受付機器10は、図26に示されるように、ステップs81において、自装置のマイク170に入力される音声を、サーバ装置50に送信する。具体的には、指示受付機器10の制御部100は、無線通信部110に、マイク170から出力される音声信号をサーバ装置50へ送信させる。このとき、制御部100は、無線通信部110に、第1変換指示信号もサーバ装置50へ送信させる。第1変換指示信号は、指示受付機器10から送信される音声を、メッセージ通信アプリケーションのメッセージに変換することをサーバ装置50に指示する信号である。指示受付機器10から送信される音声は、例えば、IMアプリケーションのメッセージに変換される。
 指示受付機器10から音声信号及び第1変換指示信号を受信したサーバ装置50では、ステップs82において、制御部51が、第1変換指示信号に応じて、受信された音声信号が示す音声をIMアプリケーションのメッセージに変換する。つまり、制御部51は、指示受付機器10からの音声信号が示す音声を文字に起こして、起こした文字をメッセージとする。その後、ステップs83において、制御部51は、通信部54に、生成したメッセージを対象相手機器10へ送信させる。
 対象相手機器10は、ステップs84において、サーバ装置50からのメッセージを受信すると、ステップs85において、受信したメッセージを表示部120に表示する。ステップs85では、対象相手機器10の制御部100は、記憶部103内のIMアプリケーションを起動する。そして、制御部100は、サーバ装置50からのメッセージを表示部120に表示させる。これにより、上述の図21のように、指示受付機器10に送信されるメッセージを作成するためのメッセージ作成画面760(言い換えれば、送受信メッセージ表示画面)に、サーバ装置50からのメッセージが受信メッセージ765として示される。例えば、指示受付機器10が送信する音声が、「こんにちは」という文字列を読み上げたときに人が発する音声である場合、受信メッセージ765として「こんにちは」という文字列がメッセージ作成画面760に示される。
 以後、指示受付機器10に音声が入力されると、ステップs81~s85が実行されて、指示受付機器10に入力された音声がメッセージに変換される。そして、その変換によって得られたメッセージが対象相手機器10で表示される。
 一方で、音声・メッセージ変換通信を行う対象相手機器10では、IMアプリケーションを実行する制御部100は、図27に示されるように、ステップs91において、無線通信部110に、対象相手ユーザが作成する指示受付機器10宛てのメッセージを、サーバ装置50へ送信させる。このとき、制御部100は、無線通信部110に、第2変換指示信号もサーバ装置50へ送信させる。第2変換指示信号は、対象相手機器10から送信されるメッセージを音声に変換することをサーバ装置50に指示する信号である。
 対象相手機器10からメッセージ及び第2変換指示信号を受信したサーバ装置50では、ステップs92において、制御部51が、第2変換指示信号に応じて、受信されたメッセージを音声に変換する。つまり、制御部51は、対象相手機器10からのメッセージを、仮にそれを人が読み上げたときに当該人が発する音声を示す音声信号に変換する。その後、ステップs93において、制御部51は、通信部54に、生成した音声信号を指示受付機器10へ送信させる。例えば、対象相手機器10が送信するメッセージが「ありがとう」という文字列である場合、ステップs92では、「ありがとう」という文字列を読み上げたときに人が発する音声を示す音声信号が生成される。
 指示受付機器10は、ステップs94において、サーバ装置50からの音声信号を受信すると、ステップs95において、受信した音声信号が示す音声を外部に出力する。ステップs95では、制御部100は、サーバ装置50からの音声信号を例えばレシーバ150に入力する。レシーバ150は、入力された音声信号を音声に変換して出力する。
 以後、対象相手機器10からメッセージが送信される場合には、ステップs91~s95が実行されて、対象相手機器10から送信されたメッセージが音声に変換される。そして、その変換によって得られた音声が、指示受付機器10から出力される。
 ステップs72において、指示受付機器10と対象相手機器10との間の音声・メッセージ変換通信が開始した後、電話アプリケーションを実行する指示受付機器10が、当該電話アプリケーションを実行しなくなると、指示受付機器10と対象相手機器10との間の音声・メッセージ変換通信は終了する。
 以上の説明から理解できるように、指示受付機器10のユーザは、指示受付機器10が対象相手機器10と電話通信を行う場合であっても、音声・メッセージ変換通信を行う場合であっても、指示受付機器10を同じように使用することができる。また、対象相手機器10のユーザも、対象相手機器10が指示受付機器10とメッセージ通信を行う場合であっても、音声・メッセージ変換通信を行う場合であっても、対象相手機器10を同じように使用することができる。
 このように、本例では、指示受付機器10の制御部100は、対象相手ユーザの移動状態が電車移動状態である場合、音声・メッセージ変換通信の実行を決定する。これにより、対象相手ユーザが電車に乗って移動している場合、対象相手機器10は、指示受付機器10からの電話発信を着信する替わりに、対象相手機器10からのメッセージを受信することができる。よって、対象相手ユーザの周囲に迷惑がかかる可能性を低減することができる。一方で、指示受付機器10にもともと電話通信を実行させたかった指示受付機器10のユーザは、指示受付機器10が電話通信を行う場合と同様にして指示受付機器10を使用することができる。つまり、指示受付機器10のユーザは、指示受付機器10に音声を入力し、指示受付機器10から出力される音声を聞くことによって、対象相手機器10のユーザとコミュニケーションを図ることができる。よって、電子機器10の利便性が向上する。
 なお、上述の第1~第3の例において、対象相手ユーザの移動状態が電車移動状態であることがステップs12で特定された場合には、図25と同様に、ステップs42、ステップs71及びステップs72が実行されてもよい。
 また上記の例では、指示受付機器10と対象相手機器10との間の音声・メッセージ変換通信は、サーバ装置50を介して行われていたが、サーバ装置50を介さずに行われてもよい。この場合、指示受付機器10の制御部100が、マイク170に入力される音声をメッセージに変換し、そのメッセージを指示受付機器10が対象相手機器10に送信してもよい。あるいは、対象相手機器10の制御部100が、指示受付機器10から送信される音声(言い換えれば音声信)をメッセージに変換し、そのメッセージを対象相手機器10が表示してもよい。また、対象相手機器10の制御部100は、指示受付機器10宛てのメッセージを音声に変換し、その音声を示す音声信号を対象相手機器10が指示受付機器10に送信してもよい。あるいは、指示受付機器10の制御部100は、対象相手機器10からのメッセージを音声に変換し、その音声を指示受付機器10が出力してもよい。
 <第6の例>
 本例に係るステップs4では、指示受付機器10の制御部100は、対象相手機器10との電話通信の発信中に、ステップs12で特定した対象相手ユーザの移動状態を、自装置の通知部に通知させる。この通知部としては、例えば表示部120が採用される。この場合、制御部100は、上述のステップs14(図10等を参照)の後の対象相手機器10との電話通信の発信中に、ステップs12で特定した対象相手ユーザの移動状態を示す情報790を表示部120に表示させる。また、制御部100は、上述のステップs13(図10等を参照)の後の対象相手機器10との電話通信の発信中に情報790を表示部120に表示させてもよい。また、制御部100は、上述のステップs22(図16を参照)の後の対象相手機器10との電話通信の発信中に情報790を表示部120に表示させてもよい。
 図28は情報790の表示例を示す図である。図28に示されるように、指示受付機器10では、対象相手機器10との電話通信の発信中に、発信中画面780が表示部120に表示される。発信中画面780は呼出中画面とも呼ばれる。発信中画面780には、情報781、画像782及び発信停止ボタン783が含まれる。情報781は、電話発信中であることを示す情報である。画像782は、記憶部103内のアドレス帳に含まれる、対象相手機器10に関する情報に含まれる画像である。発信停止ボタン783は、電話発信を停止するためのボタンである。指示受付機器10のユーザが発信停止ボタン783を例えばタップ操作すると、指示受付機器10は、対象相手機器10に対する電話発信を停止する。また、発信中画面780には、対象相手ユーザの移動状態を示す情報790が含まれる。図28の例では、ステップs12で特定された対象相手ユーザの移動状態が電車移動状態である場合の情報790が示されている。
 なお、電話発信中に、ステップs12で特定された対象相手ユーザの移動状態を通知する通知部は、表示部120以外であってもよい。例えば、通知部は、レシーバ150、スピーカ160あるいは振動部230であってもよい。また、表示部120、レシーバ150、スピーカ160及び振動部230の少なくとも2つが、電話発信中に、ステップs12で特定された対象相手ユーザの移動状態を指示受付機器10のユーザに通知してもよい。
 また、指示受付機器10が、電話発信中に、ステップs12で特定した対象相手ユーザの移動状態を通知部に通知させる場合には、上述の図10に示されるフローチャートにおいてステップs13が実行されなくてもよい。この場合、ステップs12において、対象相手ユーザの移動状態が特定されると、特定された移動状態にかかわらずステップs14が実行される。そして、ステップs14の後の対象相手機器10との電話通信の発信中に、ステップs12で特定された対象相手ユーザの移動状態が通知部から指示受付機器10のユーザに通知される。
 このように、本例では、指示受付機器10が、対象相手機器10との電話通信の発信中に、対象相手ユーザの移動状態を自装置ユーザに通知する。したがって、指示受付機器10のユーザは、指示受付機器10から通知された対象相手ユーザの移動状態に応じた処理を行うことができる。例えば、指示受付機器10のユーザは、対象相手ユーザの移動状態が電車移動状態である場合には、発信停止ボタン783を操作して、指示受付機器10に、対象相手機器10との電話通信の発信を停止させることができる。これにより、対象相手ユーザの周囲に迷惑がかかる可能性が低減する。その結果、電子機器10の利便性が向上する。
 <機器情報の他の使用例>
 上記の例では、電子機器10は、サーバ装置50から取得した機器情報を、発信指示に応じた処理で使用しているが、他の処理で使用してもよい。例えば、電子機器10は、アドレス帳、電話着信履歴あるいは電話発信履歴を表示する場合に、サーバ装置50から取得した機器情報を使用してもよい。図29はこの場合の電子機器10の動作の一例を示すフローチャートである。以後、説明対象の電子機器10を「対象電子機器10」と呼ぶことがある。
 図29に示されるように、対象電子機器10では、ステップs101において、タッチパネル130が、アドレス帳を表示することを指示する操作を検出する。次にステップs102において、対象電子機器10の制御部100は、記憶部103内のアドレス帳に登録されている、自装置以外の各電子機器10の機器情報をサーバ装置50に要求する第4要求信号を生成する。第4要求信号には、記憶部103内のアドレス帳に登録されている、対象電子機器10以外の各電子機器10に割り当てられた電話番号が含まれる。制御部100は、無線通信部110に、生成した第4要求信号をサーバ装置50へ送信させる。
 第4要求信号を受信したサーバ装置50では、制御部51が、第4要求信号に含まれる各電話番号に対応する機器情報を記憶部53から読み出す。そして、サーバ装置50は、読み出した機器情報を、対象電子機器10へ送信する。これにより、対象電子機器10はアドレス帳に登録されている、自装置以外の各電子機器10の機器情報を取得することができる。
 ステップs102の後、ステップs103において、対象電子機器10が、アドレス帳に登録されている、自装置以外の各電子機器10の機器情報を取得すると、ステップs104が実行される。ステップs104では、制御部100は、記憶部103内のアドレス帳を表示部120に表示させる。
 図30は、対象電子機器10がアドレス帳を表示する際に表示面12に表示される表示画面800の一例を示す図である。アドレス帳には、それに登録されている各電子機器10に関する情報が含まれる。以後、アドレス帳に登録されている電子機器10に関する情報を「アドレス登録情報」と呼ぶことがある。
 アドレス登録情報には、電子機器10のユーザの名前801、電子機器10に割り当てられた電話番号及び電子機器10に割り当てられた電子メールアドレス等が含まれる。図30の例では、アドレス登録情報のうち、電子機器10のユーザの名前801(以後、「ユーザ名801」と呼ぶ)だけが表示画面800に示されている。つまり、表示画面800には、アドレス帳に含まれる複数のユーザ名801の一覧が示されている。図30には、アドレス帳に含まれる複数のユーザ名801a~801eが示されている。
 表示画面800は、アドレス登録情報に含まれる複数のユーザ名801がそれぞれ示される複数の名前欄802を有している。図30には、アドレス帳に含まれる複数のユーザ名801a~801eがそれぞれ示される複数の名前欄802a~802eが示されている。対象電子機器10の制御部100は、あるユーザ名801を含む名前欄802が例えばタップ操作されると、当該あるユーザ名801を含むアドレス登録情報の詳細を表示部120に表示させる。例えば、制御部100は、アドレス登録情報に含まれる電話番号及び電子メールアドレスなどを表示部120に表示させる。対象電子機器10のユーザは、アドレス登録情報に含まれる電話番号を表示部120が表示している状態において、表示面12に対して所定の操作を行うことによって、当該電話番号が割り当てられた電子機器10との電話通信の発信指示を、対象電子機器10に入力することができる。
 対象電子機器10の制御部100は、ステップs104において、ある電子機器10のアドレス登録情報を表示部120に表示させる場合には、当該ある電子機器10のユーザの現在の移動状態を示す情報810も表示部120に表示させる。図30の例では、電子機器10のアドレス登録情報に含まれるユーザ名801とともに、当該電子機器10のユーザの現在の移動状態を示す情報810が表示されている。電子機器10のユーザの現在の移動状態を示す情報810は、例えば、当該電子機器10のユーザ名801が示される名前欄802に示される。制御部100は、ステップs103で取得された、電子機器10の機器情報に含まれる移動情報に基づいて、当該電子機器10のユーザの現在の移動状態を特定することができる。
 ここで、本例では、電子機器10の制御部100は、ユーザの移動状態が歩行状態であることを特定すると、ユーザの移動状態が歩行状態であることを示す移動情報を生成する。また、制御部100は、ユーザの移動状態が走行状態であることを特定すると、ユーザの移動状態が走行移動状態であることを示す移動情報を生成する。
 図30の例では、「青木」というユーザ名801aが示される名前欄802aには、ユーザ名801aを有するユーザの現在の移動状態が自動車運転状態であることを示す情報810aが示されている。また、「池田」というユーザ名801cが示される名前欄802cには、ユーザ名801cを有するユーザの現在の移動状態が歩行状態であることを示す情報810cが示されている。また、「伊藤」というユーザ名801dが示される名前欄802dには、ユーザ名801dを有するユーザの現在の移動状態が電車移動状態であることを示す情報810eが示されている。
 なお、図30の例では、ステップs103で取得された、「赤松」というユーザ名801bを有するユーザの電子機器10の機器情報には移動情報が含まれていないため、名前欄802bには情報810が示されていない。同様に、ステップs103で取得された、「石田」というユーザ名801dを有するユーザの電子機器10の機器情報には移動情報が含まれていないため、名前欄802dには情報810が示されていない。
 このように、対象電子機器10が、アドレス帳に含まれる、他の電子機器10に関する情報を表示する場合に、当該他の電子機器10のユーザの現在の移動状態を示す情報も表示することによって、対象電子機器10のユーザは、アドレス帳に含まれる、他の電子機器10に関する情報とともに、当該他の電子機器10のユーザの現在の移動状態を確認することができる。よって、電子機器10の利便性が向上する。
 なお、対象電子機器10は、通話履歴の一種である電話発信履歴に含まれる、他の電子機器10に関する情報を表示する場合に、当該他の電子機器10のユーザの現在の移動状態を示す情報も表示してもよい。以下に、この場合の対象電子機器10の動作について、図29を用いて説明する。
 図29のステップs101において、対象電子機器10では、タッチパネル130が、電話発信履歴を表示することを指示する操作を検出する。次に、上述のステップs102が実行される。ステップs102の後、ステップs103において、対象電子機器10が、アドレス帳に登録されている、自装置以外の各電子機器10の機器情報を取得すると、ステップs104において、制御部100は、電話発信履歴を表示部120に表示させる。
 図31は、対象電子機器10が電話発信履歴を表示する際に表示面12に表示される表示画面820の一例を示す図である。電話発信履歴には、過去の電話発信先の各電子機器10について、当該電子機器10への電話発信を示す発信情報821が含まれている。発信情報821には、例えば、発信先の電子機器10のユーザの名前822及び発信日時823が含まれる。図31には、複数の発信情報821a~821cが示されている。以後、電子機器10への電話発信を示す発信情報821に関して、その電子機器10を、当該発信情報821に対応する電子機器10と呼ぶことがある。
 発信情報821としては、第1の発信情報821と、第2の発信情報821とが存在する。第1の発信情報821は、対象電子機器10による他の電子機器10への電話発信に応じた着信に当該他の電子機器10が応答した場合の、当該電話発信を示す発信情報821である。第2の発信情報821は、対象電子機器10による他の電子機器10への電話発信に応じた着信に当該他の電子機器10が応答しなかった場合の、当該電話発信を示す発信情報821である。以後、第1の発信情報821を「応答済み発信情報821」と呼び、第2の発信情報821を「未応答発信情報821」と呼ぶことがある。
 発信情報821が未応答発信情報821である場合、当該発信情報821には、それが未応答発信情報821であることを示す情報824が含まれる。図31の例では、発信情報821bは、未応答発信情報821bであって、それには情報824が含まれる。発信情報821a及び821cは、応答済み発信情報821である。
 表示画面820は、複数の発信情報821がそれぞれ示される複数の情報欄825を有している。図31には、複数の発信情報821a~821cがそれぞれ示される複数の情報欄825a~825cが示されている。対象電子機器10のユーザは、情報欄825を例えばタップ操作することによって、当該情報欄825に含まれる発信情報821に対応する電子機器10との電話通信の発信指示を対象電子機器10に入力することができる。
 対象電子機器10の制御部100は、ステップs104において、電話発信履歴に含まれる発信情報821を表示部120に表示させる場合には、当該発信情報821に対応する電子機器10のユーザの現在の移動状態を示す情報830も表示部120に表示させる。図31に示されるように、電子機器10のユーザの現在の移動状態を示す情報830は、例えば、当該電子機器10への電話発信を示す発信情報821が示される情報欄825に示される。制御部100は、ステップs103で取得された、電子機器10の機器情報に含まれる移動情報に基づいて、当該電子機器10のユーザの現在の移動状態を特定することができる。
 図31の例では、発信情報821aが示される情報欄825aには、発信情報821aに対応する電子機器10のユーザの現在の移動状態が自動車運転状態であることを示す情報830aが示されている。なお、図31の例では、ステップs103で取得された、発信情報821bに対応する電子機器10の機器情報には移動情報が含まれていないため、情報欄825bには情報830が示されていない。同様に、ステップs103で取得された、発信情報821cに対応する電子機器10の機器情報には移動情報が含まれていないため、情報欄825cには情報830が示されていない。
 このように、対象電子機器10が、電話発信履歴(言い換えれば通話履歴)に含まれる、他の電子機器10に関する情報(つまり発信情報821)を表示する場合に、当該他の電子機器10のユーザの現在の移動状態を示す情報も表示することによって、対象電子機器10のユーザは、電話発信履歴に含まれる、他の電子機器10に関する情報とともに、当該他の電子機器10のユーザの現在の移動状態を確認することができる。よって、電子機器10の利便性が向上する。
 なお、対象電子機器10は、通話履歴の一種である電話着信履歴に含まれる、他の電子機器10に関する情報を表示する場合に、当該他の電子機器10のユーザの現在の移動状態を示す情報も表示してもよい。以下に、この場合の対象電子機器10の動作について、図29を用いて説明する。
 図29のステップs101において、対象電子機器10では、タッチパネル130が、電話着信履歴を表示することを指示する操作を検出する。次に、上述のステップs102が実行される。ステップs102の後、ステップs103において、対象電子機器10が、アドレス帳に登録されている、自装置以外の各電子機器10の機器情報を取得すると、ステップs104において、制御部100は、電話着信履歴を表示部120に表示させる。
 図32は、対象電子機器10が電話着信履歴を表示する際に表示面12に表示される表示画面840の一例を示す図である。電話着信履歴には、対象電子機器10が過去に電話着信した各電子機器10について、当該電子機器10からの電話着信を示す着信情報841が含まれている。着信情報841には、例えば、電話着信した電子機器10のユーザの名前842及び電話着信日時843が含まれる。図32には、複数の着信情報841a~841cが示されている。以後、電子機器10からの電話着信を示す着信情報841に関して、その電子機器10を、当該着信情報841に対応する電子機器10と呼ぶことがある。
 着信情報841としては、第1の着信情報841と第2の着信情報841とが存在する。第1の着信情報841は、対象電子機器10が他の電子機器10からの電話着信に応答した場合の、当該電話着信を示す着信情報841である。第2の着信情報841は、対象電子機器10が他の電子機器10からの電話着信に応答しなかった場合の、当該電話着信を示す情報である。第1の着信情報841を「応答済み着信情報841」と呼び、第2の着信情報841を「不在着信情報841」と呼ぶことがある。不在着信情報841は、未応答着信情報841であるとも言える。
 着信情報841が不在着信情報841である場合、当該着信情報841には、それが不在着信情報841であることを示す情報844が含まれる。図32の例では、着信情報841aは、不在着信情報841aであって、それには情報844が含まれる。着信情報841b及び841cは、応答済み着信情報841である。
 表示画面840は、複数の着信情報841がそれぞれ示される複数の情報欄845を有している。図32には、複数の着信情報841a~841cがそれぞれ示される複数の情報欄845a~845cが示されている。対象電子機器10のユーザは、情報欄845を例えばタップ操作することによって、当該情報欄845に含まれる着信情報841に対応する電子機器10との電話通信の発信指示を対象電子機器10に入力することができる。
 対象電子機器10の制御部100は、ステップs104において、電話着信履歴に含まれる着信情報841を表示部120に表示させる場合には、当該着信情報841に対応する電子機器10のユーザの現在の移動状態を示す情報850も表示部120に表示させる。図32に示されるように、電子機器10のユーザの現在の移動状態を示す情報850は、例えば、当該電子機器10からの電話着信を示す着信情報841が示される情報欄845に示される。制御部100は、ステップs103で取得された、電子機器10の機器情報に含まれる移動情報に基づいて、当該電子機器10のユーザの現在の移動状態を特定することができる。
 図32の例では、着信情報841cが示される情報欄845cには、着信情報841cに対応する電子機器10のユーザの現在の移動状態が走行状態であることを示す情報850cが示されている。なお、図32の例では、ステップs103で取得された、着信情報841aに対応する電子機器10の機器情報には移動情報が含まれていないため、情報欄845aには情報850が示されていない。同様に、ステップs103で取得された、着信情報841bに対応する電子機器10の機器情報には移動情報が含まれていないため、情報欄845bには情報850が示されていない。
 このように、対象電子機器10が、電話着信履歴(言い換えれば通話履歴)に含まれる、他の電子機器10に関する情報(つまり着信情報841)を表示する場合に、当該他の電子機器10のユーザの現在の移動状態を示す情報も表示することによって、対象電子機器10のユーザは、電話着信履歴に含まれる、他の電子機器10に関する情報とともに、当該他の電子機器10のユーザの現在の移動状態を確認することができる。よって、電子機器10の利便性が向上する。
 なお、対象電子機器10は、アドレス帳等とともに、他の電子機器10のユーザの現在の移動状態を示す情報を表示する場合には、当該他の電子機器10が対象電子機器10との電話通信の着信に応答するか否かを推定する推定処理を行ってもよい。そして、対象電子機器10は、電子機器10のユーザの現在の移動状態を示す情報とともに、推定処理の結果を示す推定結果情報860を表示してもよい。図33は、この場合の上述の表示画面800の一例を示す図である。
 推定結果情報860は、例えば、丸印あるいはバツ印で示される。丸印で示される、電子機器10についての推定結果情報860は、当該電子機器10が対象電子機器10との電話通信の着信に応答するであろうということを意味する。一方で、バツ印で示される、電子機器10についての推定結果情報860は、当該電子機器10が対象電子機器10との電話通信の着信に応答しないであろうということを意味する。
 ステップs104において、対象電子機器10の制御部100は、ステップs103で取得された電子機器10の機器情報に含まれる移動情報に基づいて、当該電子機器10が対象電子機器10との電話通信の着信に応答するか否かを推定する推定処理を行う。例えば、制御部100は、電子機器10の移動情報が歩行状態を示す場合、当該電子機器10は、対象電子機器10との電話通信の着信に応答するであろうと推定する。また、制御部100は、電子機器10の移動情報が走行状態を示す場合、当該電子機器10は、対象電子機器10との電話通信の着信に応答するであろうと推定する。一方で、制御部100は、電子機器10の移動情報が自転車状態を示す場合、当該電子機器10は、対象電子機器10との電話通信の着信に応答しないであろうと推定する。また、制御部100は、電子機器10の移動情報が電車移動状態を示す場合、当該電子機器10は、対象電子機器10との電話通信の着信に応答しないであろうと推定する。また、制御部100は、電子機器10の移動情報が自動車運転状態を示す場合、当該電子機器10は、対象電子機器10との電話通信の着信に応答しないであろうと推定する。また、制御部100は、電子機器10の移動情報が他の乗り物移動状態を示す場合、当該電子機器10は、対象電子機器10との電話通信の着信に応答しないであろうと推定する。制御部100は、ステップs104において、アドレス帳等と、電子機器10のユーザの現在の移動状態を示す情報と、当該電子機器10についての推定結果情報860とを表示部120に表示させる。
 図33の例では、ある電子機器10のユーザ名801aが示される名前欄802aには、当該ある電子機器10が対象電子機器10との電話通信の着信に応答しないであろうことを示す推定結果情報860aが示されている。また、ある電子機器10のユーザ名801cが示される名前欄802cには、当該ある電子機器10が対象電子機器10との電話通信の着信に応答するであろうことを示す推定結果情報860cが示されている。また、ある電子機器10のユーザ名801eが示される名前欄802eには、当該ある電子機器10が対象電子機器10との電話通信の着信に応答しないであろうことを示す推定結果情報860eが示されている。
 なお、上述の図31に示される表示画面820に推定結果情報860が示されてもよい。また、上述の図32に示される表示画面840に推定結果情報860が示されてもよい。
 このように、対象電子機器10が推定結果情報860を表示することによって、対象電子機器10のユーザは、他の電子機器10が、対象電子機器10との電話通信の着信に応答するであろうか否かを確認することができる。よって、電子機器10の利便性が向上する。
 なお、対象電子機器10は、上述の図29に示される一連の処理を実行する場合には、上述の図7において、ステップs2~s4の替わりにステップs14を実行してもよい。つまり、対象電子機器10は、入力される発信指示に応じて無条件に電話発信を行ってもよい。また、対象電子機器10は、図29に示される一連の処理を実行する場合には、上述の図9において、ステップs4の替わりにステップs14を実行してもよい。
 また、対象電子機器10は、自装置による相手機器10に対する電話発信に応じた着信に相手機器10が応答しなかった場合に電話発信履歴に含まれる、当該電話発信を示す発信情報821(つまり未応答発信情報821)を表示する場合には、上述の情報830の替わりに、相手機器10が当該着信に応答しなかったときの相手ユーザの移動状態を示す情報900を表示してもよい。図34は、情報900の表示例を示す図である。
 図34に示される例では、未応答発信情報821bを示す情報欄825bに、未応答発信情報821bに対応する電子機器10についての情報900bが示されている。情報900bは、未応答発信情報821bが示す発信に応じた着信に、未応答発信情報821bに対応する電子機器10が応答しなかったときの当該電子機器10のユーザの移動状態が電車移動状態であることを示している。
 このように、電子機器10が未応答発信情報821及び情報900を表示する場合には、例えば、上述のステップs14、ステップs13あるいはステップs22(図10,16等を参照)での電話発信に応じた着信に対象相手機器10が応答しなかった場合、指示受付機器10の制御部100は、ステップs12で特定した移動状態を、対象相手機器10が当該着信に応答しなかったときの対象相手ユーザの移動状態として使用する。
 例えば、図10に示されるフローチャートのステップs12において、対象相手ユーザの移動状態が電車移動状態であると特定された場合を考える。この場合、ステップs12の後のステップs14での電話発信に応じた着信に対象相手機器10が応答しなかった場合、制御部100は、対象相手機器10が当該着信に応答しなかったときの対象相手ユーザの移動状態が電車移動状態であると判定する。制御部100は、ステップs14での電話発信を示す発信情報821を表示部120に表示する場合には、図34の情報900bのような、対象相手ユーザの移動状態が電車移動状態であることを示す情報900を表示部120に表示させる。
 他の例として、図10に示されるフローチャートのステップs12において、対象相手ユーザの移動状態が自動車運転状態であると特定された場合を考える。この場合、ステップs12の後のステップs13での電話発信に応じた着信に対象相手機器10が応答しなかった場合、制御部100は、対象相手機器10が当該着信に応答しなかったときの対象相手ユーザの移動状態が自動車運転状態であると判定する。制御部100は、ステップs13での電話発信を示す発信情報821を表示部120に表示する場合には、対象相手ユーザの移動状態が自動車運転状態であることを示す情報900を表示部120に表示させる。
 他の例として、図16に示されるフローチャートのステップs12において、対象相手ユーザの移動状態が自転車移動状態であると特定された場合を考える。この場合、ステップs12の後のステップs22での電話発信に応じた着信に対象相手機器10が応答しなかった場合、制御部100は、対象相手機器10が当該着信に応答しなかったときの対象相手ユーザの移動状態が自転車移動状態であると判定する。制御部100は、ステップs22での電話発信を示す発信情報821を表示部120に表示する場合には、対象相手ユーザの移動状態が自転車移動状態であることを示す情報900を表示部120に表示させる。
 なお、対象電子機器10が、未応答発信情報821及び情報900を表示する場合には、上述の図10に示されるフローチャートにおいてステップs13が実行されなくてもよい。この場合、ステップs12において、対象相手ユーザの移動状態が特定されると、特定された移動状態にかかわらず、ステップs14が実行される。
 また、対象電子機器10は、未応答発信情報821及び情報900を表示する場合には、応答済み発信情報821を表示するときに情報830を表示してもよいし、表示しなくてもよい。
 このように、対象電子機器10が情報900を表示することによって、対象電子機器10のユーザは、対象電子機器10による相手機器10に対する電話発信に応じた着信に相手機器10が応答しなかったときの相手ユーザの移動状態を確認することができる。よって、電子機器10の利便性が向上する。
 対象電子機器10は、相手機器10からの電話発信に応じた着信に応答しなかった場合に電話着信履歴に含まれる、当該着信を示す着信情報841(つまり不在着信情報841)を表示する場合には、上述の情報850の替わりに、自装置が当該着信に応答しなかったときの自装置ユーザの移動状態を示す情報910を表示してもよい。図35は、情報910の表示例を示す図である。
 図35に示される例では、不在着信情報841aを示す情報欄845aに、不在着信情報841aが示す着信に対象電子機器10が応答しなかったときの対象電子機器10のユーザの移動状態を示す情報910aが示されている。情報910aは、不在着信情報841aが示す着信に対象電子機器10が応答しなかったときの対象電子機器10のユーザの移動状態が自転車移動状態であることを示している。
 このように、電子機器10が不在着信情報841及び情報910を表示する場合には、制御部100は、相手機器10からの電話発信に応じた着信に自装置が応答しなかったとき、上述のようにして、自装置での加速度検出結果等に基づいて自装置ユーザの移動状態を特定する。そして、制御部100は、特定した移動状態を、相手機器10からの電話発信に応じた着信に自装置が応答しなかったときの自装置ユーザの移動状態として使用する。
 なお、対象電子機器10が、不在着信情報841及び情報910を表示する場合には、上述の図7において、ステップs2~s4の替わりにステップs14を実行してもよいし、上述の図9において、ステップs4の替わりにステップs14を実行してもよい。
 また、対象電子機器10は、不在着信情報841及び情報910を表示する場合には、応答済み着信情報841を表示するときに情報850を表示してもよいし、表示しなくてもよい。
 このように、対象電子機器10が情報910を表示することによって、対象電子機器10のユーザは、相手機器10からの電話発信に応じた着信に対象電子機器10が応答しなかったときの当該ユーザの移動状態を確認することができる。よって、電子機器10の利便性が向上する。
 上記の様々な例では、電子機器10が、自装置ユーザの移動状態を特定しているが、サーバ装置50が電子機器10のユーザの移動状態を特定してもよい。この場合には、電子機器10は、自装置ユーザの移動状態を他の装置が特定するために必要な情報を含む機器情報をサーバ装置50に送信する。例えば、電子機器10は、加速度検出結果、位置取得部140で取得される位置情報及びエンジン動作履歴を含む機器情報をサーバ装置50に送信する。サーバ装置50では、制御部51が、電子機器10からの機器情報と、記憶部53内の地図情報とに基づいて、上述のようにして、当該電子機器10のユーザの移動状態を特定する。そして、制御部51は、特定した電子機器10のユーザの移動状態を示す移動情報を、当該電子機器10の機器情報に含めて記憶部53に記憶する。これにより、サーバ装置50の記憶部53内の、ある電子機器10の機器情報には、当該ある電子機器10のユーザの移動状態を示す移動情報が含まれる。
 また、電子機器10は、他の電子機器10のユーザの移動状態を特定してもよい。この場合には、電子機器10は、上記と同様に、自装置ユーザの移動状態を他の装置が特定するために必要な情報を含む機器情報をサーバ装置50に送信する。サーバ装置50は、電子機器10から受信した機器情報をそのまま記憶部53に記憶する。電子機器10は、サーバ装置50から、他の電子機器10の機器情報を取得すると、取得した機器情報と、記憶部103内の地図情報103bとに基づいて、当該他の電子機器10のユーザの移動状態を特定する。例えば、上述のステップs11、ステップs21あるいはステップs31等において、電子機器10の制御部100は、他の電子機器10の機器情報と、記憶部103内の地図情報103bとに基づいて、当該他の電子機器10のユーザの移動状態を特定する。
 以上のように、処理システム1は詳細に説明されたが、上記した説明は、全ての局面において例示であって、この開示がそれに限定されるものではない。また、上述した各種変形例は、相互に矛盾しない限り組み合わせて適用可能である。そして、例示されていない無数の変形例が、この開示の範囲から外れることなく想定され得るものと解される。
 1 処理システム
 10 電子機器
 100 制御部
 110 無線通信部
 120 表示部
 150 レシーバ
 160 スピーカ
 230 振動部

Claims (19)

  1.  第1ユーザによって操作される電子機器であって、
     相手装置に関する第1情報を取得する通信部と、
     前記第1情報に基づいて前記相手装置の第2ユーザの移動状態を特定する制御部と
    を備え、
     前記制御部は、前記相手装置との第1の電話通信についての前記第1ユーザからの発信指示に応じて、特定した前記移動状態に基づく処理を行う、電子機器。
  2.  請求項1に記載の電子機器であって、
     前記処理において、前記制御部は、特定した前記移動状態に応じて、前記相手装置での前記第1の電話通信の着信通知を制御する、電子機器。
  3.  請求項2に記載の電子機器であって、
     前記制御部は、特定した前記移動状態が、前記第2ユーザが乗り物に乗らずに自力で移動している第1移動状態、前記第2ユーザが自転車に乗って移動している第2移動状態あるいは前記第2ユーザが自動車を運転して移動している第3移動状態である場合、前記処理において、前記相手装置が前記第1の電話通信の着信音を出力しないように前記相手装置を制御する、電子機器。
  4.  請求項3に記載の電子機器であって、
     前記制御部は、特定した前記移動状態が、前記第1移動状態、前記第2移動状態あるいは前記第3移動状態である場合、前記処理において、前記相手装置が前記第1の電話通信の着信通知のための振動を行わないように前記相手装置を制御する、電子機器。
  5.  請求項3及び請求項4のいずれか一つに記載の電子機器であって、
     前記処理において、前記制御部は、前記電子機器による前記第1の電話通信の発信を前記相手装置が着信したとき、当該発信を前記電子機器が停止するように前記電子機器の動作を制御する、電子機器。
  6.  請求項5に記載の電子機器であって、
     前記処理において、前記制御部は、前記相手装置が、前記第1移動状態、前記第2移動状態あるいは前記第3移動状態が終了したと判定したとき、前記第1移動状態、前記第2移動状態あるいは前記第3移動状態が終了したことを前記電子機器に通知するように、前記相手装置を制御する、電子機器。
  7.  請求項1及び請求項2のいずれか一つに記載の電子機器であって、
     前記制御部は、特定した前記移動状態が、前記第2ユーザが乗り物に乗らずに自力で移動している状態、前記第2ユーザが自転車に乗って移動している状態あるいは前記第2ユーザが自動車を運転して移動している状態である場合、前記処理において、電話通信用のハンズフリー装置が前記相手装置による制御によって前記第1の電話通信の着信通知を行うように、前記相手装置を制御する、電子機器。
  8.  請求項1及び請求項2のいずれか一つに記載の電子機器であって、
     前記制御部は、特定した前記移動状態が、前記第2ユーザが自動車を運転して移動している状態である場合、前記処理において、前記自動車内に存在する、前記相手装置以外の電話通信可能な装置を特定し、特定した当該装置に対して前記電子機器が第2の電話通信の発信を行うように前記電子機器の動作を制御する、電子機器。
  9.  請求項1及び請求項2のいずれか一つに記載の電子機器であって、
     前記処理において、前記制御部は、前記第1の電話通信及びメッセージ通信のどちらを前記電子機器が行うかを、特定した前記移動状態に応じて決定する、電子機器。
  10.  請求項9に記載の電子機器であって、
     前記制御部は、特定した前記移動状態が、前記第2ユーザが電車に乗って移動している状態である場合、前記処理において、前記メッセージ通信の実行を決定し、前記メッセージ通信のためのアプリケーションを実行する、電子機器。
  11.  請求項10に記載の電子機器であって、
     前記制御部は、前記アプリケーションのメッセージ作成画面を前記電子機器が表示している場合に、前記第2ユーザが前記電車から降りたことを前記第1情報に基づいて特定したとき、前記電子機器が前記相手装置との第2の電話通信の発信を行うように前記電子機器の動作を制御する、電子機器。
  12.  請求項10に記載の電子機器であって、
     前記第1ユーザに対して通知を行う通知部を備え、
     前記制御部は、前記アプリケーションのメッセージ作成画面を前記電子機器が表示している場合に、前記第2ユーザが前記電車から降りたことを前記第1情報に基づいて特定したとき、前記電子機器が前記相手装置との第2の電話通信の発信を行うか否かを前記第1ユーザが選択することを前記通知部に通知させる、電子機器。
  13.  請求項1及び請求項2のいずれか一つに記載の電子機器であって、
     前記電子機器と前記相手装置との間では、前記電子機器に入力される前記第1ユーザの第1音声が第1メッセージに変換されて、当該第1メッセージが前記相手装置で表示され、前記相手装置が送信する第2メッセージが第2音声に変換されて、当該第2音声が前記電子機器から出力される音声・メッセージ変換通信が可能であって、
     前記制御部は、特定した前記移動状態が、前記第2ユーザが電車に乗って移動している状態である場合、前記処理において、前記音声・メッセージ変換通信の実行を決定する、電子機器。
  14.  請求項1乃至請求項13のいずれか一つに記載の電子機器であって、
     前記第1ユーザに対して通知を行う通知部を備え、
     前記制御部は、前記相手装置との電話通信の発信中に、特定した前記移動状態を前記通知部に通知させる、電子機器。
  15.  請求項1乃至請求項14のいずれか一つに記載の電子機器であって、
     表示部を備え、
     前記制御部は、アドレス帳あるいは通話履歴に含まれる、前記相手装置に関する第2情報とともに、現在の前記移動状態を示す第3情報を前記表示部に表示させる、電子機器。
  16.  請求項15に記載の電子機器であって、
     前記制御部は、
      前記移動状態に基づいて、前記相手装置が、前記電子機器との電話通信の着信に応答可能か否かを推定する推定処理を行い、
      前記第2及び第3情報とともに、前記推定処理の結果を示す第4情報を前記表示部に表示させる、電子機器。
  17.  請求項1乃至請求項14のいずれか一つに記載の電子機器であって、
     表示部を備え、
     前記制御部は、前記電子機器による、前記相手装置に対する電話通信の発信に応じた着信に前記相手装置が応答しなかった場合に通話履歴に含まれる当該発信を示す発信情報とともに、前記相手装置が当該着信に応答しなかったときの前記移動状態を示す第2情報を前記表示部に表示させる、電子機器。
  18.  請求項1乃至請求項17のいずれか一つに記載の電子機器が通信可能な前記相手装置である電子機器。
  19.  請求項1乃至請求項17のいずれか一つに記載の電子機器と、
     前記電子機器が通信可能な前記相手装置と
    を備える、処理システム。
PCT/JP2019/005357 2018-04-25 2019-02-14 電子機器及び処理システム WO2019207913A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/074,859 US11595519B2 (en) 2018-04-25 2020-10-20 Electronic apparatus and processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-084153 2018-04-25
JP2018084153A JP7059092B2 (ja) 2018-04-25 2018-04-25 電子機器及び処理システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/074,859 Continuation US11595519B2 (en) 2018-04-25 2020-10-20 Electronic apparatus and processing system

Publications (1)

Publication Number Publication Date
WO2019207913A1 true WO2019207913A1 (ja) 2019-10-31

Family

ID=68293839

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/005357 WO2019207913A1 (ja) 2018-04-25 2019-02-14 電子機器及び処理システム

Country Status (3)

Country Link
US (1) US11595519B2 (ja)
JP (1) JP7059092B2 (ja)
WO (1) WO2019207913A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11691565B2 (en) 2016-01-22 2023-07-04 Cambridge Mobile Telematics Inc. Systems and methods for sensor-based detection, alerting and modification of driving behaviors
US11072339B2 (en) * 2016-06-06 2021-07-27 Truemotion, Inc. Systems and methods for scoring driving trips

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07250132A (ja) * 1994-03-10 1995-09-26 Nec Corp アウェアネス制御装置
JP2001119749A (ja) * 1999-10-15 2001-04-27 Ntt Docomo Inc アウェアネス通信装置、アウェアネス通信システム及びサーバ
JP2005341476A (ja) * 2004-05-31 2005-12-08 Hitachi Software Eng Co Ltd 構内交換機の着信制御方法及び構内交換機並びに着信制御プログラム
JP2006211107A (ja) * 2005-01-26 2006-08-10 Nec Corp 通信端末およびプログラム
JP2009239586A (ja) * 2008-03-27 2009-10-15 Equos Research Co Ltd 移動体通信システム
US20130072172A1 (en) * 2011-09-21 2013-03-21 Samsung Electronics Co., Ltd. Method and apparatus for providing information about a call recipient at a user device
WO2013124944A1 (ja) * 2012-02-24 2013-08-29 日本電気株式会社 通信処理装置、通信処理方法、及びプログラム
US20130316746A1 (en) * 2012-05-27 2013-11-28 Qualcomm Incorporated Personal hub presence and response
JP2016042692A (ja) * 2014-08-14 2016-03-31 ハーマン インターナショナル インダストリーズ インコーポレイテッド ドライバステータスインジケータ
JP2018501747A (ja) * 2015-10-29 2018-01-18 小米科技有限責任公司Xiaomi Inc. 電話かけ方法、装置、プログラム及び記録媒体

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006174076A (ja) * 2004-12-15 2006-06-29 Orion Denki Kk 電話通信システム及びメール送受信システム
US8270933B2 (en) * 2005-09-26 2012-09-18 Zoomsafer, Inc. Safety features for portable electronic device
JP5109440B2 (ja) 2007-03-29 2012-12-26 サクサ株式会社 端末状態通知装置および方法、プログラム、呼制御サーバ
JP2008306558A (ja) * 2007-06-08 2008-12-18 Toshiba Corp 情報処理装置
JP4978638B2 (ja) * 2009-02-18 2012-07-18 株式会社デンソー ハンズフリー機能付き車載装置及び携帯電話機
US9615213B2 (en) * 2009-07-21 2017-04-04 Katasi Llc Method and system for controlling and modifying driving behaviors
US8666382B2 (en) * 2010-04-28 2014-03-04 Tango Networks, Inc. Controlling mobile device calls, text messages and data usage while operating a motor vehicle
US9723459B2 (en) * 2011-05-18 2017-08-01 Microsoft Technology Licensing, Llc Delayed and time-space bound notifications
US9730181B1 (en) * 2016-07-14 2017-08-08 Yoshinori Matsumoto Mobile terminal with call function or texting function, or a function as a game terminal, game program and game method executed by mobile terminal
US9925467B2 (en) * 2016-07-14 2018-03-27 Yoshinori Matsumoto Mobile terminal with call function or texting function, or a function as a game terminal, game program and game method executed by mobile terminal
US9979813B2 (en) * 2016-10-04 2018-05-22 Allstate Solutions Private Limited Mobile device communication access and hands-free device activation
US10368333B2 (en) * 2017-11-20 2019-07-30 Google Llc Dynamically adapting provision of notification output to reduce user distraction and/or mitigate usage of computational resources

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07250132A (ja) * 1994-03-10 1995-09-26 Nec Corp アウェアネス制御装置
JP2001119749A (ja) * 1999-10-15 2001-04-27 Ntt Docomo Inc アウェアネス通信装置、アウェアネス通信システム及びサーバ
JP2005341476A (ja) * 2004-05-31 2005-12-08 Hitachi Software Eng Co Ltd 構内交換機の着信制御方法及び構内交換機並びに着信制御プログラム
JP2006211107A (ja) * 2005-01-26 2006-08-10 Nec Corp 通信端末およびプログラム
JP2009239586A (ja) * 2008-03-27 2009-10-15 Equos Research Co Ltd 移動体通信システム
US20130072172A1 (en) * 2011-09-21 2013-03-21 Samsung Electronics Co., Ltd. Method and apparatus for providing information about a call recipient at a user device
WO2013124944A1 (ja) * 2012-02-24 2013-08-29 日本電気株式会社 通信処理装置、通信処理方法、及びプログラム
US20130316746A1 (en) * 2012-05-27 2013-11-28 Qualcomm Incorporated Personal hub presence and response
JP2016042692A (ja) * 2014-08-14 2016-03-31 ハーマン インターナショナル インダストリーズ インコーポレイテッド ドライバステータスインジケータ
JP2018501747A (ja) * 2015-10-29 2018-01-18 小米科技有限責任公司Xiaomi Inc. 電話かけ方法、装置、プログラム及び記録媒体

Also Published As

Publication number Publication date
US11595519B2 (en) 2023-02-28
JP7059092B2 (ja) 2022-04-25
JP2019193104A (ja) 2019-10-31
US20210037134A1 (en) 2021-02-04

Similar Documents

Publication Publication Date Title
EP3163524A1 (en) Method and device for calling taxi
JP4584084B2 (ja) 情報付加システム及び携帯通信端末
JP5187764B2 (ja) 通信端末装置及びプログラム
JP6433641B2 (ja) 情報表示装置および情報表示方法
JP2010081319A (ja) 携帯電子機器
US11283914B2 (en) Electronic apparatus for communicating with target apparatus based on information acquired from the target apparatus
JP5414008B2 (ja) 通信端末装置及びプログラム
EP2434733A1 (en) Navigation using a headset having an integrated sensor
CN105049628A (zh) 控制终端驾驶模式的方法和装置
JP2008085785A (ja) モバイル機器システムおよびモバイル機器
JP2017123598A (ja) システム、情報端末、情報通知プログラムおよび情報通知方法
US11595519B2 (en) Electronic apparatus and processing system
US20110205850A1 (en) System and method for managing calendar events using location information
JP2007163387A (ja) 携帯端末装置及びプログラム
JP2018501747A (ja) 電話かけ方法、装置、プログラム及び記録媒体
US12008989B2 (en) Electronic apparatus and processing system
US10645535B2 (en) Electronic apparatus, control device and computer-readable non-transitory recording medium for selectively transmitting information based on indoor/outdoor specification
US20210014637A1 (en) Electronic apparatus
JP6129349B2 (ja) 情報処理装置、情報端末および情報処理方法
JPWO2014162502A1 (ja) 携帯型誘導装置、制御方法、プログラム及び記録媒体
EP3528010A1 (en) Electronic device, control device, control program and operation method of electronic device
JP2006246113A (ja) 操作システムおよび被操作端末
JP2012168074A (ja) 電子機器、プログラム、近接支援方法及び近接支援システム
JP2008022112A (ja) 撮影装置
JP2012044450A (ja) 通信システム、通信端末、通信方法、通信プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19793785

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19793785

Country of ref document: EP

Kind code of ref document: A1